task_categories:
- text-generation
language:
- pt
license: apache-2.0
pretty_name: BlogSet-BR
size_categories:
- 1M<n<10M
BlogSet-BR
Reprodução do dataset BlogSet-BR criado pela universidade PUCRS.
Dataset Original
O dataset original (sem modificações) encontra-se em blogsetbr-original.csv (7.477.853 registros).
Dataset Modificado
Uma cópia modificada do dataset pode ser encontrada em blogsetbr-modificado.csv (7.468.541 registros). Foi modificado:
- Remoção de registros duplicados e com problemas de escape (9.312 registros removidos).
- Adicionado um cabeçalho ao arquivo.
O seguinte cabeçalho foi adicionado:
post.id,blog.id,published,title,content,author.id,author.displayName,replies.totalItems,tags
Dataset de Exemplos
Um arquivo menor, contendo 30 mil registros aleatoriamente selecionados, pode ser encontrado em blogsetbr-exemplos.csv
Carregando os Dados em um Banco Postgres
No meu caso, carreguei os dados em um banco de dados Postgres para manipulação dos mesmos. Segue abaixo o que fiz
(utilizando psql
) para a carga.
Primeiramente, crie o banco de dados:
CREATE DATABASE blogsetbr;
Conectando ao banco de dados criado:
\c blogsetbr
Criando uma tabela baseada no cabeçalho do arquivo CSV:
CREATE TABLE posts (
post_id TEXT PRIMARY KEY,
blog_id TEXT,
published TEXT,
title TEXT,
content TEXT,
author_id TEXT,
author_displayName TEXT,
replies_totalItems TEXT,
tags TEXT
);
Realizando a carga do arquivo para a tabela recém criada:
\copy posts FROM '~/Downloads/blogsetbr.csv' WITH DELIMITER ',' CSV HEADER;
Checando a quantidade de registros após a cópia:
SELECT COUNT(*) FROM posts;
Embeddings das Postagens
Também neste repositório encontra-se um dump de uma base Postgres em blogsetbr-dump (~40GB). O dump contém uma única tabela, baseada no schema da seção anterior com a adição da seguinte coluna:
ALTER TABLE posts ADD COLUMN embedding vector(1024); -- instale e habilite a extensão "pgvector" para que o tipo "vector" funcione
E o seguinte índice:
CREATE INDEX ON posts USING hnsw (embedding vector_cosine_ops); -- índice para distância cosseno
O dump contém todos os 7,4 milhões de registros (tanto seu texto quanto seu embedding).
Os embedding foram gerados com a biblioteca SentenceTransformers e o modelo
mixedbread-ai/mxbai-embed-large-v1
. Segue abaixo um exemplo de como gerar um embedding para um texto qualquer
utilizando a mesma biblioteca e o mesmo modelo:
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1') # ocupa ~1GB de VRAM
embedding = model.encode('Olá mundo!') # um array NumPy de 1024 valores float32
E você pode testar a busca por embedding em seu terminal utilizando o seguinte script:
#!/usr/bin/env python3
# pip install psycopg[binary] sentence-transformers
from signal import signal, SIGINT
from sys import stdin
from psycopg import connect
from psycopg.rows import dict_row
from sentence_transformers import SentenceTransformer
signal(SIGINT, lambda _, __: exit()) # evitando a mensagem "KeyboardInterrupt" em Ctrl+C
print('Conectando ao banco de dados...')
with connect(dbname='blogsetbr', row_factory=dict_row) as conexao:
print(f'Carregando modelo de embedding, aguarde um instante...')
modelo = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')
while True:
print()
termo = input('Termo de busca: ')
print('Gerando embedding do termo de busca...')
np_embedding = modelo.encode(termo) # numpy array
embedding = np_embedding.tolist()
print('Buscando por similaridade (distância do cosseno)...')
with conexao.cursor(name='vector_search_cursor') as cursor:
cursor.itersize = 1 # buscando um resultado por vez
# "<=>" abaixo significa distância cosseno
cursor.execute(
'select title, content, embedding <=> %s::vector as distance from posts order by distance',
(embedding,)
)
for registro in cursor:
print()
print(f'Distância: {registro["distance"]}')
print(f'Título: {registro["title"]}')
print('Conteúdo:')
print(registro['content'])
print()
buscar_mais = input('Buscar próximo registro? [s/n] ')
if buscar_mais.strip().lower() != 's':
break