blogsetbr / README.md
tallesl's picture
Update README.md
900b8de verified
metadata
task_categories:
  - text-generation
language:
  - pt
license: apache-2.0
pretty_name: BlogSet-BR
size_categories:
  - 1M<n<10M

BlogSet-BR

Reprodução do dataset BlogSet-BR criado pela universidade PUCRS.

Dataset Original

O dataset original (sem modificações) encontra-se em blogsetbr-original.csv (7.477.853 registros).

Dataset Modificado

Uma cópia modificada do dataset pode ser encontrada em blogsetbr-modificado.csv (7.468.541 registros). Foi modificado:

  • Remoção de registros duplicados e com problemas de escape (9.312 registros removidos).
  • Adicionado um cabeçalho ao arquivo.

O seguinte cabeçalho foi adicionado:

post.id,blog.id,published,title,content,author.id,author.displayName,replies.totalItems,tags

Dataset de Exemplos

Um arquivo menor, contendo 30 mil registros aleatoriamente selecionados, pode ser encontrado em blogsetbr-exemplos.csv

Carregando os Dados em um Banco Postgres

No meu caso, carreguei os dados em um banco de dados Postgres para manipulação dos mesmos. Segue abaixo o que fiz (utilizando psql) para a carga.

Primeiramente, crie o banco de dados:

CREATE DATABASE blogsetbr;

Conectando ao banco de dados criado:

\c blogsetbr

Criando uma tabela baseada no cabeçalho do arquivo CSV:

CREATE TABLE posts (
  post_id TEXT PRIMARY KEY,
  blog_id TEXT,
  published TEXT,
  title TEXT,
  content TEXT,
  author_id TEXT,
  author_displayName TEXT,
  replies_totalItems TEXT,
  tags TEXT
);

Realizando a carga do arquivo para a tabela recém criada:

\copy posts FROM '~/Downloads/blogsetbr.csv' WITH DELIMITER ',' CSV HEADER;

Checando a quantidade de registros após a cópia:

SELECT COUNT(*) FROM posts;

Embeddings das Postagens

Também neste repositório encontra-se um dump de uma base Postgres em blogsetbr-dump (~40GB). O dump contém uma única tabela, baseada no schema da seção anterior com a adição da seguinte coluna:

ALTER TABLE posts ADD COLUMN embedding vector(1024); -- instale e habilite a extensão "pgvector" para que o tipo "vector" funcione

E o seguinte índice:

CREATE INDEX ON posts USING hnsw (embedding vector_cosine_ops); -- índice para distância cosseno

O dump contém todos os 7,4 milhões de registros (tanto seu texto quanto seu embedding).

Os embedding foram gerados com a biblioteca SentenceTransformers e o modelo mixedbread-ai/mxbai-embed-large-v1. Segue abaixo um exemplo de como gerar um embedding para um texto qualquer utilizando a mesma biblioteca e o mesmo modelo:

from sentence_transformers import SentenceTransformer
 
model = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')  # ocupa ~1GB de VRAM
embedding = model.encode('Olá mundo!')  # um array NumPy de 1024 valores float32

E você pode testar a busca por embedding em seu terminal utilizando o seguinte script:

#!/usr/bin/env python3

# pip install psycopg[binary] sentence-transformers

from signal import signal, SIGINT
from sys import stdin

from psycopg import connect
from psycopg.rows import dict_row
from sentence_transformers import SentenceTransformer

signal(SIGINT, lambda _, __: exit())  # evitando a mensagem "KeyboardInterrupt" em Ctrl+C

print('Conectando ao banco de dados...')
with connect(dbname='blogsetbr', row_factory=dict_row) as conexao:

    print(f'Carregando modelo de embedding, aguarde um instante...')
    modelo = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')

    while True:

        print()
        termo = input('Termo de busca: ')

        print('Gerando embedding do termo de busca...')
        np_embedding = modelo.encode(termo)  # numpy array
        embedding = np_embedding.tolist()

        print('Buscando por similaridade (distância do cosseno)...')
        with conexao.cursor(name='vector_search_cursor') as cursor:
            cursor.itersize = 1  # buscando um resultado por vez

            # "<=>" abaixo significa distância cosseno
            cursor.execute(
                'select title, content, embedding <=> %s::vector as distance from posts order by distance',
                (embedding,)
            )

            for registro in cursor:

                print()
                print(f'Distância: {registro["distance"]}')
                print(f'Título: {registro["title"]}')
                print('Conteúdo:')
                print(registro['content'])

                print()
                buscar_mais = input('Buscar próximo registro? [s/n] ')

                if buscar_mais.strip().lower() != 's':
                    break