File size: 4,823 Bytes
6a92897 608a474 ef48e35 608a474 c48d10a 608a474 ef48e35 608a474 ef48e35 608a474 2cd73c3 900b8de 608a474 2cd73c3 608a474 2cd73c3 c48d10a 608a474 2cd73c3 3e14f69 608a474 2cd73c3 c48d10a 2cd73c3 c48d10a eb3709f 2cd73c3 eb3709f c48d10a 2cd73c3 045993d 2cd73c3 01ac606 2cd73c3 6a92897 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 |
---
task_categories:
- text-generation
language:
- pt
license: apache-2.0
pretty_name: BlogSet-BR
size_categories:
- 1M<n<10M
---
# BlogSet-BR
Reprodução do dataset [BlogSet-BR criado pela universidade PUCRS](https://www.inf.pucrs.br/linatural/wordpress/recursos-e-ferramentas/blogset-br/).
## Dataset Original
O dataset original (sem modificações) encontra-se em [blogsetbr-original.csv](blogsetbr-original.csv) (7.477.853
registros).
## Dataset Modificado
Uma cópia modificada do dataset pode ser encontrada em [blogsetbr-modificado.csv](blogsetbr-modificado.csv) (7.468.541
registros). Foi modificado:
- Remoção de registros duplicados e com problemas de escape (9.312 registros removidos).
- Adicionado um cabeçalho ao arquivo.
O seguinte cabeçalho foi adicionado:
```
post.id,blog.id,published,title,content,author.id,author.displayName,replies.totalItems,tags
```
## Dataset de Exemplos
Um arquivo menor, contendo 30 mil registros aleatoriamente selecionados, pode ser encontrado em
[blogsetbr-exemplos.csv](blogsetbr-exemplos.csv)
## Carregando os Dados em um Banco Postgres
No meu caso, carreguei os dados em um banco de dados Postgres para manipulação dos mesmos. Segue abaixo o que fiz
(utilizando `psql`) para a carga.
Primeiramente, crie o banco de dados:
```sql
CREATE DATABASE blogsetbr;
```
Conectando ao banco de dados criado:
```sql
\c blogsetbr
```
Criando uma tabela baseada no cabeçalho do arquivo CSV:
```sql
CREATE TABLE posts (
post_id TEXT PRIMARY KEY,
blog_id TEXT,
published TEXT,
title TEXT,
content TEXT,
author_id TEXT,
author_displayName TEXT,
replies_totalItems TEXT,
tags TEXT
);
```
Realizando a carga do arquivo para a tabela recém criada:
```sql
\copy posts FROM '~/Downloads/blogsetbr.csv' WITH DELIMITER ',' CSV HEADER;
```
Checando a quantidade de registros após a cópia:
```sql
SELECT COUNT(*) FROM posts;
```
## Embeddings das Postagens
Também neste repositório encontra-se um dump de uma base Postgres em [blogsetbr-dump](blogsetbr-dump) (~40GB). O dump
contém uma única tabela, baseada no schema da seção anterior com a adição da seguinte coluna:
```sql
ALTER TABLE posts ADD COLUMN embedding vector(1024); -- instale e habilite a extensão "pgvector" para que o tipo "vector" funcione
```
E o seguinte índice:
```sql
CREATE INDEX ON posts USING hnsw (embedding vector_cosine_ops); -- índice para distância cosseno
```
O dump contém todos os **7,4 milhões de registros (tanto seu texto quanto seu embedding)**.
Os embedding foram gerados com a biblioteca [SentenceTransformers](https://sbert.net) e o modelo
`mixedbread-ai/mxbai-embed-large-v1`. Segue abaixo um exemplo de como gerar um embedding para um texto qualquer
utilizando a mesma biblioteca e o mesmo modelo:
```py
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1') # ocupa ~1GB de VRAM
embedding = model.encode('Olá mundo!') # um array NumPy de 1024 valores float32
```
E você pode testar a busca por embedding em seu terminal utilizando o seguinte script:
```py
#!/usr/bin/env python3
# pip install psycopg[binary] sentence-transformers
from signal import signal, SIGINT
from sys import stdin
from psycopg import connect
from psycopg.rows import dict_row
from sentence_transformers import SentenceTransformer
signal(SIGINT, lambda _, __: exit()) # evitando a mensagem "KeyboardInterrupt" em Ctrl+C
print('Conectando ao banco de dados...')
with connect(dbname='blogsetbr', row_factory=dict_row) as conexao:
print(f'Carregando modelo de embedding, aguarde um instante...')
modelo = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')
while True:
print()
termo = input('Termo de busca: ')
print('Gerando embedding do termo de busca...')
np_embedding = modelo.encode(termo) # numpy array
embedding = np_embedding.tolist()
print('Buscando por similaridade (distância do cosseno)...')
with conexao.cursor(name='vector_search_cursor') as cursor:
cursor.itersize = 1 # buscando um resultado por vez
# "<=>" abaixo significa distância cosseno
cursor.execute(
'select title, content, embedding <=> %s::vector as distance from posts order by distance',
(embedding,)
)
for registro in cursor:
print()
print(f'Distância: {registro["distance"]}')
print(f'Título: {registro["title"]}')
print('Conteúdo:')
print(registro['content'])
print()
buscar_mais = input('Buscar próximo registro? [s/n] ')
if buscar_mais.strip().lower() != 's':
break
``` |