File size: 4,823 Bytes
6a92897
 
 
 
 
 
 
 
 
 
 
608a474
 
 
 
 
 
ef48e35
608a474
 
 
 
c48d10a
 
608a474
ef48e35
608a474
 
 
 
 
 
 
 
 
 
ef48e35
608a474
 
 
 
 
 
 
 
 
2cd73c3
900b8de
608a474
 
 
 
2cd73c3
608a474
 
 
 
 
2cd73c3
c48d10a
 
 
 
 
 
 
 
 
 
608a474
 
 
 
 
2cd73c3
3e14f69
608a474
 
 
 
2cd73c3
c48d10a
 
 
 
 
 
 
 
2cd73c3
c48d10a
 
 
eb3709f
 
2cd73c3
eb3709f
 
 
c48d10a
 
 
 
 
 
 
 
 
 
 
2cd73c3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
045993d
2cd73c3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
01ac606
2cd73c3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6a92897
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
---
task_categories:
- text-generation
language:
- pt
license: apache-2.0
pretty_name: BlogSet-BR
size_categories:
- 1M<n<10M
---

# BlogSet-BR

Reprodução do dataset [BlogSet-BR criado pela universidade PUCRS](https://www.inf.pucrs.br/linatural/wordpress/recursos-e-ferramentas/blogset-br/).

## Dataset Original

O dataset original (sem modificações) encontra-se em [blogsetbr-original.csv](blogsetbr-original.csv) (7.477.853
registros).

## Dataset Modificado

Uma cópia modificada do dataset pode ser encontrada em [blogsetbr-modificado.csv](blogsetbr-modificado.csv) (7.468.541
registros). Foi modificado:

- Remoção de registros duplicados e com problemas de escape (9.312 registros removidos).
- Adicionado um cabeçalho ao arquivo.

O seguinte cabeçalho foi adicionado:

```
post.id,blog.id,published,title,content,author.id,author.displayName,replies.totalItems,tags
```

## Dataset de Exemplos

Um arquivo menor, contendo 30 mil registros aleatoriamente selecionados, pode ser encontrado em
[blogsetbr-exemplos.csv](blogsetbr-exemplos.csv)

## Carregando os Dados em um Banco Postgres

No meu caso, carreguei os dados em um banco de dados Postgres para manipulação dos mesmos. Segue abaixo o que fiz
(utilizando `psql`) para a carga.

Primeiramente, crie o banco de dados:

```sql
CREATE DATABASE blogsetbr;
```

Conectando ao banco de dados criado:

```sql
\c blogsetbr
```

Criando uma tabela baseada no cabeçalho do arquivo CSV:

```sql
CREATE TABLE posts (
  post_id TEXT PRIMARY KEY,
  blog_id TEXT,
  published TEXT,
  title TEXT,
  content TEXT,
  author_id TEXT,
  author_displayName TEXT,
  replies_totalItems TEXT,
  tags TEXT
);
```

Realizando a carga do arquivo para a tabela recém criada:

```sql
\copy posts FROM '~/Downloads/blogsetbr.csv' WITH DELIMITER ',' CSV HEADER;
```

Checando a quantidade de registros após a cópia:

```sql
SELECT COUNT(*) FROM posts;
```

## Embeddings das Postagens

Também neste repositório encontra-se um dump de uma base Postgres em [blogsetbr-dump](blogsetbr-dump) (~40GB). O dump
contém uma única tabela, baseada no schema da seção anterior com a adição da seguinte coluna:

```sql
ALTER TABLE posts ADD COLUMN embedding vector(1024); -- instale e habilite a extensão "pgvector" para que o tipo "vector" funcione
```

E o seguinte índice:

```sql
CREATE INDEX ON posts USING hnsw (embedding vector_cosine_ops); -- índice para distância cosseno
```

O dump contém todos os **7,4 milhões de registros (tanto seu texto quanto seu embedding)**.

Os embedding foram gerados com a biblioteca [SentenceTransformers](https://sbert.net) e o modelo
`mixedbread-ai/mxbai-embed-large-v1`. Segue abaixo um exemplo de como gerar um embedding para um texto qualquer
utilizando a mesma biblioteca e o mesmo modelo:

```py
from sentence_transformers import SentenceTransformer
 
model = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')  # ocupa ~1GB de VRAM
embedding = model.encode('Olá mundo!')  # um array NumPy de 1024 valores float32
```

E você pode testar a busca por embedding em seu terminal utilizando o seguinte script:

```py
#!/usr/bin/env python3

# pip install psycopg[binary] sentence-transformers

from signal import signal, SIGINT
from sys import stdin

from psycopg import connect
from psycopg.rows import dict_row
from sentence_transformers import SentenceTransformer

signal(SIGINT, lambda _, __: exit())  # evitando a mensagem "KeyboardInterrupt" em Ctrl+C

print('Conectando ao banco de dados...')
with connect(dbname='blogsetbr', row_factory=dict_row) as conexao:

    print(f'Carregando modelo de embedding, aguarde um instante...')
    modelo = SentenceTransformer('mixedbread-ai/mxbai-embed-large-v1')

    while True:

        print()
        termo = input('Termo de busca: ')

        print('Gerando embedding do termo de busca...')
        np_embedding = modelo.encode(termo)  # numpy array
        embedding = np_embedding.tolist()

        print('Buscando por similaridade (distância do cosseno)...')
        with conexao.cursor(name='vector_search_cursor') as cursor:
            cursor.itersize = 1  # buscando um resultado por vez

            # "<=>" abaixo significa distância cosseno
            cursor.execute(
                'select title, content, embedding <=> %s::vector as distance from posts order by distance',
                (embedding,)
            )

            for registro in cursor:

                print()
                print(f'Distância: {registro["distance"]}')
                print(f'Título: {registro["title"]}')
                print('Conteúdo:')
                print(registro['content'])

                print()
                buscar_mais = input('Buscar próximo registro? [s/n] ')

                if buscar_mais.strip().lower() != 's':
                    break
```