File size: 9,306 Bytes
b7bc873
 
 
2e8e349
b7bc873
 
 
 
 
d52137c
 
 
 
b7bc873
 
 
2e8e349
b7bc873
8c498e8
 
 
 
b7bc873
 
2e8e349
8c498e8
 
 
d52137c
8c498e8
 
 
 
44e1fa0
8c498e8
 
44e1fa0
 
8c498e8
 
 
 
 
44e1fa0
8c498e8
 
 
44e1fa0
8c498e8
 
 
44e1fa0
8c498e8
 
 
44e1fa0
8c498e8
 
 
44e1fa0
8c498e8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
---
language:
- en
- es
tags:
- pytorch
- causal-lm
- pythia
- llama-cpp
- rp
- roleplay
- juegos de rol
- nsfw
license: apache-2.0
datasets:
- the_pile
- UnfilteredAI/NSFW-2
base_model: EleutherAI/pythia-1b
metrics:
- bertscore
pipeline_tag: text-generation
library_name: adapter-transformers
---

# Pythia 1b Unfiltered NSFW

📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.

<center><a href="https://imgbb.com/"><img src="https://i.ibb.co/qBDxbB3/Py.gif" alt="Py" border="0"></a></center>

**✳️ CARACTERÍSTICAS PRINCIPALES**

**Capacidades de Roleplay:**

Este modelo se destaca en escenarios de interpretación de roles. Puede asumir personalidades, desarrollar tramas y mantener interacciones dinámicas, ideal para juegos narrativos y simulaciones.

**Pequeñito:**

Es 1 billon de parámetros en 500Mb.

**✴️ POSIBLES UTILIDADES**

**Narrativa y Escritura Creativa:**

Perfecto para construir universos ficticios, diseñar personajes complejos y desarrollar historias elaboradas.

**Apoyo en Investigación y Redacción Académica:**

Genera borradores, resúmenes y análisis para documentos académicos.

**Juegos de Rol e Interpretación Escénica:**

Ideal para personalizar experiencias de roleplay, desde simulaciones históricas hasta campañas de fantasía.

**Asistencia en Traducción y Localización:**

Traduce con precisión y adapta textos al contexto cultural del idioma objetivo.

**Simulación de Escenarios:**

Crea entornos hipotéticos o alternativos para entrenamiento o experimentación en diversos campos.

**❗ CONSIDERACIONES IMPORTANTES**

⚠️ Este modelo no tiene restricciones significativas en cuanto a los temas que puede abordar, lo que lo convierte en una herramienta sin censura apta para usuarios que buscan explorar ideas o narrativas fuera de los límites tradicionales. Sin embargo, su uso responsable recae en el usuario, por lo que no me hago cargo del mal uso que pueda darle. 

📟 Blast Processing integrado. Es casi como DOOM, salvo tests de embarazo es ideal para correrlo en entornos de bajos recursos como celulares / smartphones, tablets o computadoras patatas siempre y cuando cuente, como mínimo, con 3Gb de RAM.

## Datos de inferencia

```bash
Context Size: A elección, cuanto mas mejor.
Max Output: A elección, es la cantidad de texto.
Temp: 0.1 | Rep. Pen: 1.1 | Top. P: 1
Top. K: 0 | Top. A: 0.96 | Typ: 0.6
TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
Seed: -1 | Rp. Range: 1024 | Rp. Slope: 0.7
```
## Usarlo online desde el Google Colab de Koboldcpp
No hay mucho misterio, simplemente dirijase [AQUÍ](https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb#scrollTo=uJS9i_Dltv8Y), copie y pegue el link de este modelo en 'Models' y pulse sobre el simbolo 'Play'

No sea ansioso, espere que cargue y le dará un link donde koboldcpp estará corriendo. Si se pausa poner 'Play' de nuevo.

## Usarlo en Android con koboldcpp via Termux
🇬🇧 You can read the english version of my guide [HERE](https://www.reddit.com/r/KoboldAI/comments/14uxmsn/guide_how_install_koboldcpp_in_android_via_termux/)

1 - Instalar Termux (Descargarlo desde [AQUÍ](https://f-droid.org/repo/com.termux_1020.apk), la versión de PlayStore está desactualizada).

2 - Ejecute Termux, se le abrirá la consola de comandos.

3 - Instale las dependencias necesarias copiando y pegando los siguientes comandos. Si no hace esto, no funcionará:

```bash
apt-get update
apt-get update
pkg clang wget git cmake
pkg install python
```

4 - Escriba el comando: 

```bash
$ termux-change-repo
```

5 - Seleccione *"Main Repository"*.

6 - Luego seleccione *"Mirror by BFSU"*.

7 - Seleccione *"Aceptar"*.

8 - Reinicie Termux.

10 - Descarga Koboldcpp con este comando:

```bash
wget https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.80.zip
```

**Nota:** *Es la actualización más reciente hasta la fecha. Con el tiempo aparecerán versiones más nuevas. Cuando esto suceda, vaya a la siguiente página:*

https://github.com/LostRuins/koboldcpp/releases 


*...y seleccione la versión, copie el enlace del .zip y péguelo después del comando 'wget' como se detalla anteriormente.*

**Alternativa:** *Si a usted no le importa una posible corrupción de koboldcpp al actualizar con el comando 'git pull' que le haga borrar luego la carpeta junto con los modelos descargados debido a una mala actualización, pero garantizando descargar la ultima versión, puede simplemente instalarlo con el comando:*

```bash
git clone https://github.com/LostRuins/koboldcpp
```

11 - Si la descargó, descomprima la versión descargada con este comando:

```bash
unzip v1.80.zip
```

12 - Cambie el nombre de la carpeta con este comando:

```bash
mv koboldcpp-v1.80 koboldcpp
```

13 - Dirijase a la carpeta 'koboldcpp' con este comando:

```bash
cd koboldcpp
```

14 - Compile e instale Koboldcpp con este comando:

```bash
make
```

15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:

```bash
wget https://huggingface.co/Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF/resolve/main/Pythia-1b-Unfiltered_NSFW.gguf
```

Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:

```bash
mkdir Modelos
```

**Nota:** *Si desea descargar el modelo en la carpeta Koboldcpp, coloque primero el comando:*

```bash
cd koboldcpp
```

...incluso creo que Koboldcpp que trae su propia carpeta 'Modelos', podes descargarlo ahí tambien.

16 - Ejecute Koboldcpp junto con este modelo con el siguiente comando:

```bash
python koboldcpp.py /data/data/com.termux/files/home/modelos/Pythia-1b-Unfiltered_NSFW.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
```

o, en caso de que haya elegido poner el modelo en la carpeta Koboldcpp:

```bash
python koboldcpp.py Pythia-1b-Unfiltered_NSFW.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
```**Verdadera inclusión:** Si sos un discapacitado sin brazos o con ELA podes descargarte un modelo Whisper [ACÁ](https://huggingface.co/koboldcpp/whisper/resolve/main/whisper-base.en-q5_1.bin?download=true) y agregarle al final de la linea de ejecución:

```bash
--whispermodel /data/data/com.termux/files/home/modelos/whisper-base.en-q5_1.bin
```

**Nota:** *Podés editar el archivo .bash_history y agregarle la linea de ejecución para que quede guardada, para editarla vas a tener que habilitar la visualización de archivos ocultos. Hecho esto, cada vez que se ejecute Termux pulsas la flecha arriba y aparecerá la linea de comando de ejecución.*

17 - Ejecutado el modelo y sin cerrar la consola de Termux pon en tu navegador:

http://localhost:8000

## (Extra) Koboldcpp + SillyTavern
El tutorial sobre como instalar SillyTavern en Android puede leerlo [AQUÍ](https://rentry.org/STAI-Termux) 

**[Local]** ...y poner la IP de la dirección local de Koboldcpp (Ejemplo: http://localhost:5001). Esto si se ha ejecutado junto con koboldcpp.
Ingresar a la carpeta de SillyTavern en paralelo iniciando otra sesión en Termux y ejecutar el siguiente comando:

```bash
./start.sh --disableCsrf
```

**[OnLine]** ...o crea una cuenta en en la página Open AI / Horde y coloca la clave API. Intente tomar la clave API en los siguientes enlaces: [OpenAI](https://platform.openai.com/account/api-keys) o [Horde AI](https://horde.koboldai.net/register) 


**Nota:** *Para actualizar SillyTavern simplemente ingrese a su carpeta y escriba el comando:*

```bash
git pull

```

## Mis bots para Koboldcpp / SillyTavern
Cuento con una buena cantidad de bots, la mayoría en castellano. Puede encontrarlos [AQUÍ](https://chub.ai/users/Novaciano).

## Usarlo con llama.cpp (Si tenés una PC decente)
Instale llama.cpp a través de brew (funciona en Mac y Linux)

```bash
brew install llama.cpp
```

Invoque el Servidor llama.cpp o la CLI.

**CLI:**

```bash
llama-cli --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -p "Argentina va a superar su crisis financiera cuando"
```

**SERVIDOR:**

```bash
llama-server --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW-GGUF.gguf -c 2048
```

**Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*

**Paso 1:** Clonar llama.cpp desde GitHub.

```
git clone https://github.com/ggerganov/llama.cpp
```

**Paso 2:** Vaya a la carpeta llama.cpp y constrúyalo con bandera `LLAMA_CURL=1` junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).

```
cd llama.cpp && LLAMA_CURL=1 make
```

**Paso 3:** Ejecutar la inferencia a través del binario principal.

```
./llama-cli --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -p "Argentina va a superar su crisis financiera cuando"
```

o también con

```
./llama-server --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -c 2048
```