File size: 9,306 Bytes
b7bc873 2e8e349 b7bc873 d52137c b7bc873 2e8e349 b7bc873 8c498e8 b7bc873 2e8e349 8c498e8 d52137c 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 44e1fa0 8c498e8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 |
---
language:
- en
- es
tags:
- pytorch
- causal-lm
- pythia
- llama-cpp
- rp
- roleplay
- juegos de rol
- nsfw
license: apache-2.0
datasets:
- the_pile
- UnfilteredAI/NSFW-2
base_model: EleutherAI/pythia-1b
metrics:
- bertscore
pipeline_tag: text-generation
library_name: adapter-transformers
---
# Pythia 1b Unfiltered NSFW
📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
<center><a href="https://imgbb.com/"><img src="https://i.ibb.co/qBDxbB3/Py.gif" alt="Py" border="0"></a></center>
**✳️ CARACTERÍSTICAS PRINCIPALES**
**Capacidades de Roleplay:**
Este modelo se destaca en escenarios de interpretación de roles. Puede asumir personalidades, desarrollar tramas y mantener interacciones dinámicas, ideal para juegos narrativos y simulaciones.
**Pequeñito:**
Es 1 billon de parámetros en 500Mb.
**✴️ POSIBLES UTILIDADES**
**Narrativa y Escritura Creativa:**
Perfecto para construir universos ficticios, diseñar personajes complejos y desarrollar historias elaboradas.
**Apoyo en Investigación y Redacción Académica:**
Genera borradores, resúmenes y análisis para documentos académicos.
**Juegos de Rol e Interpretación Escénica:**
Ideal para personalizar experiencias de roleplay, desde simulaciones históricas hasta campañas de fantasía.
**Asistencia en Traducción y Localización:**
Traduce con precisión y adapta textos al contexto cultural del idioma objetivo.
**Simulación de Escenarios:**
Crea entornos hipotéticos o alternativos para entrenamiento o experimentación en diversos campos.
**❗ CONSIDERACIONES IMPORTANTES**
⚠️ Este modelo no tiene restricciones significativas en cuanto a los temas que puede abordar, lo que lo convierte en una herramienta sin censura apta para usuarios que buscan explorar ideas o narrativas fuera de los límites tradicionales. Sin embargo, su uso responsable recae en el usuario, por lo que no me hago cargo del mal uso que pueda darle.
📟 Blast Processing integrado. Es casi como DOOM, salvo tests de embarazo es ideal para correrlo en entornos de bajos recursos como celulares / smartphones, tablets o computadoras patatas siempre y cuando cuente, como mínimo, con 3Gb de RAM.
## Datos de inferencia
```bash
Context Size: A elección, cuanto mas mejor.
Max Output: A elección, es la cantidad de texto.
Temp: 0.1 | Rep. Pen: 1.1 | Top. P: 1
Top. K: 0 | Top. A: 0.96 | Typ: 0.6
TFS: 1 | Min-P: 0 | Pr. Pen: 0 | Smooth F: 0
Seed: -1 | Rp. Range: 1024 | Rp. Slope: 0.7
```
## Usarlo online desde el Google Colab de Koboldcpp
No hay mucho misterio, simplemente dirijase [AQUÍ](https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb#scrollTo=uJS9i_Dltv8Y), copie y pegue el link de este modelo en 'Models' y pulse sobre el simbolo 'Play'
No sea ansioso, espere que cargue y le dará un link donde koboldcpp estará corriendo. Si se pausa poner 'Play' de nuevo.
## Usarlo en Android con koboldcpp via Termux
🇬🇧 You can read the english version of my guide [HERE](https://www.reddit.com/r/KoboldAI/comments/14uxmsn/guide_how_install_koboldcpp_in_android_via_termux/)
1 - Instalar Termux (Descargarlo desde [AQUÍ](https://f-droid.org/repo/com.termux_1020.apk), la versión de PlayStore está desactualizada).
2 - Ejecute Termux, se le abrirá la consola de comandos.
3 - Instale las dependencias necesarias copiando y pegando los siguientes comandos. Si no hace esto, no funcionará:
```bash
apt-get update
apt-get update
pkg clang wget git cmake
pkg install python
```
4 - Escriba el comando:
```bash
$ termux-change-repo
```
5 - Seleccione *"Main Repository"*.
6 - Luego seleccione *"Mirror by BFSU"*.
7 - Seleccione *"Aceptar"*.
8 - Reinicie Termux.
10 - Descarga Koboldcpp con este comando:
```bash
wget https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.80.zip
```
**Nota:** *Es la actualización más reciente hasta la fecha. Con el tiempo aparecerán versiones más nuevas. Cuando esto suceda, vaya a la siguiente página:*
https://github.com/LostRuins/koboldcpp/releases
*...y seleccione la versión, copie el enlace del .zip y péguelo después del comando 'wget' como se detalla anteriormente.*
**Alternativa:** *Si a usted no le importa una posible corrupción de koboldcpp al actualizar con el comando 'git pull' que le haga borrar luego la carpeta junto con los modelos descargados debido a una mala actualización, pero garantizando descargar la ultima versión, puede simplemente instalarlo con el comando:*
```bash
git clone https://github.com/LostRuins/koboldcpp
```
11 - Si la descargó, descomprima la versión descargada con este comando:
```bash
unzip v1.80.zip
```
12 - Cambie el nombre de la carpeta con este comando:
```bash
mv koboldcpp-v1.80 koboldcpp
```
13 - Dirijase a la carpeta 'koboldcpp' con este comando:
```bash
cd koboldcpp
```
14 - Compile e instale Koboldcpp con este comando:
```bash
make
```
15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
```bash
wget https://huggingface.co/Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF/resolve/main/Pythia-1b-Unfiltered_NSFW.gguf
```
Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
```bash
mkdir Modelos
```
**Nota:** *Si desea descargar el modelo en la carpeta Koboldcpp, coloque primero el comando:*
```bash
cd koboldcpp
```
...incluso creo que Koboldcpp que trae su propia carpeta 'Modelos', podes descargarlo ahí tambien.
16 - Ejecute Koboldcpp junto con este modelo con el siguiente comando:
```bash
python koboldcpp.py /data/data/com.termux/files/home/modelos/Pythia-1b-Unfiltered_NSFW.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
```
o, en caso de que haya elegido poner el modelo en la carpeta Koboldcpp:
```bash
python koboldcpp.py Pythia-1b-Unfiltered_NSFW.gguf 5001 --usecpu --highpriority --smartcontext --flashattention --quantkv 2 --blasbatchsize 2048 --contextsize 4096
```
♿ **Verdadera inclusión:** Si sos un discapacitado sin brazos o con ELA podes descargarte un modelo Whisper [ACÁ](https://huggingface.co/koboldcpp/whisper/resolve/main/whisper-base.en-q5_1.bin?download=true) y agregarle al final de la linea de ejecución:
```bash
--whispermodel /data/data/com.termux/files/home/modelos/whisper-base.en-q5_1.bin
```
**Nota:** *Podés editar el archivo .bash_history y agregarle la linea de ejecución para que quede guardada, para editarla vas a tener que habilitar la visualización de archivos ocultos. Hecho esto, cada vez que se ejecute Termux pulsas la flecha arriba y aparecerá la linea de comando de ejecución.*
17 - Ejecutado el modelo y sin cerrar la consola de Termux pon en tu navegador:
http://localhost:8000
## (Extra) Koboldcpp + SillyTavern
El tutorial sobre como instalar SillyTavern en Android puede leerlo [AQUÍ](https://rentry.org/STAI-Termux)
**[Local]** ...y poner la IP de la dirección local de Koboldcpp (Ejemplo: http://localhost:5001). Esto si se ha ejecutado junto con koboldcpp.
Ingresar a la carpeta de SillyTavern en paralelo iniciando otra sesión en Termux y ejecutar el siguiente comando:
```bash
./start.sh --disableCsrf
```
**[OnLine]** ...o crea una cuenta en en la página Open AI / Horde y coloca la clave API. Intente tomar la clave API en los siguientes enlaces: [OpenAI](https://platform.openai.com/account/api-keys) o [Horde AI](https://horde.koboldai.net/register)
**Nota:** *Para actualizar SillyTavern simplemente ingrese a su carpeta y escriba el comando:*
```bash
git pull
```
## Mis bots para Koboldcpp / SillyTavern
Cuento con una buena cantidad de bots, la mayoría en castellano. Puede encontrarlos [AQUÍ](https://chub.ai/users/Novaciano).
## Usarlo con llama.cpp (Si tenés una PC decente)
Instale llama.cpp a través de brew (funciona en Mac y Linux)
```bash
brew install llama.cpp
```
Invoque el Servidor llama.cpp o la CLI.
**CLI:**
```bash
llama-cli --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -p "Argentina va a superar su crisis financiera cuando"
```
**SERVIDOR:**
```bash
llama-server --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW-GGUF.gguf -c 2048
```
**Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*
**Paso 1:** Clonar llama.cpp desde GitHub.
```
git clone https://github.com/ggerganov/llama.cpp
```
**Paso 2:** Vaya a la carpeta llama.cpp y constrúyalo con bandera `LLAMA_CURL=1` junto con otras banderas específicas del hardware (por ejemplo: LLAMA_CUDA=1 para GPUs Nvidia en Linux).
```
cd llama.cpp && LLAMA_CURL=1 make
```
**Paso 3:** Ejecutar la inferencia a través del binario principal.
```
./llama-cli --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -p "Argentina va a superar su crisis financiera cuando"
```
o también con
```
./llama-server --hf-repo Novaciano/Pythia-1b-Unfiltered_NSFW-GGUF --hf-file Pythia-1b-Unfiltered_NSFW.gguf -c 2048
``` |