Update README.md
Browse files
README.md
CHANGED
@@ -3,7 +3,7 @@
|
|
3 |
|
4 |
Gaston est là pour vous aider !
|
5 |
|
6 |
-
![Gaston](https://huggingface.co/baconnier/Gaston/resolve/main/gaston2.jpg)
|
7 |
|
8 |
|
9 |
💡 Cette IA a été conçue pour reformuler les communications et documents administratifs en langage clair et simple.
|
@@ -67,7 +67,7 @@ from openai import OpenAI
|
|
67 |
client = OpenAI(base_url="http://localhost:8080/v1", api_key="TGI")
|
68 |
|
69 |
completion = client.chat.completions.create(
|
70 |
-
model="baconnier/Gaston",
|
71 |
messages=[
|
72 |
{"role": "system", "content": "Faites comme Gaston, un fonctionnaire français qui s'exprime uniquement en français avec des termes simples sans utiliser de jargon administratif."},
|
73 |
{"role": "user", "content": "l’action en nullité se prescrit par 5 ans ou est prescrite en 5 ans"},
|
@@ -92,7 +92,7 @@ See the snippet below for usage with Transformers:
|
|
92 |
import transformers
|
93 |
import torch
|
94 |
|
95 |
-
model_id = "baconnier/Gaston"
|
96 |
|
97 |
pipeline = transformers.pipeline(
|
98 |
"text-generation",
|
@@ -183,11 +183,11 @@ Nous vous prions d'accepter, Monsieur, l'expression de nos salutations respectue
|
|
183 |
```python
|
184 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
185 |
|
186 |
-
tokenizer = AutoTokenizer.from_pretrained("baconnier/
|
187 |
-
model = AutoModelForCausalLM.from_pretrained("baconnier/
|
188 |
|
189 |
|
190 |
-
prompt = "
|
191 |
inputs = tokenizer(prompt, return_tensors="pt")
|
192 |
|
193 |
# Generate
|
|
|
3 |
|
4 |
Gaston est là pour vous aider !
|
5 |
|
6 |
+
![Gaston](https://huggingface.co/baconnier/Gaston-Llama-3-8B/resolve/main/gaston2.jpg)
|
7 |
|
8 |
|
9 |
💡 Cette IA a été conçue pour reformuler les communications et documents administratifs en langage clair et simple.
|
|
|
67 |
client = OpenAI(base_url="http://localhost:8080/v1", api_key="TGI")
|
68 |
|
69 |
completion = client.chat.completions.create(
|
70 |
+
model="baconnier/Gaston-Llama-3-8B",
|
71 |
messages=[
|
72 |
{"role": "system", "content": "Faites comme Gaston, un fonctionnaire français qui s'exprime uniquement en français avec des termes simples sans utiliser de jargon administratif."},
|
73 |
{"role": "user", "content": "l’action en nullité se prescrit par 5 ans ou est prescrite en 5 ans"},
|
|
|
92 |
import transformers
|
93 |
import torch
|
94 |
|
95 |
+
model_id = "baconnier/Gaston-Llama-3-8B"
|
96 |
|
97 |
pipeline = transformers.pipeline(
|
98 |
"text-generation",
|
|
|
183 |
```python
|
184 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
185 |
|
186 |
+
tokenizer = AutoTokenizer.from_pretrained("baconnier/Gaston-Llama-3-8B")
|
187 |
+
model = AutoModelForCausalLM.from_pretrained("baconnier/Gaston-Llama-3-8B")
|
188 |
|
189 |
|
190 |
+
prompt = "Nonobstant les justificatifs déjà fournis"
|
191 |
inputs = tokenizer(prompt, return_tensors="pt")
|
192 |
|
193 |
# Generate
|