baconnier commited on
Commit
28ace3a
·
verified ·
1 Parent(s): 4acd853

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -3,7 +3,7 @@
3
 
4
  Gaston est là pour vous aider !
5
 
6
- ![Gaston](https://huggingface.co/baconnier/Gaston/resolve/main/gaston2.jpg)
7
 
8
 
9
  💡 Cette IA a été conçue pour reformuler les communications et documents administratifs en langage clair et simple.
@@ -67,7 +67,7 @@ from openai import OpenAI
67
  client = OpenAI(base_url="http://localhost:8080/v1", api_key="TGI")
68
 
69
  completion = client.chat.completions.create(
70
- model="baconnier/Gaston",
71
  messages=[
72
  {"role": "system", "content": "Faites comme Gaston, un fonctionnaire français qui s'exprime uniquement en français avec des termes simples sans utiliser de jargon administratif."},
73
  {"role": "user", "content": "l’action en nullité se prescrit par 5 ans ou est prescrite en 5 ans"},
@@ -92,7 +92,7 @@ See the snippet below for usage with Transformers:
92
  import transformers
93
  import torch
94
 
95
- model_id = "baconnier/Gaston"
96
 
97
  pipeline = transformers.pipeline(
98
  "text-generation",
@@ -183,11 +183,11 @@ Nous vous prions d'accepter, Monsieur, l'expression de nos salutations respectue
183
  ```python
184
  from transformers import AutoTokenizer, AutoModelForCausalLM
185
 
186
- tokenizer = AutoTokenizer.from_pretrained("baconnier/finance_dolphin_orpo_llama3_8B_r64_51K")
187
- model = AutoModelForCausalLM.from_pretrained("baconnier/finance_dolphin_orpo_llama3_8B_r64_51K")
188
 
189
 
190
- prompt = "l’action en nullité se prescrit par 5 ans ou est prescrite en 5 ans"
191
  inputs = tokenizer(prompt, return_tensors="pt")
192
 
193
  # Generate
 
3
 
4
  Gaston est là pour vous aider !
5
 
6
+ ![Gaston](https://huggingface.co/baconnier/Gaston-Llama-3-8B/resolve/main/gaston2.jpg)
7
 
8
 
9
  💡 Cette IA a été conçue pour reformuler les communications et documents administratifs en langage clair et simple.
 
67
  client = OpenAI(base_url="http://localhost:8080/v1", api_key="TGI")
68
 
69
  completion = client.chat.completions.create(
70
+ model="baconnier/Gaston-Llama-3-8B",
71
  messages=[
72
  {"role": "system", "content": "Faites comme Gaston, un fonctionnaire français qui s'exprime uniquement en français avec des termes simples sans utiliser de jargon administratif."},
73
  {"role": "user", "content": "l’action en nullité se prescrit par 5 ans ou est prescrite en 5 ans"},
 
92
  import transformers
93
  import torch
94
 
95
+ model_id = "baconnier/Gaston-Llama-3-8B"
96
 
97
  pipeline = transformers.pipeline(
98
  "text-generation",
 
183
  ```python
184
  from transformers import AutoTokenizer, AutoModelForCausalLM
185
 
186
+ tokenizer = AutoTokenizer.from_pretrained("baconnier/Gaston-Llama-3-8B")
187
+ model = AutoModelForCausalLM.from_pretrained("baconnier/Gaston-Llama-3-8B")
188
 
189
 
190
+ prompt = "Nonobstant les justificatifs déjà fournis"
191
  inputs = tokenizer(prompt, return_tensors="pt")
192
 
193
  # Generate