nicholasKluge
commited on
Commit
·
a3d5d67
1
Parent(s):
f5fecda
Update app.py
Browse files
app.py
CHANGED
@@ -6,19 +6,28 @@ tokenizer = AutoTokenizer.from_pretrained('nicholasKluge/Aira-Instruct-PT-124M',
|
|
6 |
model = AutoModelForCausalLM.from_pretrained('nicholasKluge/Aira-Instruct-PT-124M',
|
7 |
use_auth_token="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")
|
8 |
|
9 |
-
|
10 |
-
|
11 |
|
12 |
with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
|
|
13 |
gr.Markdown("""<h1><center>🔥Aira-PT Demo 🤓🚀</h1></center>""")
|
14 |
-
|
15 |
-
|
16 |
-
|
17 |
-
|
18 |
-
|
19 |
-
|
20 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
21 |
clear = gr.Button("Limpar Conversa 🧹")
|
|
|
22 |
|
23 |
def generate_response(message, chat_history, top_k, top_p, temperature, max_length):
|
24 |
inputs = tokenizer(tokenizer.bos_token + message + tokenizer.eos_token, return_tensors="pt")
|
|
|
6 |
model = AutoModelForCausalLM.from_pretrained('nicholasKluge/Aira-Instruct-PT-124M',
|
7 |
use_auth_token="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")
|
8 |
|
9 |
+
disclaimer = """**`AVISO`:** Esta demonstração deve ser usada apenas para fins de pesquisa. O uso comercial é estritamente **proibido**. A saída do modelo não é censurada e os autores não endossam as opiniões no conteúdo gerado. **Use por sua própria conta e risco**."""
|
|
|
10 |
|
11 |
with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
12 |
+
|
13 |
gr.Markdown("""<h1><center>🔥Aira-PT Demo 🤓🚀</h1></center>""")
|
14 |
+
|
15 |
+
with gr.Row(scale=1, equal_height=True):
|
16 |
+
|
17 |
+
with gr.Column(scale=5):
|
18 |
+
chatbot = gr.Chatbot(label="Aira").style(height=300)
|
19 |
+
|
20 |
+
with gr.Column(scale=2):
|
21 |
+
|
22 |
+
with gr.Tab(label="Parâmetros ⚙️"):
|
23 |
+
top_k = gr.Slider( minimum=10, maximum=100, value=50, step=5, interactive=True, label="Top-k",)
|
24 |
+
top_p = gr.Slider( minimum=0.1, maximum=1.0, value=0.70, step=0.05, interactive=True, label="Top-p",)
|
25 |
+
temperature = gr.Slider( minimum=0.001, maximum=2.0, value=0.1, step=0.1, interactive=True, label="Temperatura",)
|
26 |
+
max_length = gr.Slider( minimum=10, maximum=500, value=100, step=10, interactive=True, label="Comprimento Máximo",)
|
27 |
+
|
28 |
+
msg = gr.Textbox(label="Faça uma pergunta para Aira", placeholder="Olá Aira, como vai você?")
|
29 |
clear = gr.Button("Limpar Conversa 🧹")
|
30 |
+
gr.Markdown(disclaimer)
|
31 |
|
32 |
def generate_response(message, chat_history, top_k, top_p, temperature, max_length):
|
33 |
inputs = tokenizer(tokenizer.bos_token + message + tokenizer.eos_token, return_tensors="pt")
|