nicholasKluge
commited on
Commit
·
cabe7db
1
Parent(s):
c66a837
Update app.py
Browse files
app.py
CHANGED
@@ -120,7 +120,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
|
120 |
top_p = gr.Slider(minimum=0.1, maximum=1.0, value=0.30, step=0.05, interactive=True, label="Top-p", info="Controla a probabilidade cumulativa dos tokens gerados.")
|
121 |
temperature = gr.Slider(minimum=0.1, maximum=2.0, value=0.1, step=0.1, interactive=True, label="Temperatura", info="Controla a aleatoriedade dos tokens gerados.")
|
122 |
repetition_penalty = gr.Slider(minimum=1, maximum=2, value=1.1, step=0.1, interactive=True, label="Penalidade de Repetição", info="Valores mais altos auxiliam o modelo a evitar repetições na geração de texto.")
|
123 |
-
|
124 |
smaple_from = gr.Slider(minimum=2, maximum=10, value=2, step=1, interactive=True, label="Amostragem por Rejeição", info="Controla o número de gerações a partir das quais o modelo de recompensa irá selecionar.")
|
125 |
|
126 |
|
@@ -150,7 +150,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
|
150 |
"""
|
151 |
return gr.update(value=user_message, interactive=True), chat_history + [[user_message, None]]
|
152 |
|
153 |
-
def generate_response(user_msg, top_p, temperature, top_k,
|
154 |
"""
|
155 |
Chatbot's response generator.
|
156 |
"""
|
@@ -167,7 +167,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
|
167 |
renormalize_logits=True,
|
168 |
length_penalty=0.3,
|
169 |
top_k=top_k,
|
170 |
-
|
171 |
top_p=top_p,
|
172 |
temperature=temperature,
|
173 |
num_return_sequences=smaple_from)
|
@@ -248,7 +248,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
|
|
248 |
|
249 |
|
250 |
response = msg.submit(user, [msg, chatbot], [msg, chatbot], queue=False).then(
|
251 |
-
generate_response, [msg, top_p, temperature, top_k,
|
252 |
)
|
253 |
response.then(lambda: gr.update(interactive=True), None, [msg], queue=False)
|
254 |
msg.submit(lambda x: gr.update(value=''), None,[msg])
|
|
|
120 |
top_p = gr.Slider(minimum=0.1, maximum=1.0, value=0.30, step=0.05, interactive=True, label="Top-p", info="Controla a probabilidade cumulativa dos tokens gerados.")
|
121 |
temperature = gr.Slider(minimum=0.1, maximum=2.0, value=0.1, step=0.1, interactive=True, label="Temperatura", info="Controla a aleatoriedade dos tokens gerados.")
|
122 |
repetition_penalty = gr.Slider(minimum=1, maximum=2, value=1.1, step=0.1, interactive=True, label="Penalidade de Repetição", info="Valores mais altos auxiliam o modelo a evitar repetições na geração de texto.")
|
123 |
+
max_new_tokens = gr.Slider(minimum=10, maximum=500, value=200, step=10, interactive=True, label="Comprimento Máximo", info="Controla o número máximo de tokens a serem produzidos (ignorando o prompt).")
|
124 |
smaple_from = gr.Slider(minimum=2, maximum=10, value=2, step=1, interactive=True, label="Amostragem por Rejeição", info="Controla o número de gerações a partir das quais o modelo de recompensa irá selecionar.")
|
125 |
|
126 |
|
|
|
150 |
"""
|
151 |
return gr.update(value=user_message, interactive=True), chat_history + [[user_message, None]]
|
152 |
|
153 |
+
def generate_response(user_msg, top_p, temperature, top_k, max_new_tokens, smaple_from, repetition_penalty, safety, chat_history):
|
154 |
"""
|
155 |
Chatbot's response generator.
|
156 |
"""
|
|
|
167 |
renormalize_logits=True,
|
168 |
length_penalty=0.3,
|
169 |
top_k=top_k,
|
170 |
+
max_new_tokens=max_new_tokens,
|
171 |
top_p=top_p,
|
172 |
temperature=temperature,
|
173 |
num_return_sequences=smaple_from)
|
|
|
248 |
|
249 |
|
250 |
response = msg.submit(user, [msg, chatbot], [msg, chatbot], queue=False).then(
|
251 |
+
generate_response, [msg, top_p, temperature, top_k, max_new_tokens, smaple_from, repetition_penalty, safety, chatbot], chatbot
|
252 |
)
|
253 |
response.then(lambda: gr.update(interactive=True), None, [msg], queue=False)
|
254 |
msg.submit(lambda x: gr.update(value=''), None,[msg])
|