AFischer1985 commited on
Commit
e3f469f
·
verified ·
1 Parent(s): aeaa8d2

Update run.py

Browse files
Files changed (1) hide show
  1. run.py +2 -2
run.py CHANGED
@@ -177,12 +177,12 @@ def multimodalResponse(message,history,dropdown):
177
  seed=42,
178
  )
179
  system="Mit Blick auf das folgende Gespräch und den relevanten Kontext, antworte auf die aktuelle Frage des Nutzers."+\
180
- "Antworte ausschließlich auf Baisis der Informationen im Kontext.\n\nKontext:"+\
 
181
  #"Given the following conversation, relevant context, and a follow up question, "+\
182
  #"reply with an answer to the current question the user is asking. "+\
183
  #"Return only your response to the question given the above information "+\
184
  #"following the users instructions as needed.\n\nContext:"+\
185
- str(context)
186
  print(system)
187
  formatted_prompt = format_prompt(system+"\n"+query, history)
188
  stream = inferenceClient.text_generation(formatted_prompt, **generate_kwargs, stream=True, details=True, return_full_text=False)
 
177
  seed=42,
178
  )
179
  system="Mit Blick auf das folgende Gespräch und den relevanten Kontext, antworte auf die aktuelle Frage des Nutzers."+\
180
+ "Antworte ausschließlich auf Basis der Informationen im Kontext.\n\nKontext:"+\
181
+ str(context)
182
  #"Given the following conversation, relevant context, and a follow up question, "+\
183
  #"reply with an answer to the current question the user is asking. "+\
184
  #"Return only your response to the question given the above information "+\
185
  #"following the users instructions as needed.\n\nContext:"+\
 
186
  print(system)
187
  formatted_prompt = format_prompt(system+"\n"+query, history)
188
  stream = inferenceClient.text_generation(formatted_prompt, **generate_kwargs, stream=True, details=True, return_full_text=False)