alexkueck commited on
Commit
18792ca
·
verified ·
1 Parent(s): 59a0491

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -1
app.py CHANGED
@@ -491,6 +491,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
491
  print("OpenAI Anfrage.......................")
492
  llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature=temperature)#, top_p = top_p)
493
  #Prompt an history anhängen und einen Text daraus machen
 
494
  if (rag_option == "An"):
495
  history_text_und_prompt = generate_prompt_with_history(prompt, history)
496
  else:
@@ -514,10 +515,12 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
514
  #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
515
  if (rag_option == "An"):
516
  print("LLM aufrufen mit RAG: ...........")
 
 
517
  result = rag_chain(llm, history_text_und_prompt, db) #für hugchat noch kein rag möglich...
518
  #weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
519
  #result = rag_chain2(history_text_und_prompt, db, 5)
520
- print("result regchain")
521
  print(result)
522
  else:
523
  #splittet = False
 
491
  print("OpenAI Anfrage.......................")
492
  llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature=temperature)#, top_p = top_p)
493
  #Prompt an history anhängen und einen Text daraus machen
494
+ #wenn da Dokumenten Teile (RAG dazu kommen, wird das anders zusammengestellt, als ohne...)
495
  if (rag_option == "An"):
496
  history_text_und_prompt = generate_prompt_with_history(prompt, history)
497
  else:
 
515
  #zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
516
  if (rag_option == "An"):
517
  print("LLM aufrufen mit RAG: ...........")
518
+ print(history_text_und_prompt)
519
+ print("-------------------------------")
520
  result = rag_chain(llm, history_text_und_prompt, db) #für hugchat noch kein rag möglich...
521
  #weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
522
  #result = rag_chain2(history_text_und_prompt, db, 5)
523
+ print("result regchain.....................")
524
  print(result)
525
  else:
526
  #splittet = False