Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -491,6 +491,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
491 |
print("OpenAI Anfrage.......................")
|
492 |
llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature=temperature)#, top_p = top_p)
|
493 |
#Prompt an history anhängen und einen Text daraus machen
|
|
|
494 |
if (rag_option == "An"):
|
495 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
496 |
else:
|
@@ -514,10 +515,12 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
|
|
514 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
515 |
if (rag_option == "An"):
|
516 |
print("LLM aufrufen mit RAG: ...........")
|
|
|
|
|
517 |
result = rag_chain(llm, history_text_und_prompt, db) #für hugchat noch kein rag möglich...
|
518 |
#weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
|
519 |
#result = rag_chain2(history_text_und_prompt, db, 5)
|
520 |
-
print("result regchain")
|
521 |
print(result)
|
522 |
else:
|
523 |
#splittet = False
|
|
|
491 |
print("OpenAI Anfrage.......................")
|
492 |
llm = ChatOpenAI(model_name = MODEL_NAME, openai_api_key = openai_api_key, temperature=temperature)#, top_p = top_p)
|
493 |
#Prompt an history anhängen und einen Text daraus machen
|
494 |
+
#wenn da Dokumenten Teile (RAG dazu kommen, wird das anders zusammengestellt, als ohne...)
|
495 |
if (rag_option == "An"):
|
496 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
497 |
else:
|
|
|
515 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
516 |
if (rag_option == "An"):
|
517 |
print("LLM aufrufen mit RAG: ...........")
|
518 |
+
print(history_text_und_prompt)
|
519 |
+
print("-------------------------------")
|
520 |
result = rag_chain(llm, history_text_und_prompt, db) #für hugchat noch kein rag möglich...
|
521 |
#weitere Möglichkeit für Rag-Chain - dann auch für HF Modelle möglich, da kein llm in Langchain übergeben werden muss...
|
522 |
#result = rag_chain2(history_text_und_prompt, db, 5)
|
523 |
+
print("result regchain.....................")
|
524 |
print(result)
|
525 |
else:
|
526 |
#splittet = False
|