Update utils.py
Browse files
utils.py
CHANGED
@@ -321,20 +321,18 @@ def rag_chain(llm, prompt, retriever):
|
|
321 |
if (len(relevant_docs)>0):
|
322 |
print("releant docs2......................")
|
323 |
print(relevant_docs)
|
324 |
-
|
325 |
-
|
326 |
-
|
327 |
-
|
328 |
-
|
329 |
-
else:
|
330 |
-
#Normale Abfrage, da keine relevanten Dokumente gefunden
|
331 |
-
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
332 |
-
result = llm_chain.run({"question": neu_prompt})
|
333 |
return result
|
334 |
|
335 |
|
336 |
|
337 |
|
|
|
|
|
338 |
###################################################
|
339 |
#Prompts mit History erzeugen für verschiednee Modelle
|
340 |
###################################################
|
|
|
321 |
if (len(relevant_docs)>0):
|
322 |
print("releant docs2......................")
|
323 |
print(relevant_docs)
|
324 |
+
llm_chain = LLMChain(llm = llm, prompt = RAG_CHAIN_PROMPT)
|
325 |
+
result = llm_chain.run({"context": relevant_docs, "question": neu_prompt})
|
326 |
+
else:
|
327 |
+
# keine relevanten Dokumente gefunden
|
328 |
+
result = "Keine relevanten Dokumente gefunden"
|
|
|
|
|
|
|
|
|
329 |
return result
|
330 |
|
331 |
|
332 |
|
333 |
|
334 |
+
|
335 |
+
|
336 |
###################################################
|
337 |
#Prompts mit History erzeugen für verschiednee Modelle
|
338 |
###################################################
|