Update utils.py
Browse files
utils.py
CHANGED
@@ -425,7 +425,7 @@ def rag_chain(llm, prompt, retriever):
|
|
425 |
#RAG_CHAIN_PROMPT = PromptTemplate(template="Context: {context}\n\nQuestion: {question}\n\nAnswer:")
|
426 |
|
427 |
# Inahlte Abrufen der relevanten Dokumente
|
428 |
-
doc_contents = [doc["
|
429 |
|
430 |
#Berechne die Ähnlichkeiten und finde das relevanteste Dokument
|
431 |
question_embedding = embedder_modell.encode(prompt, convert_to_tensor=True)
|
@@ -437,7 +437,7 @@ def rag_chain(llm, prompt, retriever):
|
|
437 |
most_relevant_docs = [extracted_docs[i] for i in most_relevant_doc_indices]
|
438 |
|
439 |
#Kombiniere die Inhalte aller relevanten Dokumente
|
440 |
-
combined_content = " ".join([doc["
|
441 |
|
442 |
#Formuliere die Eingabe für das Generierungsmodell
|
443 |
input_text = f"frage: {prompt} kontext: {combined_content}"
|
|
|
425 |
#RAG_CHAIN_PROMPT = PromptTemplate(template="Context: {context}\n\nQuestion: {question}\n\nAnswer:")
|
426 |
|
427 |
# Inahlte Abrufen der relevanten Dokumente
|
428 |
+
doc_contents = [doc["content"] for doc in extracted_docs]
|
429 |
|
430 |
#Berechne die Ähnlichkeiten und finde das relevanteste Dokument
|
431 |
question_embedding = embedder_modell.encode(prompt, convert_to_tensor=True)
|
|
|
437 |
most_relevant_docs = [extracted_docs[i] for i in most_relevant_doc_indices]
|
438 |
|
439 |
#Kombiniere die Inhalte aller relevanten Dokumente
|
440 |
+
combined_content = " ".join([doc["content"] for doc in most_relevant_docs])
|
441 |
|
442 |
#Formuliere die Eingabe für das Generierungsmodell
|
443 |
input_text = f"frage: {prompt} kontext: {combined_content}"
|