Update app.py
Browse files
app.py
CHANGED
@@ -21,10 +21,11 @@ os.environ["HUGGINGFACEHUB_API_TOKEN"] = os.getenv("HF_READ")
|
|
21 |
# Initialisierung des Sentence-BERT Modells für die Embeddings
|
22 |
embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
|
23 |
|
24 |
-
# Initialisierung
|
25 |
-
|
26 |
-
|
27 |
-
|
|
|
28 |
|
29 |
# Verbindung zur Chroma DB und Laden der Dokumente
|
30 |
chroma_db = Chroma(embedding=embedding_model, persist_directory = PATH_WORK + CHROMA_DIR)
|
@@ -66,9 +67,9 @@ def get_rag_response(question):
|
|
66 |
links = [doc.get('url', 'No URL available') for doc in docs]
|
67 |
|
68 |
# Generieren der Antwort
|
69 |
-
|
70 |
-
|
71 |
-
answer =
|
72 |
|
73 |
# Zusammenstellen der Ausgabe
|
74 |
response = {
|
@@ -79,6 +80,7 @@ def get_rag_response(question):
|
|
79 |
return response
|
80 |
|
81 |
|
|
|
82 |
|
83 |
|
84 |
# Funktion, die für den Chatbot genutzt wird
|
|
|
21 |
# Initialisierung des Sentence-BERT Modells für die Embeddings
|
22 |
embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
|
23 |
|
24 |
+
# Initialisierung des Q&A-Modells
|
25 |
+
qa_pipeline = pipeline("question-answering", model="distilbert-base-cased-distilled-squad", tokenizer="distilbert-base-cased-distilled-squad", token=hf_token)
|
26 |
+
|
27 |
+
# Erstellung eines HuggingFacePipeline LLM Modells
|
28 |
+
llm = HuggingFacePipeline(pipeline=qa_pipeline)
|
29 |
|
30 |
# Verbindung zur Chroma DB und Laden der Dokumente
|
31 |
chroma_db = Chroma(embedding=embedding_model, persist_directory = PATH_WORK + CHROMA_DIR)
|
|
|
67 |
links = [doc.get('url', 'No URL available') for doc in docs]
|
68 |
|
69 |
# Generieren der Antwort
|
70 |
+
context = " ".join(passages)
|
71 |
+
qa_input = {"question": question, "context": context}
|
72 |
+
answer = qa_pipeline(qa_input)['answer']
|
73 |
|
74 |
# Zusammenstellen der Ausgabe
|
75 |
response = {
|
|
|
80 |
return response
|
81 |
|
82 |
|
83 |
+
|
84 |
|
85 |
|
86 |
# Funktion, die für den Chatbot genutzt wird
|