alexkueck commited on
Commit
5afc810
·
verified ·
1 Parent(s): ae0bb48

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -7
app.py CHANGED
@@ -21,10 +21,11 @@ os.environ["HUGGINGFACEHUB_API_TOKEN"] = os.getenv("HF_READ")
21
  # Initialisierung des Sentence-BERT Modells für die Embeddings
22
  embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
23
 
24
- # Initialisierung von Tokenizer und RAG Modell mit Token
25
- tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq", token=hf_token)
26
- retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", token=hf_token, use_dummy_dataset=True)
27
- model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", token=hf_token)
 
28
 
29
  # Verbindung zur Chroma DB und Laden der Dokumente
30
  chroma_db = Chroma(embedding=embedding_model, persist_directory = PATH_WORK + CHROMA_DIR)
@@ -66,9 +67,9 @@ def get_rag_response(question):
66
  links = [doc.get('url', 'No URL available') for doc in docs]
67
 
68
  # Generieren der Antwort
69
- prompt_template = PromptTemplate(input_variables=["context", "question"], template="{context}\n\n{question}")
70
- prompt = prompt_template(context=" ".join(passages), question=question)
71
- answer = llm(prompt)
72
 
73
  # Zusammenstellen der Ausgabe
74
  response = {
@@ -79,6 +80,7 @@ def get_rag_response(question):
79
  return response
80
 
81
 
 
82
 
83
 
84
  # Funktion, die für den Chatbot genutzt wird
 
21
  # Initialisierung des Sentence-BERT Modells für die Embeddings
22
  embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
23
 
24
+ # Initialisierung des Q&A-Modells
25
+ qa_pipeline = pipeline("question-answering", model="distilbert-base-cased-distilled-squad", tokenizer="distilbert-base-cased-distilled-squad", token=hf_token)
26
+
27
+ # Erstellung eines HuggingFacePipeline LLM Modells
28
+ llm = HuggingFacePipeline(pipeline=qa_pipeline)
29
 
30
  # Verbindung zur Chroma DB und Laden der Dokumente
31
  chroma_db = Chroma(embedding=embedding_model, persist_directory = PATH_WORK + CHROMA_DIR)
 
67
  links = [doc.get('url', 'No URL available') for doc in docs]
68
 
69
  # Generieren der Antwort
70
+ context = " ".join(passages)
71
+ qa_input = {"question": question, "context": context}
72
+ answer = qa_pipeline(qa_input)['answer']
73
 
74
  # Zusammenstellen der Ausgabe
75
  response = {
 
80
  return response
81
 
82
 
83
+
84
 
85
 
86
  # Funktion, die für den Chatbot genutzt wird