Update app.py
Browse files
app.py
CHANGED
@@ -209,12 +209,18 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
|
|
209 |
try:
|
210 |
#oder an Hugging Face --------------------------
|
211 |
print("HF Anfrage.......................")
|
212 |
-
#
|
213 |
-
|
214 |
-
|
215 |
-
#
|
216 |
-
|
|
|
|
|
|
|
|
|
|
|
217 |
|
|
|
218 |
# Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
|
219 |
"""
|
220 |
llm = HuggingFaceEndpoint(
|
@@ -226,22 +232,16 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
|
|
226 |
top_p=top_p,
|
227 |
repetition_penalty=repetition_penalty
|
228 |
)
|
|
|
229 |
"""
|
230 |
|
231 |
-
|
232 |
-
#
|
233 |
-
# Verwenden Sie die InferenceApi von huggingface_hub
|
234 |
-
llm = InferenceApi(repo_id, token=hf_token)
|
235 |
-
|
236 |
-
|
237 |
-
#Prompt an history anhängen und einen Text daraus machen
|
238 |
-
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
239 |
|
240 |
-
#
|
241 |
-
|
242 |
-
|
243 |
-
|
244 |
-
result = rag_chain(API_URL, history_text_und_prompt, retriever)
|
245 |
|
246 |
except Exception as e:
|
247 |
raise gr.Error(e)
|
|
|
209 |
try:
|
210 |
#oder an Hugging Face --------------------------
|
211 |
print("HF Anfrage.......................")
|
212 |
+
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
213 |
+
print("LLM aufrufen mit RAG: .....................................................")
|
214 |
+
##############################################
|
215 |
+
#Verschiedene Alternativen als llm übergeben an die rag-chain
|
216 |
+
#############################################
|
217 |
+
#0. Alternative - repo ID
|
218 |
+
#Alternativ, wenn repro_id gegeben:
|
219 |
+
# Verwenden Sie die InferenceApi von huggingface_hub
|
220 |
+
#llm = InferenceApi(repo_id, token=hf_token)
|
221 |
+
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
222 |
|
223 |
+
#1.Alternative mit Inference API
|
224 |
# Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
|
225 |
"""
|
226 |
llm = HuggingFaceEndpoint(
|
|
|
232 |
top_p=top_p,
|
233 |
repetition_penalty=repetition_penalty
|
234 |
)
|
235 |
+
result = rag_chain(llm, history_text_und_prompt, retriever)
|
236 |
"""
|
237 |
|
238 |
+
#2. Alternative: mit API_URL
|
239 |
+
#result = rag_chain(API_URL, history_text_und_prompt, retriever)
|
|
|
|
|
|
|
|
|
|
|
|
|
240 |
|
241 |
+
#3.te Alternative für pipeline
|
242 |
+
# Erstelle eine Pipeline mit den gewünschten Parametern
|
243 |
+
llm = pipeline("text-generation", model=MODEL_NAME_HF, config={"temperature": 0.5, "max_length": 1024, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty})
|
244 |
+
result = rag_chain(llm, history_text_und_prompt, retriever)
|
|
|
245 |
|
246 |
except Exception as e:
|
247 |
raise gr.Error(e)
|