Update app.py
Browse files
app.py
CHANGED
@@ -54,10 +54,16 @@ CHROMA_DIR = "/chroma/kkg"
|
|
54 |
CHROMA_PDF = './chroma/kkg/pdf'
|
55 |
CHROMA_WORD = './chroma/kkg/word'
|
56 |
CHROMA_EXCEL = './chroma/kkg/excel'
|
57 |
-
#HuggingFace Model name--------------------------------
|
58 |
-
MODEL_NAME_HF = 'all-MiniLM-L6-v2' #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
59 |
|
60 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
61 |
#repo_id = "meta-llama/Llama-2-13b-chat-hf"
|
62 |
repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT
|
63 |
#repo_id = "TheBloke/Yi-34B-Chat-GGUF"
|
@@ -75,8 +81,8 @@ repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT
|
|
75 |
#repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
76 |
#repo_id = "abacusai/Smaug-72B-v0.1"
|
77 |
|
78 |
-
|
79 |
-
#HF API - URL
|
80 |
API_URL = "https://api-inference.huggingface.co/models/Falconsai/text_summarization"
|
81 |
|
82 |
|
@@ -217,16 +223,17 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
|
|
217 |
print("HF Anfrage.......................")
|
218 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
219 |
print("LLM aufrufen mit RAG: .....................................................")
|
|
|
220 |
##############################################
|
221 |
#Verschiedene Alternativen als llm übergeben an die rag-chain
|
222 |
#############################################
|
223 |
#0. Alternative - repo ID
|
224 |
-
#
|
225 |
-
# Verwenden Sie die InferenceApi von huggingface_hub
|
226 |
#llm = InferenceApi(repo_id, token=hf_token)
|
227 |
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
228 |
|
229 |
-
|
|
|
230 |
# Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
|
231 |
"""
|
232 |
llm = HuggingFaceEndpoint(
|
@@ -240,15 +247,17 @@ def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0
|
|
240 |
)
|
241 |
result = rag_chain(llm, history_text_und_prompt, retriever)
|
242 |
"""
|
243 |
-
|
|
|
244 |
#2. Alternative: mit API_URL
|
245 |
-
|
246 |
|
|
|
247 |
#3.te Alternative für pipeline
|
248 |
# Erstelle eine Pipeline mit den gewünschten Parametern
|
249 |
#llm = pipeline("text-generation", model=MODEL_NAME_HF, config={"temperature": 0.5, "max_length": 1024, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}, trust_remote_code=True)
|
250 |
-
llm = pipeline("summarization", model=MODEL_NAME_HF, trust_remote_code=True)
|
251 |
-
result = rag_chain(llm, history_text_und_prompt, retriever)
|
252 |
|
253 |
except Exception as e:
|
254 |
raise gr.Error(e)
|
|
|
54 |
CHROMA_PDF = './chroma/kkg/pdf'
|
55 |
CHROMA_WORD = './chroma/kkg/word'
|
56 |
CHROMA_EXCEL = './chroma/kkg/excel'
|
|
|
|
|
57 |
|
58 |
+
###########################################
|
59 |
+
# Alternativen, um HF Modelle in der rAG Chain einzusetzen
|
60 |
+
###########################################
|
61 |
+
#######################################
|
62 |
+
#1. Alternative: HuggingFace Model name--------------------------------
|
63 |
+
MODEL_NAME_HF = "t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
64 |
+
|
65 |
+
############################################
|
66 |
+
#2. Alternative_ HuggingFace Reop ID--------------------------------
|
67 |
#repo_id = "meta-llama/Llama-2-13b-chat-hf"
|
68 |
repo_id = "HuggingFaceH4/zephyr-7b-alpha" #das Modell ist echt gut!!! Vom MIT
|
69 |
#repo_id = "TheBloke/Yi-34B-Chat-GGUF"
|
|
|
81 |
#repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
82 |
#repo_id = "abacusai/Smaug-72B-v0.1"
|
83 |
|
84 |
+
###########################################
|
85 |
+
#3. Alternative: HF API - URL
|
86 |
API_URL = "https://api-inference.huggingface.co/models/Falconsai/text_summarization"
|
87 |
|
88 |
|
|
|
223 |
print("HF Anfrage.......................")
|
224 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
225 |
print("LLM aufrufen mit RAG: .....................................................")
|
226 |
+
|
227 |
##############################################
|
228 |
#Verschiedene Alternativen als llm übergeben an die rag-chain
|
229 |
#############################################
|
230 |
#0. Alternative - repo ID
|
231 |
+
# Verwenden Sie die Inference Api von huggingface_hub
|
|
|
232 |
#llm = InferenceApi(repo_id, token=hf_token)
|
233 |
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
234 |
|
235 |
+
##############################################
|
236 |
+
#1.Alternative mit Inference API ung HF EndPoint
|
237 |
# Erstelle eine HuggingFaceEndPoints-Instanz mit den entsprechenden Endpunkt-Parametern
|
238 |
"""
|
239 |
llm = HuggingFaceEndpoint(
|
|
|
247 |
)
|
248 |
result = rag_chain(llm, history_text_und_prompt, retriever)
|
249 |
"""
|
250 |
+
|
251 |
+
#############################################
|
252 |
#2. Alternative: mit API_URL
|
253 |
+
result = rag_chain(API_URL, history_text_und_prompt, retriever)
|
254 |
|
255 |
+
#############################################
|
256 |
#3.te Alternative für pipeline
|
257 |
# Erstelle eine Pipeline mit den gewünschten Parametern
|
258 |
#llm = pipeline("text-generation", model=MODEL_NAME_HF, config={"temperature": 0.5, "max_length": 1024, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}, trust_remote_code=True)
|
259 |
+
#llm = pipeline("summarization", model=MODEL_NAME_HF, trust_remote_code=True)
|
260 |
+
#result = rag_chain(llm, history_text_und_prompt, retriever)
|
261 |
|
262 |
except Exception as e:
|
263 |
raise gr.Error(e)
|