Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -48,7 +48,7 @@ _ = load_dotenv(find_dotenv())
|
|
48 |
#globale Variablen
|
49 |
##############################################
|
50 |
#nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
|
51 |
-
splittet = False
|
52 |
#DB für Vektorstore
|
53 |
db = None
|
54 |
|
@@ -333,11 +333,10 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, rag_option
|
|
333 |
|
334 |
if (rag_option == "An"):
|
335 |
#muss nur einmal ausgeführt werden...
|
336 |
-
if
|
337 |
splits = document_loading_splitting()
|
338 |
document_storage_chroma(splits)
|
339 |
db = document_retrieval_chroma2()
|
340 |
-
splittet = True
|
341 |
#else: #unnötig, da wenn Vektorstor einmal für alle user eingerichtet, wer weiter besthen bleiben kann - die unterschiedlichen Propmt werden dann später je nach rag_option erzeugt
|
342 |
#db=None
|
343 |
#splittet = False #sonst würde es für alle User wieder ausgeschaltet - Alternative: gr.State(False) dazu anlegen
|
@@ -450,7 +449,7 @@ def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, db):
|
|
450 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
451 |
#mit oder ohne RAG möglich
|
452 |
def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
|
453 |
-
global splittet
|
454 |
#hugchat=False
|
455 |
suche_im_Netz="Antwort der KI ..."
|
456 |
print("Text pur..............................")
|
|
|
48 |
#globale Variablen
|
49 |
##############################################
|
50 |
#nur bei ersten Anfrage splitten der Dokumente - um die Vektordatenbank entsprechend zu füllen
|
51 |
+
#splittet = False
|
52 |
#DB für Vektorstore
|
53 |
db = None
|
54 |
|
|
|
333 |
|
334 |
if (rag_option == "An"):
|
335 |
#muss nur einmal ausgeführt werden...
|
336 |
+
if db == None:
|
337 |
splits = document_loading_splitting()
|
338 |
document_storage_chroma(splits)
|
339 |
db = document_retrieval_chroma2()
|
|
|
340 |
#else: #unnötig, da wenn Vektorstor einmal für alle user eingerichtet, wer weiter besthen bleiben kann - die unterschiedlichen Propmt werden dann später je nach rag_option erzeugt
|
341 |
#db=None
|
342 |
#splittet = False #sonst würde es für alle User wieder ausgeschaltet - Alternative: gr.State(False) dazu anlegen
|
|
|
449 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
450 |
#mit oder ohne RAG möglich
|
451 |
def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
|
452 |
+
#global splittet
|
453 |
#hugchat=False
|
454 |
suche_im_Netz="Antwort der KI ..."
|
455 |
print("Text pur..............................")
|