Update utils.py
Browse files
utils.py
CHANGED
@@ -152,9 +152,14 @@ EMBEDDING_MODELL = "sentence-transformers/all-mpnet-base-v2"
|
|
152 |
#Modell und Tokenizer, um die Summary über die relevanten Texte zu machen
|
153 |
#mögliche Modelle: "HuggingFaceH4/zephyr-7b-alpha" #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
154 |
HF_MODELL = "microsoft/Phi-3-mini-4k-instruct"
|
|
|
|
|
|
|
|
|
|
|
155 |
modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
|
156 |
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
157 |
-
|
158 |
|
159 |
|
160 |
##################################################
|
|
|
152 |
#Modell und Tokenizer, um die Summary über die relevanten Texte zu machen
|
153 |
#mögliche Modelle: "HuggingFaceH4/zephyr-7b-alpha" #"t5-small" #"meta-llama/Meta-Llama-3-8B-Instruct" #"mistralai/Mistral-7B-Instruct-v0.3" #"microsoft/Phi-3-mini-4k-instruct" #"HuggingFaceH4/zephyr-7b-alpha"
|
154 |
HF_MODELL = "microsoft/Phi-3-mini-4k-instruct"
|
155 |
+
# Laden des Modells und Tokenizers
|
156 |
+
modell_rag = AutoModelForCausalLM.from_pretrained(HF_MODELL)
|
157 |
+
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
158 |
+
"""
|
159 |
+
HF_MODELL = "t5-small"
|
160 |
modell_rag = AutoModelForSeq2SeqLM.from_pretrained(HF_MODELL)
|
161 |
tokenizer_rag = AutoTokenizer.from_pretrained(HF_MODELL)
|
162 |
+
"""
|
163 |
|
164 |
|
165 |
##################################################
|