Update main.py
Browse files
main.py
CHANGED
@@ -2,7 +2,6 @@ import json
|
|
2 |
import os
|
3 |
import time
|
4 |
from pathlib import Path
|
5 |
-
|
6 |
import chainlit as cl
|
7 |
from azure.ai.inference import ChatCompletionsClient
|
8 |
from azure.ai.inference.models import SystemMessage, UserMessage
|
@@ -10,6 +9,7 @@ from azure.core.credentials import AzureKeyCredential
|
|
10 |
|
11 |
os.environ["GITHUB_TOKEN"] = os.environ["GITHUB_TOKEN"]
|
12 |
|
|
|
13 |
def Chargement_des_datas(profile):
|
14 |
if profile == "Toutes les formations":
|
15 |
file_path='./public/content-MIPI-MITIC.json'
|
@@ -23,21 +23,36 @@ def Chargement_des_datas(profile):
|
|
23 |
file_path='./public/content-Master-MITIC.json'
|
24 |
|
25 |
return json.loads(Path(file_path).read_text())
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
26 |
|
|
|
27 |
def Connexion_Mistral():
|
28 |
return ChatCompletionsClient(
|
29 |
endpoint="https://models.inference.ai.azure.com",
|
30 |
credential=AzureKeyCredential(os.environ["GITHUB_TOKEN"]),
|
31 |
)
|
32 |
-
|
33 |
-
@cl.
|
34 |
-
|
35 |
-
|
36 |
-
msg = cl.Message(author="COPILOT",content="")
|
37 |
-
|
38 |
-
data = cl.user_session.get("data")
|
39 |
-
client = cl.user_session.get("client")
|
40 |
-
response = client.complete(
|
41 |
stream=True,
|
42 |
messages=[
|
43 |
SystemMessage(content="Tu es un spécialiste de l'enseignement supérieur, des formations et de la pédagogie. Tu es en capacité d'analyser en profondeur les séances pédagogiques et de les mettre en adéquation avec les théories de la recherche en éducation. Répondez à la question seulement et exclusivement à partir du contexte et des définitions ci-contre, de la manière la plus pertinente, seulement en fonction des informations fournies. Contexte : " + str(data) + ". Définition : les formations MIPI (Management de l'Innovation et du Patrimoine Immobilier) concernent le secteur de l'immobilier : facility management, property management, asset management. Les formations MITIC (Management de l'Innovation des Technologies de l'Information et de la Communication) concernent le secteur du numérique : management de projet, innovation et conseil, support numérique aux métiers"),
|
@@ -53,13 +68,21 @@ async def on_action(action):
|
|
53 |
model_extras={
|
54 |
"logprobs": True
|
55 |
}
|
56 |
-
)
|
|
|
|
|
|
|
|
|
57 |
for update in response:
|
58 |
if update.choices:
|
|
|
59 |
await msg.stream_token(update.choices[0].delta.content)
|
60 |
|
61 |
await msg.send()
|
62 |
-
|
|
|
|
|
|
|
63 |
try:
|
64 |
indexDeb = answer.index("Question en relation avec le sujet")
|
65 |
except:
|
@@ -72,7 +95,43 @@ async def on_action(action):
|
|
72 |
actions = [
|
73 |
cl.Action(name="Activer", value=extraction + "?", description="Activer la question en relation avec le contexte.")
|
74 |
]
|
75 |
-
await cl.Message(author="COPILOT", content="Question en relation avec le contexte : " + extraction + "?", actions=actions).send()
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
76 |
|
77 |
@cl.set_chat_profiles
|
78 |
async def chat_profile():
|
@@ -103,13 +162,6 @@ async def chat_profile():
|
|
103 |
icon="/public/public_request-theme.svg",
|
104 |
),
|
105 |
]
|
106 |
-
|
107 |
-
@cl.on_chat_start
|
108 |
-
def on_chat_start():
|
109 |
-
data = Chargement_des_datas(cl.user_session.get("chat_profile"))
|
110 |
-
client = Connexion_Mistral()
|
111 |
-
cl.user_session.set("data", data)
|
112 |
-
cl.user_session.set("client", client)
|
113 |
|
114 |
@cl.set_starters
|
115 |
def set_starters():
|
@@ -133,47 +185,18 @@ def set_starters():
|
|
133 |
|
134 |
@cl.on_message
|
135 |
async def main(message: cl.Message):
|
136 |
-
|
|
|
|
|
|
|
137 |
|
138 |
-
|
139 |
-
client = cl.user_session.get("client")
|
140 |
-
response = client.complete(
|
141 |
-
stream=True,
|
142 |
-
messages=[
|
143 |
-
SystemMessage(content="Tu es un spécialiste de l'enseignement supérieur, des formations et de la pédagogie. Tu es en capacité d'analyser en profondeur les séances pédagogiques et de les mettre en adéquation avec les théories de la recherche en éducation. Répondez à la question seulement et exclusivement à partir du contexte et des définitions ci-contre, de la manière la plus pertinente, seulement en fonction des informations fournies. Contexte : " + str(data) + ". Définition : les formations MIPI (Management de l'Innovation et du Patrimoine Immobilier) concernent le secteur de l'immobilier : facility management, property management, asset management. Les formations MITIC (Management de l'Innovation des Technologies de l'Information et de la Communication) concernent le secteur du numérique : management de projet, innovation et conseil, support numérique aux métiers"),
|
144 |
-
UserMessage(content=message.content + "Donne le résultat au format texte markdown, jusqu'à 3000 caractères convertis en UTF-8. Continue la réponse en citant, dans un paragraphe supplémentaire de 3 lignes, introduit un saut de ligne et par \"\n📚 Sources : \", les 3 verbatim avec leur numéro de ligne respectif, qui ont permis de générer la réponse, à partir du contexte. Termine la réponse en créant, dans un dernier paragraphe d'une seule et unique ligne, introduite par un saut de ligne et par \"\n📣 Question en relation avec le sujet : \", 1 seule et unique question en relation avec la question posée, en commençant la ligne par \"Question en relation avec le sujet :\"."),
|
145 |
-
],
|
146 |
-
model="Phi-3.5-MoE-instruct",
|
147 |
-
presence_penalty=0.1,
|
148 |
-
frequency_penalty=0.8,
|
149 |
-
max_tokens=1024,
|
150 |
-
stop=["<|endoftext|>"],
|
151 |
-
temperature=0,
|
152 |
-
top_p=1,
|
153 |
-
model_extras={
|
154 |
-
"logprobs": True
|
155 |
-
}
|
156 |
-
)
|
157 |
-
for update in response:
|
158 |
-
if update.choices:
|
159 |
-
await msg.stream_token(update.choices[0].delta.content)
|
160 |
|
161 |
-
await
|
162 |
|
163 |
answer = msg.content
|
164 |
-
|
165 |
-
|
166 |
-
except:
|
167 |
-
indexDeb = answer.index("Question relative au contexte")
|
168 |
-
|
169 |
-
indexFin = answer.index("?")
|
170 |
-
|
171 |
-
extraction = answer[indexDeb + len("Question en relation avec le sujet") + 1: indexFin]
|
172 |
-
|
173 |
-
actions = [
|
174 |
-
cl.Action(name="Activer", value=extraction + "?", description="Activer la question en relation avec le contexte.")
|
175 |
-
]
|
176 |
-
await cl.Message(author="COPILOT", content="Question en relation avec le contexte : " + extraction + "?", actions=actions).send()
|
177 |
|
178 |
@cl.on_stop
|
179 |
def on_stop():
|
|
|
2 |
import os
|
3 |
import time
|
4 |
from pathlib import Path
|
|
|
5 |
import chainlit as cl
|
6 |
from azure.ai.inference import ChatCompletionsClient
|
7 |
from azure.ai.inference.models import SystemMessage, UserMessage
|
|
|
9 |
|
10 |
os.environ["GITHUB_TOKEN"] = os.environ["GITHUB_TOKEN"]
|
11 |
|
12 |
+
@cl.step(type="tool", show_input=True)
|
13 |
def Chargement_des_datas(profile):
|
14 |
if profile == "Toutes les formations":
|
15 |
file_path='./public/content-MIPI-MITIC.json'
|
|
|
23 |
file_path='./public/content-Master-MITIC.json'
|
24 |
|
25 |
return json.loads(Path(file_path).read_text())
|
26 |
+
|
27 |
+
@cl.step(type="tool", show_input=True)
|
28 |
+
def Chargement_des_datas_web(profile):
|
29 |
+
if profile == "Toutes les formations":
|
30 |
+
file_path='./public/html-MIPI-MITIC.txt'
|
31 |
+
elif profile == "Licence MIPI":
|
32 |
+
file_path='./public/html-Licence-MIPI.txt'
|
33 |
+
elif profile == "Licence MITIC":
|
34 |
+
file_path='./public/html-Licence-MITIC.txt'
|
35 |
+
elif profile == "Master MIPI":
|
36 |
+
file_path='./public/html-Master-MIPI.txt'
|
37 |
+
elif profile == "Master MITIC":
|
38 |
+
file_path='./public/html-Master-MITIC.txt'
|
39 |
+
|
40 |
+
fileOpen = open(file_path, "r")
|
41 |
+
txt = fileOpen.read()
|
42 |
+
print(txt)
|
43 |
+
fileOpen.close()
|
44 |
+
return txt
|
45 |
|
46 |
+
@cl.step(type="llm", show_input=True)
|
47 |
def Connexion_Mistral():
|
48 |
return ChatCompletionsClient(
|
49 |
endpoint="https://models.inference.ai.azure.com",
|
50 |
credential=AzureKeyCredential(os.environ["GITHUB_TOKEN"]),
|
51 |
)
|
52 |
+
|
53 |
+
@cl.step(type="tool", show_input=True)
|
54 |
+
def Generation_reponse(client, data, question):
|
55 |
+
return client.complete(
|
|
|
|
|
|
|
|
|
|
|
56 |
stream=True,
|
57 |
messages=[
|
58 |
SystemMessage(content="Tu es un spécialiste de l'enseignement supérieur, des formations et de la pédagogie. Tu es en capacité d'analyser en profondeur les séances pédagogiques et de les mettre en adéquation avec les théories de la recherche en éducation. Répondez à la question seulement et exclusivement à partir du contexte et des définitions ci-contre, de la manière la plus pertinente, seulement en fonction des informations fournies. Contexte : " + str(data) + ". Définition : les formations MIPI (Management de l'Innovation et du Patrimoine Immobilier) concernent le secteur de l'immobilier : facility management, property management, asset management. Les formations MITIC (Management de l'Innovation des Technologies de l'Information et de la Communication) concernent le secteur du numérique : management de projet, innovation et conseil, support numérique aux métiers"),
|
|
|
68 |
model_extras={
|
69 |
"logprobs": True
|
70 |
}
|
71 |
+
)
|
72 |
+
@cl.step(type="tool", show_input=True)
|
73 |
+
async def Affichage_reponse(response):
|
74 |
+
msg = cl.Message(author="COPILOT",content="")
|
75 |
+
|
76 |
for update in response:
|
77 |
if update.choices:
|
78 |
+
time.sleep(0.125)
|
79 |
await msg.stream_token(update.choices[0].delta.content)
|
80 |
|
81 |
await msg.send()
|
82 |
+
return msg
|
83 |
+
|
84 |
+
@cl.step(type="tool", show_input=True)
|
85 |
+
async def Affichage_question_contexte(answer):
|
86 |
try:
|
87 |
indexDeb = answer.index("Question en relation avec le sujet")
|
88 |
except:
|
|
|
95 |
actions = [
|
96 |
cl.Action(name="Activer", value=extraction + "?", description="Activer la question en relation avec le contexte.")
|
97 |
]
|
98 |
+
await cl.Message(author="COPILOT", content="🌐 Question en relation avec le contexte : " + extraction + "?", actions=actions).send()
|
99 |
+
|
100 |
+
@cl.step(type="tool", show_input=True)
|
101 |
+
async def Affichage_recherche_web(answer):
|
102 |
+
actions = [
|
103 |
+
cl.Action(name="Site web", value=answer, description="Rechercher sur le site web de l'université.")
|
104 |
+
]
|
105 |
+
await cl.Message(author="COPILOT", content="🌐 Rechercher sur le site web de l'université : " + answer, actions=actions).send()
|
106 |
+
|
107 |
+
@cl.action_callback("Activer")
|
108 |
+
async def on_action(action):
|
109 |
+
client = cl.user_session.get("client")
|
110 |
+
data = cl.user_session.get("data")
|
111 |
+
question = action.value
|
112 |
+
|
113 |
+
response = Generation_reponse(client, data, question)
|
114 |
+
|
115 |
+
msg = await Affichage_reponse(response)
|
116 |
+
|
117 |
+
answer = msg.content
|
118 |
+
|
119 |
+
await Affichage_question_contexte(answer)
|
120 |
+
|
121 |
+
@cl.action_callback("Site web")
|
122 |
+
async def on_action(action):
|
123 |
+
client = cl.user_session.get("client")
|
124 |
+
data = Chargement_des_datas_web(cl.user_session.get("chat_profile"))
|
125 |
+
question = action.value
|
126 |
+
|
127 |
+
response = Generation_reponse(client, data, question)
|
128 |
+
|
129 |
+
msg = await Affichage_reponse(response)
|
130 |
+
|
131 |
+
answer = msg.content
|
132 |
+
|
133 |
+
await Affichage_question_contexte(answer)
|
134 |
+
|
135 |
|
136 |
@cl.set_chat_profiles
|
137 |
async def chat_profile():
|
|
|
162 |
icon="/public/public_request-theme.svg",
|
163 |
),
|
164 |
]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
165 |
|
166 |
@cl.set_starters
|
167 |
def set_starters():
|
|
|
185 |
|
186 |
@cl.on_message
|
187 |
async def main(message: cl.Message):
|
188 |
+
data = Chargement_des_datas(cl.user_session.get("chat_profile"))
|
189 |
+
client = Connexion_Mistral()
|
190 |
+
cl.user_session.set("data", data)
|
191 |
+
cl.user_session.set("client", client)
|
192 |
|
193 |
+
response = Generation_reponse(client, data, message.content)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
194 |
|
195 |
+
msg = await Affichage_reponse(response)
|
196 |
|
197 |
answer = msg.content
|
198 |
+
await Affichage_question_contexte(answer)
|
199 |
+
await Affichage_recherche_web(message.content)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
200 |
|
201 |
@cl.on_stop
|
202 |
def on_stop():
|