File size: 9,776 Bytes
1aabd23
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
import json
import os
import time
from pathlib import Path

import chainlit as cl
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredential

os.environ["GITHUB_TOKEN"] = os.environ["GITHUB_TOKEN"]

def Chargement_des_datas(profile):
    if profile == "Toutes les formations":
        file_path='./public/content-MIPI-MITIC.json'
    elif profile == "Licence MIPI":
        file_path='./public/content-Licence-MIPI.json'
    elif profile == "Licence MITIC":
        file_path='./public/content-Licence-MITIC.json'
    elif profile == "Master MIPI":
        file_path='./public/content-Master-MIPI.json'
    elif profile == "Master MITIC":
        file_path='./public/content-Master-MITIC.json'

    return json.loads(Path(file_path).read_text())
    
def Connexion_Mistral():
    return ChatCompletionsClient(
        endpoint="https://models.inference.ai.azure.com",
        credential=AzureKeyCredential(os.environ["GITHUB_TOKEN"]),
    )
    
@cl.action_callback("Activer")
async def on_action(action):
    question = action.value
    msg = cl.Message(author="COPILOT",content="")
    
    data = cl.user_session.get("data")
    client = cl.user_session.get("client")
    response = client.complete(
        stream=True,
        messages=[
            SystemMessage(content="Tu es un spécialiste de l'enseignement supérieur, des formations et de la pédagogie. Tu es en capacité d'analyser en profondeur les séances pédagogiques et de les mettre en adéquation avec les théories de la recherche en éducation. Répondez à la question seulement et exclusivement à partir du contexte et des définitions ci-contre, de la manière la plus pertinente, seulement en fonction des informations fournies. Contexte : " + str(data) + ". Définition : les formations MIPI (Management de l'Innovation et du Patrimoine Immobilier) concernent le secteur de l'immobilier : facility management, property management, asset management. Les formations MITIC (Management de l'Innovation des Technologies de l'Information et de la Communication) concernent le secteur du numérique : management de projet, innovation et conseil, support numérique aux métiers"),
            UserMessage(content=question + "Donne le résultat au format texte markdown, jusqu'à 3000 caractères convertis en UTF-8. Continue la réponse en citant, dans un paragraphe supplémentaire de 3 lignes, introduit un saut de ligne et par \"\n📚 Sources : \", les 3 verbatim avec leur numéro de ligne respectif, qui ont permis de générer la réponse, à partir du contexte. Termine la réponse en créant, dans un dernier paragraphe d'une seule et unique ligne, introduite par un saut de ligne et par \"\n📣 Question en relation avec le sujet : \", 1 seule et unique question en relation avec la question posée, en commençant la ligne par \"Question relative au contexte :\"."),
        ],
        model="Phi-3.5-MoE-instruct",
        presence_penalty=0.1,
        frequency_penalty=0.8,
        max_tokens=1024,
        stop=["<|endoftext|>"],
        temperature=0,
        top_p=1,
        model_extras={
            "logprobs": True
        }
    )
    for update in response:
        if update.choices:
            await msg.stream_token(update.choices[0].delta.content)
    
    await msg.send()
    answer = msg.content
    try:
        indexDeb = answer.index("Question en relation avec le sujet")
    except:
        indexDeb = answer.index("Question relative au contexte")
    
    indexFin = answer.index("?")
 
    extraction = answer[indexDeb + len("Question en relation avec le sujet") + 1: indexFin]
    
    actions = [
            cl.Action(name="Activer", value=extraction + "?", description="Activer la question en relation avec le contexte.")
        ]
    await cl.Message(author="COPILOT", content="Question en relation avec le contexte : " + extraction + "?", actions=actions).send()
    
@cl.set_chat_profiles
async def chat_profile():
    return [
        cl.ChatProfile(
            name="Toutes les formations",
            markdown_description="Posez vos questions sur l'ensemble des compétences, des cours et des situations de travail pour toutes les formations MIS.",
            icon="/public/public_request-theme.svg",
        ),
        cl.ChatProfile(
            name="Licence MIPI",
            markdown_description="Posez vos questions sur l'ensemble des compétences, des cours et des situations de travail pour la licence MIPI",
            icon="/public/public_request-theme.svg",
        ),
        cl.ChatProfile(
            name="Licence MITIC",
            markdown_description="Posez vos questions sur l'ensemble des compétences, des cours et des situations de travail pour la licence MITIC",
            icon="/public/public_request-theme.svg",
        ),
        cl.ChatProfile(
            name="Master MIPI",
            markdown_description="Posez vos questions sur l'ensemble des compétences, des cours et des situations de travail pour les Masters MIPI",
            icon="/public/public_request-theme.svg",
        ),
        cl.ChatProfile(
            name="Master MITIC",
            markdown_description="Posez vos questions sur l'ensemble des compétences, des cours et des situations de travail pour les masters MITIC",
            icon="/public/public_request-theme.svg",
        ),
    ]

@cl.on_chat_start
def on_chat_start():
    data = Chargement_des_datas(cl.user_session.get("chat_profile"))
    client = Connexion_Mistral()
    cl.user_session.set("data", data)
    cl.user_session.set("client", client)
    
@cl.set_starters
def set_starters():
    return [
        cl.Starter(
            label="Compétences de la (des) formation(s)",
            message="Quelles sont toutes les compétences des formations? Donne la liste exhaustive.",
            icon="/public/public_learn.svg",
            ),
        cl.Starter(
            label="Cours de la (des) formation(s)",
            message="Quels sont tous les cours des formations? Donne la liste exhaustive.",
            icon="/public/public_learn.svg",
            ),
        cl.Starter(
            label="Compétences en situation professionnelle",
            message="Quelles sont les compétences à mettre en oeuvre pour gérer un projet, du besoin client jusqu'à la livraison, en passant par la planification et le management d'équipe, dans un environnement professionnel en entreprise?",
            icon="/public/public_learn.svg",
            )
    ]   
    
@cl.on_message
async def main(message: cl.Message):
    msg = cl.Message(author="COPILOT",content="")
    
    data = cl.user_session.get("data")
    client = cl.user_session.get("client")
    response = client.complete(
        stream=True,
        messages=[
            SystemMessage(content="Tu es un spécialiste de l'enseignement supérieur, des formations et de la pédagogie. Tu es en capacité d'analyser en profondeur les séances pédagogiques et de les mettre en adéquation avec les théories de la recherche en éducation. Répondez à la question seulement et exclusivement à partir du contexte et des définitions ci-contre, de la manière la plus pertinente, seulement en fonction des informations fournies. Contexte : " + str(data) + ". Définition : les formations MIPI (Management de l'Innovation et du Patrimoine Immobilier) concernent le secteur de l'immobilier : facility management, property management, asset management. Les formations MITIC (Management de l'Innovation des Technologies de l'Information et de la Communication) concernent le secteur du numérique : management de projet, innovation et conseil, support numérique aux métiers"),
            UserMessage(content=message.content + "Donne le résultat au format texte markdown, jusqu'à 3000 caractères convertis en UTF-8. Continue la réponse en citant, dans un paragraphe supplémentaire de 3 lignes, introduit un saut de ligne et par \"\n📚 Sources : \", les 3 verbatim avec leur numéro de ligne respectif, qui ont permis de générer la réponse, à partir du contexte. Termine la réponse en créant, dans un dernier paragraphe d'une seule et unique ligne, introduite par un saut de ligne et par \"\n📣 Question en relation avec le sujet : \", 1 seule et unique question en relation avec la question posée, en commençant la ligne par \"Question en relation avec le sujet :\"."),
        ],
        model="Phi-3.5-MoE-instruct",
        presence_penalty=0.1,
        frequency_penalty=0.8,
        max_tokens=1024,
        stop=["<|endoftext|>"],
        temperature=0,
        top_p=1,
        model_extras={
            "logprobs": True
        }
    )
    for update in response:
        if update.choices:
            await msg.stream_token(update.choices[0].delta.content)
    
    await msg.send()
    
    answer = msg.content
    try:
        indexDeb = answer.index("Question en relation avec le sujet")
    except:
        indexDeb = answer.index("Question relative au contexte")
    
    indexFin = answer.index("?")
    
    extraction = answer[indexDeb + len("Question en relation avec le sujet") + 1: indexFin]
    
    actions = [
            cl.Action(name="Activer", value=extraction + "?", description="Activer la question en relation avec le contexte.")
        ]
    await cl.Message(author="COPILOT", content="Question en relation avec le contexte : " + extraction + "?", actions=actions).send()

@cl.on_stop
def on_stop():
    print("L'utilisateur veut arrêter la completion en cours!")