datacipen commited on
Commit
cadc6dc
·
verified ·
1 Parent(s): f1522de

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +2 -2
main.py CHANGED
@@ -12,8 +12,8 @@ from offres_emploi import Api
12
  from offres_emploi.utils import dt_to_str_iso
13
  os.environ["GITHUB_TOKEN"] = os.environ["GITHUB_TOKEN"]
14
 
15
- @ls.traceable(run_type="tool", name="Retrieve Context : chargement des données Gustaviz")
16
  @cl.step(type="tool", show_input=True)
 
17
  def Chargement_des_datas(profile):
18
  if profile == "Toutes les formations":
19
  file_path='./public/content-MIPI-MITIC.json'
@@ -106,8 +106,8 @@ def Connexion_Mistral():
106
  endpoint = "https://models.inference.ai.azure.com"
107
  return Mistral(api_key=os.environ["GITHUB_TOKEN"], server_url=endpoint)
108
 
109
- @ls.traceable(run_type="llm", name="Connexion à Mistral : paramétrages de la conversation")
110
  @cl.step(type="tool", show_input=True)
 
111
  def Generation_reponse(client, data, question):
112
  return client.chat.stream(
113
  model="Mistral-Nemo",
 
12
  from offres_emploi.utils import dt_to_str_iso
13
  os.environ["GITHUB_TOKEN"] = os.environ["GITHUB_TOKEN"]
14
 
 
15
  @cl.step(type="tool", show_input=True)
16
+ @ls.traceable(run_type="tool", name="Retrieve Context : chargement des données Gustaviz")
17
  def Chargement_des_datas(profile):
18
  if profile == "Toutes les formations":
19
  file_path='./public/content-MIPI-MITIC.json'
 
106
  endpoint = "https://models.inference.ai.azure.com"
107
  return Mistral(api_key=os.environ["GITHUB_TOKEN"], server_url=endpoint)
108
 
 
109
  @cl.step(type="tool", show_input=True)
110
+ @ls.traceable(run_type="llm", name="Connexion à Mistral : paramétrages de la conversation")
111
  def Generation_reponse(client, data, question):
112
  return client.chat.stream(
113
  model="Mistral-Nemo",