bourdoiscatie commited on
Commit
9914d4c
·
verified ·
1 Parent(s): e8dcf36

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -6
app.py CHANGED
@@ -3,8 +3,8 @@ from transformers import pipeline
3
  from PIL import Image
4
 
5
  st.sidebar.header("**Instructions**")
6
- st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/CATIE-AQ/QAmembert) entraîné sur plus de 220 000 contextes/questions/réponses en français. Le modèle est capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en version *base* (110M de paramètres) et *large* (335M de paramètres). Pour les versions bases, trois options sont possibles : la v1 se basant sur un [CamemBERT](https://huggingface.co/almanach/camembert-base), la v2 se basant sur un [CamemBERT 2.0](https://huggingface.co/almanach/camembertv2-base) et la v3 se basant sur un [CamemBERTa 2.0](https://huggingface.co/almanach/camembertav2-base) (**cette option donne les meilleurs résultats d'après nos benchmarks**). Pour utiliser l'applciation, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour ens avoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
7
- version = st.sidebar.radio("Choix de la version du modèle :", ["version base (v1)", "version base (v2)", "version base (v3)", "version large (v1)"])
8
  st.sidebar.markdown("---")
9
  st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
10
 
@@ -14,13 +14,12 @@ st.sidebar.image(image, caption=None, width=None, use_column_width=None, clamp=F
14
 
15
  @st.cache_resource
16
  def load_model(version):
17
- if version == "version base (v1)":
18
  return pipeline('question-answering', model='CATIE-AQ/QAmembert', tokenizer='CATIE-AQ/QAmembert')
19
- elif version == "version base (v2)":
20
  return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
21
- elif version == "version base (v2)":
22
  return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
23
-
24
  else:
25
  return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
26
 
 
3
  from PIL import Image
4
 
5
  st.sidebar.header("**Instructions**")
6
+ st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://hf.co/CATIE-AQ/QAmembert) entraîné sur plus de 220 000 contextes/questions/réponses en français. Le modèle est capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en version *base* (110M de paramètres) et *large* (335M de paramètres). Pour les versions bases, trois options sont possibles : QAmemBERT1 se basant sur un [CamemBERT](https://huggingface.co/almanach/camembert-base), QAmemBERT2 se basant sur un [CamemBERT 2.0](https://huggingface.co/almanach/camembertv2-base) et QAmemBERTa se basant sur un [CamemBERTa 2.0](https://huggingface.co/almanach/camembertav2-base) (**ce modèle donne les meilleurs résultats d'après nos benchmarks**). Pour utiliser l'application, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour ens avoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
7
+ version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1", "QAmemBERT2", "QAmemBERTa", "QAmemBERT1-large"])
8
  st.sidebar.markdown("---")
9
  st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
10
 
 
14
 
15
  @st.cache_resource
16
  def load_model(version):
17
+ if version == "QAmemBERT1":
18
  return pipeline('question-answering', model='CATIE-AQ/QAmembert', tokenizer='CATIE-AQ/QAmembert')
19
+ elif version == "QAmemBERT2":
20
  return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
21
+ elif version == "QAmemBERTa":
22
  return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
 
23
  else:
24
  return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
25