bourdoiscatie commited on
Commit
e8fc9be
·
verified ·
1 Parent(s): c254558

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -2
app.py CHANGED
@@ -3,8 +3,8 @@ from transformers import pipeline
3
  from PIL import Image
4
 
5
  st.sidebar.header("**Instructions**")
6
- st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/collections/CATIE-AQ/catie-french-qa-pack-650821750f44c341cdb8ec91) entraîné sur plus de 220 000 contextes/questions/réponses en français et capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en quatre versions : QAmemBERT1-base (110M de paramètres et taille de contexte de 512 tokens), QAmemBERT2 (112M, 1024 tokens), QAmemBERTa (111M, 1024 tokens) (**ce modèle donne les meilleurs résultats d'après nos benchmarks**) et QAmemBERT1-large (336M, 512 tokens). Pour utiliser l'application, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour en savoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
7
- version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1-base", "QAmemBERT2", "QAmemBERTa", "QAmemBERT1-large"])
8
  st.sidebar.markdown("---")
9
  st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
10
 
@@ -20,6 +20,8 @@ def load_model(version):
20
  return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
21
  if version == "QAmemBERTa":
22
  return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
 
 
23
  else:
24
  return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
25
 
 
3
  from PIL import Image
4
 
5
  st.sidebar.header("**Instructions**")
6
+ st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/collections/CATIE-AQ/catie-french-qa-pack-650821750f44c341cdb8ec91) entraîné sur plus de 220 000 contextes/questions/réponses en français et capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en 5 versions : QAmemBERT1-base (110M de paramètres et taille de contexte de 512 tokens), QAmemBERT2 (112M, 1024 tokens), QAmemBERTa (111M, 1024 tokens) (**ce modèle donne les meilleurs résultats d'après nos benchmarks**), modernQAmemBERT (136M, 8192 tokens) et QAmemBERT1-large (336M, 512 tokens). Pour utiliser l'application, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour en savoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
7
+ version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1-base", "QAmemBERT2", "QAmemBERTa", "modernQAmemBERT", "QAmemBERT1-large"])
8
  st.sidebar.markdown("---")
9
  st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
10
 
 
20
  return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
21
  if version == "QAmemBERTa":
22
  return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
23
+ if version == "QAmemBERTa":
24
+ return pipeline('question-answering', model='CATIE-AQ/modernQAmembert', tokenizer='CATIE-AQ/modernQAmembert')
25
  else:
26
  return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
27