Update app.py
Browse files
app.py
CHANGED
@@ -3,8 +3,8 @@ from transformers import pipeline
|
|
3 |
from PIL import Image
|
4 |
|
5 |
st.sidebar.header("**Instructions**")
|
6 |
-
st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/collections/CATIE-AQ/catie-french-qa-pack-650821750f44c341cdb8ec91) entraîné sur plus de 220 000 contextes/questions/réponses en français et capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en
|
7 |
-
version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1-base", "QAmemBERT2", "QAmemBERTa", "QAmemBERT1-large"])
|
8 |
st.sidebar.markdown("---")
|
9 |
st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
|
10 |
|
@@ -20,6 +20,8 @@ def load_model(version):
|
|
20 |
return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
|
21 |
if version == "QAmemBERTa":
|
22 |
return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
|
|
|
|
|
23 |
else:
|
24 |
return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
|
25 |
|
|
|
3 |
from PIL import Image
|
4 |
|
5 |
st.sidebar.header("**Instructions**")
|
6 |
+
st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/collections/CATIE-AQ/catie-french-qa-pack-650821750f44c341cdb8ec91) entraîné sur plus de 220 000 contextes/questions/réponses en français et capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en 5 versions : QAmemBERT1-base (110M de paramètres et taille de contexte de 512 tokens), QAmemBERT2 (112M, 1024 tokens), QAmemBERTa (111M, 1024 tokens) (**ce modèle donne les meilleurs résultats d'après nos benchmarks**), modernQAmemBERT (136M, 8192 tokens) et QAmemBERT1-large (336M, 512 tokens). Pour utiliser l'application, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour en savoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
|
7 |
+
version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1-base", "QAmemBERT2", "QAmemBERTa", "modernQAmemBERT", "QAmemBERT1-large"])
|
8 |
st.sidebar.markdown("---")
|
9 |
st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
|
10 |
|
|
|
20 |
return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
|
21 |
if version == "QAmemBERTa":
|
22 |
return pipeline('question-answering', model='CATIE-AQ/QAmemberta', tokenizer='CATIE-AQ/QAmemberta')
|
23 |
+
if version == "QAmemBERTa":
|
24 |
+
return pipeline('question-answering', model='CATIE-AQ/modernQAmembert', tokenizer='CATIE-AQ/modernQAmembert')
|
25 |
else:
|
26 |
return pipeline('question-answering', model='CATIE-AQ/QAmembert-large', tokenizer='CATIE-AQ/QAmembert-large')
|
27 |
|