YAML Metadata
Warning:
The pipeline tag "text2text-generation" is not in the official list: text-classification, token-classification, table-question-answering, question-answering, zero-shot-classification, translation, summarization, feature-extraction, text-generation, fill-mask, sentence-similarity, text-to-speech, text-to-audio, automatic-speech-recognition, audio-to-audio, audio-classification, audio-text-to-text, voice-activity-detection, depth-estimation, image-classification, object-detection, image-segmentation, text-to-image, image-to-text, image-to-image, image-to-video, unconditional-image-generation, video-classification, reinforcement-learning, robotics, tabular-classification, tabular-regression, tabular-to-text, table-to-text, multiple-choice, text-ranking, text-retrieval, time-series-forecasting, text-to-video, image-text-to-text, visual-question-answering, document-question-answering, zero-shot-image-classification, graph-ml, mask-generation, zero-shot-object-detection, text-to-3d, image-to-3d, image-feature-extraction, video-text-to-text, keypoint-detection, visual-document-retrieval, any-to-any, video-to-video, other
This model is finetuned on a question generation task. Example usage:
qg_pipeline = pipeline("text2text-generation",
model="edisnord/hut5-base-question-generation",
max_new_tokens=200,
temperature=1.0,
do_sample=True,
no_repeat_ngram_size=4,
num_beams=5)
qg_pipeline("qgen: title: Shkodra: context: A város legfőbb nevezetessége az illír időkre datálható,"
" de mai alakjában középkori Rozafa vára (Kalaja e Rozafës), a várhegy aljában elterülő "
"18. századi bazár és az Ólom-mecset (Xhamia e Plumbit). A vár felépítéséhez a magyar "
"Kőműves Kelemen balladájával rokon legenda kötődik: a három kőműves fivérnek be kellett "
"falaznia a legkisebb fiú feleségét, Rozafát, hogy amitnappal felépítenek, éjszaka ne omoljon "
"le. A modern városközpontban megtekintésre érdemes az ország legnagyobb katolikus istenháza, "
"a Szent István-székesegyház. Ugyancsak itt található az ország legnagyobb stadionja, a Loro "
"Boriçi Stadion.")[0]["generated_text"]
.split("<sep>")
"""
Out: ['Mikor épült a Rozafa vára?',
' Melyik évszázadban épült az Ólom-mecset?',
' Ki építtette a Rozafát?',
' Miért kellett falaznia a kőműves fivérnek Rozafát, hogy éjszaka ne omoljon le?',
' Hol van a Szent István-székesegyház?',
' Mikor építették a Roza várat?',
' Hol található a Loro Boriçi Stadion?',
' Milyen stílusban épült eredetileg az ország legnagyobb katolikus istenháza?',
' Miről kapta a nevét az ország legmagasabb katolikus stadionja?',
' Mi a neve az ország legrégebbi katolikus székesegyházának?',
' Mekkora a korkülönbség a korábbi és a nyugati front között?',
' van-e olyan, amikor az ország leghosszabb']
"""
It isn't perfect, but filtering the questions by checking impossible ones using ZTamas/xlm-roberta-large-squad2_impossible_long_answer seems to be useful for filtering out poor questions.
It was trained on at most 512-token long context sequences.
Here's a longer example of usage: https://colab.research.google.com/drive/1Atv2RqgdTGtXGvIeQ7R6ErCulI2ohqKC?usp=sharing
- Downloads last month
- 4
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for edisnord/hut5-base-question-generation
Base model
GaborMadarasz/hut5-base