Hungarian Reading Comprehension with finetuned huBERT model
For further details, see our demo site.
Results
Model | Exact Match | F1 |
---|---|---|
huBERT | 64.50 | 69.03 |
mT5 | 69.51 | 76.26 |
Usage with pipeline
from transformers import pipeline
context = "A kedd hajnalban elhunyt Somló Tamásra emlékezett zenésztársa, Presser Gábor. Somló Tamás nagyszerű egyénisége, énekhangja és éneklési stílusa egészen egyedülálló volt' – fogalmazott. '1968 lehetett, amikor először találkoztunk, gyakorlatilag váltottuk egymást az Omega együttesben. Tamás akkor indult el az artista pályán, miközben zenélt is. Az Omegában csak néhányszor játszottunk együtt, miután én beléptem, ő éveket töltött külföldön artistaként, aztán összefutottunk az LGT-ben, ennek már 43 éve' - idézte fel Presser Gábor. Somló Tamás színpadi jelenléte nagy húzóerőt jelentett a zenekar számára és zenészi képességeit mutatta az is, hogy amikor Frenreisz Károly helyett belépett az LGT-be, néhány hét alatt megtanult basszusgitározni."
question = "'Nem ismerek olyan embert, aki Tamásra haragudott volna. Életét úgy fejezte be, ahogyan élt: utolsó fellépésére, amely talán egy hónappal ezelőtt lehetett, már nagyon nehezen tudott csak elmenni, de nem mondta le, mert Pécsett egy jótékonysági koncerten játszott beteg gyerekeknek' - mondta [MASK]."
qa = pipeline(task="question-answering", model="NYTK/reading-comprehension-hurc-hubert-hungarian")
print(qa({"question": question, "context": context})["answer"])
Citation
If you use this model, please cite the following paper:
@article {yang-ligeti-rc,
title = {Building machine reading comprehension model from scratch},
journal = {Annales Mathematicae et Informaticae},
year = {2023},
author = {Yang, Zijian Győző and Ligeti-Nagy, Noémi},
pages = {accetped}
}
- Downloads last month
- 29
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.