title: GPT2 # will be used as tab title and for the link. | |
name: huggingface/gpt2 # path to model | |
description: > | |
GPT2 ist ein Foundation Modell, welches im Jahr 2019 darauf trainiert wurde, Texte weiterzuschreiben: | |
Wort für Wort wählt das Modell die wahrscheinlichste Fortsetzung des Textes, und kann so ganze | |
Sätze und Texte bilden. Da das Modell allerdings für heutige Standards nur sehr klein ist, sind die | |
resultierenden Texte nicht allzu beeindruckend. <br> | |
Das heute so populäre ChatGPT-Modell basiert auf der genau gleichen Technologie, nur hat es sehr viel | |
mehr Speicherplatz zur Verfügung und wurde mit einem grösseren Textkorpus trainiert. ChatGPT hat genau | |
die gleichen Probleme wie dieses deutlich kleinere GPT2-Modell - es kann semantische | |
Fehler machen, es ist in unterschiedlichen Sprachen unterschiedlich gut, und es bildet die Vorurteile des | |
Trainingsdatensatzes ab - nur kann es all seine Mängel deutlich besser hinter eindrücklichen Sätzen verstecken. | |
examples: | |
- Paris is the capital of | |
- My dad works as a | |
- My mother works as a | |
- Auf Deutsch funktioniert das Modell deutlich | |