Model Card
Overview
EvaGPT-446M-MaTeLiX-AI-for-Pretraining ist ein untrainiertes Large Language Model (LLM), das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird. Das Modell unterstützt Deutsch und Englisch und dient als reine Ausgangsbasis für das Pretraining.
WICHTIG: Dieses Modell ist untrainiert! Es wurde lediglich der Tokenizer initialisiert, das Modell selbst ist komplett untrainiert (“random init”). Für jegliche sinnvolle Nutzung – auch Tests oder Experimente – ist ein vollständiges Pretraining zwingend erforderlich.
- Typ: Rolling LLM (untrainiert, nur Tokenizer)
- Kompatibilität: Transformers Library
- Zweck: Basis für Pretraining und experimentelle Zwecke im MaTeLiX-Ökosystem
Hinweis zur Architektur
Auch wenn im Code der Name MistralForCausalLM
verwendet wird, handelt es sich nicht um ein Mistral-Modell.
Die Architektur wurde selbst entwickelt; der Name dient lediglich der technischen Kompatibilität mit der Hugging Face transformers
-Bibliothek.
Nutzung im MaTeLiX Dashboard
Dieses Modell ist ausschließlich für die Nutzung innerhalb des MaTeLiX Trainingsdashboards bestimmt. Eine Verwendung außerhalb dieser Plattform ist nicht vorgesehen und wird nicht unterstützt.
Anwendung: Im MaTeLiX Dashboard dient dieses Modell als Ausgangspunkt für Pretraining-Experimente und Modell-Entwicklung. Alle Trainings- und Feineinstellungen werden über das Dashboard gesteuert.
Technische Details
- Architektur: Eigene Entwicklung, Kompatibilität über
MistralForCausalLM
- Sprachen: Deutsch, Englisch
- Status: Untrainiert, nur Tokenizer initialisiert
- Trainingsdaten: Noch keine (Pretraining erforderlich)
- Hinweis: Nicht für produktive Nutzung geeignet
Lizenz & Haftungsausschluss
Dieses Modell ist ausschließlich für Demonstrations-, Entwicklungs- und Trainingszwecke im MaTeLiX Trainingsdashboard vorgesehen. MaTeLiX übernimmt keinerlei Haftung für Modellantworten, Fehler oder unerwünschtes Verhalten. Für jede produktive oder externe Nutzung ist ein vollständiges Pretraining und ggf. weiteres Finetuning erforderlich.
Kontakt
Fragen zur Nutzung oder zum Pretraining bitte an das MaTeLiX Support-Team.
- Downloads last month
- 55