DeepSeek-R1-Distill-Llama-8B-Abliterated-RU
Модель представляет собой дообученную версию DeepSeek-R1-Distill-Llama-8B-Abliterated:cite[10] на русскоязычном синтетическом датасете инструкций.
Особенности
- Базовая архитектура: Основана на Llama-8B с дистилляцией знаний от DeepSeek-R1:cite[3]:cite[6]
- Дообучение: Адаптация под русский язык через датасет ru-instruct (800k+ примеров)
- Оптимизация:
- Удаление артефактов перевода через модель Den4ikAI/nonsense_gibberish_detector:cite[8]
- Дедупликация методом SimHash
- Мультидоменность: Поддержка математических расчётов, программирования и QA:cite[8]
Датасет обучения
Комбинация 7 переведённых датасетов:
Источник | Описание |
---|---|
OpenOrca-ru | 1.2M диалогов с детализированными ответами |
OpenHermes-2.5-ru | Инструкции для сложных задач |
Dolphin-ru | Мультизадачные инструкции |
GSM8k-ru | Математические задачи |
Boolq-ru | Вопросы с ответами Да/Нет |
Conala-mined-ru | Python-сниппеты |
Alpaca-cleaned-ru | Общие инструкции |
Формат данных:
{
"conversations": [
{"role": "system", "content": "..."},
{"role": "user", "content": "..."},
{"role": "assistant", "content": "..."}
],
"source": "название_датасета"
}
- Downloads last month
- 40
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.
Model tree for xyzmean/llama-8B-ru
Base model
deepseek-ai/DeepSeek-R1-Distill-Llama-8B