DeepSeek-R1-Distill-Llama-8B-Abliterated-RU

Hugging Face Spaces

Модель представляет собой дообученную версию DeepSeek-R1-Distill-Llama-8B-Abliterated:cite[10] на русскоязычном синтетическом датасете инструкций.

Особенности

  1. Базовая архитектура: Основана на Llama-8B с дистилляцией знаний от DeepSeek-R1:cite[3]:cite[6]
  2. Дообучение: Адаптация под русский язык через датасет ru-instruct (800k+ примеров)
  3. Оптимизация:
    • Удаление артефактов перевода через модель Den4ikAI/nonsense_gibberish_detector:cite[8]
    • Дедупликация методом SimHash
  4. Мультидоменность: Поддержка математических расчётов, программирования и QA:cite[8]

Датасет обучения

Комбинация 7 переведённых датасетов:

Источник Описание
OpenOrca-ru 1.2M диалогов с детализированными ответами
OpenHermes-2.5-ru Инструкции для сложных задач
Dolphin-ru Мультизадачные инструкции
GSM8k-ru Математические задачи
Boolq-ru Вопросы с ответами Да/Нет
Conala-mined-ru Python-сниппеты
Alpaca-cleaned-ru Общие инструкции

Формат данных:

{
    "conversations": [
        {"role": "system", "content": "..."},
        {"role": "user", "content": "..."},
        {"role": "assistant", "content": "..."}
    ],
    "source": "название_датасета"
}
Downloads last month
40
GGUF
Model size
8.03B params
Architecture
llama

4-bit

Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for xyzmean/llama-8B-ru

Dataset used to train xyzmean/llama-8B-ru