This is a monolingual Russian version! English is not yet supported

image/png

image/png

RU Version 🇷🇺

Model description

Данная модель предназначена для проведения ролевых игр по системе GURPS, а также для консультирования и ассистирования. Эта модель была обучена на аугментированном наборе данных по книге правил GURPS Basic Set. Главной её целью изначально было становление ассистентом-консультантом, а также помощником Гейм-мастера по ролевой системе GURPS, но её также можно использовать в качестве ГМа для проведения соло-партий в качестве игрока.

Recomendations

Очень рекомендую использовать данную модель с температурой 0.3-0.5 в режиме консультанта-ассистента по правилам GURPS. И температуру 0.7-1.2 если вы используете данную модель как Гейм-мастера, а сами выступаете в роли игрока. Если ваша цель - заставить данную модель вести партию, настоятельно рекомендую использовать подготовленную мной заранее карточку персонажа Гейм-мастера для SillyTavern (Это обеспечит максимальный экспериенс от партии): https://huggingface.co/AlexBefest/NightyGurps-14b-v1.1/blob/main/Game%20Master.png

Prompting

Данная модель использует формат ChatML! Не забудьте выставить его.

<|im_start|>system
{system_prompt}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant

Notes

Это тонкая настройка потрясающей модели Qwen 2.5 14b, которая по производительности обходит Gemma 2 27b. Я нашёл эту модель идеальной для дообучения на аугментированной книге правил Gurps Basic Set. Пожалуй, именно эту модель я буду использовать в качестве основы для дальнейших улучшений. Сейчас у меня в планах расширить датасет как минимум в три раза, а также провести дестиляцию существующего. Далее планируется выпустить NightyGurps-Nano (модель на основе qwen 2.5 3b) и NightyGurps-Large (на основе qwen 2.5 32b). На последнюю у меня особо большие планы и весьма высокие ожидания по производительности, учитывая невероятный уровень качества, который qwen смогли выжать всего из 32 миллиардов параметров.

Credits

Made by PegasusYaY(AlexBefest)

Downloads last month
27
GGUF
Model size
14.8B params
Architecture
qwen2

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for AlexBefest/NightyGurps-14b-v1.1-GGUF

Base model

Qwen/Qwen2.5-14B
Quantized
(8)
this model

Collection including AlexBefest/NightyGurps-14b-v1.1-GGUF