Spaces:
Running
Running
File size: 4,327 Bytes
abf7e2d 15eb8e6 9610a1f abf7e2d 32a9a14 15eb8e6 32a9a14 15eb8e6 32a9a14 e944c13 32a9a14 ef95ed7 f6a13a1 ef95ed7 32a9a14 226a45b 1eabd2a 32a9a14 fc37aae 35586f9 fc37aae edaaa72 60dd419 2af363a 09373b6 df2025e 09373b6 df2025e 09373b6 df2025e 09373b6 32a9a14 f6a13a1 32a9a14 8b5ec2f edaaa72 2522f7d 09373b6 df2025e 673bf15 09373b6 673bf15 8b5ec2f 673bf15 8b5ec2f 09373b6 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 |
---
title: README
emoji: ⚡
colorFrom: red
colorTo: gray
sdk: static
pinned: true
short_description: Семейство русскоязычных моделей
---
## 🇷🇺 Русская версия
### О нас
Привет huggingface_чане, мы команда энтузиастов, занимающихся созданием и развитием русифицированных моделей искусственного интеллекта. 💨 Наша цель - сделать последние достижения в области машинного обучения доступными и понятными для русскоязычного сообщества.
### Что мы делаем
- Разработка русскоязычных моделей для обработки естественного языка (когда станем GPU-Rich)
- Адаптация существующих моделей под русский язык
- Собираем собственные бенчмарки и переводим англоязычные
- Собираем и переводим различные датасеты для разных способностей LLM
### У меня есть задача X что следует взять?
Пробуйте [Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24](https://huggingface.co/Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24)
### Присоединяйтесь к нам!
Если вы также увлечены искусственным интеллектом и хотите внести свой вклад в развитие русифицированных моделей, присоединяйтесь к нашему сообществу!
Вопросы, сотрудничество: [t.me/transformerslovedeatch](https://t.me/transformerslovedeatch)
[хабр](https://habr.com/ru/articles/787894/)
Cообщество:
[https://t.me/vikhrmodels](https://t.me/vikhrlabs/)
Все модели выложены под Apache2.0
### Задонатить можно:
- Крипта usdt trc20:
- - TCkLihkiM1NTZnU7vJH3VagaWUpHgF2dsh
- Тинькофф сбп:
- - https://www.tbank.ru/cf/3W1Ko1rj8ah
### Процитировать
Если Вы используете наши модели или код в своих работах, пожалуйста, используйте эту библиографическую ссылку:
```
@inproceedings{nikolich2024vikhr,
title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov },
booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
year={2024},
publisher = {Association for Computational Linguistics},
url={https://arxiv.org/pdf/2405.13929}
}
```
---
## 🇺🇸 English Version
### About Us
Hello! We are a team of enthusiasts dedicated to the development and advancement of Russian-localized artificial intelligence models. 💨 Our mission is to make the latest machine learning advancements accessible and comprehensible for the Russian-speaking community.
### What We Do
- Developing Russian language models for natural language processing
- Adapting existing algorithms for the Russian language
- We collect our own benchmarks and translate English-language ones
- We collect and translate various datasets for different LLM abilities
### Join Us!
If you're also passionate about AI and would like to contribute to the development of Russian-localized models, join our community!
Model opensourced with Apache2.0
### Cite
If you use our models or code, please cite:
```
@inproceedings{nikolich2024vikhr,
title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov },
booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
year={2024},
publisher = {Association for Computational Linguistics},
url={https://arxiv.org/pdf/2405.13929}
}
``` |