File size: 4,327 Bytes
abf7e2d
 
 
 
 
 
15eb8e6
9610a1f
abf7e2d
 
32a9a14
 
 
 
15eb8e6
32a9a14
 
 
15eb8e6
32a9a14
e944c13
 
32a9a14
 
ef95ed7
 
f6a13a1
ef95ed7
32a9a14
 
 
226a45b
1eabd2a
32a9a14
fc37aae
 
35586f9
fc37aae
edaaa72
60dd419
2af363a
 
 
 
 
 
 
 
 
09373b6
 
 
 
df2025e
 
09373b6
df2025e
09373b6
df2025e
09373b6
 
 
 
32a9a14
 
 
 
 
 
 
 
 
 
 
 
f6a13a1
 
32a9a14
 
 
8b5ec2f
 
 
edaaa72
2522f7d
09373b6
 
 
 
df2025e
673bf15
09373b6
673bf15
8b5ec2f
673bf15
8b5ec2f
09373b6
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
---
title: README
emoji: 
colorFrom: red
colorTo: gray
sdk: static
pinned: true
short_description: Семейство русскоязычных моделей
---

## 🇷🇺 Русская версия

### О нас

Привет huggingface_чане, мы команда энтузиастов, занимающихся созданием и развитием русифицированных моделей искусственного интеллекта. 💨 Наша цель - сделать последние достижения в области машинного обучения доступными и понятными для русскоязычного сообщества.

### Что мы делаем

- Разработка русскоязычных моделей для обработки естественного языка (когда станем GPU-Rich)
- Адаптация существующих моделей под русский язык
- Собираем собственные бенчмарки и переводим англоязычные
- Собираем и переводим различные датасеты для разных способностей LLM


### У меня есть задача X что следует взять?

Пробуйте [Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24](https://huggingface.co/Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24)

### Присоединяйтесь к нам!

Если вы также увлечены искусственным интеллектом и хотите внести свой вклад в развитие русифицированных моделей, присоединяйтесь к нашему сообществу!
Вопросы, сотрудничество: [t.me/transformerslovedeatch](https://t.me/transformerslovedeatch)
[хабр](https://habr.com/ru/articles/787894/)


Cообщество:
[https://t.me/vikhrmodels](https://t.me/vikhrlabs/)

Все модели выложены под Apache2.0 

### Задонатить можно:

- Крипта usdt trc20:

- - TCkLihkiM1NTZnU7vJH3VagaWUpHgF2dsh

- Тинькофф сбп:
- -  https://www.tbank.ru/cf/3W1Ko1rj8ah

### Процитировать

Если Вы используете наши модели или код в своих работах, пожалуйста, используйте эту библиографическую ссылку:
```
@inproceedings{nikolich2024vikhr,
  title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
  author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and  Igor Kiselev and Artem Shelmanov },
  booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
  year={2024},
  publisher = {Association for Computational Linguistics},
  url={https://arxiv.org/pdf/2405.13929}
}
```

---

## 🇺🇸 English Version

### About Us

Hello! We are a team of enthusiasts dedicated to the development and advancement of Russian-localized artificial intelligence models. 💨 Our mission is to make the latest machine learning advancements accessible and comprehensible for the Russian-speaking community.

### What We Do

- Developing Russian language models for natural language processing
- Adapting existing algorithms for the Russian language
- We collect our own benchmarks and translate English-language ones
- We collect and translate various datasets for different LLM abilities

### Join Us!

If you're also passionate about AI and would like to contribute to the development of Russian-localized models, join our community!


Model opensourced with Apache2.0 

### Cite

If you use our models or code, please cite:
```
@inproceedings{nikolich2024vikhr,
  title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
  author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and  Igor Kiselev and Artem Shelmanov },
  booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
  year={2024},
  publisher = {Association for Computational Linguistics},
  url={https://arxiv.org/pdf/2405.13929}
}
```