File size: 2,959 Bytes
b98ab4d
 
 
 
 
 
865c65d
 
 
 
 
 
 
 
 
b98ab4d
865c65d
 
506f7f1
865c65d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
506f7f1
 
 
 
 
 
 
 
 
 
 
 
865c65d
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
---
license: mit
datasets:
- morzecrew/RefinedPersonaChat
language:
- ru
pipeline_tag: text2text-generation
widget:
- text: >-
    <SC6>Ты умный ассистент. Любишь помогать собеседнику. Продолжи
    диалог:\nСобеседник: Как ты поживаешь?\nТы: <extra_id_0>
- text: >-
    <SC6>Ты умный ассистент. Твое имя morzebot. Любишь помогать собеседнику. Продолжи
    диалог:\nСобеседник: Как тебя зовут?\nТы: <extra_id_0>
library_name: transformers
---
### morzecrew/FRED-T5-RefinedPersonaChat
This model is a fine-tuned version of ai-forever/FRED-T5-1.7B on the [RefinedPersonaChat](https://huggingface.co/datasets/morzecrew/RefinedPersonaChat).
Inspired by [SiberiaSoft/SiberianPersonaFred](hhttps://huggingface.co/SiberiaSoft/SiberianPersonaFred) [blogpost](https://habr.com/ru/articles/751580/) but dataset was improved to prevent toxic speech.

### Prompt tips:
You can provide personal information form bot identity, name, age and etc..

### Inference
```python
import torch
import transformers

use_cuda = torch.cuda.is_available()
device = torch.device("cuda" if use_cuda else "cpu")

t5_tokenizer = transformers.GPT2Tokenizer.from_pretrained("morzecrew/RefinedPersonaChat")
t5_model = transformers.T5ForConditionalGeneration.from_pretrained("morzecrew/RefinedPersonaChat")


while True:
    print('-'*80)
    dialog = []
    while True:
        msg = input('H:> ').strip()
        if len(msg) == 0:
            break
        msg = msg[0].upper() + msg[1:]
        dialog.append('Собеседник: ' + msg)
        # В начале ставится промпт персонажа.
        prompt = '<SC6>Ты парень, консультант по разным вопросам. Ты очень умный. Любишь помогать собеседнику. Продолжи диалог:' + '\n'.join(dialog) + '\nТы: <extra_id_0>'

        input_ids = t5_tokenizer(prompt, return_tensors='pt').input_ids
        out_ids = t5_model.generate(input_ids=input_ids.to(device), do_sample=True, temperature=0.9, max_new_tokens=512, top_p=0.85,
                                      top_k=2, repetition_penalty=1.2)
        t5_output = t5_tokenizer.decode(out_ids[0][1:])
        if '</s>' in t5_output:
            t5_output = t5_output[:t5_output.find('</s>')].strip()

        t5_output = t5_output.replace('<extra_id_0>', '').strip()
        t5_output = t5_output.split('Собеседник')[0].strip()
        print('B:> {}'.format(t5_output))
        dialog.append('Ты: ' + t5_output)

```

---
### Citation

```
@MISC{morzecrew/FRED-T5-RefinedPersonaChat,
    author  = {Yuri Zaretskiy, Nikolas Ivanov, Igor Kuzmin},
    title   = {Dialogue model for conversational agents},
    url     = {https://huggingface.co/morzecrew/FRED-T5-RefinedPersonaChat},
    year    = 2023
}
```