|
--- |
|
language: |
|
- en |
|
- uk |
|
- ru |
|
license: apache-2.0 |
|
tags: |
|
- text2text-generation |
|
- transformer |
|
- russian |
|
- flare |
|
metrics: |
|
- character |
|
library_name: transformers.js |
|
--- |
|
|
|
# FlareNew |
|
|
|
**FlareNew** is a text-to-text model based on the Transformer architecture, optimized for use with Hugging Face and the [transformers.js](https://xenova.github.io/transformers.js/) library in the browser. |
|
|
|
--- |
|
|
|
## О модели |
|
|
|
- Тип: Text-to-Text Generation |
|
- Архитектура: Transformer |
|
- Название модели на Hugging Face: `FlareNew` |
|
- Цель: генерация связного, естественного текста на основе текстового запроса |
|
|
|
--- |
|
|
|
## Использование на Hugging Face (Python) |
|
|
|
```python |
|
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer |
|
|
|
model_name = "FlareNew" |
|
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
model = AutoModelForSeq2SeqLM.from_pretrained(model_name) |
|
|
|
input_text = "Пример входного текста" |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
|
|
outputs = model.generate(**inputs) |
|
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
print(generated_text) |
|
``` |
|
|
|
--- |
|
|
|
## Использование с transformers.js (JavaScript) |
|
|
|
```javascript |
|
import { pipeline } from "@xenova/transformers"; |
|
|
|
async function run() { |
|
// Инициализация пайплайна text2text-generation с моделью FlareNew |
|
const generator = await pipeline("text2text-generation", "FlareNew"); |
|
|
|
const input = "Пример входного текста"; |
|
|
|
const output = await generator(input); |
|
|
|
console.log(output[0].generated_text); |
|
} |
|
|
|
run(); |
|
``` |
|
|
|
--- |
|
|
|
## Установка |
|
|
|
### Python (Hugging Face Transformers) |
|
|
|
```bash |
|
pip install transformers torch |
|
``` |
|
|
|
### JavaScript (transformers.js) |
|
|
|
```bash |
|
npm install @xenova/transformers |
|
``` |
|
|
|
--- |
|
|
|
## Тренировка модели |
|
|
|
На этой странице вы можете нажать кнопку **Train**, чтобы запустить процесс обучения модели. |
|
Для этого в репозитории настроен [GitHub Actions workflow](./.github/workflows/train.yml), который автоматически запускает тренировку на выбранных данных. |
|
|
|
Если вы хотите запустить тренировку локально, используйте следующий пример команды: |
|
|
|
```bash |
|
python train.py --model_name FlareNew --train_data path/to/train_data.jsonl |
|
``` |
|
|
|
--- |
|
|
|
## Развёртывание модели |
|
|
|
Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой **Deploy**, которая создаст приложение на Hugging Face Spaces. |
|
|
|
Также вы можете самостоятельно запустить Space с этим кодом: |
|
|
|
```python |
|
import gradio as gr |
|
from transformers import pipeline |
|
|
|
generator = pipeline("text2text-generation", "FlareNew") |
|
|
|
def generate_text(input_text): |
|
output = generator(input_text) |
|
return output[0]['generated_text'] |
|
|
|
iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation") |
|
iface.launch() |
|
``` |
|
|
|
--- |
|
|
|
## Контакты и поддержка |
|
|
|
Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной. |
|
|
|
--- |
|
|
|
## Лицензия |
|
|
|
Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.) |