FlareNew

FlareNew is a text-to-text model based on the Transformer architecture, optimized for use with Hugging Face and the transformers.js library in the browser.


О модели

  • Тип: Text-to-Text Generation
  • Архитектура: Transformer
  • Название модели на Hugging Face: FlareNew
  • Цель: генерация связного, естественного текста на основе текстового запроса

Использование на Hugging Face (Python)

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

model_name = "FlareNew"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

input_text = "Пример входного текста"
inputs = tokenizer(input_text, return_tensors="pt")

outputs = model.generate(**inputs)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(generated_text)

Использование с transformers.js (JavaScript)

import { pipeline } from "@xenova/transformers";

async function run() {
  // Инициализация пайплайна text2text-generation с моделью FlareNew
  const generator = await pipeline("text2text-generation", "FlareNew");

  const input = "Пример входного текста";

  const output = await generator(input);

  console.log(output[0].generated_text);
}

run();

Установка

Python (Hugging Face Transformers)

pip install transformers torch

JavaScript (transformers.js)

npm install @xenova/transformers

Тренировка модели

На этой странице вы можете нажать кнопку Train, чтобы запустить процесс обучения модели.
Для этого в репозитории настроен GitHub Actions workflow, который автоматически запускает тренировку на выбранных данных.

Если вы хотите запустить тренировку локально, используйте следующий пример команды:

python train.py --model_name FlareNew --train_data path/to/train_data.jsonl

Развёртывание модели

Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой Deploy, которая создаст приложение на Hugging Face Spaces.

Также вы можете самостоятельно запустить Space с этим кодом:

import gradio as gr
from transformers import pipeline

generator = pipeline("text2text-generation", "FlareNew")

def generate_text(input_text):
    output = generator(input_text)
    return output[0]['generated_text']

iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation")
iface.launch()

Контакты и поддержка

Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной.


Лицензия

Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.)

Downloads last month
2
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including HaveAI/FlareNew