File size: 1,064 Bytes
af5341b
e873794
 
 
 
 
af5341b
e873794
 
07bdc43
e873794
 
 
 
07bdc43
e873794
 
 
07bdc43
 
 
e873794
 
 
 
 
07bdc43
 
e873794
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
import os
import gradio as gr
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM

# CUDAを無効にする
os.environ["CUDA_VISIBLE_DEVICES"] = ""

# 日本語モデルを指定
model_name = "sakanaai/evolllm-jp"  # Sakana AIのモデル名を指定

# トークナイザーとパイプラインの設定
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=-1)  # device=-1はCPUを使用する設定

def generate_text(prompt, max_length):
    result = generator(prompt, max_length=max_length, num_return_sequences=1)
    return result[0]['generated_text']

iface = gr.Interface(
    fn=generate_text,
    inputs=[
        gr.Textbox(label="プロンプト", placeholder="ここに日本語のプロンプトを入力してください"),
        gr.Slider(minimum=10, maximum=200, value=50, step=1, label="最大長")
    ],
    outputs=gr.Textbox(label="生成されたテキスト")
)

iface.launch()