File size: 1,032 Bytes
7e35d0f
695e718
 
 
7e35d0f
c0c9825
 
7e35d0f
7325e65
69169eb
c0c9825
 
a7a45a3
815a6b6
 
a7a45a3
 
 
 
 
 
 
7325e65
04ed384
a7a45a3
 
 
 
c0c9825
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
from spaces import GPU
import torch
from transformers import pipeline, AutoTokenizer
import gradio as gr

# 日本語モデルを指定
model_name = "rinna/japanese-gpt2-medium"

# トークナイザーとパイプラインの設定
tokenizer = AutoTokenizer.from_pretrained(model_name, legacy=False)
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
generator = pipeline('text-generation', model=model_name, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1)

@GPU(duration=120)

def generate_text(prompt, max_length):
    result = generator(prompt, max_length=max_length, num_return_sequences=1)
    return result[0]['generated_text']

iface = gr.Interface(
    fn=generate_text,
    inputs=[
        gr.Textbox(label="プロンプト", placeholder="ここに日本語のプロンプトを入力してください"),
        gr.Slider(minimum=10, maximum=20000, value=50, step=1, label="最大長")
    ],
    outputs=gr.Textbox(label="生成されたテキスト")
)

iface.launch(share=True)