tamatwi commited on
Commit
e873794
·
verified ·
1 Parent(s): af5341b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -17
app.py CHANGED
@@ -1,26 +1,29 @@
1
- import gradio as gr
2
- from transformers import pipeline
3
  import os
 
 
 
 
 
4
 
5
- # Hugging Faceのアクセストークンを環境変数から取得
6
- access_token = os.getenv("HUGGING_FACE_HUB_TOKEN")
7
 
8
- # SakanaAIのテキスト生成モデルの初期化
9
- text_generator = pipeline("text-generation", model="SakanaAI/your-model-name", use_auth_token=access_token)
 
 
10
 
11
- # GPUを使用する関数の定義
12
- def generate_text(prompt):
13
- result = text_generator(prompt, max_length=50)[0]
14
- return result['generated_text']
15
 
16
- # Gradioインターフェースの設定
17
  iface = gr.Interface(
18
  fn=generate_text,
19
- inputs="text",
20
- outputs="text",
21
- title="SakanaAI テキスト生成",
22
- description="プロンプトを入力して、テキストを生成します。"
 
23
  )
24
 
25
- if __name__ == "__main__":
26
- iface.launch()
 
 
 
1
  import os
2
+ import gradio as gr
3
+ from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
4
+
5
+ # CUDAを無効にする
6
+ os.environ["CUDA_VISIBLE_DEVICES"] = ""
7
 
8
+ # 日本語モデルを指定
9
+ model_name = "sakanaai/evolllm-jp" # Sakana AIのモデル名を指定
10
 
11
+ # トークナイザーとパイプラインの設定
12
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
13
+ model = AutoModelForCausalLM.from_pretrained(model_name)
14
+ generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=-1) # device=-1はCPUを使用する設定
15
 
16
+ def generate_text(prompt, max_length):
17
+ result = generator(prompt, max_length=max_length, num_return_sequences=1)
18
+ return result[0]['generated_text']
 
19
 
 
20
  iface = gr.Interface(
21
  fn=generate_text,
22
+ inputs=[
23
+ gr.Textbox(label="プロンプト", placeholder="ここに日本語のプロンプトを入力してください"),
24
+ gr.Slider(minimum=10, maximum=200, value=50, step=1, label="最大長")
25
+ ],
26
+ outputs=gr.Textbox(label="生成されたテキスト")
27
  )
28
 
29
+ iface.launch()