Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -2,7 +2,7 @@ import gradio as gr
|
|
2 |
import requests
|
3 |
import torch
|
4 |
from transformers import AutoModel, AutoTokenizer
|
5 |
-
from huggingface_hub import HfApi
|
6 |
|
7 |
def convert_and_deploy(url, model_name, hf_username, hf_token):
|
8 |
# セーフテンソルファイルをダウンロード
|
@@ -16,21 +16,27 @@ def convert_and_deploy(url, model_name, hf_username, hf_token):
|
|
16 |
f.write(response.content)
|
17 |
|
18 |
# モデルを読み込み
|
19 |
-
|
20 |
-
|
|
|
|
|
|
|
21 |
|
22 |
# モデルをfloat16形式で保存
|
23 |
model.save_pretrained(f"{model_name}_float16", torch_dtype=torch.float16)
|
24 |
|
25 |
# モデルをHugging Faceにデプロイ
|
26 |
api = HfApi()
|
27 |
-
|
28 |
-
|
29 |
-
|
30 |
-
|
31 |
-
|
32 |
-
|
33 |
-
|
|
|
|
|
|
|
34 |
|
35 |
return "モデルをfloat16に変換し、Hugging Faceにデプロイしました。"
|
36 |
|
|
|
2 |
import requests
|
3 |
import torch
|
4 |
from transformers import AutoModel, AutoTokenizer
|
5 |
+
from huggingface_hub import HfApi, hf_hub_download
|
6 |
|
7 |
def convert_and_deploy(url, model_name, hf_username, hf_token):
|
8 |
# セーフテンソルファイルをダウンロード
|
|
|
16 |
f.write(response.content)
|
17 |
|
18 |
# モデルを読み込み
|
19 |
+
try:
|
20 |
+
model = AutoModel.from_pretrained("path_to_model", torch_dtype=torch.float16, use_safetensors=True, token=hf_token)
|
21 |
+
model.load_state_dict(torch.load(file_path))
|
22 |
+
except Exception as e:
|
23 |
+
return f"モデルの読み込みに失敗しました。エラー: {e}"
|
24 |
|
25 |
# モデルをfloat16形式で保存
|
26 |
model.save_pretrained(f"{model_name}_float16", torch_dtype=torch.float16)
|
27 |
|
28 |
# モデルをHugging Faceにデプロイ
|
29 |
api = HfApi()
|
30 |
+
try:
|
31 |
+
api.upload_folder(
|
32 |
+
folder_path=f"{model_name}_float16",
|
33 |
+
repo_id=f"{hf_username}/{model_name}",
|
34 |
+
token=hf_token,
|
35 |
+
path_in_repo=f"{model_name}_float16",
|
36 |
+
create_remote_repo=True
|
37 |
+
)
|
38 |
+
except Exception as e:
|
39 |
+
return f"モデルのデプロイに失敗しました。エラー: {e}"
|
40 |
|
41 |
return "モデルをfloat16に変換し、Hugging Faceにデプロイしました。"
|
42 |
|