Spaces:
Sleeping
Sleeping
Delete model.py
Browse files
model.py
DELETED
@@ -1,43 +0,0 @@
|
|
1 |
-
import os
|
2 |
-
import torch
|
3 |
-
from transformers import AutoTokenizer, AutoModelForCausalLM
|
4 |
-
|
5 |
-
# ใช้ Hugging Face Cache Directory
|
6 |
-
MODEL_NAME = "deepseek-ai/deepseek-llm-7b-chat"
|
7 |
-
MODEL_DIR = os.getenv("HF_HOME", "/tmp")
|
8 |
-
|
9 |
-
# ✅ โหลด Tokenizer และ Model ครั้งเดียวเท่านั้น
|
10 |
-
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, cache_dir=MODEL_DIR)
|
11 |
-
model = AutoModelForCausalLM.from_pretrained(
|
12 |
-
MODEL_NAME,
|
13 |
-
torch_dtype=torch.float16,
|
14 |
-
device_map="auto",
|
15 |
-
cache_dir=MODEL_DIR
|
16 |
-
)
|
17 |
-
|
18 |
-
def classify_esi(symptoms):
|
19 |
-
"""
|
20 |
-
ใช้โมเดล AI ประเมินระดับ ESI จากข้อความอาการของผู้ป่วย
|
21 |
-
"""
|
22 |
-
prompt = (
|
23 |
-
"คุณเป็นแพทย์เวชศาสตร์ฉุกเฉินที่ต้องประเมิน ESI 1-5 ตามอาการที่ได้รับ..."
|
24 |
-
f"\nอาการของผู้ป่วย: {symptoms}\n"
|
25 |
-
"กรุณาประเมิน ESI เป็นตัวเลข 1-5 เท่านั้น ถ้าข้อมูลไม่พอให้ตอบว่า 'ไม่สามารถประเมินได้'"
|
26 |
-
)
|
27 |
-
|
28 |
-
inputs = tokenizer(prompt, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
|
29 |
-
|
30 |
-
with torch.no_grad():
|
31 |
-
outputs = model.generate(
|
32 |
-
**inputs,
|
33 |
-
max_new_tokens=5, # ✅ จำกัดคำตอบให้สั้น
|
34 |
-
do_sample=False # ✅ ปิดการสุ่มเพื่อลดเวลาประมวลผล
|
35 |
-
)
|
36 |
-
|
37 |
-
response = tokenizer.decode(outputs[0], skip_special_tokens=True).strip()
|
38 |
-
|
39 |
-
for esi in ["1", "2", "3", "4", "5"]:
|
40 |
-
if esi in response:
|
41 |
-
return int(esi)
|
42 |
-
|
43 |
-
return "ไม่สามารถประเมินได้"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|