Tortyfishguy commited on
Commit
aa41671
·
verified ·
1 Parent(s): 96c717f

Delete model.py

Browse files
Files changed (1) hide show
  1. model.py +0 -43
model.py DELETED
@@ -1,43 +0,0 @@
1
- import os
2
- import torch
3
- from transformers import AutoTokenizer, AutoModelForCausalLM
4
-
5
- # ใช้ Hugging Face Cache Directory
6
- MODEL_NAME = "deepseek-ai/deepseek-llm-7b-chat"
7
- MODEL_DIR = os.getenv("HF_HOME", "/tmp")
8
-
9
- # ✅ โหลด Tokenizer และ Model ครั้งเดียวเท่านั้น
10
- tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, cache_dir=MODEL_DIR)
11
- model = AutoModelForCausalLM.from_pretrained(
12
- MODEL_NAME,
13
- torch_dtype=torch.float16,
14
- device_map="auto",
15
- cache_dir=MODEL_DIR
16
- )
17
-
18
- def classify_esi(symptoms):
19
- """
20
- ใช้โมเดล AI ประเมินระดับ ESI จากข้อความอาการของผู้ป่วย
21
- """
22
- prompt = (
23
- "คุณเป็นแพทย์เวชศาสตร์ฉุกเฉินที่ต้องประเมิน ESI 1-5 ตามอาการที่ได้รับ..."
24
- f"\nอาการของผู้ป่วย: {symptoms}\n"
25
- "กรุณาประเมิน ESI เป็นตัวเลข 1-5 เท่านั้น ถ้าข้อมูลไม่พอให้ตอบว่า 'ไม่สามารถประเมินได้'"
26
- )
27
-
28
- inputs = tokenizer(prompt, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
29
-
30
- with torch.no_grad():
31
- outputs = model.generate(
32
- **inputs,
33
- max_new_tokens=5, # ✅ จำกัดคำตอบให้สั้น
34
- do_sample=False # ✅ ปิดการสุ่มเพื่อลดเวลาประมวลผล
35
- )
36
-
37
- response = tokenizer.decode(outputs[0], skip_special_tokens=True).strip()
38
-
39
- for esi in ["1", "2", "3", "4", "5"]:
40
- if esi in response:
41
- return int(esi)
42
-
43
- return "ไม่สามารถประเมินได้"