joermd commited on
Commit
5114a9c
·
verified ·
1 Parent(s): ccccb88

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -3
app.py CHANGED
@@ -2,6 +2,7 @@ import numpy as np
2
  import streamlit as st
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
4
  import torch
 
5
 
6
  # التحقق من توفر GPU
7
  device = "cuda" if torch.cuda.is_available() else "cpu"
@@ -11,12 +12,15 @@ def load_model():
11
  """
12
  تحميل النموذج والمُرمِّز مع التخزين المؤقت
13
  """
 
 
 
14
  model = AutoModelForCausalLM.from_pretrained(
15
- "joermd/speedy-llama2",
16
  torch_dtype=torch.float16,
17
- device_map=device
 
18
  )
19
- tokenizer = AutoTokenizer.from_pretrained("joermd/speedy-llama2")
20
  return model, tokenizer
21
 
22
  # الصور العشوائية للكلاب عند حدوث خطأ
@@ -63,6 +67,13 @@ try:
63
  model, tokenizer = load_model()
64
  except Exception as e:
65
  st.error(f"حدث خطأ أثناء تحميل النموذج: {str(e)}")
 
 
 
 
 
 
 
66
  st.stop()
67
 
68
  # إعداد واجهة Streamlit
@@ -73,6 +84,12 @@ temp_values = st.sidebar.slider('اختر قيمة درجة الحرارة', 0.0
73
  max_token_value = st.sidebar.slider('اختر الحد الأقصى للرموز', 100, 2000, 500)
74
  st.sidebar.button('إعادة تعيين المحادثة', on_click=reset_conversation)
75
 
 
 
 
 
 
 
76
  # تهيئة سجل المحادثة
77
  if "messages" not in st.session_state:
78
  st.session_state.messages = []
 
2
  import streamlit as st
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
4
  import torch
5
+ from accelerate import init_empty_weights
6
 
7
  # التحقق من توفر GPU
8
  device = "cuda" if torch.cuda.is_available() else "cpu"
 
12
  """
13
  تحميل النموذج والمُرمِّز مع التخزين المؤقت
14
  """
15
+ tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.2")
16
+
17
+ # تحميل النموذج مع إعدادات الذاكرة المنخفضة
18
  model = AutoModelForCausalLM.from_pretrained(
19
+ "mistralai/Mistral-7B-Instruct-v0.2",
20
  torch_dtype=torch.float16,
21
+ low_cpu_mem_usage=True,
22
+ device_map="auto"
23
  )
 
24
  return model, tokenizer
25
 
26
  # الصور العشوائية للكلاب عند حدوث خطأ
 
67
  model, tokenizer = load_model()
68
  except Exception as e:
69
  st.error(f"حدث خطأ أثناء تحميل النموذج: {str(e)}")
70
+ st.error("تأكد من تثبيت جميع المكتبات المطلوبة:")
71
+ st.code("""
72
+ pip install -U accelerate>=0.26.0
73
+ pip install transformers
74
+ pip install torch
75
+ pip install streamlit
76
+ """)
77
  st.stop()
78
 
79
  # إعداد واجهة Streamlit
 
84
  max_token_value = st.sidebar.slider('اختر الحد الأقصى للرموز', 100, 2000, 500)
85
  st.sidebar.button('إعادة تعيين المحادثة', on_click=reset_conversation)
86
 
87
+ # معلومات حول النموذج
88
+ st.sidebar.markdown("""
89
+ ### معلومات النظام
90
+ - النموذج: Mistral-7B-Instruct-v0.2
91
+ - الجهاز: GPU متوفر ✅ """ if torch.cuda.is_available() else "CPU ⚠️")
92
+
93
  # تهيئة سجل المحادثة
94
  if "messages" not in st.session_state:
95
  st.session_state.messages = []