Cristian Sas commited on
Commit
ac0dc0a
·
verified ·
1 Parent(s): 1869ef3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +86 -0
README.md CHANGED
@@ -98,6 +98,92 @@ outputs = model.generate(**inputs, max_length=100)
98
 
99
  ---
100
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
101
  🔗 **Mai multe detalii:** [LLMLit on Hugging Face](https://huggingface.co/LLMLit) 🚀
102
 
103
 
 
98
 
99
  ---
100
 
101
+ Sigur! Iată o documentație simplă și clară despre cum să instalezi **Ollama** și să rulezi **LLMLit** de pe Hugging Face.
102
+
103
+ ---
104
+
105
+ # **📌 Ghid de Instalare: Ollama + LLMLit**
106
+
107
+ ## **🔹 Pasul 1: Instalarea Ollama**
108
+ Ollama este un framework ușor pentru rularea modelelor **LLM (Large Language Models)** local.
109
+
110
+ ### **🖥️ Pentru macOS & Linux**
111
+ 1️⃣ **Deschide un terminal și rulează:**
112
+ ```sh
113
+ curl -fsSL https://ollama.com/install.sh | sh
114
+ ```
115
+ 2️⃣ **Repornește terminalul pentru a aplica modificările.**
116
+
117
+ ### **🖥️ Pentru Windows (Necesită WSL2)**
118
+ 1️⃣ **Activează WSL2 și instalează Ubuntu:**
119
+ - Deschide **PowerShell** ca administrator și rulează:
120
+ ```powershell
121
+ wsl --install
122
+ ```
123
+ - Repornește computerul.
124
+
125
+ 2️⃣ **Instalează Ollama în WSL2:**
126
+ ```sh
127
+ curl -fsSL https://ollama.com/install.sh | sh
128
+ ```
129
+
130
+ 3️⃣ **Verifică dacă Ollama este instalat corect:**
131
+ ```sh
132
+ ollama
133
+ ```
134
+ Dacă apare meniul de utilizare, instalarea a fost realizată cu succes! 🎉
135
+
136
+ ---
137
+
138
+ ## **🔹 Pasul 2: Instalarea LLMLit de pe Hugging Face**
139
+ LLMLit poate fi descărcat și rulat în Ollama folosind comanda `ollama pull`.
140
+
141
+ 1️⃣ **Deschide un terminal și rulează:**
142
+ ```sh
143
+ ollama pull llmlit/LLMLit-0.2-8B-Instruct
144
+ ```
145
+
146
+ 2️⃣ **Verifică dacă modelul a fost instalat:**
147
+ ```sh
148
+ ollama list
149
+ ```
150
+ Ar trebui să vezi **LLMLit** în lista de modele disponibile. ✅
151
+
152
+ ---
153
+
154
+ ## **🔹 Pasul 3: Rularea LLMLit în Ollama**
155
+ După instalare, poți începe să interacționezi cu **LLMLit** astfel:
156
+
157
+ ```sh
158
+ ollama run llmlit/LLMLit-0.2-8B-Instruct
159
+ ```
160
+ Aceasta va deschide o sesiune locală unde poți discuta cu modelul. 🤖
161
+
162
+ Pentru a trimite un prompt personalizat:
163
+ ```sh
164
+ ollama run llmlit/LLMLit-0.2-8B-Instruct "Salut, cum pot folosi LLMLit?"
165
+ ```
166
+
167
+ ---
168
+
169
+ ## **🔹 Pasul 4: Utilizarea LLMLit în Python**
170
+ Dacă vrei să integrezi **LLMLit** într-un script Python, instalează librăria necesară:
171
+ ```sh
172
+ pip install ollama
173
+ ```
174
+
175
+ Apoi, creează un script Python:
176
+ ```python
177
+ import ollama
178
+
179
+ response = ollama.chat(model='llmlit/LLMLit-0.2-8B-Instruct', messages=[{'role': 'user', 'content': 'Cum funcționează LLMLit?'}])
180
+ print(response['message']['content'])
181
+ ```
182
+
183
+ ---
184
+
185
+ 🚀 **Gata!** Acum ai **Ollama + LLMLit** instalat și pregătit de utilizare local! Dacă ai întrebări, spune-mi. 😊
186
+
187
  🔗 **Mai multe detalii:** [LLMLit on Hugging Face](https://huggingface.co/LLMLit) 🚀
188
 
189