Cristian Sas
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -98,6 +98,92 @@ outputs = model.generate(**inputs, max_length=100)
|
|
98 |
|
99 |
---
|
100 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
101 |
🔗 **Mai multe detalii:** [LLMLit on Hugging Face](https://huggingface.co/LLMLit) 🚀
|
102 |
|
103 |
|
|
|
98 |
|
99 |
---
|
100 |
|
101 |
+
Sigur! Iată o documentație simplă și clară despre cum să instalezi **Ollama** și să rulezi **LLMLit** de pe Hugging Face.
|
102 |
+
|
103 |
+
---
|
104 |
+
|
105 |
+
# **📌 Ghid de Instalare: Ollama + LLMLit**
|
106 |
+
|
107 |
+
## **🔹 Pasul 1: Instalarea Ollama**
|
108 |
+
Ollama este un framework ușor pentru rularea modelelor **LLM (Large Language Models)** local.
|
109 |
+
|
110 |
+
### **🖥️ Pentru macOS & Linux**
|
111 |
+
1️⃣ **Deschide un terminal și rulează:**
|
112 |
+
```sh
|
113 |
+
curl -fsSL https://ollama.com/install.sh | sh
|
114 |
+
```
|
115 |
+
2️⃣ **Repornește terminalul pentru a aplica modificările.**
|
116 |
+
|
117 |
+
### **🖥️ Pentru Windows (Necesită WSL2)**
|
118 |
+
1️⃣ **Activează WSL2 și instalează Ubuntu:**
|
119 |
+
- Deschide **PowerShell** ca administrator și rulează:
|
120 |
+
```powershell
|
121 |
+
wsl --install
|
122 |
+
```
|
123 |
+
- Repornește computerul.
|
124 |
+
|
125 |
+
2️⃣ **Instalează Ollama în WSL2:**
|
126 |
+
```sh
|
127 |
+
curl -fsSL https://ollama.com/install.sh | sh
|
128 |
+
```
|
129 |
+
|
130 |
+
3️⃣ **Verifică dacă Ollama este instalat corect:**
|
131 |
+
```sh
|
132 |
+
ollama
|
133 |
+
```
|
134 |
+
Dacă apare meniul de utilizare, instalarea a fost realizată cu succes! 🎉
|
135 |
+
|
136 |
+
---
|
137 |
+
|
138 |
+
## **🔹 Pasul 2: Instalarea LLMLit de pe Hugging Face**
|
139 |
+
LLMLit poate fi descărcat și rulat în Ollama folosind comanda `ollama pull`.
|
140 |
+
|
141 |
+
1️⃣ **Deschide un terminal și rulează:**
|
142 |
+
```sh
|
143 |
+
ollama pull llmlit/LLMLit-0.2-8B-Instruct
|
144 |
+
```
|
145 |
+
|
146 |
+
2️⃣ **Verifică dacă modelul a fost instalat:**
|
147 |
+
```sh
|
148 |
+
ollama list
|
149 |
+
```
|
150 |
+
Ar trebui să vezi **LLMLit** în lista de modele disponibile. ✅
|
151 |
+
|
152 |
+
---
|
153 |
+
|
154 |
+
## **🔹 Pasul 3: Rularea LLMLit în Ollama**
|
155 |
+
După instalare, poți începe să interacționezi cu **LLMLit** astfel:
|
156 |
+
|
157 |
+
```sh
|
158 |
+
ollama run llmlit/LLMLit-0.2-8B-Instruct
|
159 |
+
```
|
160 |
+
Aceasta va deschide o sesiune locală unde poți discuta cu modelul. 🤖
|
161 |
+
|
162 |
+
Pentru a trimite un prompt personalizat:
|
163 |
+
```sh
|
164 |
+
ollama run llmlit/LLMLit-0.2-8B-Instruct "Salut, cum pot folosi LLMLit?"
|
165 |
+
```
|
166 |
+
|
167 |
+
---
|
168 |
+
|
169 |
+
## **🔹 Pasul 4: Utilizarea LLMLit în Python**
|
170 |
+
Dacă vrei să integrezi **LLMLit** într-un script Python, instalează librăria necesară:
|
171 |
+
```sh
|
172 |
+
pip install ollama
|
173 |
+
```
|
174 |
+
|
175 |
+
Apoi, creează un script Python:
|
176 |
+
```python
|
177 |
+
import ollama
|
178 |
+
|
179 |
+
response = ollama.chat(model='llmlit/LLMLit-0.2-8B-Instruct', messages=[{'role': 'user', 'content': 'Cum funcționează LLMLit?'}])
|
180 |
+
print(response['message']['content'])
|
181 |
+
```
|
182 |
+
|
183 |
+
---
|
184 |
+
|
185 |
+
🚀 **Gata!** Acum ai **Ollama + LLMLit** instalat și pregătit de utilizare local! Dacă ai întrebări, spune-mi. 😊
|
186 |
+
|
187 |
🔗 **Mai multe detalii:** [LLMLit on Hugging Face](https://huggingface.co/LLMLit) 🚀
|
188 |
|
189 |
|