Cristian Sas commited on
Commit
7a4056f
·
verified ·
1 Parent(s): 7e0e33b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -291
README.md CHANGED
@@ -197,6 +197,13 @@ LLMLit poate fi optimizat pentru:
197
  ---
198
 
199
  ## **🚀 Cum să începi cu LLMLit**
 
 
 
 
 
 
 
200
  Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
201
 
202
  ```python
@@ -213,297 +220,6 @@ outputs = model.generate(**inputs, max_length=100)
213
 
214
  ---
215
 
216
-
217
-
218
- ![Civis3.png](https://cristiansas.com/storage/hero-still3dc1eab6.png)
219
-
220
-
221
- # **📌 Ghid de Instalare: LM Studio + LLMLit pe Windows**
222
-
223
- ## **🔹 1. Instalarea LM Studio**
224
- LM Studio este o aplicație desktop care permite descărcarea și rularea locală a modelelor LLM.
225
-
226
- ### **🖥️ Pasul 1: Descarcă și instalează LM Studio**
227
- 1️⃣ Mergi la site-ul oficial:
228
- 🔗 [LM Studio Download](https://lmstudio.ai/)
229
-
230
- 2️⃣ Descarcă versiunea pentru **Windows** și instalează aplicația.
231
-
232
- 3️⃣ După instalare, deschide **LM Studio**.
233
-
234
- ---
235
-
236
- ## **🔹 2. Descărcarea și Instalarea LLMLit**
237
- Pentru a folosi **LLMLit**, trebuie să descarci modelul de pe **Hugging Face**.
238
-
239
- ### **🖥️ Pasul 2: Adăugarea Modelului în LM Studio**
240
- 1️⃣ **Deschide LM Studio** și mergi la tab-ul **"Model Catalog"**.
241
-
242
- 2️⃣ Caută modelul **LLMLit** manual sau folosește acest link pentru descărcare:
243
- 🔗 [LLMLit pe Hugging Face](https://huggingface.co/LLMLit/LLMLit-0.2-8B-Instruct)
244
-
245
- 3️⃣ Copiază linkul modelului și introdu-l în **LM Studio → "Download Custom Model"**.
246
-
247
- 4️⃣ Alege locația unde vrei să salvezi modelul și începe descărcarea.
248
-
249
- ---
250
-
251
- ## **🔹 3. Configurarea și Rularea LLMLit**
252
- După ce ai descărcat modelul, trebuie să-l configurezi și să-l rulezi.
253
-
254
- ### **🖥️ Pasul 3: Setarea Modelului**
255
- 1️⃣ Mergi la **"Local Models"** în LM Studio.
256
-
257
- 2️⃣ Selectează **LLMLit-0.2-8B-Instruct** din listă.
258
-
259
- 3️⃣ Apasă **"Launch"** pentru a începe rularea modelului.
260
-
261
- ---
262
-
263
- ## **🔹 4. Interacțiunea cu LLMLit**
264
- După ce modelul este activ, poți începe să-l folosești în LM Studio.
265
-
266
- 1️⃣ **Folosește interfața LM Studio** pentru a trimite mesaje direct modelului.
267
-
268
- 2️⃣ **Pentru integrare în Python**, instalează `ollama` și folosește următorul script:
269
-
270
- ```python
271
- import ollama
272
-
273
- response = ollama.chat(model='llmlit/LLMLit-0.2-8B-Instruct',
274
- messages=[{'role': 'user', 'content': 'Salut, cum pot folosi LLMLit?'}])
275
-
276
- print(response['message']['content'])
277
- ```
278
-
279
- ---
280
-
281
- ## **🔹 5. Optimizarea Performanței**
282
- Pentru a rula LLMLit mai eficient pe Windows:
283
- ✅ **Activează GPU Acceleration** dacă ai placă video compatibilă.
284
- ✅ **Folosește modele mai mici**, dacă sistemul tău nu are suficient RAM.
285
- ✅ **Optimizează parametrii modelului** din setările LM Studio pentru un echilibru între viteză și precizie.
286
-
287
- ---
288
-
289
- 🎉 **Gata!** Acum ai **LM Studio + LLMLit** instalat pe Windows și gata de utilizare! 🚀
290
-
291
- ---
292
-
293
-
294
- ![Civis3.png](https://cristiansas.com/storage/ollama-homepage-local-language-models.jpg)
295
-
296
-
297
- 🖥️Iată o documentație simplă și clară despre cum să instalezi **Ollama** și să rulezi **LLMLit** de pe Hugging Face.
298
-
299
- ---
300
-
301
- # **📌 Ghid de Instalare: Ollama + LLMLit**
302
-
303
- ## **🔹 Pasul 1: Instalarea Ollama**
304
- Ollama este un framework ușor pentru rularea modelelor **LLM (Large Language Models)** local.
305
-
306
- ### **🖥️ Pentru macOS & Linux**
307
- 1️⃣ **Deschide un terminal și rulează:**
308
- ```sh
309
- curl -fsSL https://ollama.com/install.sh | sh
310
- ```
311
- 2️⃣ **Repornește terminalul pentru a aplica modificările.**
312
-
313
- ### **🖥️ Pentru Windows (Necesită WSL2)**
314
- 1️⃣ **Activează WSL2 și instalează Ubuntu:**
315
- - Deschide **PowerShell** ca administrator și rulează:
316
- ```powershell
317
- wsl --install
318
- ```
319
- - Repornește computerul.
320
-
321
- 2️⃣ **Instalează Ollama în WSL2:**
322
- ```sh
323
- curl -fsSL https://ollama.com/install.sh | sh
324
- ```
325
-
326
- 3️⃣ **Verifică dacă Ollama este instalat corect:**
327
- ```sh
328
- ollama
329
- ```
330
- Dacă apare meniul de utilizare, instalarea a fost realizată cu succes! 🎉
331
-
332
- ---
333
-
334
- ## **🔹 Pasul 2: Instalarea LLMLit de pe Hugging Face**
335
- LLMLit poate fi descărcat și rulat în Ollama folosind comanda `ollama pull`.
336
-
337
- 1️⃣ **Deschide un terminal și rulează:**
338
- ```sh
339
- ollama pull llmlit/LLMLit-0.2-8B-Instruct
340
- ```
341
-
342
- 2️⃣ **Verifică dacă modelul a fost instalat:**
343
- ```sh
344
- ollama list
345
- ```
346
- Ar trebui să vezi **LLMLit** în lista de modele disponibile. ✅
347
-
348
- ---
349
-
350
- ## **🔹 Pasul 3: Rularea LLMLit în Ollama**
351
- După instalare, poți începe să interacționezi cu **LLMLit** astfel:
352
-
353
- ```sh
354
- ollama run llmlit/LLMLit-0.2-8B-Instruct
355
- ```
356
- Aceasta va deschide o sesiune locală unde poți discuta cu modelul. 🤖
357
-
358
- Pentru a trimite un prompt personalizat:
359
- ```sh
360
- ollama run llmlit/LLMLit-0.2-8B-Instruct "Salut, cum pot folosi LLMLit?"
361
- ```
362
-
363
- ---
364
-
365
- ## **🔹 Pasul 4: Utilizarea LLMLit în Python**
366
- Dacă vrei să integrezi **LLMLit** într-un script Python, instalează librăria necesară:
367
- ```sh
368
- pip install ollama
369
- ```
370
-
371
- Apoi, creează un script Python:
372
- ```python
373
- import ollama
374
-
375
- response = ollama.chat(model='llmlit/LLMLit-0.2-8B-Instruct', messages=[{'role': 'user', 'content': 'Cum funcționează LLMLit?'}])
376
- print(response['message']['content'])
377
- ```
378
-
379
- ---
380
-
381
- 🚀 **Gata!** Acum ai **Ollama + LLMLit** instalat și pregătit de utilizare local!😊
382
-
383
- 🔗 **Mai multe detalii:** [LLMLit on Hugging Face](https://huggingface.co/LLMLit) 🚀
384
-
385
- ---
386
-
387
-
388
- ---
389
-
390
-
391
- ---
392
-
393
- ### **Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀**
394
- ---
395
-
396
- **Retrieval-Augmented Generation (RAG)** folosind modelul **LLMLit** disponibil pe Hugging Face. RAG combină căutarea informațiilor relevante cu generarea de texte pentru a produce răspunsuri mai precise. Vom utiliza Hugging Face pentru a integra acest model și vom folosi o bază de date externă pentru a face interogări și a îmbogăți răspunsurile generate de modelul LLMLit.
397
-
398
- #### 1. **Instalarea pachetelor necesare 🛠️**
399
-
400
- În primul rând, trebuie să instalezi librăriile necesare pentru a lucra cu **Hugging Face** și **LLMLit**. Poți face acest lucru folosind pip:
401
-
402
- ```bash
403
- pip install transformers datasets faiss-cpu
404
- ```
405
-
406
- - `transformers` este pachetul care ne permite să interacționăm cu modelele de la Hugging Face.
407
- - `datasets` ne ajută să gestionăm datele externe pentru căutare.
408
- - `faiss-cpu` este opțional, dar îl recomandăm pentru căutarea vectorială rapidă a documentelor.
409
-
410
- #### 2. **Încărcarea modelului LLMLit de pe Hugging Face 🔄**
411
-
412
- Acum, putem încarcă modelul **LLMLit** folosind Hugging Face:
413
-
414
- ```python
415
- from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
416
-
417
- # Încărcăm modelul LLMLit și tokenizer-ul
418
- tokenizer = AutoTokenizer.from_pretrained("LLMLit/LLMLit")
419
- model = AutoModelForSeq2SeqLM.from_pretrained("LLMLit/LLMLit")
420
- ```
421
-
422
- #### 3. **Configurarea bazei de date de documente 🔍**
423
-
424
- Pentru a folosi RAG, avem nevoie de o sursă externă de documente pentru a recupera informațiile relevante. În exemplul de față, vom folosi **FAISS** pentru căutarea rapidă a documentelor. Începe prin a crea un index FAISS:
425
-
426
- ```python
427
- import faiss
428
- import numpy as np
429
-
430
- # Crearea unui set de documente fictive
431
- documents = [
432
- "LLMLit este un model puternic de procesare a limbajului natural.",
433
- "RAG combină generarea de texte cu căutarea de informații externe.",
434
- "Hugging Face oferă o platformă excelentă pentru modelele AI.",
435
- "FAISS este un tool de căutare vectorială rapidă pentru baze de date mari."
436
- ]
437
-
438
- # Tokenizare și crearea vectorilor pentru documente
439
- embedding_model = AutoModelForSeq2SeqLM.from_pretrained("sentence-transformers/all-MiniLM-L6-v2")
440
- tokenizer = AutoTokenizer.from_pretrained("sentence-transformers/all-MiniLM-L6-v2")
441
-
442
- def encode_documents(documents):
443
- embeddings = []
444
- for doc in documents:
445
- inputs = tokenizer(doc, return_tensors="pt", padding=True, truncation=True)
446
- with torch.no_grad():
447
- embeddings.append(embedding_model(**inputs).last_hidden_state.mean(dim=1).numpy())
448
- return np.vstack(embeddings)
449
-
450
- document_vectors = encode_documents(documents)
451
-
452
- # Crearea indexului FAISS
453
- index = faiss.IndexFlatL2(document_vectors.shape[1]) # Distanta L2
454
- index.add(document_vectors)
455
- ```
456
-
457
- #### 4. **Căutarea celor mai relevante documente 🔍**
458
-
459
- Acum, putem folosi FAISS pentru a căuta documentele cele mai relevante pe baza întrebării utilizatorului:
460
-
461
- ```python
462
- def retrieve_documents(query, top_k=3):
463
- query_vector = encode_documents([query]) # Încodifică întrebarea
464
- distances, indices = index.search(query_vector, top_k) # Căutăm cele mai apropiate documente
465
- return [documents[i] for i in indices[0]]
466
-
467
- # Exemplu de interogare
468
- query = "Cum se folosește RAG în aplicațiile AI?"
469
- relevant_documents = retrieve_documents(query)
470
- print(relevant_documents)
471
- ```
472
-
473
- #### 5. **Generarea răspunsului folosind LLMLit 📝**
474
-
475
- Acum că avem documentele relevante, le putem utiliza pentru a genera un răspuns contextului întrebării. Vom adăuga aceste documente la promptul nostru pentru LLMLit:
476
-
477
- ```python
478
- def generate_answer(query, documents):
479
- context = " ".join(documents) # Adăugăm documentele relevante ca și context
480
- prompt = f"Întrebare: {query}\nContext: {context}\nRăspuns:"
481
-
482
- # Tokenizarea promptului
483
- inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True)
484
-
485
- # Generarea răspunsului
486
- outputs = model.generate(inputs['input_ids'], max_length=200, num_beams=5, early_stopping=True)
487
- answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
488
- return answer
489
-
490
- # Generarea răspunsului final
491
- answer = generate_answer(query, relevant_documents)
492
- print(answer)
493
- ```
494
-
495
- #### 6. **Rezultatul final 🎯**
496
-
497
- În acest moment, ai un sistem complet RAG care combină **căutarea de documente externe** cu **generarea de text** utilizând LLMLit. Modelul va căuta informațiile relevante în documentele tale și va genera un răspuns informativ și precis.
498
-
499
- ---
500
-
501
- ### **Concluzie 🌟**
502
-
503
- Implementarea **RAG** folosind **LLMLit** îmbunătățește semnificativ calitatea răspunsurilor oferite de modele de limbaj, deoarece acestea pot accesa o bază de date externă pentru a obține informații mai precise și mai detaliate. Utilizând Hugging Face și librăriile precum FAISS, poți construi un sistem puternic de întrebări și răspunsuri bazat pe RAG.
504
-
505
- 🔗 **Pentru a experimenta cu LLMLit și pentru mai multe informații, vizitează [pagina oficială Hugging Face a modelului LLMLit](https://huggingface.co/LLMLit/LLMLit).**
506
-
507
  Sper că acest ghid îți va fi de ajutor! 😊
508
 
509
 
 
197
  ---
198
 
199
  ## **🚀 Cum să începi cu LLMLit**
200
+
201
+
202
+ 📌 [Ghid de Instalare: LM Studio + LLMLit pe Windows](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
203
+ 📌 [Ghid de Instalare: Ollama și să rulezi LLMLit de pe Hugging Face](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
204
+ 📌 [Ghid de Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀 ](https://huggingface.co/LLMLit/LLMLit/discussions/2#679bfd1a9141a5524a4994b7)
205
+
206
+
207
  Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
208
 
209
  ```python
 
220
 
221
  ---
222
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
223
  Sper că acest ghid îți va fi de ajutor! 😊
224
 
225