Cristian Sas
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -71,6 +71,38 @@ De ce să alegi LLMLit?
|
|
71 |
|
72 |
🔹 **Acest sistem este ideal pentru rularea LLMLit fără probleme, oferind un echilibru perfect între performanță și eficiență.**
|
73 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
74 |
---
|
75 |
### **Coming Soon: Modele de Generare Imagine și Video 🎨🎬**
|
76 |
---
|
@@ -196,33 +228,6 @@ LLMLit poate fi optimizat pentru:
|
|
196 |
|
197 |
---
|
198 |
|
199 |
-
## **🚀 Cum să începi cu LLMLit**
|
200 |
-
|
201 |
-
📌 [Ghid de Instalare: LM Studio + LLMLit pe Windows](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
|
202 |
-
|
203 |
-
📌 [Ghid de Instalare: Ollama și să rulezi LLMLit de pe Hugging Face](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
|
204 |
-
|
205 |
-
📌 [Ghid de Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀 ](https://huggingface.co/LLMLit/LLMLit/discussions/2#679bfd1a9141a5524a4994b7)
|
206 |
-
|
207 |
-
|
208 |
-
Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
|
209 |
-
|
210 |
-
```python
|
211 |
-
from transformers import AutoModelForCausalLM, AutoTokenizer
|
212 |
-
|
213 |
-
# Încarcă modelul și tokenizer-ul
|
214 |
-
model = AutoModelForCausalLM.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
|
215 |
-
tokenizer = AutoTokenizer.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
|
216 |
-
|
217 |
-
# Generează text
|
218 |
-
inputs = tokenizer("Your prompt here", return_tensors="pt")
|
219 |
-
outputs = model.generate(**inputs, max_length=100)
|
220 |
-
```
|
221 |
-
|
222 |
-
---
|
223 |
-
|
224 |
-
Sper că acest ghid îți va fi de ajutor! 😊
|
225 |
-
|
226 |
|
227 |
Multe surprize în viitor! 🎁✨
|
228 |
Suntem super entuziasmați să vă anunțăm că, în curând, vom adăuga multe freebies și documentație detaliată pentru toți dezvoltatorii care vor să învețe și să colaboreze cu noi! 📚🎉
|
|
|
71 |
|
72 |
🔹 **Acest sistem este ideal pentru rularea LLMLit fără probleme, oferind un echilibru perfect între performanță și eficiență.**
|
73 |
|
74 |
+
|
75 |
+
|
76 |
+
## **🚀 Cum să începi cu LLMLit**
|
77 |
+
|
78 |
+
📌 [Ghid de Instalare: LM Studio + LLMLit pe Windows](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
|
79 |
+
|
80 |
+
📌 [Ghid de Instalare: Ollama și să rulezi LLMLit de pe Hugging Face](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
|
81 |
+
|
82 |
+
📌 [Ghid de Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀 ](https://huggingface.co/LLMLit/LLMLit/discussions/2#679bfd1a9141a5524a4994b7)
|
83 |
+
|
84 |
+
|
85 |
+
Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
|
86 |
+
|
87 |
+
```python
|
88 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
89 |
+
|
90 |
+
# Încarcă modelul și tokenizer-ul
|
91 |
+
model = AutoModelForCausalLM.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
|
92 |
+
tokenizer = AutoTokenizer.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
|
93 |
+
|
94 |
+
# Generează text
|
95 |
+
inputs = tokenizer("Your prompt here", return_tensors="pt")
|
96 |
+
outputs = model.generate(**inputs, max_length=100)
|
97 |
+
```
|
98 |
+
|
99 |
+
---
|
100 |
+
|
101 |
+
Sper că acest ghid îți va fi de ajutor! 😊
|
102 |
+
|
103 |
+
|
104 |
+
|
105 |
+
|
106 |
---
|
107 |
### **Coming Soon: Modele de Generare Imagine și Video 🎨🎬**
|
108 |
---
|
|
|
228 |
|
229 |
---
|
230 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
231 |
|
232 |
Multe surprize în viitor! 🎁✨
|
233 |
Suntem super entuziasmați să vă anunțăm că, în curând, vom adăuga multe freebies și documentație detaliată pentru toți dezvoltatorii care vor să învețe și să colaboreze cu noi! 📚🎉
|