Cristian Sas commited on
Commit
32171d7
·
verified ·
1 Parent(s): ecfaae1

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -27
README.md CHANGED
@@ -71,6 +71,38 @@ De ce să alegi LLMLit?
71
 
72
  🔹 **Acest sistem este ideal pentru rularea LLMLit fără probleme, oferind un echilibru perfect între performanță și eficiență.**
73
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
74
  ---
75
  ### **Coming Soon: Modele de Generare Imagine și Video 🎨🎬**
76
  ---
@@ -196,33 +228,6 @@ LLMLit poate fi optimizat pentru:
196
 
197
  ---
198
 
199
- ## **🚀 Cum să începi cu LLMLit**
200
-
201
- 📌 [Ghid de Instalare: LM Studio + LLMLit pe Windows](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
202
-
203
- 📌 [Ghid de Instalare: Ollama și să rulezi LLMLit de pe Hugging Face](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
204
-
205
- 📌 [Ghid de Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀 ](https://huggingface.co/LLMLit/LLMLit/discussions/2#679bfd1a9141a5524a4994b7)
206
-
207
-
208
- Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
209
-
210
- ```python
211
- from transformers import AutoModelForCausalLM, AutoTokenizer
212
-
213
- # Încarcă modelul și tokenizer-ul
214
- model = AutoModelForCausalLM.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
215
- tokenizer = AutoTokenizer.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
216
-
217
- # Generează text
218
- inputs = tokenizer("Your prompt here", return_tensors="pt")
219
- outputs = model.generate(**inputs, max_length=100)
220
- ```
221
-
222
- ---
223
-
224
- Sper că acest ghid îți va fi de ajutor! 😊
225
-
226
 
227
  Multe surprize în viitor! 🎁✨
228
  Suntem super entuziasmați să vă anunțăm că, în curând, vom adăuga multe freebies și documentație detaliată pentru toți dezvoltatorii care vor să învețe și să colaboreze cu noi! 📚🎉
 
71
 
72
  🔹 **Acest sistem este ideal pentru rularea LLMLit fără probleme, oferind un echilibru perfect între performanță și eficiență.**
73
 
74
+
75
+
76
+ ## **🚀 Cum să începi cu LLMLit**
77
+
78
+ 📌 [Ghid de Instalare: LM Studio + LLMLit pe Windows](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
79
+
80
+ 📌 [Ghid de Instalare: Ollama și să rulezi LLMLit de pe Hugging Face](https://huggingface.co/LLMLit/LLMLit/discussions/3#679bfd7646a549e46dd7f784)
81
+
82
+ 📌 [Ghid de Pași pentru implementarea RAG cu LLMLit pe Hugging Face 🚀 ](https://huggingface.co/LLMLit/LLMLit/discussions/2#679bfd1a9141a5524a4994b7)
83
+
84
+
85
+ Pentru a utiliza LLMLit, instalează librăriile necesare și încarcă modelul:
86
+
87
+ ```python
88
+ from transformers import AutoModelForCausalLM, AutoTokenizer
89
+
90
+ # Încarcă modelul și tokenizer-ul
91
+ model = AutoModelForCausalLM.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
92
+ tokenizer = AutoTokenizer.from_pretrained("llmlit/LLMLit-0.2-8B-Instruct")
93
+
94
+ # Generează text
95
+ inputs = tokenizer("Your prompt here", return_tensors="pt")
96
+ outputs = model.generate(**inputs, max_length=100)
97
+ ```
98
+
99
+ ---
100
+
101
+ Sper că acest ghid îți va fi de ajutor! 😊
102
+
103
+
104
+
105
+
106
  ---
107
  ### **Coming Soon: Modele de Generare Imagine și Video 🎨🎬**
108
  ---
 
228
 
229
  ---
230
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
231
 
232
  Multe surprize în viitor! 🎁✨
233
  Suntem super entuziasmați să vă anunțăm că, în curând, vom adăuga multe freebies și documentație detaliată pentru toți dezvoltatorii care vor să învețe și să colaboreze cu noi! 📚🎉