|
--- |
|
library_name: transformers |
|
tags: |
|
- trl |
|
- sft |
|
datasets: |
|
- cenfis/alpaca-turkish-combined |
|
language: |
|
- en |
|
- tr |
|
base_model: |
|
- meta-llama/Llama-3.2-1B |
|
--- |
|
|
|
# Llama 3-8B Turkish Model |
|
|
|
This repo contains the experimental-educational fine-tuned model of Meta's new Llama 3.2-1B that can be used for different purposes. |
|
|
|
Trained with NVIDIA RTX 3070 Ti, took around 6 hours. |
|
|
|
## Example Usages |
|
You can use it from Transformers: |
|
```py |
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("myzens/llama3-8b-tr-finetuned") |
|
model = AutoModelForCausalLM.from_pretrained("myzens/llama3-8b-tr-finetuned") |
|
|
|
alpaca_prompt = """ |
|
Instruction: |
|
{} |
|
|
|
Input: |
|
{} |
|
|
|
Response: |
|
{}""" |
|
|
|
inputs = tokenizer([ |
|
alpaca_prompt.format( |
|
"", |
|
"Ankara'da gezilebilecek 3 yeri söyle ve ne olduklarını kısaca açıkla.", |
|
"", |
|
)], return_tensors = "pt").to("cuda") |
|
|
|
|
|
outputs = model.generate(**inputs, max_new_tokens=192) |
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
``` |
|
|
|
Transformers Pipeline: |
|
```py |
|
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("myzens/llama3-8b-tr-finetuned") |
|
model = AutoModelForCausalLM.from_pretrained("myzens/llama3-8b-tr-finetuned") |
|
|
|
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer) |
|
|
|
alpaca_prompt = """ |
|
Instruction: |
|
{} |
|
|
|
Input: |
|
{} |
|
|
|
Response: |
|
{}""" |
|
|
|
input = alpaca_prompt.format( |
|
"", |
|
"Ankara'da gezilebilecek 3 yeri söyle ve ne olduklarını kısaca açıkla.", |
|
"", |
|
) |
|
|
|
pipe(input) |
|
``` |
|
|
|
Output: |
|
``` |
|
Instruction: |
|
|
|
|
|
Input: |
|
Ankara'da gezilebilecek 3 yeri söyle ve ne olduklarını kısaca açıkla. |
|
|
|
Response: |
|
1. Anıtkabir - Mustafa Kemal Atatürk'ün mezarı |
|
2. Gençlik ve Spor Sarayı - spor etkinliklerinin yapıldığı yer |
|
3. Kızılay Meydanı - Ankara'nın merkezinde bulunan bir meydan |
|
``` |
|
### **Important Notes** |
|
- We recommend you to use an Alpaca Prompt Template or another template, otherwise you can see generations with no meanings or repeating the same sentence constantly. |
|
- Use the model with a CUDA supported GPU. |
|
|
|
Fine-tuned by [emre570](https://github.com/emre570). |