Wiro AI

πŸš€ OpenR1-Qwen-7B-Turkish πŸš€

This is a finetune of Qwen2.5-Instruct on WiroAI/dolphin-r1-turkish.

🟒 Overview

  • DeepSeek's distilled models sometimes reason in Chinese or English even though prompted in another language.
  • Open-Source models still need improvement on relatively low-resource languages.
  • A motivation to reproduce R1 and contribute to the community.

🟒 Training

  • We train the model on the WiroAI/dolphin-r1-turkish for 2 epochs. We use learning rate of 1e-5 and max seq length 4096. The training follows a cosine learning rate schedule with a 10% warmup phase.
  • Training took 3 days in 8xA6000 ADA cluster.
  • Normally, R1 team compares the performance of OpenR1 models to DeepSeek-Distill-Qwen-7B and OpenThinker-7B using lighteval. However, the datasets are only MATH oriented so not to conclude anything we won't disclose the default results.

You can find the training and evaluation code at: https://github.com/huggingface/open-r1/

🐨 Quick start

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "OpenR1-Qwen-7B-Turkish"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "$4x+5 = 6x+7$ denklemini sağlayan $x$ değerini bul."

messages = [
    {"role": "system", "content": "Lütfen adım adım düşün ve cevapla."},
    {"role": "user", "content": prompt}
]
<|begin_of_thought|>
Tamam, yani 4x + 5 = 6x + 7 denklemini çâzmem gerekiyor. Hımm, dur bakalım.
Cebirden hatırlıyorum ki denklemi doğru yapacak x değerini bulmam lazım.
AdΔ±m adΔ±m düşüneyim. Γ–ncelikle, belki tΓΌm x terimlerini bir tarafa ve sabitleri diğer tarafa almalΔ±yΔ±m.
Bu şekilde, x'i yalnız bırakabilirim. Sol tarafta 4x var ve sağ tarafta 6x var.
Yani, her iki taraftan 4x çıkarırsam, bu bana 5 = 2x + 7 sonucunu verir. Dur, doğru mu? Kontrol edeyim.
Eğer orijinal denklem 4x + 5 = 6x + 7 ise ve her iki taraftan 4x çıkarırsam, evet, sol taraf 5 olur ve sağ taraf 6x - 4x, yani 2x olur, artı 7.
Yani şimdi 5 = 2x + 7 oldu. Pekala, şimdi 5 = 2x + 7'ye sahibim.
Bir sonraki adım, x'i çâzmem gereken 2x'i izole etmek. Bu yüzden her iki taraftan 7 çıkarmalıyım.
Bunu yazayım. Her iki taraftan 7 çıkar: 5 - 7 = 2x + 7 - 7. Sağ tarafı basitleştirirsek, 7 - 7, 0 olur, yani 5 - 7 = 2x. Bu da -2 = 2x'e basitleşir.
Şimdi denklem -2 = 2x. x'i çâzmek için her iki tarafı 2'ye bâlmem gerekiyor.
Yapayım. Her iki tarafı 2'ye bâlmek: (-2)/2 = (2x)/2. Bu da -1 = x'e basitleşir veya aynı şey x = -1.
Dur, bunun mantıklı olup olmadığını kontrol edeyim. x = -1'i orijinal denkleme geri takarak işe yarayıp yaramadığını doğrulayayım.
Orijinal denklem: 4x + 5 = 6x + 7. x = -1'i yerine koyarsak: Sol taraf: 4*(-1) + 5 = -4 + 5 = 1. Sağ taraf: 6*(-1) + 7 = -6 + 7 = 1.
Yani her iki taraf da 1'e eşit. Bu doğru. Yani x = -1 gerçekten de çâzüm.
Ama hata yapmadığımdan emin olmak için adımları tekrar gâzden geçireyim. 4x + 5 = 6x + 7 ile başlayarak.
Her iki taraftan 4x Γ§Δ±kar: 5 = 2x + 7. Sonra 7 Γ§Δ±kar: 5 - 7 = 2x => -2 = 2x. 2'ye bΓΆl: x = -1.
Evet, hepsi doğru gârünüyor. Alternatif olarak, bu probleme yaklaşmanın başka bir yolu da ânce tüm x terimlerini bir tarafa toplamak olabilir.
Bakalım. Eğer her iki taraftan 4x çıkarıp her iki taraftan 7 çıkarırsam, bu bana 5 - 7 = 6x - 4x sonucunu verir, bu da -2 = 2x demektir.
Sonra aynı sonuç. Yani yântemden bağımsız olarak, aynı cevabı alıyoruz. Başka bir kontrol yolu da sayı doğrusu üzerinde düşünmek olabilir.
Eğer 4x + 5, 6x + 7'ye eşitse, o zaman 4x + 5'ten 6x + 7'ye olan mesafe sıfır olmalı.
Ama belki de bu işleri karmaşıklaştırıyor. Alternatif olarak, her iki taraftan 4x çıkararak 5 = 2x + 7 elde edelim. Sonra 7 çıkar: -2 = 2x.
Yani x, -1'dir. Evet, aynı cevap. Sanırım bu sağlam. Tüm adımlar kontrol edildi ve x = -1'i orijinal denkleme geri koymak işe yarıyor.
Yani çâzüm x = -1 olmalı.
**Son Cevap** x x  değeri \\boxed{-1}'dir.
<|end_of_thought|>

<|begin_of_solution|>\n\\(4x + 5 = 6x + 7\\) denklemini çâzmek iΓ§in:\n\n1. TΓΌm xx terimlerini bir tarafa ve sabitleri diğer tarafa taşımak iΓ§in her iki taraftan 4x4x Γ§Δ±karΔ±n:\n   \\[\n   4x + 5 - 4x = 6x + 7 - 4x\n   \\]\n   Bunu basitleştirdiğimizde şunu elde ederiz:\n   \\[\n   5 = 2x + 7\n   \\]\n\n2. xx terimini yalnΔ±z bΔ±rakmak iΓ§in her iki taraftan 7 Γ§Δ±karΔ±n:\n   \\[\n   5 - 7 = 2x + 7 - 7\n   \\]\n   Bunu basitleştirdiğimizde şunu elde ederiz:\n   \\[\n   -2 = 2x\n   \\]\n\n3. Her iki tarafΔ± 2'ye bΓΆlerek xx iΓ§in çâzΓΌn:\n   \\[\n   \\frac{-2}{2} = \\frac{2x}{2}\n   \\]\n   Bunu basitleştirdiğimizde şunu elde ederiz:\n   \\[\n   x = -1\n   \\]\n\nDoğrulama: x=βˆ’1x = -1'i orijinal denklemde yerine koyun:\n- Sol taraf: 4(βˆ’1)+5=βˆ’4+5=14(-1) + 5 = -4 + 5 = 1\n- Sağ taraf: 6(βˆ’1)+7=βˆ’6+7=16(-1) + 7 = -6 + 7 = 1\n\nHer iki taraf da eşit olduğundan, çâzΓΌmΓΌn doğru olduğu doğrulanΔ±r.\n\n\\(x\\) değeri boxedβˆ’1\\boxed{-1}'dir.\n<|end_of_solution|>

🟑 Evaluation

  • We observed that reasoning process has slightly improved. Our model thinks more clearly in Turkish compared to the DeepSeek's reasoning model.
  • This model trained for experimental motives and any benchmark evaluation is appreciated. Please be aware that this model will be producing more tokens compared to normal models and will consume more VRAM during inference.
  • If you are willing to evaluate this model please make sure that model will be allowed to produce enough tokens. Generate until requests that restrict the model to output less than 4000 tokens will lead to poor results.
  • We believe democratized and culturally improved open-source models will be through sharing and experiments!

πŸ€— Community

  • We would like to thank Huggingface Staff and everyone who contributed to the Open-R1 project!
Downloads last month
0
Safetensors
Model size
7.62B params
Tensor type
BF16
Β·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for WiroAI/OpenR1-Qwen-7B-Turkish

Base model

Qwen/Qwen2.5-7B
Finetuned
(513)
this model
Quantizations
2 models

Dataset used to train WiroAI/OpenR1-Qwen-7B-Turkish

Collection including WiroAI/OpenR1-Qwen-7B-Turkish