nebiberke commited on
Commit
e39d450
1 Parent(s): b7a6e18

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +97 -0
README.md ADDED
@@ -0,0 +1,97 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ datasets:
3
+ - batubayk/TR-News
4
+ - denizzhansahin/100K-TR-News
5
+ language:
6
+ - tr
7
+ base_model:
8
+ - google/mt5-base
9
+ pipeline_tag: summarization
10
+ library_name: transformers
11
+ tags:
12
+ - summarization
13
+ - transformers
14
+ metrics:
15
+ - bertscore
16
+ - rouge
17
+ ---
18
+ # mT5 Tabanlı Türkçe Haber Özetleme Modeli
19
+
20
+ ## Model Genel Bilgisi
21
+ Bu model, **mT5** tabanlı olup, Türkçe haber metinlerini özetlemek amacıyla özel olarak ince ayar yapılmıştır. **Google/mT5-base** mimarisi üzerine inşa edilerek, Türkçe ekonomi ve güncel haber metinlerinden oluşan bir veri seti kullanılarak eğitilmiştir. Bu model, haber metinlerinin özetlerini üreterek, kullanıcılara haberin en önemli noktalarını sunmayı amaçlamaktadır.
22
+
23
+ ## Modelin Amacı
24
+ Bu modelin temel kullanım amacı, uzun Türkçe haber metinlerini kısa ve anlaşılır özetler haline getirmektir. Potansiyel kullanım alanları:
25
+ - Haber özetleme platformları
26
+
27
+ ## Kullanım Şekli
28
+
29
+ ```python
30
+ from transformers import MT5Tokenizer, MT5ForConditionalGeneration
31
+
32
+ # Model ve tokenizer'ı yükleyin
33
+ model_name = 'nebiberke/news-sum-tr'
34
+ tokenizer = MT5Tokenizer.from_pretrained(model_name)
35
+ model = MT5ForConditionalGeneration.from_pretrained(model_name)
36
+
37
+ # Haber metni için özet oluşturma
38
+ haber_metni = "Buraya Türkçe haber metni gelecek."
39
+ input_ids = tokenizer.encode(haber_metni, return_tensors="pt", max_length=512, truncation=True)
40
+
41
+ # Özet oluşturma
42
+ summary_ids = model.generate(input_ids, max_length=150, min_length=30, length_penalty=2.0, num_beams=7, early_stopping=True)
43
+ summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
44
+
45
+ print("Özet:", summary)
46
+ ```
47
+
48
+ ## Veri Seti
49
+ Bu model, **batubayk/TR-News** ve **denizzhansahin/100K-TR-News** adlı veri setlerinin birleştirilmesiyle oluşturulmuş veri seti üzerinde eğitilmiştir. Veri seti, Türkçe ekonomi ve güncel haber içerikleri içermekte olup, her haber metni bir özetle eşleştirilmiştir. Eğitim için kullanılan veriler, haber metinlerinden ve bu metinlerin özetlerinden oluşmaktadır.
50
+
51
+ - **Eğitim ve Test Bölünmesi**: Veri seti %80 eğitim, %20 test olarak bölünmüştür.
52
+ - **Maksimum Girdi Uzunluğu**: 512 token
53
+ - **Maksimum Çıktı Uzunluğu (Özet)**: 150 token
54
+
55
+ ## Eğitim Detayları
56
+ - **Model Mimarisi**: MT5-base
57
+ - **Eğitim Hedefi**: Seq2Seq özetleme
58
+ - **Batch Boyutu**: 4
59
+ - **Epoch Sayısı**: 6
60
+ - **Ağırlık Azaltma (Weight Decay)**: 0.01
61
+ - **Öğrenme Oranı**: 5e-5
62
+ - **Değerlendirme Stratejisi**: Her epoch sonunda değerlendirme yapılmıştır.
63
+ - **Logging**: Her epoch sonunda loglama yapılmıştır.
64
+ - **Cihaz**: CUDA destekli GPU
65
+
66
+ ### Eğitim ve Değerlendirme Kayıpları
67
+ Eğitim sırasında elde edilen kayıp değerleri:
68
+ - İlk epoch sonunda eğitim kaybı: **0.6440**, doğrulama kaybı: **0.5474**
69
+ - Son epoch sonunda eğitim kaybı: **0.4879**, doğrulama kaybı: **0.4721**
70
+
71
+ ## Değerlendirme Sonuçları
72
+ Modelin performansı **ROUGE** ve **BERTScore** metrikleri kullanılarak değerlendirilmiştir.
73
+
74
+ ### ROUGE Skorları:
75
+ - **ROUGE-1**: Precision: 0.4231, Recall: 0.5000, F1-score: 0.4583
76
+ - **ROUGE-2**: Precision: 0.2400, Recall: 0.2857, F1-score: 0.2609
77
+ - **ROUGE-L**: Precision: 0.4231, Recall: 0.5000, F1-score: 0.4583
78
+
79
+ ### BERTScore:
80
+ - **Precision**: 0.9031
81
+ - **Recall**: 0.9196
82
+ - **F1-score**: 0.9113
83
+
84
+ ## Sınırlamalar ve Yanlılıklar
85
+ - Model, eğitim verisinde bulunan yanlılıkları öğrenebilir ve bu nedenle özetlerinde bu yanlılıkları yansıtabilir.
86
+ - Özellikle çok uzun ve karmaşık haber metinlerinde özetleme kalitesinde düşüşler gözlemlenebilir.
87
+
88
+ ## Alıntı
89
+ Bu modeli kullanırsanız lütfen şu şekilde alıntı yapın:
90
+
91
+ ```bibtex
92
+ @article{2024turkishsummarization,
93
+ title={mT5 Tabanlı Türkçe Haber Özetleme Modeli},
94
+ author={Nebi Berke İçöz},
95
+ year={2024},
96
+ url={https://huggingface.co/nebiberke/news-sum-tr}
97
+ }