File size: 4,035 Bytes
3719840
 
ff437c8
3719840
 
 
 
 
 
9107d79
 
3719840
 
 
9107d79
3719840
 
 
 
 
9107d79
 
b3b2c1b
 
 
 
6909512
514e5b5
6909512
514e5b5
6909512
 
514e5b5
6909512
 
514e5b5
6909512
 
514e5b5
6909512
514e5b5
6909512
 
514e5b5
6909512
 
 
 
 
 
 
 
 
 
 
 
 
 
b3b2c1b
9107d79
 
1dae666
9107d79
 
3719840
9107d79
 
 
 
 
 
 
 
 
 
 
eb1af45
9107d79
559ae33
9107d79
 
 
559ae33
eb1af45
559ae33
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
---
language:
- fr
license: apache-2.0
tags:
- text-generation-inference
- transformers
- unsloth
- gemma
- summarizer
- lora
base_model: unsloth/gemma-2b-it-bnb-4bit
---

# Uploaded as lora model

- **Developed by:** Labagaite
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gemma-2b-it-bnb-4bit

# Training Logs

## Traning metrics
![Evaluation Loss Plot](eval_loss_plot.png)

## Evaluation score
### Évaluation des rapports générés par les modèles d'IA :

#### Modèle de base unsloth/gemma-2b-it-bnb-4bit :

1. **Performance de la structuration du rapport : 6/10**
   - Le rapport est structuré en chapitres, mais la transition entre les chapitres n'est pas toujours fluide.

2. **Qualité du langage : 7/10**
   - Le langage utilisé est professionnel et formel, mais il manque parfois de précision dans les termes techniques.

3. **Cohérence : 6/10**
   - La cohérence entre les différentes parties du rapport est parfois faible, ce qui rend la lecture moins fluide.

#### Modèle fine-tuned /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit :

1. **Performance de la structuration du rapport : 8/10**
   - Le rapport est bien structuré en chapitres clairs et la transition entre les parties est plus fluide.

2. **Qualité du langage : 8/10**
   - Le langage utilisé est professionnel et précis, avec une meilleure utilisation des termes techniques.

3. **Cohérence : 7/10**
   - La cohérence entre les parties du rapport est améliorée par rapport au modèle de base, mais il reste quelques incohérences mineures.

#### Score global :

- Modèle de base : 6.3/10
- Modèle fine-tuned : 7.7/10

### Conclusion :

Le modèle fine-tuned /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit présente une amélioration significative par rapport au modèle de base unsloth/gemma-2b-it-bnb-4bit. Il offre une meilleure structuration du rapport, une qualité de langage plus précise et une cohérence améliorée. Cependant, il reste encore des marges d'amélioration pour atteindre une perfection totale.
[Evaluation report and scoring](evaluation/run-unsloth/gemma-2b-it-bnb-4bit-7449/Model_evaluator-gemma-Summarizer-2b-it-bnb-4bit.md)

## Wandb logs
You can view the training logs [<img src="https://raw.githubusercontent.com/wandb/wandb/main/docs/README_images/logo-light.svg" width="200"/>](https://wandb.ai/william-derue/LLM-summarizer_trainer/runs/nlrru9au).

## Training details

### training data
- Dataset : [fr-summarizer-dataset](https://huggingface.co/datasets/Labagaite/fr-summarizer-dataset)
- Data-size : 7.65 MB
- train : 1.97k rows
- validation : 440 rows
- roles : user , assistant
- Format chatml "role": "role", "content": "content", "user": "user", "assistant": "assistant"
<br>
*French audio podcast transcription*

# Project details
[<img src="https://avatars.githubusercontent.com/u/116890814?v=4" width="100"/>](https://github.com/WillIsback/Report_Maker)
Fine-tuned on French audio podcast transcription data for summarization task. As a result, the model is able to summarize French audio podcast transcription data.
The model will be used for an AI application: [Report Maker](https://github.com/WillIsback/Report_Maker) wich is a powerful tool designed to automate the process of transcribing and summarizing meetings.
It leverages state-of-the-art machine learning models to provide detailed and accurate reports.

This gemma model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
This gemma was trained with [LLM summarizer trainer](images/Llm_Summarizer_trainer_icon-removebg.png)
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
**LLM summarizer trainer**
[<img src="https://github.com/WillIsback/LLM_Summarizer_Trainer/blob/main/images/Llm_Summarizer_trainer_icon-removebg.png?raw=true" width="150"/>](https://github.com/WillIsback/LLM_Summarizer_Trainer)