File size: 3,957 Bytes
3719840 ff437c8 3719840 9107d79 3719840 9107d79 3719840 9107d79 b3b2c1b 4e35543 514e5b5 4e35543 514e5b5 4e35543 514e5b5 4e35543 514e5b5 4e35543 514e5b5 4e35543 514e5b5 4e35543 514e5b5 4e35543 6909512 4e35543 b3b2c1b 9107d79 1dae666 9107d79 3719840 9107d79 eb1af45 9107d79 559ae33 9107d79 559ae33 eb1af45 559ae33 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 |
---
language:
- fr
license: apache-2.0
tags:
- text-generation-inference
- transformers
- unsloth
- gemma
- summarizer
- lora
base_model: unsloth/gemma-2b-it-bnb-4bit
---
# Uploaded as lora model
- **Developed by:** Labagaite
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gemma-2b-it-bnb-4bit
# Training Logs
## Traning metrics
![Evaluation Loss Plot](eval_loss_plot.png)
## Evaluation score
### Évaluation du rapport généré par le modèle unsloth/gemma-2b-it-bnb-4bit :
1. Performance de la structuration du rapport : 7/10
2. Qualité du langage : 8/10
3. Cohérence : 7/10
Score global : 7.3/10
Ce rapport généré par le modèle unsloth/gemma-2b-it-bnb-4bit est bien structuré et présente de manière claire les différents chapitres abordés. Le langage utilisé est professionnel et formel, adapté à un rapport d'entreprise. Cependant, il pourrait être amélioré en termes de cohérence entre les différentes parties du rapport.
### Évaluation du rapport généré par le modèle /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit :
1. Performance de la structuration du rapport : 8/10
2. Qualité du langage : 9/10
3. Cohérence : 8/10
Score global : 8.3/10
Ce rapport généré par le modèle /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit est également bien structuré et présente de manière claire les différentes parties de l'histoire de succès de Fabrice Florent. Le langage utilisé est professionnel et fluide, avec une bonne cohérence entre les différentes sections du rapport.
### Conclusion :
Les deux modèles ont produit des rapports de qualité, mais le modèle /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit obtient un score légèrement plus élevé en raison de sa meilleure cohérence et de la qualité supérieure de son langage. Les deux rapports sont informatifs et bien structurés, mais le modèle fine-tuned se démarque par sa fluidité et sa clarté.
[Evaluation report and scoring](evaluation/run-unsloth/gemma-2b-it-bnb-4bit-7449/Model_evaluator-gemma-Summarizer-2b-it-bnb-4bit.md)
## Wandb logs
You can view the training logs [<img src="https://raw.githubusercontent.com/wandb/wandb/main/docs/README_images/logo-light.svg" width="200"/>](https://wandb.ai/william-derue/LLM-summarizer_trainer/runs/nlrru9au).
## Training details
### training data
- Dataset : [fr-summarizer-dataset](https://huggingface.co/datasets/Labagaite/fr-summarizer-dataset)
- Data-size : 7.65 MB
- train : 1.97k rows
- validation : 440 rows
- roles : user , assistant
- Format chatml "role": "role", "content": "content", "user": "user", "assistant": "assistant"
<br>
*French audio podcast transcription*
# Project details
[<img src="https://avatars.githubusercontent.com/u/116890814?v=4" width="100"/>](https://github.com/WillIsback/Report_Maker)
Fine-tuned on French audio podcast transcription data for summarization task. As a result, the model is able to summarize French audio podcast transcription data.
The model will be used for an AI application: [Report Maker](https://github.com/WillIsback/Report_Maker) wich is a powerful tool designed to automate the process of transcribing and summarizing meetings.
It leverages state-of-the-art machine learning models to provide detailed and accurate reports.
This gemma model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
This gemma was trained with [LLM summarizer trainer](images/Llm_Summarizer_trainer_icon-removebg.png)
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
**LLM summarizer trainer**
[<img src="https://github.com/WillIsback/LLM_Summarizer_Trainer/blob/main/images/Llm_Summarizer_trainer_icon-removebg.png?raw=true" width="150"/>](https://github.com/WillIsback/LLM_Summarizer_Trainer)
|