|
--- |
|
license: apache-2.0 |
|
license_link: https://www.apache.org/licenses/LICENSE-2.0 |
|
language: |
|
- fr |
|
base_model: |
|
- unsloth/Meta-Llama-3.1-8B |
|
pipeline_tag: text-generation |
|
library_name: transformers |
|
tags: |
|
- fiscalité |
|
- génération-de-texte |
|
- français |
|
--- |
|
|
|
# LLM - Assistant Expert |
|
|
|
|
|
Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française. Il peut répondre à des questions spécifiques sur la fiscalité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscalité française. |
|
|
|
### Caractéristiques principales |
|
- Orienté pour la fiscalité française |
|
- Question réponse |
|
- Dataset d'entainement de référence |
|
|
|
## Configuration requise |
|
|
|
### Librairies dépendances |
|
transformers>=4.46.0 |
|
torch>=2.0.0 |
|
accelerate>=0.33.0 |
|
bitsandbytes>=0.39.0 |
|
|
|
### Configuration ressource inférence |
|
- GPU |
|
- CUDA compatible |
|
|
|
## Démarrage rapide |
|
|
|
### Installation |
|
```bash |
|
pip install transformers torch accelerate bitsandbytes |
|
``` |
|
|
|
### Utilisation basique |
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
model_name = "Aktraiser/model_test1" |
|
Chargement du modèle avec configuration optimisée |
|
model = AutoModelForCausalLM.from_pretrained( |
|
model_name, |
|
torch_dtype="auto", |
|
device_map="auto", |
|
load_in_4bit=True |
|
) |
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
Format de prompt recommandé |
|
prompt_template = """Tu es un expert en fiscalité. |
|
Texte principal: |
|
{texte} |
|
Question: |
|
{question} |
|
Réponse: |
|
Exemple d'utilisation |
|
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations." |
|
question = "Qu'est-ce que le régime de la micro-entreprise ?" |
|
prompt = prompt_template.format(texte=texte, question=question) |
|
inputs = tokenizer(prompt, return_tensors="pt").to(model.device) |
|
Génération avec paramètres optimisés |
|
generated_ids = model.generate( |
|
inputs, |
|
max_new_tokens=512, |
|
temperature=0.7, |
|
top_p=0.95, |
|
repetition_penalty=1.15, |
|
do_sample=True |
|
) |
|
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True) |
|
print(response) |
|
``` |
|
## Paramètres de génération recommandés |
|
|
|
Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants : |
|
```python |
|
generation_params = { |
|
"max_new_tokens": 512, # Longueur maximale de la réponse |
|
"temperature": 0.7, # Créativité de la réponse |
|
"top_p": 0.95, # Filtrage des tokens |
|
"repetition_penalty": 1.15, # Évite les répétitions |
|
"do_sample": True # Génération stochastique |
|
} |
|
``` |
|
|
|
## Utilisation avec l'API Hugging Face |
|
|
|
Le modèle est également disponible via l'API Hugging Face Inference : |
|
```python |
|
from huggingface_hub import InferenceClient |
|
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1") |
|
def query(payload): |
|
response = client.post(json=payload) |
|
return response.json() |
|
Exemple de requête |
|
payload = { |
|
"inputs": prompt, |
|
"parameters": generation_params |
|
} |
|
response = query(payload) |
|
print(response) |
|
``` |
|
## Limitations connues |
|
|
|
- Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines |
|
- Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes |
|
- La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni |
|
|
|
## Licence |
|
|
|
Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI. |
|
|
|
## Citation |
|
|
|
Si vous utilisez ce modèle dans vos travaux, veuillez citer : |
|
```bibtex |
|
@misc{llm-fiscalite, |
|
author = {Aktraiser}, |
|
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française}, |
|
year = {2024}, |
|
publisher = {GitHub}, |
|
journal = {GitHub repository}, |
|
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}} |
|
} |
|
|
|
``` |
|
|
|
Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels. |
|
|