File size: 4,083 Bytes
b1cbdc4 494fbcd b1cbdc4 e70b479 b1cbdc4 e70b479 b1cbdc4 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 |
---
license: apache-2.0
license_link: https://www.apache.org/licenses/LICENSE-2.0
language:
- fr
base_model:
- unsloth/Meta-Llama-3.1-8B
pipeline_tag: text-generation
library_name: transformers
tags:
- fiscalité
- génération-de-texte
- français
---
# LLM - Assistant Expert Comptable
Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française Agent Comptable. Il peut répondre à des questions spécifiques sur la comptabilité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence.
### Caractéristiques principales
- Orienté pour la fiscalité française
- Question réponse
- Dataset d'entainement de référence
## Configuration requise
### Librairies dépendances
transformers>=4.46.0
torch>=2.0.0
accelerate>=0.33.0
bitsandbytes>=0.39.0
### Configuration ressource inférence
- GPU
- CUDA compatible
## Démarrage rapide
### Installation
```bash
pip install transformers torch accelerate bitsandbytes
```
### Utilisation basique
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
Chargement du modèle avec configuration optimisée
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
load_in_4bit=True
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Format de prompt recommandé
prompt_template = """Tu es un expert en fiscalité.
Texte principal:
{texte}
Question:
{question}
Réponse:
Exemple d'utilisation
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
question = "Qu'est-ce que le régime de la micro-entreprise ?"
prompt = prompt_template.format(texte=texte, question=question)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
Génération avec paramètres optimisés
generated_ids = model.generate(
inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.95,
repetition_penalty=1.15,
do_sample=True
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
```
## Paramètres de génération recommandés
Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
```python
generation_params = {
"max_new_tokens": 512, # Longueur maximale de la réponse
"temperature": 0.7, # Créativité de la réponse
"top_p": 0.95, # Filtrage des tokens
"repetition_penalty": 1.15, # Évite les répétitions
"do_sample": True # Génération stochastique
}
```
## Utilisation avec l'API Hugging Face
Le modèle est également disponible via l'API Hugging Face Inference :
```python
from huggingface_hub import InferenceClient
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
def query(payload):
response = client.post(json=payload)
return response.json()
Exemple de requête
payload = {
"inputs": prompt,
"parameters": generation_params
}
response = query(payload)
print(response)
```
## Limitations connues
- Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
- Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
- La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni
## Licence
Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI.
## Citation
Si vous utilisez ce modèle dans vos travaux, veuillez citer :
```bibtex
@misc{llm-fiscalite,
author = {Aktraiser},
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
}
```
Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels. |