File size: 4,083 Bytes
b1cbdc4
 
 
 
 
 
 
494fbcd
b1cbdc4
 
 
 
 
 
 
e70b479
b1cbdc4
 
e70b479
b1cbdc4
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
---
license: apache-2.0
license_link: https://www.apache.org/licenses/LICENSE-2.0
language:
- fr
base_model:
- unsloth/Meta-Llama-3.1-8B
pipeline_tag: text-generation
library_name: transformers
tags:
- fiscalité
- génération-de-texte
- français
---

# LLM - Assistant Expert Comptable


  Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française Agent Comptable. Il peut répondre à des questions spécifiques sur la comptabilité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence.

### Caractéristiques principales
- Orienté pour la fiscalité française
- Question réponse
- Dataset d'entainement de référence

## Configuration requise

### Librairies dépendances
transformers>=4.46.0
torch>=2.0.0
accelerate>=0.33.0
bitsandbytes>=0.39.0

### Configuration ressource inférence
- GPU
- CUDA compatible

## Démarrage rapide

### Installation
```bash
pip install transformers torch accelerate bitsandbytes
```

### Utilisation basique
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
Chargement du modèle avec configuration optimisée
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
load_in_4bit=True
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Format de prompt recommandé
prompt_template = """Tu es un expert en fiscalité.
Texte principal:
{texte}
Question:
{question}
Réponse:
Exemple d'utilisation
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
question = "Qu'est-ce que le régime de la micro-entreprise ?"
prompt = prompt_template.format(texte=texte, question=question)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
Génération avec paramètres optimisés
generated_ids = model.generate(
inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.95,
repetition_penalty=1.15,
do_sample=True
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
```
## Paramètres de génération recommandés

Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
```python
generation_params = {
"max_new_tokens": 512, # Longueur maximale de la réponse
"temperature": 0.7, # Créativité de la réponse
"top_p": 0.95, # Filtrage des tokens
"repetition_penalty": 1.15, # Évite les répétitions
"do_sample": True # Génération stochastique
}
```

## Utilisation avec l'API Hugging Face

Le modèle est également disponible via l'API Hugging Face Inference :
```python
from huggingface_hub import InferenceClient
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
def query(payload):
response = client.post(json=payload)
return response.json()
Exemple de requête
payload = {
"inputs": prompt,
"parameters": generation_params
}
response = query(payload)
print(response)
```
## Limitations connues

- Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
- Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
- La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni

## Licence

Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI.

## Citation

Si vous utilisez ce modèle dans vos travaux, veuillez citer :
```bibtex
@misc{llm-fiscalite,
author = {Aktraiser},
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
}

```

Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.