Aktraiser commited on
Commit
b1cbdc4
·
verified ·
1 Parent(s): 4a4e43c

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +136 -0
README.md ADDED
@@ -0,0 +1,136 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ license_link: https://www.apache.org/licenses/LICENSE-2.0
4
+ language:
5
+ - fr
6
+ base_model:
7
+ - unsloth/Meta-Llama-3.1-8B
8
+ pipeline_tag: question-answering
9
+ library_name: transformers
10
+ tags:
11
+ - fiscalité
12
+ - génération-de-texte
13
+ - français
14
+ ---
15
+
16
+ # LLM - Assistant Expert
17
+
18
+
19
+ Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française. Il peut répondre à des questions spécifiques sur la fiscalité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscalité française.
20
+
21
+ ### Caractéristiques principales
22
+ - Orienté pour la fiscalité française
23
+ - Question réponse
24
+ - Dataset d'entainement de référence
25
+
26
+ ## Configuration requise
27
+
28
+ ### Librairies dépendances
29
+ transformers>=4.46.0
30
+ torch>=2.0.0
31
+ accelerate>=0.33.0
32
+ bitsandbytes>=0.39.0
33
+
34
+ ### Configuration ressource inférence
35
+ - GPU
36
+ - CUDA compatible
37
+
38
+ ## Démarrage rapide
39
+
40
+ ### Installation
41
+ ```bash
42
+ pip install transformers torch accelerate bitsandbytes
43
+ ```
44
+
45
+ ### Utilisation basique
46
+ ```python
47
+ from transformers import AutoModelForCausalLM, AutoTokenizer
48
+ model_name = "Aktraiser/model_test1"
49
+ Chargement du modèle avec configuration optimisée
50
+ model = AutoModelForCausalLM.from_pretrained(
51
+ model_name,
52
+ torch_dtype="auto",
53
+ device_map="auto",
54
+ load_in_4bit=True
55
+ )
56
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
57
+ Format de prompt recommandé
58
+ prompt_template = """Tu es un expert en fiscalité.
59
+ Texte principal:
60
+ {texte}
61
+ Question:
62
+ {question}
63
+ Réponse:
64
+ Exemple d'utilisation
65
+ texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
66
+ question = "Qu'est-ce que le régime de la micro-entreprise ?"
67
+ prompt = prompt_template.format(texte=texte, question=question)
68
+ inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
69
+ Génération avec paramètres optimisés
70
+ generated_ids = model.generate(
71
+ inputs,
72
+ max_new_tokens=512,
73
+ temperature=0.7,
74
+ top_p=0.95,
75
+ repetition_penalty=1.15,
76
+ do_sample=True
77
+ )
78
+ response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
79
+ print(response)
80
+ ```
81
+ ## Paramètres de génération recommandés
82
+
83
+ Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
84
+ ```python
85
+ generation_params = {
86
+ "max_new_tokens": 512, # Longueur maximale de la réponse
87
+ "temperature": 0.7, # Créativité de la réponse
88
+ "top_p": 0.95, # Filtrage des tokens
89
+ "repetition_penalty": 1.15, # Évite les répétitions
90
+ "do_sample": True # Génération stochastique
91
+ }
92
+ ```
93
+
94
+ ## Utilisation avec l'API Hugging Face
95
+
96
+ Le modèle est également disponible via l'API Hugging Face Inference :
97
+ ```python
98
+ from huggingface_hub import InferenceClient
99
+ client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
100
+ def query(payload):
101
+ response = client.post(json=payload)
102
+ return response.json()
103
+ Exemple de requête
104
+ payload = {
105
+ "inputs": prompt,
106
+ "parameters": generation_params
107
+ }
108
+ response = query(payload)
109
+ print(response)
110
+ ```
111
+ ## Limitations connues
112
+
113
+ - Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
114
+ - Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
115
+ - La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni
116
+
117
+ ## Licence
118
+
119
+ Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI.
120
+
121
+ ## Citation
122
+
123
+ Si vous utilisez ce modèle dans vos travaux, veuillez citer :
124
+ ```bibtex
125
+ @misc{llm-fiscalite,
126
+ author = {Aktraiser},
127
+ title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
128
+ year = {2024},
129
+ publisher = {GitHub},
130
+ journal = {GitHub repository},
131
+ howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
132
+ }
133
+
134
+ ```
135
+
136
+ Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.