Aktraiser commited on
Commit
116d00a
·
verified ·
1 Parent(s): 37b22c3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +104 -17
README.md CHANGED
@@ -13,39 +13,126 @@ tags:
13
  - français
14
  ---
15
 
16
- # Nom de votre modèle
17
 
18
  ## Introduction
19
 
20
- Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.
 
 
 
 
 
 
21
 
22
  ## Configuration requise
23
 
24
- Indiquez les versions des bibliothèques nécessaires, comme `transformers`, et toute autre dépendance.
 
 
 
 
 
 
 
 
25
 
26
  ## Démarrage rapide
27
 
28
- Fournissez un exemple de code montrant comment charger le modèle et générer du texte :
 
 
29
 
30
- ```python
 
31
  from transformers import AutoModelForCausalLM, AutoTokenizer
32
-
33
  model_name = "Aktraiser/model_test1"
34
-
35
  model = AutoModelForCausalLM.from_pretrained(
36
- model_name,
37
- torch_dtype="auto",
38
- device_map="auto"
 
39
  )
40
  tokenizer = AutoTokenizer.from_pretrained(model_name)
41
-
42
- prompt = "Votre prompt ici."
 
 
 
 
 
 
 
 
 
 
43
  inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
44
-
45
  generated_ids = model.generate(
46
- **inputs,
47
- max_new_tokens=512
 
 
 
 
48
  )
49
-
50
  response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
51
- print(response)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
  - français
14
  ---
15
 
16
+ # LLM Fiscalité - Assistant Expert en Fiscalité Française
17
 
18
  ## Introduction
19
 
20
+ Ce modèle est un LLM spécialisé dans le domaine de la fiscalité française, basé sur Meta-Llama-3.1-8B et fine-tuné pour répondre à des questions spécifiques sur la fiscalité. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscale.
21
+
22
+ ### Caractéristiques principales
23
+ - Spécialisé dans la fiscalité française
24
+ - Capable de comprendre et répondre à des questions complexes
25
+ - Utilise des textes de référence pour fournir des réponses précises
26
+ - Optimisé pour des réponses concises et pertinentes
27
 
28
  ## Configuration requise
29
 
30
+ ### Dépendances principales
31
+ transformers>=4.46.0
32
+ torch>=2.0.0
33
+ accelerate>=0.33.0
34
+ bitsandbytes>=0.39.0
35
+
36
+ ### Configuration matérielle recommandée
37
+ - GPU avec au moins 16GB de VRAM
38
+ - CUDA compatible
39
 
40
  ## Démarrage rapide
41
 
42
+ ### Installation
43
+ bash
44
+ pip install transformers torch accelerate bitsandbytes
45
 
46
+ ### Utilisation basique
47
+ python
48
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
49
  model_name = "Aktraiser/model_test1"
50
+ Chargement du modèle avec configuration optimisée
51
  model = AutoModelForCausalLM.from_pretrained(
52
+ model_name,
53
+ torch_dtype="auto",
54
+ device_map="auto",
55
+ load_in_4bit=True
56
  )
57
  tokenizer = AutoTokenizer.from_pretrained(model_name)
58
+ Format de prompt recommandé
59
+ prompt_template = """Vous êtes un expert en fiscalité. Répondez à la question suivante en vous basant sur le texte fourni.
60
+ Texte principal:
61
+ {texte}
62
+ Question:
63
+ {question}
64
+ Réponse:
65
+ """
66
+ Exemple d'utilisation
67
+ texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
68
+ question = "Qu'est-ce que le régime de la micro-entreprise ?"
69
+ prompt = prompt_template.format(texte=texte, question=question)
70
  inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
71
+ Génération avec paramètres optimisés
72
  generated_ids = model.generate(
73
+ inputs,
74
+ max_new_tokens=512,
75
+ temperature=0.7,
76
+ top_p=0.95,
77
+ repetition_penalty=1.15,
78
+ do_sample=True
79
  )
 
80
  response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
81
+ print(response)
82
+
83
+ ## Paramètres de génération recommandés
84
+
85
+ Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
86
+ python
87
+ generation_params = {
88
+ "max_new_tokens": 512, # Longueur maximale de la réponse
89
+ "temperature": 0.7, # Créativité de la réponse
90
+ "top_p": 0.95, # Filtrage des tokens
91
+ "repetition_penalty": 1.15, # Évite les répétitions
92
+ "do_sample": True # Génération stochastique
93
+ }
94
+
95
+
96
+ ## Utilisation avec l'API Hugging Face
97
+
98
+ Le modèle est également disponible via l'API Hugging Face Inference :
99
+ python
100
+ from huggingface_hub import InferenceClient
101
+ client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
102
+ def query(payload):
103
+ response = client.post(json=payload)
104
+ return response.json()
105
+ Exemple de requête
106
+ payload = {
107
+ "inputs": prompt,
108
+ "parameters": generation_params
109
+ }
110
+ response = query(payload)
111
+ print(response)
112
+
113
+ ## Limitations connues
114
+
115
+ - Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
116
+ - Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
117
+ - La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni
118
+
119
+ ## Licence
120
+
121
+ Ce modèle est basé sur Meta-Llama-3.1-8B et est soumis aux conditions de licence de Meta AI. Pour une utilisation commerciale, veuillez consulter les conditions de licence appropriées.
122
+
123
+ ## Citation
124
+
125
+ Si vous utilisez ce modèle dans vos travaux, veuillez citer :
126
+ bibtex
127
+ @misc{llm-fiscalite,
128
+ author = {Aktraiser},
129
+ title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
130
+ year = {2024},
131
+ publisher = {GitHub},
132
+ journal = {GitHub repository},
133
+ howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
134
+ }
135
+
136
+ ```
137
+
138
+ Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.