modele_comptable / README.md
Aktraiser's picture
Update README.md
e70b479 verified
metadata
license: apache-2.0
license_link: https://www.apache.org/licenses/LICENSE-2.0
language:
  - fr
base_model:
  - unsloth/Meta-Llama-3.1-8B
pipeline_tag: text-generation
library_name: transformers
tags:
  - fiscalité
  - génération-de-texte
  - français

LLM - Assistant Expert Comptable

Ce modèle est un LLM Meta-Llama-3.1-8B fine tuné pour le domaine de la fiscalité française Agent Comptable. Il peut répondre à des questions spécifiques sur la comptabilité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence.

Caractéristiques principales

  • Orienté pour la fiscalité française
  • Question réponse
  • Dataset d'entainement de référence

Configuration requise

Librairies dépendances

transformers>=4.46.0 torch>=2.0.0 accelerate>=0.33.0 bitsandbytes>=0.39.0

Configuration ressource inférence

  • GPU
  • CUDA compatible

Démarrage rapide

Installation

pip install transformers torch accelerate bitsandbytes

Utilisation basique

from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
Chargement du modèle avec configuration optimisée
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
load_in_4bit=True
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Format de prompt recommandé
prompt_template = """Tu es un expert en fiscalité.
Texte principal:
{texte}
Question:
{question}
Réponse:
Exemple d'utilisation
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
question = "Qu'est-ce que le régime de la micro-entreprise ?"
prompt = prompt_template.format(texte=texte, question=question)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
Génération avec paramètres optimisés
generated_ids = model.generate(
inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.95,
repetition_penalty=1.15,
do_sample=True
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)

Paramètres de génération recommandés

Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :

generation_params = {
"max_new_tokens": 512, # Longueur maximale de la réponse
"temperature": 0.7, # Créativité de la réponse
"top_p": 0.95, # Filtrage des tokens
"repetition_penalty": 1.15, # Évite les répétitions
"do_sample": True # Génération stochastique
}

Utilisation avec l'API Hugging Face

Le modèle est également disponible via l'API Hugging Face Inference :

from huggingface_hub import InferenceClient
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
def query(payload):
response = client.post(json=payload)
return response.json()
Exemple de requête
payload = {
"inputs": prompt,
"parameters": generation_params
}
response = query(payload)
print(response)

Limitations connues

  • Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
  • Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
  • La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni

Licence

Ce modèle est basé sur Meta-Llama-3.1-8B de Meta AI.

Citation

Si vous utilisez ce modèle dans vos travaux, veuillez citer :

@misc{llm-fiscalite,
author = {Aktraiser},
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
}

Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.