LLM - Assistant Expert Comptable
Ce modèle est un LLM Meta-Llama-3.1-8B fine tuné pour le domaine de la fiscalité française Agent Comptable. Il peut répondre à des questions spécifiques sur la comptabilité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence.
Caractéristiques principales
- Orienté pour la fiscalité française
- Question réponse
- Dataset d'entainement de référence
Configuration requise
Librairies dépendances
transformers>=4.46.0 torch>=2.0.0 accelerate>=0.33.0 bitsandbytes>=0.39.0
Configuration ressource inférence
- GPU
- CUDA compatible
Démarrage rapide
Installation
pip install transformers torch accelerate bitsandbytes
Utilisation basique
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
Chargement du modèle avec configuration optimisée
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
load_in_4bit=True
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Format de prompt recommandé
prompt_template = """Tu es un expert en fiscalité.
Texte principal:
{texte}
Question:
{question}
Réponse:
Exemple d'utilisation
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
question = "Qu'est-ce que le régime de la micro-entreprise ?"
prompt = prompt_template.format(texte=texte, question=question)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
Génération avec paramètres optimisés
generated_ids = model.generate(
inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.95,
repetition_penalty=1.15,
do_sample=True
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
Paramètres de génération recommandés
Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
generation_params = {
"max_new_tokens": 512, # Longueur maximale de la réponse
"temperature": 0.7, # Créativité de la réponse
"top_p": 0.95, # Filtrage des tokens
"repetition_penalty": 1.15, # Évite les répétitions
"do_sample": True # Génération stochastique
}
Utilisation avec l'API Hugging Face
Le modèle est également disponible via l'API Hugging Face Inference :
from huggingface_hub import InferenceClient
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
def query(payload):
response = client.post(json=payload)
return response.json()
Exemple de requête
payload = {
"inputs": prompt,
"parameters": generation_params
}
response = query(payload)
print(response)
Limitations connues
- Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
- Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
- La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni
Licence
Ce modèle est basé sur Meta-Llama-3.1-8B de Meta AI.
Citation
Si vous utilisez ce modèle dans vos travaux, veuillez citer :
@misc{llm-fiscalite,
author = {Aktraiser},
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
}
Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.
- Downloads last month
- 68
Model tree for Aktraiser/modele_comptable
Base model
unsloth/Meta-Llama-3.1-8B