--- license: apache-2.0 license_link: https://www.apache.org/licenses/LICENSE-2.0 language: - fr base_model: - unsloth/Meta-Llama-3.1-8B pipeline_tag: text-generation library_name: transformers tags: - fiscalité - génération-de-texte - français --- # LLM - Assistant Expert Comptable Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française Agent Comptable. Il peut répondre à des questions spécifiques sur la comptabilité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence. ### Caractéristiques principales - Orienté pour la fiscalité française - Question réponse - Dataset d'entainement de référence ## Configuration requise ### Librairies dépendances transformers>=4.46.0 torch>=2.0.0 accelerate>=0.33.0 bitsandbytes>=0.39.0 ### Configuration ressource inférence - GPU - CUDA compatible ## Démarrage rapide ### Installation ```bash pip install transformers torch accelerate bitsandbytes ``` ### Utilisation basique ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Aktraiser/model_test1" Chargement du modèle avec configuration optimisée model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto", load_in_4bit=True ) tokenizer = AutoTokenizer.from_pretrained(model_name) Format de prompt recommandé prompt_template = """Tu es un expert en fiscalité. Texte principal: {texte} Question: {question} Réponse: Exemple d'utilisation texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations." question = "Qu'est-ce que le régime de la micro-entreprise ?" prompt = prompt_template.format(texte=texte, question=question) inputs = tokenizer(prompt, return_tensors="pt").to(model.device) Génération avec paramètres optimisés generated_ids = model.generate( inputs, max_new_tokens=512, temperature=0.7, top_p=0.95, repetition_penalty=1.15, do_sample=True ) response = tokenizer.decode(generated_ids[0], skip_special_tokens=True) print(response) ``` ## Paramètres de génération recommandés Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants : ```python generation_params = { "max_new_tokens": 512, # Longueur maximale de la réponse "temperature": 0.7, # Créativité de la réponse "top_p": 0.95, # Filtrage des tokens "repetition_penalty": 1.15, # Évite les répétitions "do_sample": True # Génération stochastique } ``` ## Utilisation avec l'API Hugging Face Le modèle est également disponible via l'API Hugging Face Inference : ```python from huggingface_hub import InferenceClient client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1") def query(payload): response = client.post(json=payload) return response.json() Exemple de requête payload = { "inputs": prompt, "parameters": generation_params } response = query(payload) print(response) ``` ## Limitations connues - Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines - Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes - La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni ## Licence Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI. ## Citation Si vous utilisez ce modèle dans vos travaux, veuillez citer : ```bibtex @misc{llm-fiscalite, author = {Aktraiser}, title = {LLM Fiscalité - Assistant Expert en Fiscalité Française}, year = {2024}, publisher = {GitHub}, journal = {GitHub repository}, howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}} } ``` Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.