import gradio as gr from transformers import AutoTokenizer, AutoModelForCausalLM from transformers import pipeline # Charger le modèle Automodelbloom tokenizer = AutoTokenizer.from_pretrained("HARSHAPALNATIUNH/Automodelbloom") model = AutoModelForCausalLM.from_pretrained("HARSHAPALNATIUNH/Automodelbloom") # Créer un pipeline de génération de texte generator = pipeline("text-generation", model=model, tokenizer=tokenizer) # Fonction pour générer du texte en fonction de l'entrée de l'utilisateur def generate_text(prompt): generated_texts = generator(prompt, max_length=150, num_return_sequences=1, temperature=0.7) return generated_texts[0]['generated_text'] # Créer l'interface Gradio with gr.Blocks() as demo: gr.Markdown("# Application de génération de texte automobile") # Composants de l'interface text_input = gr.Textbox(label="Entrez votre prompt", placeholder="Ex: Parlez des voitures électriques.") output_text = gr.Textbox(label="Texte généré", lines=5) # Lier le bouton à la fonction text_input.submit(generate_text, inputs=text_input, outputs=output_text) # Lancer l'application demo.launch()