File size: 1,170 Bytes
8e2f44e
8276fbf
e15a42b
 
8276fbf
 
 
e15a42b
8276fbf
 
eb313f4
8276fbf
 
 
 
e15a42b
8276fbf
8e2f44e
8276fbf
8e2f44e
eb313f4
8276fbf
 
8e2f44e
eb313f4
8276fbf
e15a42b
8276fbf
8e2f44e
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
import gradio as gr
from transformers import AutoTokenizer, AutoModelForCausalLM
from transformers import pipeline

# Charger le modèle Automodelbloom
tokenizer = AutoTokenizer.from_pretrained("HARSHAPALNATIUNH/Automodelbloom")
model = AutoModelForCausalLM.from_pretrained("HARSHAPALNATIUNH/Automodelbloom")

# Créer un pipeline de génération de texte
generator = pipeline("text-generation", model=model, tokenizer=tokenizer)

# Fonction pour générer du texte en fonction de l'entrée de l'utilisateur
def generate_text(prompt):
    generated_texts = generator(prompt, max_length=150, num_return_sequences=1, temperature=0.7)
    return generated_texts[0]['generated_text']

# Créer l'interface Gradio
with gr.Blocks() as demo:
    gr.Markdown("# Application de génération de texte automobile")
    
    # Composants de l'interface
    text_input = gr.Textbox(label="Entrez votre prompt", placeholder="Ex: Parlez des voitures électriques.")
    output_text = gr.Textbox(label="Texte généré", lines=5)
    
    # Lier le bouton à la fonction
    text_input.submit(generate_text, inputs=text_input, outputs=output_text)

# Lancer l'application
demo.launch()