volAI_Avril / app.py
OutrageousOtter's picture
Update app.py
1268959 verified
raw
history blame
2.21 kB
import streamlit as st
import tensorflow
from transformers import pipeline
# Titre de l'application
st.set_page_config(page_title="Chatbot AI", page_icon="🤖")
st.title("Chatbot AI avec Hugging Face - GPT2")
# Chargement du modèle
@st.cache_data
def load_model():
return pipeline("text-generation", model="gpt2")
model = load_model()
# Interface utilisateur
st.sidebar.header("Options")
user_input = st.text_input("Vous : ", "")
if st.button("Envoyer"):
if user_input:
with st.spinner("Réflexion de l'IA..."):
# Génération de la réponse
response = model(user_input, max_length=100, num_return_sequences=1)
bot_response = response[0]['generated_text']
st.markdown("**Bot :** " + bot_response)
else:
st.warning("Veuillez entrer un message!")
# Styles CSS pour améliorer l'apparence
st.markdown("""
<style>
.st-bx {
background-color: #f1f1f1;
border-radius: 10px;
padding: 10px;
margin: 10px 0;
}
.st-bx h2 {
color: #4CAF50;
}
.st-bx p {
color: #555;
}
</style>
""", unsafe_allow_html=True)
# import streamlit as st
# x = st.slider('Select a value')
# st.write(x, 'squared is', x * x)
# #test app code de chatgpt
# import streamlit as st
# import tensorflow
# import torch
# from transformers import pipeline
# # Chargement du modèle Hugging Face (GPT-2 ou autre modèle de génération de texte)
# generator = pipeline("text-generation", model="HuggingFaceH4/zephyr-7b-beta", torch_dtype=torch.bfloat16, device_map="auto")
# # Fonction pour générer une réponse du chatbot
# def chatbot_response(user_input):
# response = generator(user_input, max_length=100, num_return_sequences=1)
# return response[0]['generated_text']
# # Interface Streamlit
# st.title("Expert en nutrition des volailles de chair et de ponte")
# # Instructions
# st.markdown("### Posez une question à notre expert !")
# # Entrée utilisateur
# user_input = st.text_input("")
# if user_input:
# response = chatbot_response(user_input)
# st.write(f"Chatbot : {response}")