YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

Chatbot Multi-Modelo LLM con API de Hugging Face

Descripci贸n

Esta aplicaci贸n es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La interfaz gr谩fica est谩 construida con Gradio, y permite al usuario seleccionar diferentes acciones, como la generaci贸n de respuestas basadas en texto o la generaci贸n de im谩genes a partir de descripciones.

Modelo Usado

El modelo utilizado en esta aplicaci贸n es:

  • Modelo: microsoft/Phi-3-mini-4k-instruct
  • Fuente: Hugging Face

Par谩metros en la Petici贸n

La aplicaci贸n realiza una petici贸n a la API de Hugging Face utilizando los siguientes par谩metros:

  • messages: Lista de mensajes en formato JSON. Ejemplo:
    [
      {"role": "user", "content": "驴Cu谩l es la capital de Francia?"}
    ]
    
  • max_tokens: N煤mero m谩ximo de tokens en la respuesta (500).

Ejemplo de Uso

  1. Ejecuta la aplicaci贸n en tu entorno local:
    python app.py
    
  2. Abre la interfaz gr谩fica en tu navegador (por defecto: http://127.0.0.1:7860).
  3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar".

Ejemplo de Entrada:

驴Cu谩l es la capital de Francia?

Ejemplo de Salida:

La capital de Francia es Par铆s.

Requisitos

  • Python 3.8 o superior
  • Gradio 5.9.1
  • huggingface_hub

Instalaci贸n

  1. Clona el repositorio o copia los archivos del proyecto.
    git clone https://huggingface.co/spaces/tu_usuario/tu_space
    cd tu_space
    
  2. Crea un entorno virtual (opcional pero recomendado):
    python3 -m venv venv
    source venv/bin/activate  # En Windows: venv\Scripts\activate
    
  3. Instala las dependencias:
    pip install -r requirements.txt
    
  4. Configura tu token de Hugging Face como variable de entorno:
    export HF_API_TOKEN=tu_token
    

Licencia

Este proyecto est谩 bajo la licencia MIT.

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference API
Unable to determine this model's library. Check the docs .