File size: 590 Bytes
7ef1045
 
e4e73f5
34893b8
7ef1045
 
 
 
 
 
 
34893b8
cffd0c9
7ef1045
 
879d52f
 
859a48d
 
 
 
d7046b8
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
import torch
from transformers import pipeline
import streamlit as st
import os

model_id = "meta-llama/Llama-3.2-1B"

pipe = pipeline(
    "text-generation", 
    model=model_id, 
    torch_dtype=torch.bfloat16, 
    device_map="auto",
    token = os.getenv('HF_TOKEN')
)

input_text = st.text_input("Ingrese el Prompt")

if input_text:
    # Establecer la longitud máxima de la respuesta
    max_length = 100  # Cambia este valor según tus necesidades
    response = pipe(input_text, max_length=max_length)
    generated_text = response[0]['generated_text']
    st.write(generated_text)