JaphetHernandez commited on
Commit
bb4b951
·
verified ·
1 Parent(s): 24d39ad

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -13
app.py CHANGED
@@ -9,21 +9,26 @@ from huggingface_hub import login
9
  huggingface_token = st.secrets["HUGGINGFACEHUB_API_TOKEN"]
10
  login(huggingface_token)
11
 
 
 
12
 
 
 
 
 
13
 
14
- model_name = "meta-llama/llama-3.1-8b-instruct" # Reemplaza con el modelo que quieras usar
15
- model = AutoModelForCausalLM.from_pretrained(model_name, token=huggingface_token, torch_dtype=torch.float16)
16
- tokenizer = AutoTokenizer.from_pretrained(model_name, token=huggingface_token )
17
 
 
 
18
 
19
- # Solicita un query al usuario
20
- query = st.text_input("Por favor ingresa tu consulta:")
 
 
21
 
22
- if query:
23
- # Tokeniza el input y genera una respuesta
24
- inputs = tokenizer(query, return_tensors="pt")
25
- outputs = model.generate(**inputs)
26
-
27
- # Decodifica y muestra la respuesta
28
- response = tokenizer.decode(outputs[0], skip_special_tokens=True)
29
- st.write("Respuesta del modelo:", response)
 
9
  huggingface_token = st.secrets["HUGGINGFACEHUB_API_TOKEN"]
10
  login(huggingface_token)
11
 
12
+ # Solicitar la subida de un archivo CSV
13
+ uploaded_file = st.file_uploader("Sube un archivo CSV", type=["csv"])
14
 
15
+ if uploaded_file is not None:
16
+ # Leer el archivo CSV y mostrar una vista previa
17
+ df = pd.read_csv(uploaded_file)
18
+ st.write("Vista previa del archivo CSV:", df.head())
19
 
20
+ model_name = "meta-llama/llama-3.1-8b-instruct" # Reemplaza con el modelo que quieras usar
21
+ model = AutoModelForCausalLM.from_pretrained(model_name, token=huggingface_token, torch_dtype=torch.float16)
22
+ tokenizer = AutoTokenizer.from_pretrained(model_name, token=huggingface_token)
23
 
24
+ # Solicita un query al usuario
25
+ query = st.text_input("Por favor ingresa tu consulta:")
26
 
27
+ if query:
28
+ # Tokeniza el input y genera una respuesta
29
+ inputs = tokenizer(query, return_tensors="pt")
30
+ outputs = model.generate(**inputs)
31
 
32
+ # Decodifica y muestra la respuesta
33
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
34
+ st.write("Respuesta del modelo:", response)