Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -2,20 +2,20 @@ import pandas as pd
|
|
2 |
from langchain import LLMChain, LLM
|
3 |
from transformers import LLaMAForCausalLM, LLaMATokenizer
|
4 |
from huggingface_hub import login
|
|
|
5 |
|
6 |
-
|
7 |
-
huggingface_token = st.secrets["FIREWORKS"]
|
8 |
login(huggingface_token)
|
9 |
# Cargar el archivo CSV
|
10 |
-
|
11 |
-
df = pd.read_csv(
|
12 |
|
13 |
# Ingreso del query
|
14 |
-
query = "
|
15 |
|
16 |
# Crear un modelo LLaMA
|
17 |
-
modelo = LLaMAForCausalLM.from_pretrained("
|
18 |
-
tokenizer = LLaMATokenizer.from_pretrained("
|
19 |
|
20 |
# Crear una cadena LLM con LangChain
|
21 |
llm = LLM(modelo, tokenizer)
|
|
|
2 |
from langchain import LLMChain, LLM
|
3 |
from transformers import LLaMAForCausalLM, LLaMATokenizer
|
4 |
from huggingface_hub import login
|
5 |
+
import streamlit as st
|
6 |
|
7 |
+
huggingface_token = st.secrets["SECRET"]
|
|
|
8 |
login(huggingface_token)
|
9 |
# Cargar el archivo CSV
|
10 |
+
uploaded_file = st.file_uploader("Sube un archivo CSV con la columna 'job_title':", type=["csv"])
|
11 |
+
df = pd.read_csv(uploaded_file)
|
12 |
|
13 |
# Ingreso del query
|
14 |
+
query = "aspiring human resources specialist"
|
15 |
|
16 |
# Crear un modelo LLaMA
|
17 |
+
modelo = LLaMAForCausalLM.from_pretrained("meta-llama/Llama-3.2-1B")
|
18 |
+
tokenizer = LLaMATokenizer.from_pretrained("meta-llama/Llama-3.2-1B")
|
19 |
|
20 |
# Crear una cadena LLM con LangChain
|
21 |
llm = LLM(modelo, tokenizer)
|