language:
- es
metrics:
- accuracy
- precision
- recall
- f1
base_model:
- cardiffnlp/twitter-xlm-roberta-base-sentiment
pipeline_tag: text-classification
library_name: transformers
tags:
- politics
- sentiment
- argentina
Modelo de Clasificaci贸n de Sentimientos - Debate Presidencial Argentina 2023
Este modelo ha sido desarrollado en el marco de la Tesina para obtener el t铆tulo de Licenciatura en Estad铆stica en la Universidad Nacional de Rosario (UNR).
Autores:
- Alumna: Natalia Mar铆n
- Director: Mag. Marcos Miguel Prunello
Descripci贸n
Este modelo est谩 dise帽ado para clasificar comentarios de diversas redes sociales obtenidos luego del primer debate presidencial en Argentina en el a帽o 2023. Ha sido espec铆ficamente ajustado para analizar los comentarios sobre el candidato Juan Schiaretti.
Para m谩s informaci贸n, consulte el siguiente enlace: link
Detalles del Modelo
- Modelo base preentrenado:
cardiffnlp/twitter-xlm-roberta-base-sentiment
- Ajuste espec铆fico: El modelo ha sido fine-tuneado para clasificar comentarios sobre la candidata en el contexto de las elecciones presidenciales en Argentina.
M茅tricas Generales
M茅trica | Valor |
---|---|
Accuracy | 0.837838 |
F1 Score | 0.824761 |
Precision | 0.812948 |
Recall | 0.837838 |
M茅tricas por Clase
Clase | Precision | Recall | F1 | Support |
---|---|---|---|---|
Clase 0 | 0.867925 | 0.92 | 0.893204 | 50 |
Clase 1 | 0.0 | 0.0 | 0.0 | 2 |
Clase 2 | 0.761905 | 0.727273 | 0.744186 | 22 |
Matriz de Confusi贸n
Clase 0 | Clase 1 | Clase 2 | |
---|---|---|---|
Clase 0 | 46 | 0 | 4 |
Clase 1 | 1 | 0 | 1 |
Clase 2 | 6 | 0 | 16 |
Cargar y Usar el Modelo en Python
A continuaci贸n, se muestra un ejemplo de c贸mo cargar el modelo y su tokenizador, y realizar una predicci贸n de sentimiento en un comentario:
from transformers import XLMRobertaForSequenceClassification, XLMRobertaTokenizer
import torch
# Cargar el modelo y el tokenizador
model_path = "natmarinn/sentimientos-schiaretti"
model = XLMRobertaForSequenceClassification.from_pretrained(model_path)
tokenizer = XLMRobertaTokenizer.from_pretrained(model_path)
# Texto de ejemplo
texto = "Vamos gringo"
# Tokenizaci贸n
inputs = tokenizer(texto, return_tensors="pt", truncation=True)
# Predicci贸n
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
pred_class = torch.argmax(logits, dim=1).item()
# Mostrar resultado
clases = ["Clase 0", "Clase 1", "Clase 2"]
print(f"El comentario es clasificado como: {clases[pred_class]}")
@misc {natalia_mar铆n_2024, author = { {Natalia Mar铆n, Marcos Miguel Prunello} }, title = { sentimientos-schiaretti (Revision 0464d3c) }, year = 2024, url = { https://huggingface.co/natmarinn/sentimientos-schiaretti }, doi = { 10.57967/hf/3618 }, publisher = { Hugging Face } }