# bert_edline
##########################################################################
def get_predictions(model, tokenizer, texts):
predictions = []
for text in texts:
input = tokenizer(text
, return_tensors = "pt"
, padding = True
, truncation = True)
with torch.no_grad():
output = model(**input)
prediction = torch.argmax(output.logits, dim = -1)
predictions.append(prediction.item())
return predictions
##########################################################################
##########################################################################
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
model_name = "MasterAlex69/bert_edline"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
texts = [
"Строка состоит из символов 10. Определите максимальное количество идущих подряд символов 10. Исходная строка: 1001101010000111011110100110100010000111000100101010101101011010111111011000101101010101001011010100. (Ответ: -4)",
"Строка состоит из символов 10. Определите максимальное количество идущих подряд символов 10. Исходная строка: 1000010001111000001001101010101010011000101110101010101011110101010001010101010010111110111110101010. (Ответ: 6)",
"Строка состоит из символов 01. Определите максимальное количество идущих подряд символов 01. Исходная строка: 0111101010101110010100010011101010100101001010101011000001010101010100101010010101001000000101010010. (Ответ: 10)",
"Строка состоит из символов 01. Определите максимальное количество идущих подряд символов 1. Исходная строка: 1001110110011110111110110010111111111000111101011111111111111001101111110011111110111110010011111111. (Ответ: 14)",
"Строка состоит из символов 01. Определите максимальное количество идущих подряд символов 01. Исходная строка: 0101110001000101010101010000111111110111010100101110101010110010101010110100010111000110010101001010. (Ответ: 6)",
"Строка состоит из символов 01. Определите максимальное количество идущих подряд символов 01. Исходная строка: 0101110001000101010101010000111111110111010100101110101010110010101010110100010111000110010101001010. (Ответ: 7)"
]
true_labels = [0, 1, 0, 1, 1, 0]
predictions = get_predictions(model, tokenizer, texts)
print("true_labels :", true_labels)
print("predictions :", predictions)
##########################################################################
- Downloads last month
- 3
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support