Spaces:
Runtime error
Runtime error
# Direktes Laden von Tokenizer und Modell | |
from transformers import AutoTokenizer, AutoModel | |
# Authentifizierung mit deinem Token | |
hf_token = "HF_TOKEN" # Dein Token hier einfügen | |
# Lade den Tokenizer und das Modell | |
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token) | |
model = AutoModel.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token) | |
# Beispielhafte Anwendung des Modells auf einen Text | |
text = "Hier steht ein Beispielsatz, den du verarbeiten möchtest." | |
inputs = tokenizer(text, return_tensors="pt") | |
outputs = model(**inputs) | |
print(outputs) | |