# Direktes Laden von Tokenizer und Modell from transformers import AutoTokenizer, AutoModel # Authentifizierung mit deinem Token hf_token = "HF_TOKEN" # Dein Token hier einfügen # Lade den Tokenizer und das Modell tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token) model = AutoModel.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token) # Beispielhafte Anwendung des Modells auf einen Text text = "Hier steht ein Beispielsatz, den du verarbeiten möchtest." inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs) print(outputs)