---
license: apache-2.0
language:
- de
metrics:
- bleu
- accuracy
- rouge
base_model:
- facebook/bart-large-cnn
pipeline_tag: text2text-generation
tags:
- summarization
- safetesors
- text-generation-inference
- text_to_text
- Netzwerk
- Smart_Industry_Campus
- generation
library_name: transformers
---
# Übersicht

**PDF-Suzammenfassen** ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.

## Funktionen

- **Sprachunterstützung:** Optimiert für deutsche Texte.
- **Anwendungsbereiche:**
  - Netzwerktechnologie
  - IT-Infrastruktur
  - Industrie 4.0

## Modell-Details

- **Format:** safetensors
- **Parameter:** 406M
- **Architektur:** Seq2Seq (BART)

## Nutzung

Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.

### Beispielcode

```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM 

tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen") 
model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")

text = "Das ist ein Beispieltext, der zusammengefasst werden soll." 
inputs = tokenizer(text, return_tensors="pt", truncation=True) 
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4) 
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(summary)

Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:

Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers

Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer

model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")

Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.