This model performs summarization on Turkish texts. The model usage is as follows:
FYI: You can replace the folder redirect with "erythropygia/bert-turkish-summarization" in the appropriate fields.
import torch
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer, AutoConfig, pipeline
device = torch.device('cpu') #or 'cuda'
config_summarize = AutoConfig.from_pretrained("erythropygia/bert-turkish-summarization")
model_summarize = AutoModelForSeq2SeqLM.from_pretrained('erythropygia/bert-turkish-summarization', config=config_summarize)
tokenizer_summarize = AutoTokenizer.from_pretrained("erythropygia/bert-turkish-summarization")
input = "Çocuklar, doğdukları andan itibaren hızla büyürler. Bebeklik döneminde, ilk adımları atma ve dünyayı keşfetme heyecanıyla dolu bir dönemdir. Bu süreçte sağlıklı beslenme, yeterli uyku ve güvenli bir çevre, fiziksel gelişimlerini destekler.
Çocukların zihinsel gelişimi, oyunlar, hikayeler ve etkileşimli aktiviteler aracılığıyla teşvik edilebilir. Renkli bloklarla oynamak, resim çizmek ve basit problemleri çözmek gibi etkinlikler, çocukların zihinsel kapasitelerini geliştirmelerine yardımcı olur.
Arkadaşlarıyla etkileşimde bulunma, grup içinde çalışma ve paylaşma gibi sosyal beceriler, çocukların sosyal gelişimlerini destekler. Okul öncesi eğitim ve çeşitli sosyal etkinlikler, çocukların sosyal dünyalarını genişletmelerine yardımcı olabilir.
Çocuk gelişimi, bir ömür boyu süren bir yolculuktur ve bu süreçte her çocuk farklı bir hikaye yazar. Ebeveynler, eğitimciler ve toplum olarak çocukların sağlıklı, mutlu ve dengeli bireyler olarak yetişmelerine destek olmak, geleceğimizin temelini inşa etmek anlamına gelir."
summarize_pipeline = pipeline(
task='summarization',
model=model_summarize,
tokenizer=tokenizer_summarize,
framework='pt',
#device=device
)
summarize_result = summarize_pipeline(input)
print(summarize_result)
- Downloads last month
- 10
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.