PhraAphaiManee-LM / README.md
Kongfha's picture
Update README.md
3b01d45
---
license: mit
language:
- th
pipeline_tag: text-generation
widget:
- text: ชมวิหคนกไม้ในวิถี
- text: มัจฉาใน
- text: มิตรแท้
- text: แม้นชีวี
---
# PhraAphaiManee-LM (แต่งกลอนสไตล์พระอภัยมณี ด้วย GPT-2)
<font size=4>***\*\*&ensp;I've created an improved model with better performance, and you can now access it through this link -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)&ensp;\*\****</font>
PhraAphaiManee-LM or GPT-2 for Thai poem (PhraAphaiManee-Style).
I use [GPT-2 for Thai lyrics](https://huggingface.co/tupleblog/generate-thai-lyrics),
which is based on [GPT-2 base Thai](https://huggingface.co/flax-community/gpt2-base-thai) as a pre-trained model for
[PhraAphaiManee (พระอภัยมณี)](https://vajirayana.org/%e0%b8%9e%e0%b8%a3%e0%b8%b0%e0%b8%ad%e0%b8%a0%e0%b8%b1%e0%b8%a2%e0%b8%a1%e0%b8%93%e0%b8%b5) dataset.
***\*ตอนนี้ ผมได้ทำโมเดลใหม่ที่สามารถสัมผัสได้ดีกว่าแล้ว สามารถเข้าถึงได้จากลิงก์นี้ -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)\**** <br>
โมเดลนี้เป็น GPT-2 ถูกเทรนด้วยกลอนพระอภัยมณี สำหรับการแต่งกลอนสไตล์พระอภัยมณี
## Example use
``` py
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "Kongfha/PhraAphaiManee-LM"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
generate = pipeline("text-generation",
model=model,
tokenizer=tokenizer)
input_sentence = "๏ สัมผัสเส้นขอบฟ้าชลาลัย"
generated_text = generate(input_sentence,
max_length=140,
top_k=25,
temperature=1)
# generation parameters can be varied
print(f"Input: {text}")
print(f"Output:\n {generated_text[0]['generated_text']}")
```