|
--- |
|
license: mit |
|
language: |
|
- th |
|
pipeline_tag: text-generation |
|
widget: |
|
- text: ๏ ชมวิหคนกไม้ในวิถี |
|
- text: ๏ มัจฉาใน |
|
- text: ๏ มิตรแท้ |
|
- text: ๏ แม้นชีวี |
|
--- |
|
# PhraAphaiManee-LM (แต่งกลอนสไตล์พระอภัยมณี ด้วย GPT-2) |
|
|
|
<font size=4>***\*\* I've created an improved model with better performance, and you can now access it through this link -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM) \*\****</font> |
|
|
|
PhraAphaiManee-LM or GPT-2 for Thai poem (PhraAphaiManee-Style). |
|
I use [GPT-2 for Thai lyrics](https://huggingface.co/tupleblog/generate-thai-lyrics), |
|
which is based on [GPT-2 base Thai](https://huggingface.co/flax-community/gpt2-base-thai) as a pre-trained model for |
|
[PhraAphaiManee (พระอภัยมณี)](https://vajirayana.org/%e0%b8%9e%e0%b8%a3%e0%b8%b0%e0%b8%ad%e0%b8%a0%e0%b8%b1%e0%b8%a2%e0%b8%a1%e0%b8%93%e0%b8%b5) dataset. |
|
|
|
|
|
***\*ตอนนี้ ผมได้ทำโมเดลใหม่ที่สามารถสัมผัสได้ดีกว่าแล้ว สามารถเข้าถึงได้จากลิงก์นี้ -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)\**** <br> |
|
โมเดลนี้เป็น GPT-2 ถูกเทรนด้วยกลอนพระอภัยมณี สำหรับการแต่งกลอนสไตล์พระอภัยมณี |
|
|
|
## Example use |
|
``` py |
|
from transformers import pipeline |
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
model_name = "Kongfha/PhraAphaiManee-LM" |
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
model = AutoModelForCausalLM.from_pretrained(model_name) |
|
|
|
generate = pipeline("text-generation", |
|
model=model, |
|
tokenizer=tokenizer) |
|
|
|
input_sentence = "๏ สัมผัสเส้นขอบฟ้าชลาลัย" |
|
generated_text = generate(input_sentence, |
|
max_length=140, |
|
top_k=25, |
|
temperature=1) |
|
# generation parameters can be varied |
|
|
|
print(f"Input: {text}") |
|
print(f"Output:\n {generated_text[0]['generated_text']}") |
|
``` |
|
|