File size: 2,330 Bytes
2f02a21 31da7a3 805122d 352d003 720b63c 3b01d45 3975417 720b63c 3975417 dd96b28 c606778 720b63c ed91ece 00db2ad 720b63c abd2b22 720b63c abd2b22 720b63c 90f1ac4 13c1bbe cc1d5bd 720b63c ed91ece |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
---
license: mit
language:
- th
pipeline_tag: text-generation
widget:
- text: ๏ ชมวิหคนกไม้ในวิถี
- text: ๏ มัจฉาใน
- text: ๏ มิตรแท้
- text: ๏ แม้นชีวี
---
# PhraAphaiManee-LM (แต่งกลอนสไตล์พระอภัยมณี ด้วย GPT-2)
<font size=4>***\*\* I've created an improved model with better performance, and you can now access it through this link -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM) \*\****</font>
PhraAphaiManee-LM or GPT-2 for Thai poem (PhraAphaiManee-Style).
I use [GPT-2 for Thai lyrics](https://huggingface.co/tupleblog/generate-thai-lyrics),
which is based on [GPT-2 base Thai](https://huggingface.co/flax-community/gpt2-base-thai) as a pre-trained model for
[PhraAphaiManee (พระอภัยมณี)](https://vajirayana.org/%e0%b8%9e%e0%b8%a3%e0%b8%b0%e0%b8%ad%e0%b8%a0%e0%b8%b1%e0%b8%a2%e0%b8%a1%e0%b8%93%e0%b8%b5) dataset.
***\*ตอนนี้ ผมได้ทำโมเดลใหม่ที่สามารถสัมผัสได้ดีกว่าแล้ว สามารถเข้าถึงได้จากลิงก์นี้ -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)\**** <br>
โมเดลนี้เป็น GPT-2 ถูกเทรนด้วยกลอนพระอภัยมณี สำหรับการแต่งกลอนสไตล์พระอภัยมณี
## Example use
``` py
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "Kongfha/PhraAphaiManee-LM"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
generate = pipeline("text-generation",
model=model,
tokenizer=tokenizer)
input_sentence = "๏ สัมผัสเส้นขอบฟ้าชลาลัย"
generated_text = generate(input_sentence,
max_length=140,
top_k=25,
temperature=1)
# generation parameters can be varied
print(f"Input: {text}")
print(f"Output:\n {generated_text[0]['generated_text']}")
```
|