File size: 2,330 Bytes
2f02a21
 
31da7a3
 
 
 
 
805122d
 
352d003
720b63c
 
 
3b01d45
3975417
720b63c
 
 
 
 
3975417
dd96b28
c606778
 
720b63c
ed91ece
00db2ad
 
720b63c
abd2b22
 
 
720b63c
abd2b22
 
 
720b63c
90f1ac4
 
13c1bbe
 
cc1d5bd
 
720b63c
 
 
ed91ece
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
---
license: mit
language:
- th
pipeline_tag: text-generation
widget:
  - text:  ชมวิหคนกไม้ในวิถี
  - text:  มัจฉาใน
  - text:  มิตรแท้
  - text:  แม้นชีวี
---
# PhraAphaiManee-LM (แต่งกลอนสไตล์พระอภัยมณี ด้วย GPT-2)

<font size=4>***\*\*&ensp;I've created an improved model with better performance, and you can now access it through this link -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)&ensp;\*\****</font>

PhraAphaiManee-LM or GPT-2 for Thai poem (PhraAphaiManee-Style).
I use [GPT-2 for Thai lyrics](https://huggingface.co/tupleblog/generate-thai-lyrics), 
which is based on [GPT-2 base Thai](https://huggingface.co/flax-community/gpt2-base-thai) as a pre-trained model for 
[PhraAphaiManee (พระอภัยมณี)](https://vajirayana.org/%e0%b8%9e%e0%b8%a3%e0%b8%b0%e0%b8%ad%e0%b8%a0%e0%b8%b1%e0%b8%a2%e0%b8%a1%e0%b8%93%e0%b8%b5) dataset.


***\*ตอนนี้ ผมได้ทำโมเดลใหม่ที่สามารถสัมผัสได้ดีกว่าแล้ว สามารถเข้าถึงได้จากลิงก์นี้ -> [Kongfha/KlonSuphap-LM](https://huggingface.co/Kongfha/KlonSuphap-LM)\**** <br>
โมเดลนี้เป็น GPT-2 ถูกเทรนด้วยกลอนพระอภัยมณี สำหรับการแต่งกลอนสไตล์พระอภัยมณี

## Example use
``` py
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "Kongfha/PhraAphaiManee-LM"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

generate = pipeline("text-generation",
                    model=model,
                    tokenizer=tokenizer)

input_sentence = "๏ สัมผัสเส้นขอบฟ้าชลาลัย"
generated_text = generate(input_sentence,
                          max_length=140,
                          top_k=25,
                          temperature=1)
# generation parameters can be varied 

print(f"Input: {text}")
print(f"Output:\n {generated_text[0]['generated_text']}")
```