Datasets:
iapp
/

Modalities:
Text
Formats:
text
Tags:
art
Libraries:
Datasets
License:
File size: 6,211 Bytes
ed5837d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
import csv
import random
import json

def create_training_data():
    training_data = []
    
    # Read CSV file
    with open('telex-utf8.csv', 'r', encoding='utf-8') as f:
        reader = csv.reader(f)
        word_data = list(reader)
    
    for row in word_data:
        if len(row) < 11:  # Skip incomplete rows
            continue
            
        thai_word = row[1]
        english_syn = row[3]
        category = row[4]
        thai_syn = row[5]
        example = row[6]
        antonym = row[7]
        definition = row[8]
        related_eng = row[9]
        unit_label = row[10]
        
        if not thai_word:  # Skip entries without Thai word
            continue
            
        # Create different types of prompts
        prompt_types = [
            f"คำว่า '{thai_word}' แปลว่าอะไร",
            f"ช่วยอธิบายความหมายของคำว่า '{thai_word}'", 
            f"'{thai_word}' มีความหมายว่าอย่างไร",
            f"ขอตัวอย่างประโยคของคำว่า '{thai_word}'",
            f"ยกตัวอย่างการใช้คำว่า '{thai_word}'",
            f"ช่วยอธิบายคำว่า '{thai_word}' หน่อย",
            f"'{thai_word}' หมายถึงอะไร",
            f"อยากทราบความหมายของคำว่า '{thai_word}'",
            f"คำว่า '{thai_word}' ใช้ในบริบทไหนได้บ้าง",
            f"ขอความหมายของคำว่า '{thai_word}'",
            f"'{thai_word}' คืออะไร",
            f"ช่วยยกตัวอย่างการใช้คำว่า '{thai_word}' ในประโยค",
            f"คำว่า '{thai_word}' สามารถใช้ในประโยคอย่างไรได้บ้าง",
            f"อยากรู้ว่าคำว่า '{thai_word}' ใช้ในประโยคยังไง",
            f"ขอทราบความหมายและตัวอย่างการใช้คำว่า '{thai_word}'",
            f"ช่วยอธิบายความหมายและยกตัวอย่างการใช้คำว่า '{thai_word}'",
            f"'{thai_word}' มีวิธีใช้อย่างไร",
            f"คำว่า '{thai_word}' มีความหมายและใช้อย่างไร",
            f"อยากทราบรายละเอียดเกี่ยวกับคำว่า '{thai_word}'",
            f"ขอคำอธิบายและตัวอย่างการใช้คำว่า '{thai_word}'"
        ]
        
        # Randomly select prompt type
        prompt = random.choice(prompt_types)
        # Convert category abbreviation to full name
        category_mapping = {
            'N': 'Noun (คำนาม)',
            'V': 'Verb (คำกริยา)',
            'VT': 'Transitive Verb (คำกริยาที่ต้องการกรรม)',
            'VI': 'Intransitive Verb (คำกริยาไม่ต้องการกรรม)',
            'ADJ': 'Adjective (คำคุณศัพท์)', 
            'ADV': 'Adverb (คำวิเศษณ์)',
            'PREP': 'Preposition (คำบุพบท)',
            'CONJ': 'Conjunction (คำสันธาน)',
            'CLAS': 'Classifier (คำลักษณนาม)',
            'PRON': 'Pronoun (คำสรรพนาม)',
            'DET': 'Determiner (คำกำหนด)',
            'ABBR': 'Abbreviation (คำย่อ)'
        }
        
        # Map the abbreviated category to full name, default to original if not found
        category = category_mapping.get(category, category)
        # Create response based on available information
        response = f"คำว่า '{thai_word}' เป็นคำประเภท {category}"
        
        if english_syn:
            response += f" แปลเป็นภาษาอังกฤษว่า {english_syn}"
            
        if definition:
            response += f"\nความหมาย: {definition}"
            
        if thai_syn:
            response += f"\nคำที่มีความหมายเหมือนกัน: {thai_syn}"
            
        if antonym:
            response += f"\nคำที่มีความหมายตรงข้าม: {antonym}"
            
        if example:
            response += f"\nตัวอย่างประโยค: {example}"
            
        if unit_label:
            response += f"\nลักษณนาม: {unit_label}"
            
        if related_eng:
            response += f"\nคำภาษาอังกฤษที่เกี่ยวข้อง: {related_eng}"

        # Create data in both formats
        # Format 1: Qwen2 conversation format
        conversation = (
            "<|im_start|>system\n"
            "คุณคือผู้ช่วยตอบคำถามที่ฉลาดและซื่อสัตย์<|im_end|>\n"
            f"<|im_start|>user\n{prompt}<|im_end|>\n"
            f"<|im_start|>assistant\n{response}<|im_end|>"
        )
        
        # Format 2: JSONL format
        json_data = {
            "instruction": prompt,
            "output": response
        }
        
        training_data.append((conversation, json_data))
        
    return training_data

# Generate training data
training_examples = create_training_data()

# Write to output files
with open('lexitron2_telex_finetune.qwen2.txt', 'w', encoding='utf-8') as f:
    for example, _ in training_examples:
        example = example.replace('\n', '\\n')
        f.write(example + '\n')

with open('lexitron2_telex_finetune.jsonl', 'w', encoding='utf-8') as f:
    for _, json_data in training_examples:
        f.write(json.dumps(json_data, ensure_ascii=False) + '\n')