import csv import random import json def create_training_data(): training_data = [] # Read CSV file with open('telex-utf8.csv', 'r', encoding='utf-8') as f: reader = csv.reader(f) word_data = list(reader) for row in word_data: if len(row) < 11: # Skip incomplete rows continue thai_word = row[1] english_syn = row[3] category = row[4] thai_syn = row[5] example = row[6] antonym = row[7] definition = row[8] related_eng = row[9] unit_label = row[10] if not thai_word: # Skip entries without Thai word continue # Create different types of prompts prompt_types = [ f"คำว่า '{thai_word}' แปลว่าอะไร", f"ช่วยอธิบายความหมายของคำว่า '{thai_word}'", f"'{thai_word}' มีความหมายว่าอย่างไร", f"ขอตัวอย่างประโยคของคำว่า '{thai_word}'", f"ยกตัวอย่างการใช้คำว่า '{thai_word}'", f"ช่วยอธิบายคำว่า '{thai_word}' หน่อย", f"'{thai_word}' หมายถึงอะไร", f"อยากทราบความหมายของคำว่า '{thai_word}'", f"คำว่า '{thai_word}' ใช้ในบริบทไหนได้บ้าง", f"ขอความหมายของคำว่า '{thai_word}'", f"'{thai_word}' คืออะไร", f"ช่วยยกตัวอย่างการใช้คำว่า '{thai_word}' ในประโยค", f"คำว่า '{thai_word}' สามารถใช้ในประโยคอย่างไรได้บ้าง", f"อยากรู้ว่าคำว่า '{thai_word}' ใช้ในประโยคยังไง", f"ขอทราบความหมายและตัวอย่างการใช้คำว่า '{thai_word}'", f"ช่วยอธิบายความหมายและยกตัวอย่างการใช้คำว่า '{thai_word}'", f"'{thai_word}' มีวิธีใช้อย่างไร", f"คำว่า '{thai_word}' มีความหมายและใช้อย่างไร", f"อยากทราบรายละเอียดเกี่ยวกับคำว่า '{thai_word}'", f"ขอคำอธิบายและตัวอย่างการใช้คำว่า '{thai_word}'" ] # Randomly select prompt type prompt = random.choice(prompt_types) # Convert category abbreviation to full name category_mapping = { 'N': 'Noun (คำนาม)', 'V': 'Verb (คำกริยา)', 'VT': 'Transitive Verb (คำกริยาที่ต้องการกรรม)', 'VI': 'Intransitive Verb (คำกริยาไม่ต้องการกรรม)', 'ADJ': 'Adjective (คำคุณศัพท์)', 'ADV': 'Adverb (คำวิเศษณ์)', 'PREP': 'Preposition (คำบุพบท)', 'CONJ': 'Conjunction (คำสันธาน)', 'CLAS': 'Classifier (คำลักษณนาม)', 'PRON': 'Pronoun (คำสรรพนาม)', 'DET': 'Determiner (คำกำหนด)', 'ABBR': 'Abbreviation (คำย่อ)' } # Map the abbreviated category to full name, default to original if not found category = category_mapping.get(category, category) # Create response based on available information response = f"คำว่า '{thai_word}' เป็นคำประเภท {category}" if english_syn: response += f" แปลเป็นภาษาอังกฤษว่า {english_syn}" if definition: response += f"\nความหมาย: {definition}" if thai_syn: response += f"\nคำที่มีความหมายเหมือนกัน: {thai_syn}" if antonym: response += f"\nคำที่มีความหมายตรงข้าม: {antonym}" if example: response += f"\nตัวอย่างประโยค: {example}" if unit_label: response += f"\nลักษณนาม: {unit_label}" if related_eng: response += f"\nคำภาษาอังกฤษที่เกี่ยวข้อง: {related_eng}" # Create data in both formats # Format 1: Qwen2 conversation format conversation = ( "<|im_start|>system\n" "คุณคือผู้ช่วยตอบคำถามที่ฉลาดและซื่อสัตย์<|im_end|>\n" f"<|im_start|>user\n{prompt}<|im_end|>\n" f"<|im_start|>assistant\n{response}<|im_end|>" ) # Format 2: JSONL format json_data = { "instruction": prompt, "output": response } training_data.append((conversation, json_data)) return training_data # Generate training data training_examples = create_training_data() # Write to output files with open('lexitron2_telex_finetune.qwen2.txt', 'w', encoding='utf-8') as f: for example, _ in training_examples: example = example.replace('\n', '\\n') f.write(example + '\n') with open('lexitron2_telex_finetune.jsonl', 'w', encoding='utf-8') as f: for _, json_data in training_examples: f.write(json.dumps(json_data, ensure_ascii=False) + '\n')