txt
stringlengths 202
53.1k
|
---|
# Non-Repudiation: สัญญาต้องเป็นสัญญา
ความเชื่อใจในความมั่นคงปลอดภัยของระบบคอมพิวเตอร์ที่เลียนแบบมาจากโลกความเป็นจริงอย่างสุดท้าย นั่นคือการทำสัญญา ในโลกความเป็นจริงคนเราทำสัญญากันทุกวันตลอดเวลา เมื่อเราสั่งสินค้ากับแม่ครัวในร้านอาหาร แม่ค้าต้องนำอาหารที่เราสั่งมาเสิร์ฟให้อย่างถูกต้อง เมื่อเราทานแล้วเราต้องจ่ายเงินตามค่าอาหารที่ระบุไว้ หากแม่ครัวทำอาหารมาผิด เรามีสิทธิที่จะปฎิเสธไม่รับอาหาร และไม่จ่ายเงินค่าอาหารนั้นๆ
หลักการของการไว้วางใจได้ที่จะใช้คอมพิวเตอร์เป็นตัวกลางในการทำสัญญานับเป็นหลักการสำคัญ เพื่อให้เราใช้คอมพิวเตอร์เป็นตัวกลางในการทำธุรกรรมออนไลน์ได้อย่างหลากหลายเช่นทุกวันนี้ เราสามารถทำธุรกรรมออนไลน์ได้นับตั้งแต่การประกาศเรื่องทั่วๆ ไป เช่น หาอาสาสมัคร, ประกาศงาน ไปจนถึงการซื้อสินค้าออนไลน์ และทำธุรกรรมทางการเงิน
ในโลกความเป็นจริงที่เราเดินเข้าร้านอาหารและสั่งอาหาร หากมีฝ่ายหนึ่งฝ่ายใดผิดสัญญา อาจจะต้องมีการหาหลักฐานพยานเพื่อยืนยันความถูกต้อง คนที่นั่งร่วมโต๊ะกับเราอาจจะช่วยยืนยันกับแม่ครัวว่าเราสั่งอาหารถูกต้อง และแม่ครัวเป็นฝ่ายทำอาหารมาเสิร์ฟเราผิด กระบวนการเช่นนี้คือการบอกปฎิเสธ (repudiate) ในโลกคอมพิวเตอร์ธุรกรรมที่เราทำจำนวนมากจะทำกับคอมพิวเตอร์โดยตรง ธุรกรรมการเงินของเราอาจจะไม่มีใครมารับรู้ร่วมกับเรา เมื่อเรานั่งในห้องส่วนตัวต่อคอมพิวเตอร์ออนไลน์เข้ากับเซิร์ฟเวอร์โดยตรง
การบอกปฎิเสธได้หรือไม่เป็นเรื่องที่เราโต้เถียงกันได้เสมอแม้แต่ในโลกความเป็นจริง คนร้ายในคราบลูกค้าสักคนอาจจะมุ่งก่อกวนกิจการของร้านด้วยการสั่งอาหารแล้วอ้างว่าทำผิดรายการอยู่เสมอ ไปจนถึงการก่ออาชญากรรมเช่นการบุกทำลายร้าน เมื่อก่ออาชญากรรมแล้วหนีไปได้ ตำรวจก็ต้องหาหลักฐานที่เพียงพอเพื่อที่จะจับกุมและดำเนินคดีกับผู้ร้ายต่อไป
ขณะที่กระบวนการเข้ารหัสการป้องกันต่างๆ ช่วยให้ยืนยันได้ว่ามีการใช้กุญแจลับ, รหัสผ่าน, หรือการแชร์ข้อมูลระหว่างผู้ที่ถือรหัสผ่านตรงกัน จริงหรือไม่ กระบวนการเหล่านี้กลับไม่เพียงพอที่จะยืนยันความรับผิดชอบทางกฎหมาย หากมีการใช้กุญแจลับอย่างไม่ตั้งใจ, ถูกบังคับขู่เข็ญจากฝ่ายตรงข้าม, หรือกระทั่งเอกสารคอมพิวเตอร์นั้นถูกปลอมแปลงได้จากกระบวนการที่ไม่แข็งแกร่งเพียงพอ
ความเสี่ยงเช่นนี้ไม่ได้จำกัดอยู่ในโลกคอมพิวเตอร์เท่านั้น ในโลกความเป็นจริงสัญญาที่เราทำทุกวันนี้แม้มีหนังสือสัญญาเป็นทางการก็อาจจะถูกปฎิเสธความรับผิดชอบ รวมถึงไม่สามารถบังคับความรับผิดชอบตามกระบวนการทางกฎหมายได้ หากมีประเด็นโต้แย้งเช่น หนังสือสัญญาลงนามขณะที่คู่สัญญาไม่ได้สติ, ลายเซ็นถูกปลอม, หรือเนื้อหาในหนังสือสัญญาถูกปลอมแปลง กระบวนการทางกฎหมายทุกวันนี้จึงพยายามลดข้อโต้แย้งเหล่านี้ลงด้วยการเพิ่มพยานในหนังสือสัญญาต่างๆ เข้ามา
ความซับซ้อนในกระบวนการทางกฎหมายเหล่านี้จะยุ่งยากขึ้น เมื่อเป็นความผิดทางอาญาที่เอกสารและหลักฐานต่างๆ จะถูกใช้เพื่อนำผู้ร้ายรับโทษทางอาญา กระบวนการพิจารณาหลักฐานและการให้น้ำหนักของหลักฐานในคดีแพ่งที่เป็นการทำสัญญาระหว่างสองฝ่าย กับคดีอาญานั้นมีความต่างกันไป โดยกระบวนการทางแพ่งนั้นอิงกับการชั่งน้ำหนักของหลักฐาน ว่าฝ่ายใดมีน้ำหนักมากกว่ากัน ขณะที่คดีอาญานั้นหลักฐานต้องหนักแน่นพอที่จะสิ้นข้อสงสัยที่มีเหตุผล (beyond reasonable doubt)
### หลักฐานอิเล็กทรอนิกส์
ปัญหาสำคัญของกระบวนการบังคับสัญญาอิเล็กทรอนิกส์ทางกฎหมายคือเราจะยอมรับข้อมูลอิเล็กทรอนิกส์ซึ่งอาจจะเป็นไฟล์เป็นหลักฐานเทียบเท่าหนังสือสัญญาตามกฎหมายทั่วไปหรือไม่ หรือการใช้ล็อกไฟล์จะสามารถยืนยันในศาลว่าเป็นร่องรอยของการกระทำต่างๆ ได้หรือไม่
ประเด็นหลักฐานอิเล็กทรอนิกส์มีการระบุไว้ใน [พระราชบัญญัติว่าด้วยธุรกรรมทางอิเล็กทรอนิกส์ พ.ศ. 2544](http://www.etcommission.go.th/files/law/Electronic_Trans.pdf) ตามมาตรา 11 ที่ระบุให้ใช้หลักฐานอิเล็กทรอนิกส์เป็นหลักฐานได้ทั้งคดีแพ่งและคดีอาญา โดยอาศัยความน่าเชื่อถือของการสร้าง การเก็บรักษา ความครบถ้วน และกระบวนการระบุผู้ส่งข้อมูล
กระบวนการใช้หลักฐานอิเล็กทรอนิกส์ในไทยนั้นยังไม่มีแนวทางชัดเจนนักเนื่องจากกฎหมายเป็นกฎหมายใหม่ และยังไม่มีคดีเป็นแนวทางมากนัก ประเทศที่มีกฎหมายด้านคอมพิวเตอร์มายาวนานอย่างสหรัฐฯ นั้นมี[คู่มือการใช้หลักฐานอิเล็กทรอนิกส์](http://www.justice.gov/criminal/cybercrime/docs/ssmanual2009.pdf)ความยาวเกือบ 300 หน้าอธิบายกรณีต่างๆ ที่เคยเกิดขึ้นกับการใช้หลักฐานอิเล็กทรอนิกส์ หรือ[แนวทางการใช้หลักฐานดิจิตอลสำหรับตำรวจสหราชอาณาจักร](http://www.acpo.police.uk/documents/crime/2011/201110-cba-digital-evidence-v5.pdf)
เนื้อหารายละเอียดนั้นมีจำนวนมาก แต่หลักการเบื้องต้น ได้แก่
1. **หลักฐานต้องได้มาโดยชอบ** หากเจ้าของคอมพิวเตอร์ยินยอมเจ้าหน้าที่อาจจะเข้าค้นข้อมูลเป็นหลักฐานได้ หรือไม่เช่นนั้นต้องขอหมายศาล ยกเว้นเพียงบางกรณีเช่น คอมพิวเตอร์เสี่ยงต่อการถูกทำลายหลักฐานในเวลาอันสั้น เช่น ผู้ต้องสงสัยกำลังลบไฟล์ในคอมพิวเตอร์อยู่
2. **ต้องไม่มีการการเปลี่ยนแปลงเนื้อหา** จากหลักฐานที่ได้มาต้องใช้หลักฐานตามที่ได้นั้น กระบวนการเก็บข้อมูลทั้งหมดต้องมีการรายการที่อธิบายได้ สามารถส่งให้บุคคลที่สามในคดีทำซ้ำเพื่อได้ข้อมูลเดียวกัน เช่น หากเจ้าหน้าที่ระบุว่ามีไฟล์ที่เป็นหลักฐานของคดี ต้องสามารถบอกได้อย่างชัดแจ้งว่าพบไฟล์ได้อย่างไร สืบค้นในเครื่องของผู้ต้องสงสัยอย่างไร
3. **การเข้าเก็บข้อมูลต้องทำโดยผู้เชี่ยวชาญ** คอมพิวเตอร์ที่เปิดเครื่องอยู่อาจจะรันจากระบบไฟล์ที่เข้ารหัสไว้ทั้งหมด การปิดเครื่องอาจจะทำให้ไม่สามารถเปิดเครื่องหรือกู้คืนข้อมูลบางส่วนไปได้ตลอดกาล
4. **ตีความหลักฐานอย่างระมัดระวัง** เจ้าหน้าที่ต้องรู้ตัวว่าความรู้ของตัวเองมีจำกัดเพียงใด และสอบถามจากผู้เชี่ยวชาญเพิ่มเติมเมื่อจำเป็น การตีความหลักต้องเชื่อมโยงกับการกระทำ ตัวอย่างกรณีผู้ต้องหามีภาพอนาจารเด็กในคอมพิวเตอร์ไม่ได้แปลว่าเขารับรู้ว่าได้เซฟภาพนั้นลงคอมพิวเตอร์เสมอไป เจ้าหน้าที่อาจต้องใช้หลักฐานอื่นประกอบ เช่น รายการไฟล์ล่าสุดที่มีการเปิดใช้งาน (จงใจเปิดไฟล์หรือไม่), รายการค้นหาจากเว็บค้นหา (จงใจหาทางได้ภาพนั้นมา), ไปจนถึงว่าคอมพิวเตอร์ล็อกด้วยรหัสผ่านหรือไม่ (เจ้าของเครื่องเป็นผู้เซฟภาพด้วยตนเอง)
### สัญญาอิเล็กทรอนิกส์
นอกจากนี้ยังระบุถึงรายละเอียดของความสมบูรณ์ของสัญญาอิเล็กทรอนิกส์ ในมาตรา 15 ถึงมาตรา 25 ของพระราชบัญญัติว่าด้วยธุรกรรมทางอิเล็กทรอนิกส์โดยรวมแล้วระบุให้สัญญาอิเล็กทรอ
1. ต้องตรวจสอบผู้ส่งว่าเป็นผู้ส่งจริง (มาตรา 15-16)
2. ข้อมูลถูกต้องไม่มีการแก้ไขผิดพลาด (มาตรา 17) ไม่ใช่ข้อมูลส่งซ้ำ (มาตรา 18)
3. มีการตอบรับข้อมูล หรือการตอบรับข้อความตอบรับตามแต่ตกลง (มาตรา 19)
กระบวนการเหล่านี้มีการออกแบบกระบวนการทางรหัสวิทยาและกระบวนการอื่นๆ รองรับไว้ทั้งสิ้น เช่นกระบวนการยืนยันผู้ส่ง เอกสารสามารถยืนยันได้ด้วยกระบวนการเซ็นลายเซ็นดิจิตอล กระบวนการยืนยันความถูกต้องของข้อมูลมีการใช้ฟังก์ชั่นแฮช กระบวนการตรวจสอบว่าไม่มีการส่งข้อมูลซ้ำนั้นเอกสารมักมีหมายเลขลำดับกำกับเอาไว้ หลายครั้งกำกับด้วยเวลาเพื่อไม่ให้ใช้ข้อความเดิมมาส่งซ้ำได้อีก ขณะที่ระบบตอบรับเรามักเห็นในอีเมลเมื่อสมัครบัญชีใช้งานเว็บใหม่ ที่บริการจะส่งอีเมลมาให้เรากดยืนยันด้วย URL พิเศษที่สร้างขึ้นเฉพาะ หากเรากดก็เป็นการตอบรับว่าเราเป็นเจ้าของบัญชีอีเมลที่ใช้สมัครใช้บริการจริง
### การรับรู้การกระทำ
ปัญหาการบอกปฎิเสธความรับผิดชอบที่สำคัญในโลกคอมพิวเตอร์คือการกระทำของคอมพิวเตอร์ที่สามารถกระทำแทนเราได้หลายอย่าง เว็บบริการประมูลสินค้าออนไลน์อาจจะมีบริการประมูลอัตโนมัติที่ให้ผู้ใช้กำหนดวงเงินไว้ล่วงหน้าแล้วซอฟต์แวร์จะประมูลให้เองโดยไม่ต้องถามความสมัครใจของผู้ใช้อีกครั้ง
กระบวนการหนึ่งที่จะยืนยันว่าผู้ใช้รับรู้กระทำออนไลน์คือการให้ผู้ใช้ใส่รหัสผ่านซ้ำอีกครั้ง เว็บซื้อสินค้าส่วนมากจึงยังคับให้ผู้ใช้ใส่รหัสผ่านอีกครั้งเมื่อต้องทำคำสั่งบางอย่างที่สำคัญเช่นการเข้าดูประวัติการใช้งาน หรือการกดสั่งซื้อสินค้า แม้ผู้ใช้นั้นจะเพิ่งล็อกอินมาไม่นานก็ตาม
ประเด็นการปฎิเสธความรับผิดชอบเป็นข่าวเรื่อยมาในเว็บประมูลอย่าง eBay ที่ผู้ใช้อ้างว่ามีลูกของเขาใช้บัญชีที่ล็อกอินทิ้งไว้กดประมูลแล้วขอยกเลิกรายการประมูล แต่โดยส่วนมากแล้วผู้ขายสินค้ามักยอมรับคำร้องขอยกเลิกรายการประมูล
แต่คดีที่สำคัญในช่วงหลังคือคดีการซื้อสินค้าจากหน้าร้านในสมาร์ตโฟน ก่อนหน้านี้ผู้ผลิต เช่น แอปเปิลและกูเกิล มักอำนวยความสะดวกให้กับลูกค้าที่จะซื้อสินค้าได้ง่าย โดยเลือกที่จะถามรหัสผ่านลูกค้าหากต้องการซื้อสินค้าในหน้าร้านเช่น iTunes หรือ Google Play แต่หากมีการซื้อซ้ำอีกในช่วงเวลาไม่นานนัก การซื้อครั้งต่อๆ มาก็จะไม่มีการถามรหัสผ่านซ้ำ
คดีนี้ผู้ปกครองจำนวนหนึ่งอ้างว่าได้ซื้อเกมโดยใส่รหัสผ่านและยื่นเครื่องให้กับลูกเล่น แต่ปรากฎว่าลูกสามารถนำไปซื้อไอเท็มในเกมได้โดยพ่อแม่ไม่รับรู้ทำให้หลายคนถูกเรียกเก็บเงินจำนวนมาก สุดท้ายทั้งแอปเปิลและกูเกิลต่างต้องปรับหน้าจอเช่นนี้ โดยแอปเปิลเลือกที่จะถามรหัสผ่านซ้ำทุกครั้งที่ซื้อสินค้า ขณะที่กูเกิลนั้นเลือกที่จะแจ้งเตือนลูกค้าว่าหากซื้อสินค้าซ้ำจะไม่ต้องใส่รหัสผ่านอีกภายในเวลาที่กำหนด และให้ลูกค้าปิดความสามารถนี้ได้
กระบวนการทางกฎหมายยังเป็นโลกที่ใหม่มากสำหรับทั้งนักวิชาการคอมพิวเตอร์ (ที่จำนวนมากไม่สนใจวิชากฎหมาย) และนักกฎหมาย (ที่หลายคนไม่สามารถทำความเข้าใจเทคโนโลยีได้ดีนัก) กระบวนการเรียนรู้เพื่อสร้างเส้นแบ่งที่ชัดเจน แนวทางจากต่างชาติที่มีประสบการณ์มากกว่าอาจจะเป็นบทเรียนให้กับนักพัฒนาที่จะสร้างระบบที่บังคับใช้ได้ แนวปฎิบัติเช่นการถามผู้ใช้ย้ำเมื่อมีการทำธุรกรรม หรือถามรหัสผ่านซ้ำแม้มีการล็อกอินแล้วก็ตามนับเป็นแนวทางที่เราเรียนรู้ได้
บทความนี้นับเป็นบทความสุดท้ายตามโครงของบทความชุดความปลอดภัยคอมพิวเตอร์ที่ผมเขียนมาตั้งแต่ปลายปี 2012 โดยแบ่งออกเป็นสามภาค
1. **หลักการความปลอดภัยคอมพิวเตอร์** ได้แก่ [Identification](https://www.blognone.com/node/51679), [Authentication](https://www.blognone.com/node/52143), [Authorization](https://www.blognone.com/node/52903) และบทความนี้
2. **รหัสวิทยา (Cryptography)** ได้แก่ [Hash](https://www.blognone.com/node/43630), [Random Generator](https://www.blognone.com/node/43969), [Symmetric Encryption](https://www.blognone.com/node/44694), [Asymmetric Encryption](https://www.blognone.com/node/44694), และ [Cryptanalysis](https://www.blognone.com/node/47391)
3. **การเจาะระบบ** ได้แก่ [Buffer Overflow](https://www.blognone.com/node/37730), [Cross Site Request Forgery](https://www.blognone.com/node/37994), [SQL Injection](https://www.blognone.com/node/43004)
ผมหวังว่าชุดบทความนี้น่าจะเพียงพอสำหรับการเรียนการสอนวิชาความปลอดภัยคอมพิวเตอร์เบื้องต้นประมาณหนึ่งภาคการศึกษา ถ้ามีโอกาส ชุดบทความทั้งหมดอาจจะได้ตีพิมพ์โดยรวบรวมปรับปรุงให้ดีขึ้นหรือเพิ่มเติมเนื้อหาบางส่วนต่อไป |
# Exynos 5 Octa แปดคอร์แท้หรือแค่ขำๆ?
ในช่วงนี้มีกระแสพูดคุยเกี่ยวกับ Exynos 5 Octa กันมาก ตัว Exynos 5 Octa นั้นเป็น SoC (system on a chip) ในรูปแบบ big.LITTLE ที่มีคอร์ของ Cortex-A15 และ Cortex-A7 อยู่ภายในอย่างละสี่คอร์ เรื่องหนึ่งที่ถกเถียงกัน (หรืออาจจะเข้าใจไปในทางเดียวกันโดยมิได้นัดหมาย) ก็คือคอร์ทั้งแปดของหน่วยประมวลผลแบบ big.LITTLE นั้นสามารถใช้งานได้ทีละสี่คอร์หรือว่าได้ทั้งแปดคอร์กันแน่?
ถ้าใครใจร้อนขอสรุปตรงนี้ว่าในทางฮาร์ดแวร์นั้นทั้งแปดคอร์สามารถทำงานได้พร้อมกันทั้งหมด แต่...
ปัญหาในขณะนี้คือระบบปฏิบัติการยังอาจจะไม่สามารถดึงประสิทธิภาพทั้งด้านความเร็วในการประมวลผลและการประหยัดพลังงานออกมาพร้อมๆ กันได้อย่างเต็มที่
คอร์แบบ Cortex-A15 และ Cortex-A7 นั้นเป็นสถาปัตยกรรมเดียวกันทุกกระเบียดนิ้ว (the processors are architecturally identical) ทั้งคู่ใช้ชุดคำสั่ง ARM v7A และทำงานได้ผลอย่างเดียวกันแต่แตกต่างกันที่ประสิทธิภาพ โดย Cortex-A15 ให้ประสิทธิภาพประมาณสองเท่าของ Cortex-A7 ด้วยสัญญาณนาฬิกาที่เท่ากัน และ Cortex-A7 ประหยัดพลังงานประมาณสามเท่าของ Cortex-A15 ในงานเดียวกัน ระบบ big.LITTLE นั้นสามารถทำงานได้สองรูปแบบคือ
**1\. big.LITTLE Task Migration**
ในรูปแบบของ Task Migration นั้นใช้คอร์ Cortex-A15 จับคู่กับ Cortex-A7 ในจำนวนที่เท่ากัน (เช่น 4+4 ในกรณีของ Exynos 5 Octa) โดยจะอาศัยการเปิดปิดคอร์สลับกันตามโหลดของงานที่ทำในขณะนั้น ข้อดีของวิธีนี้ก็คือการออกแบบ scheduler (ตัวกำหนดว่างานไหนจะรันบนคอร์ไหนเมื่อไหร่)
ในระบบปฏิบัติการนั้นทำได้ง่ายเพราะสามารถใช้วิธีเดียวกันกับการปรับความเร็วของสัญญาณนาฬิกาที่ใช้กันอยู่ในปัจจุบันได้เลย สิ่งที่ต้องคำนึงถึงอย่างหนึ่งคือระหว่างการย้ายการทำงานจากคอร์หนึ่งไปอีกคอร์หนึ่งนั้นไม่ได้ได้มาฟรีๆ เพราะการย้ายงานนั้นหมายถึงการเก็บสถานะบนคอร์หนึ่งและนำไปอ่านออกมาคืนเพื่อทำต่อในอีกคอร์หนึ่ง ซึ่งในระหว่างนั้นคอร์ทั้งสองจะทำงานคู่กันและไม่สามารถประมวลผลอย่างอื่นได้ (ถ้าทำนานก็เปลืองไฟและกระตุก) การย้ายงานระหว่าง Cortex-A15 และ Cortex-A7 นั้นทาง ARM บอกว่าสามารถทำได้ใน 20,000 คำสั่ง หรือประมาณ 20 us เมื่อทำงานที่ความถี่ 1 GHZ
**2\. big.LITTLE MP**
เนื่องจากว่าทุกๆ คอร์ของ Cortex-A15 และ Cortex-A7 นั้นออกแบบมาให้ต่อเข้ากับ
Cache Coherent Interconnect (CCI หรือตัวที่ทำให้ cache ของแต่ละคอร์มองเห็นข้อมูลเหมือนกัน) ที่ทำให้ทุกๆ คอร์สามารถทำงานไปพร้อมๆ กันได้ ดังนั้นในรูปแบบนี้ทุกๆ คอร์สามารถช่วยกันประมวลผลได้ แต่จะเป็นรูปแบบของหน่วยประมวลผลที่แตกต่างกัน (HMP/heterogeneous multiprocessing)
ระบบปฏิบัติการในอดีตมองว่าหน่วยประมวลผลทุกตัวนั้นสมมาตรกัน (เป็น SMP/symmetric multiprocessing) การที่หน่วยประมวลผลมีประสิทธิภาพไม่เท่ากัน แถมยังกินไฟไม่เท่ากันนั้นเป็นเรื่องที่ยังต้องศึกษาและปรับแต่งอยู่อีกมาก ดังนั้นจึงอาจจะต้องรออีกสักพักก่อนที่เราจะได้เห็นการใช้งานในรูปแบบนี้อย่างสมบูรณ์
**big.LITTLE ปะทะ 4-PLUS-1**
เรามักจะเห็นการนำ 4-PLUS-1 ของ NVIDIA มาเปรียบเทียบกับ big.LITTLE อยู่เสมอ วิธีการของ 4-PLUS-1 นั้นเรียกว่า Variable Symmetric Multiprocessing (vSMP)
ซึ่งความแตกต่างก็คือใน vSMP นั้นทุกๆ คอร์รวมถึงคอร์ประหยัดไฟนั้นเป็น Cortex-A9 เหมือนกันทั้งหมด (All five CPU cores are identical ARM Cortex A9 CPUs)
แต่กระบวนการผลิตซิลิคอนนั้นแตกต่างกัน คอร์ประหยัดไฟใช้กระบวนการผลิตที่เน้นให้ประหยัดพลังงานในขณะที่ทำงานได้ที่ความถี่ต่ำ
ส่วนคอร์หลักทั้งสี่นั้นใช้กระบวนการผลิตมาตรฐานที่สามารถทำงานได้ที่ความถี่สูงๆ
ความแตกต่างที่สำคัญอีกอย่างคือใน 4-PLUS-1 นั้นระบบปฏิบัติการมองไม่เห็นคอร์ประหยัดไฟ การสลับการทำงานระหว่างคอร์ปกติและคอร์ประหยัดไฟนั้นทำโดยอัตโนมัติ
ดังนั้นใน 4-PLUS-1 จึงไม่สามารถให้ทั้งห้าคอร์ทำงานพร้อมกันได้ ส่วนใน big.LITTLE นั้นระบบปฏิบัติการมองเห็นทุกคอร์ และต้องเป็นผู้สั่งการย้ายการทำงานระหว่างคอร์เอง
**ขณะนี้และต่อไปจากนี้**
การใช้งานรูปแบบ big.LITTLE Task Migration นั้นสามารถทำได้ง่ายโดยไม่ต้องปรับแก้ส่วน scheduling ของระบบปฏิบัติการ ดังนั้นเราน่าจะเห็นผลิตภัณฑ์ต่างๆ ใช้วิธีการนี้ก่อนในช่วงแรก
ส่วนในรูปแบบ big.LITTLE MP ที่ยืดหยุ่นกว่ามากและสามารถทำได้โดยไม่ต้องแก้ไขฮาร์ดแวร์ (จริงๆ เรียกได้ว่า big.LITTLE Task Migration เป็น subset ของ big.LITTLE MP เลยด้วยซ้ำ)
อาจจะต้องรอการปรับแต่งอีกสักระยะก่อนที่จะออกมาให้เราๆ ได้ใช้กัน (เมื่อ และต่อเมื่อ ไม่โดนลอยแพไปเสียก่อน)
มีคลิปดูเพลินๆ
- [Big Guy. Little Guy. The right size for the right task...](http://www.samsung.com/global/business/semiconductor/minisite/Exynos/movie/bigLITTLE_processing_by_ARM_in_Exynos_5_Series.mp4)
- [Big Saw. Little Saw. The right size for the right task...](http://www.samsung.com/global/business/semiconductor/minisite/Exynos/movie/Big_Saw_Little_Saw_The_right_size_for_the_right_task.mp4)
- [Big Dog. Little Dog. The right size for the right task...](http://www.samsung.com/global/business/semiconductor/minisite/Exynos/movie/Big_Dog_Little_Dog_The_right_size_for_the_right_task.mp4)
**อ้างอิง**
- ARM WHITEPAPER -[Big.LITTLE Processing with ARM Cortex™-A15 & Cortex-A7](http://www.arm.com/files/downloads/big_LITTLE_Final_Final.pdf)
- ARM WHITEPAPER -[Advances in big.LITTLE Technology for Power and Energy Savings](http://www.arm.com/files/pdf/Advances_in_big.LITTLE_Technology_for_Power_and_Energy_Savings.pdf)
- ARM/Norten Rasmussen -[Update on big.LITTLE scheduling experiments](http://www.linuxplumbersconf.org/2012/wp-content/uploads/2012/09/2012-lpc-scheduler-task-placement-rasmussen.pdf)
- Linaro Blog -[big.LITTLE Technology – Two Usage Models](http://www.linaro.org/linaro-blog/2011/12/15/big-little-technology-two-usage-models/)
- Linaro Projects -[big.LITTLE MP](https://wiki.linaro.org/projects/big.LITTLE.MP)
- Samsung Electronics -[Benefits of the big.LITTLE Architecture](http://www.samsung.com/global/business/semiconductor/minisite/Exynos/data/benefits.pdf)
- Nicolas Pitre - [Linux support for ARM big.LITTLE](http://lwn.net/Articles/481055/)
- NVIDIA WHITEPAPER -[Variable SMP (4-PLUS-1™) – A Multi-Core CPU Architecture for Low Power and High Performance](http://www.nvidia.com/content/PDF/tegra_white_papers/Variable-SMP-A-Multi-Core-CPU-Architecture-for-Low-Power-and-High-Performance.pdf) |
# เบื้องหลังการพัฒนา AlphaGo โดย David Silver จากทีม DeepMind
โชคดีที่เมื่อวานนี้ผมมีโอกาสเข้าฟังสัมมนาหัวข้อ ["AlphaGO: Mastering the game of Go with deep neural networks and tree search"](http://www.csml.ucl.ac.uk/events/267) โดยวิทยากรคือ [Dr. David Silver](http://www0.cs.ucl.ac.uk/staff/d.silver/web/Home.html) จาก DeepMind ซึ่งเป็นบุคคลสำคัญในทีมวิจัยและพัฒนา AlphaGo จาก [Google DeepMind](https://en.wikipedia.org/wiki/Google_DeepMind)
David เป็นหนึ่งในผู้เขียน[บทความวิชาการชื่อเดียวกันกับหัวข้อสัมมนา](http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html) ซึ่งอธิบายเทคนิคเบื้องหลังความสำเร็จของ AlphaGo และได้ตีพิมพ์ในนิตยสาร Nature เมื่อไม่กี่เดือนที่ผ่านมา (คนซ้ายสุดในภาพ)
สัมมนานี้จัดโดย Centre for Computational Statistics and Machine Learning (CSML) ที่มหาวิทยาลัย University College London (UCL) ครับ
วันนี้ David Silver มาเล่าเรื่องราวรวมๆ หลายเรื่องทั้ง 1) [เทคนิคที่อยู่เบื้องหลังการทำงานของ AlphaGo](http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html) 2) การพัฒนาขึ้นอย่างก้าวกระโดดของ AlphaGo หลังจาก[ชนะการแข่งขันกับ Fan Hui](https://www.blognone.com/node/77188) และ 3) วิสัยทัศน์ของเขาว่าความสำเร็จของ AlphaGo จะสามารถนำไปประยุกต์ใช้ในด้านไหนได้บ้าง
### ทำไมต้องเป็นหมากล้อม (Go)?
เหตุผลที่เลือกหมากล้อม เพราะเป็นเกมที่มีความเป็นไปได้ของทางเลือกมากมายมหาศาลถึง 10^170 แบบ ด้วยความสามารถในการประมวลผลของคอมพิวเตอร์ในปัจจุบัน ยังเป็นไปไม่ได้ในทางปฏิบัติที่จะสามารถคำนวณความเป็นไปได้ทั้งหมดให้ทันในการเล่นจริง จึงทำให้เป็นเกมที่มีความท้าทายสูงมากที่จะทำให้คอมพิวเตอร์เล่นได้เท่าเทียมกับมนุษย์เนื่องจากวิธีการค้นหาความเป็นไปได้ทั้งหมดเหมือนที่ใช้ในหมากรุกนั้น ไม่สามารถนำมาใช้ได้
ระหว่างบรรยายมีการเปิดวิดีโอให้ดูด้วยว่า หากเราแสดงตาเดินที่เป็นไปได้ทั้งหมดในการเล่นโกะหนึ่งตาออกมาเป็นแผนภูมิต้นไม้จะเป็นอย่างไร แน่นอนว่าเยอะแยะมากมายมหาศาลจนดูกันไม่ทันเลยทีเดียว
### เบื้องหลังการทำงานของ AlphaGo
ส่วนนี้ขออธิบายคร่าวๆ เนื่องจากผมไม่ได้เป็นผู้เชี่ยวชาญด้าน Machine Learning (ยอมรับว่าฟังไปก็เข้าใจบ้างไม่เข้าใจบ้าง) และก็มี[บทความ](https://www.thairobotics.com/2016/03/13/alphago-for-dummies/)เกี่ยวกับเรื่องนี้พอสมควรแล้ว แต่หลักๆ คือ AlphaGo อยู่บนพื้นฐานของเทคนิคที่เรียกว่า Convolutional Neural Network และมี neural network 2 แบบที่สนับสนุนการตัดสินใจ นั่นคือ Policy network และ Value network โดยมีลำดับขั้นตอนในการเทรนเจ้าสองเน็ตเวิร์คนี้หลายขั้นตอนด้วยกัน ทั้งการศึกษาจากบันทึกการเล่นหมากของนักเล่นโกะมืออาชีพ (supervised learning) และการฝึกโดยการแข่งกับตัวเอง (self-play + reinforcement learning)
ด้วยการฝึกฝนแบบนี้ ทำให้ AlphaGo สามารถเอาชนะโปรแกรมอื่นที่สร้างมาเพื่อเล่นโกะเช่นเดียวกัน (CrazyStone, Zen, Pachi, Fuego, GnuGo) ได้อย่างขาดลอย
เพื่อทดสอบ DeepMind จึงได้จัดการ[แข่งขันกับคนจริงที่เป็นแชมป์ยุโรป Fan Hui](https://www.blognone.com/node/77188) และชนะไปอย่างขาดลอย 5-0 ดังที่ทุกคนน่าจะได้ทราบกันดี
### เกิดอะไรขึ้นหลังจากแข่งกับ Fan Hui?
David อธิบายว่า AlphaGo ตัวที่แข่งกับ Fan เป็นตัวเดียวกับที่เขียนลงในนิตยสาร Nature แต่เป็นคนละตัวกับที่ใช้แข่งกับ Lee Sedol ครับ
หลังจากชนะ Fan แล้ว DeepMind กลับมาพัฒนา AlphaGo เพิ่มอีก (แต่ David ไม่ได้อธิบายลงรายละเอียดนัก อาจจะเก็บไว้เขียนอีกหนึ่งบทความก็เป็นได้ ผมฟังออกได้ประมาณว่าพัฒนาเพิ่มเติมในส่วนของ self-play ให้ดียิ่งขึ้น) แต่แสดงกราฟเปรียบเทียบให้เห็นว่า AlphaGo เวอร์ชั่น Lee Sedol เก่งขึ้นกว่าเวอร์ชั่น Fan Hui อีกเยอะเลยทีเดียว (สามารถเอาชนะ AlphaGo เวอร์ชั่น Fan Hui ได้โดยให้แต้มต่อ 4 หมาก) เมื่อถึงจุดนั้น DeepMind จึงจัด Challenge เพื่อท้าแข่งกับ Lee Sedol นั่นเองครับ
David แสดงรายละเอียดเปรียบเทียบที่น่าสนใจหลายอย่างระหว่าง Lee กับ AlphaGo ซึ่งเขาก็ให้เครดิตกับ Lee มากทีเดียวว่า Lee มีสมองที่มหัศจรรย์มาก เมื่อเทียบกับพลังประมวลผลที่ AlphaGo จะต้องใช้ สังเกตว่าทั้งคู่ใช้เวลาฝึกฝนเท่าๆ กันพอดีครับที่ 30,000 ชั่วโมง (สำหรับ AlphaGo คือชั่วโมงของ GPU ที่ใช้ในการเทรน AlphaGo)
### วิเคราะห์ 5 เกมกับ Lee Sedol
David อธิบายพร้อมแสดงกราฟของ evaluation value ที่ AlphaGo ใช้ในการตัดสินใจว่าตนจะชนะหรือไม่ ในแต่ละเกมจากทั้งหมด 5 เกมให้ดู ที่น่าสนใจคือในเกมที่สอง หมากที่ทำให้ AlphaGo ได้เปรียบและชนะไปในที่สุดคือตาที่ลงที่ P5 ตอนที่ลงไปนั้น กูรูหมากล้อมที่ดูอยู่ทั้งหมดต่างมองเห็นเป็นทางเดียวกันว่าเป็นความผิดพลาดอย่างชัดเจน แต่กลับกลายเป็นว่าเป็นหมากดีที่ทำให้ AlphaGo ออกนำและชนะ Lee ไปได้ในที่สุด
จากการที่ David ย้อนมาตรวจสอบวิเคราะห์ข้อมูลความมั่นใจ (evaluation value) ในตานั้น พบว่า AlphaGo เชื่อว่าความเป็นไปได้ที่ผู้เล่นที่เป็นคนจะลง P5 ในตานี้มีน้อยมากๆ (ประมาณ 1/1000 หรือ 1/10000 นี่แหละครับ ขออภัยไม่ได้จดมา) แต่ด้วยการประเมินแล้ว AlphaGo พบว่าเป็นหมากที่ดีที่สุดแล้วในตานั้น
ผมคิดว่าสิ่งนี้ทำให้เห็นว่า AlphaGo สามารถหาแนวทางการเล่นใหม่ๆ ที่ฉีกออกจากแนวทางเดิมๆ ที่มนุษย์เราเล่นกันได้และคนเราเองก็สามารถเรียนรู้เพิ่มจาก AlphaGo ได้เช่นกัน
### เปรียบเทียบกับ Deep Blue
หากเปรียบเทียบกับ Deep Blue ที่สามารถเอาชนะแชมป์หมากรุกได้ จะเห็นว่าแนวคิดเบื้องหลังการพัฒนาต่างกัน ตรงที่ Deep Blue มีการวางแนวทางการเล่นมาจากผู้เชี่ยวชาญหมากรุก แต่ AlphaGo เรียนรู้เองจากบันทึกหมากของผู้เล่นโปรอื่นๆ รวมถึงการฝึกฝนโดยการเล่นกับตัวเอง
Deep Blue ใช้วิธีการค้นหาตาเดินทั้งหมด แต่ AlphaGo ค้นหาเฉพาะบางส่วนของตาเดินทั้งหมด แล้วเลือกเดินตาที่คิดว่าดีที่สุดจากส่วนนั้น ทำให้เห็นว่าปริมาณการคำนวณตาเดินในแต่ละตาน้อยกว่า Deep Blue อย่างมาก (200,000,000 กับ 60,000)
### อนาคต AlphaGo ทำอะไรต่อไป?
David อธิบายว่าความเป็นไปได้ที่จะนำเทคนิคเดียวกับที่ใช้ใน AlphaGo ไปประยุกต์ใช้ในด้านอื่นๆ อีก ได้แก่
1. **สุขภาพ** ที่สามารถให้บริการการรักษาพยาบาลแบบเฉพาะบุคคล (personalized health care) ได้ โดยวิเคราะห์จากข้อมูลการรักษาในอดีต
2. **หุ่นยนต์ในบ้าน** แบบเดียวกับ BayMax นั่นแหละครับ (มีรูป BayMax อยู่บนสไลด์ด้วย!)
3. **สมาร์ทโฟน** เป็นผู้ช่วยในสมาร์ทโฟน (แน่นอนว่าคงเป็นแอนดรอย)
### ถาม-ตอบ?
สุดท้ายขอสรุปคำถามและคำตอบบางส่วนจากช่วงถามตอบมาให้สั้นๆ นะครับ
Q/A
**คำถาม**: เป็นไปได้ไหมที่จะฝึกฝน AlphaGo จากการเล่นกับตัวเอง (self-play) เพียงอย่างเดียว?
**คำตอบ**: David บอกว่ายังไม่ได้ทดลองจึงยังตอบให้ชัดเจนไม่ได้ แต่คิดว่าจะต้องใช้เวลาในการเทรนนานขึ้นแน่นอน และจะเสียการตัดสินใจพื้นฐานตามสัญชาตญาณมนุษย์ (default assumption of human) ไป เช่นตาหมากที่เลือกลงได้หลายๆ แบบในช่วงแรกๆ ของเกม AlphaGo จะเลือกหมากที่ใกล้เคียงคนจริงมากที่สุด
**คำถาม**: AlphaGo จะเป็น open-source ไหม?
**คำตอบ**: ไม่
**คำถาม**: AlphaGo สามารถแก้ปัญญา [overfitting](https://en.wikipedia.org/wiki/Overfitting) ได้อย่างไร?
**คำตอบ**: เนื่องด้วยทีมงานมีข้อมูลสำหรับเทรน (training data) จำนวนมหาศาล จึงลดปัญหานี้ลงไปได้มาก |
# รู้จัก Container มันคืออะไร แตกต่างจาก Virtualization อย่างไร?
ช่วงหลังเราได้ยินชื่ออย่าง Docker, Container, Kubernetes, Orchestration กันบ่อยขึ้นมาก โดย Blognone เองก็เคยนำเสนอข่าวในหัวข้อเหล่านี้อยู่บ่อยครั้ง แต่ก็ยังมีความสับสนในเรื่องนี้อยู่มาก เพราะเป็นแนวคิดที่ยังค่อนข้างใหม่และมีความแตกต่างจากระบบเซิร์ฟเวอร์แบบเดิมๆ สูง
บทความชุดนี้จึงมีเป้าหมายเพื่ออธิบายและทำความเข้าใจกับแนวคิดเหล่านี้ ใครที่รู้เรื่องนี้ดีอยู่แล้วสามารถข้ามไปได้เลยครับ
### Virtualization มีข้อจำกัด
คำว่า "คอนเทนเนอร์" (container) เป็นเทคนิคการจัดการแพ็กเกจซอฟต์แวร์ประเภทหนึ่ง ที่มีความสัมพันธ์กับเทคนิค virtualization ที่อยู่ในโลกองค์กรมานาน ดังนั้นการอธิบายว่าคอนเทนเนอร์คืออะไร จึงมักถูกเปรียบเทียบว่าแตกต่างกับ virtualization อย่างไร
เทคนิค virtualization คือการสร้างคอมพิวเตอร์เสมือน (virtual machine หรือ VM) ที่มีทั้งซีพียู แรม สตอเรจ ระบบปฏิบัติการ ฯลฯ ขึ้นมารันบนคอมพิวเตอร์จริงๆ อีกทีหนึ่ง โดยตัวระบบปฏิบัติการของคอมพิวเตอร์เสมือน (Guest OS) จะไม่รู้ว่าตัวเองรันอยู่บน VM แต่เข้าใจว่ารันอยู่บนฮาร์ดแวร์คอมพิวเตอร์จริงๆ
วิธีการนี้ทำให้เกิดการแยกส่วน (isolation) ระหว่าง VM แต่ละตัวอย่างสมบูรณ์ สามารถรันระบบปฏิบัติการที่แตกต่างกันระหว่าง Guest OS กับ Host OS ได้ แต่ข้อเสียคือใช้ทรัพยากรซ้ำซ้อน ทำงานช้า เปลืองพื้นที่เก็บ OS และซอฟต์แวร์ต่างๆ ที่มักจะใช้เหมือนกันใน VM ทุกตัว
### Container สร้างมาเพื่อแก้ไขข้อจำกัดของ Virtualization
คอนเทนเนอร์จึงถูกสร้างขึ้นมาเพื่อแก้ปัญหาข้างต้น โดยมีฮาร์ดแวร์และ OS เพียงชุดเดียวกัน ลดความซ้ำซ้อนของการใช้ทรัพยากรลง ส่วนตัวแอพพลิเคชันและซอฟต์แวร์ซึ่งเป็นจุดที่แตกต่างกันไปก็จะมี "container" (เทียบได้กับ VM) มาครอบเพื่อแบ่งส่วนทรัพยากรไว้ไม่ให้ยุ่งกัน
จุดเด่นของคอนเทนเนอร์จึงเป็นเรื่องการใช้ทรัพยากรที่น้อยกว่า virtualization มาก อิมเมจของคอนเทนเนอร์อาจมีขนาดเพียงกี่ไม่กี่สิบ MB ในขณะที่อิมเมจของ VM ต้องใช้พื้นที่ระดับหลาย GB นอกจากนี้ ระยะเวลาที่ใช้บูต, พลังซีพียูและปริมาณแรมที่ต้องใช้ ก็ลดลงตามไปด้วย ส่งผลให้เซิร์ฟเวอร์หนึ่งเครื่องสามารถยัดคอนเทนเนอร์จำนวนมากกว่าการรัน VM ที่ให้ผลแบบเดียวกันถึง 2-3 เท่าตัว
บางครั้ง คอนเทนเนอร์ถูกเรียกชื่อในทางเทคนิคว่า Operating-system-level virtualization หรือการสร้าง VM ที่ระดับ OS โดยเราไม่ต้องสร้างเครื่องคอมพิวเตอร์เสมือนขึ้นมาทั้งตัว
ข้อเสียของคอนเทนเนอร์ก็ย่อมเป็นความยืดหยุ่นที่น้อยกว่า virtualization แบบดั้งเดิม โดยเฉพาะไม่สามารถใช้ OS ที่แตกต่างกันระหว่าง Guest และ Host ได้ (เพราะจุดเด่นของคอนเทนเนอร์คือการแชร์ OS ก็อปปี้เดียวกัน)
### ประวัติย่อของ Container
แนวคิดของคอนเทนเนอร์ไม่ใช่เรื่องใหม่ ในโลกของยูนิกซ์เกิดแนวคิดนี้ขึ้นมาตั้งแต่ปี 2000 จากแนวคิด jails ของ FreeBSD จากนั้นในปี 2004 ระบบปฏิบัติการ Solaris ของบริษัท Sun Microsystems ก็มีฟีเจอร์แบบเดียวกันโดยใช้ชื่อว่า Zones (หรือ Solaris Containers) ฝั่งลินุกซ์เองก็นำไอเดียนี้มาสืบสานต่อในโครงการอย่าง OpenVZ หรือ LXC (Linux Containers)
แต่คอนเทนเนอร์กลายมาเป็นเรื่องแพร่หลายในวงกว้างจาก Docker ที่เริ่มต้นในปี 2013 ซึ่งช่วงแรกยังอิงอยู่บนโครงการยุคก่อนหน้าอย่าง LXC หรือ libvirt แต่ภายหลัง Docker ก็พัฒนาส่วนต่างๆ ขึ้นมาเอง (libcontainer) จนสมบูรณ์พร้อมใช้งาน ทำให้แนวคิดคอนเทนเนอร์ "จุดติด" และได้รับการยอมรับในวงการอย่างรวดเร็ว มีตัวอย่างการใช้งานจากบริษัทใหญ่ๆ อย่างกูเกิลที่[พัฒนาฟีเจอร์ของ Google Compute Engine ให้รองรับอย่างรวดเร็ว](https://www.blognone.com/node/56627)
ถึงแม้ Docker จะถูกสร้างขึ้นมาเพื่อลินุกซ์ แต่ความนิยมของมันทำให้ระบบปฏิบัติการฝั่งวินโดวส์ ทำให้[ไมโครซอฟท์เข้ามาร่วมวงตั้งแต่ปี 2014](https://www.blognone.com/node/61767) และสำเร็จลุล่วงใน Windows Server 2016
ความสำเร็จของ Docker ทำให้เกิดคู่แข่งขึ้นบ้าง เช่น [Rocket หรือ rkt ของบริษัท CoreOS](https://www.blognone.com/node/63486) (ปัจจุบันถูก Red Hat ซื้อไปแล้ว) ทำให้โลกคอนเทนเนอร์แยกออกเป็นสองส่วน แต่ภายหลังก็หาทางออกได้ ด้วย[การออกมาตรฐานกลางภายใต้การดูแลของ Open Container Initiative (OCI)](https://www.blognone.com/node/69636) (ภายหลังยังพัฒนาต่อมาเป็นโครงการ containerd และ runc ซึ่งจะไม่กล่าวถึงในที่นี้)
### ตัวอย่างการใช้งาน Container
รูปแบบการนำคอนเทนเนอร์ไปใช้งานมีหลากหลาย แต่ที่พบบ่อยคือการนำแอพพลิเคชันองค์กรในแบบเดิมๆ (ซึ่งมักเป็นแอพที่เขียนด้วยเทคโนโลยียุคก่อนอย่าง Java, .NET หรือ PHP) มาใส่ไว้ในคอนเทนเนอร์ เพื่อมารันบนโครงสร้างพื้นฐานยุคใหม่ที่เป็นคลาวด์ แทนที่การใช้เซิร์ฟเวอร์แบบดั้งเดิมที่เริ่มล้าสมัย ช่วยให้การย้ายขึ้นคลาวด์ราบรื่นกว่าเดิม
นอกจากนี้ เทคโนโลยีคอนเทนเนอร์ยังช่วยแก้ปัญหาเรื่อง system dependency ระหว่างแอพแต่ละเวอร์ชัน แต่ละสถานะ (เช่น dev/test/production) เพราะทุกอย่างที่จำเป็นถูกรวมมาในอิมเมจให้หมดแล้ว มันจึงมีประโยชน์ในแง่กระบวนการเปลี่ยนโค้ดที่เขียน ไปสู่การดีพลอยใช้งานจริงบนเซิร์ฟเวอร์ปลายทาง หรือที่เราเรียกกันว่า CI/CD อีกด้วย
การใช้งานคอนเทนเนอร์อีกแบบหนึ่งที่พบบ่อยในช่วงหลัง คือการแยกแอพพลิเคชันยุคเดิมที่เขียนมาเป็นก้อนใหญ่ๆ (monolithic) ให้กลายเป็นไมโครเซอร์วิส (microservice) ที่มีขนาดเล็กลง จัดการได้สะดวกขึ้น สามารถสเกลเซอร์วิสบางตัวหากต้องการรับโหลดมากขึ้น
การนำคอนเทนเนอร์ของแอพพลิเคชันที่แยกเป็นไมโครเซอร์วิส ไปรันบนโครงสร้างพื้นฐานยุคคลาวด์ที่สเกลตัวเองได้ง่ายขึ้น จึงมีความซับซ้อนสูงตามไปด้วย และกลายเป็นหน้าที่ของซอฟต์แวร์ที่เรียกว่า orchestration (เหมือนวาทยากรนำวงออเคสตร้า) อย่าง Kubernetes หรือ Apache Mesos ที่จะกล่าวถึงในบทความตอนต่อไป
ข้อมูลอ้างอิงจาก
- [Docker](https://www.docker.com/resources/what-container)
- [ITWorld](https://www.itworld.com/article/2698646/virtualization/containers-bring-a-skinny-new-world-of-virtualization-to-linux.html) |
# ตะลุยโลกเครื่องพิมพ์สามมิติ ตอนจบ: มาเริ่มพิมพ์สามมิติกัน!
ใน[บทความตอนแรก](https://www.blognone.com/node/55911)ที่ปูพื้นฐานจำเป็นเกี่ยวกับเครื่องพิมพ์สามมิติเอาไว้แล้ว ในตอนนี้เราจะมาพาไปรู้จักกับการพิมพ์สามมิติในเชิงปฏิบัติว่าจะต้องเตรียมการอย่างไรบ้าง มีอะไรที่ต้องระวังเป็นพิเศษ และต้องใช้อะไรในการพิมพ์บ้าง ผ่านวิธีการพิมพ์ยอดนิยมที่สุดอย่าง fused deposition modeling (FDM)
ในการเตรียมตัวก่อนเริ่มพิมพ์สามมิติ ไม่ว่าจะด้วยวิธีใดก็ตาม มีองค์ประกอบที่ต้องเตรียมให้เรียบร้อยก่อนเริ่มทำคล้ายๆ คือต้องมีตัวเครื่องพิมพ์สามมิติ มีวัตถุดิบสำหรับพิมพ์ มีโปรแกรมสำหรับควบคุมเครื่องพิมพ์ (Slicer) และมีแบบพิมพ์สามมิติ ซึ่งสกุลไฟล์ที่ใช้กันแพร่หลายคือ .STL
**จะหาแบบพิมพ์สามมิติได้จากไหน**
จุดเริ่มต้นของการพิมพ์แบบสามมิติควรจะเริ่มจากการหาแบบพิมพ์ดิจิทัลสำหรับใช้พิมพ์สามมิติเสียก่อน เพื่อให้รู้ว่าสิ่งของที่พิมพ์นั้นมีโครงสร้างแบบใด ทำให้สามารถศึกษาข้อมูลเพื่อเลือกวัสดุ และวิธีการพิมพ์ที่เหมาะสมได้นั่นเอง สำหรับโครงสร้างของสิ่งของทั่วไปนั้นไม่ว่าจะพิมพ์ด้วยวิธีใดก็ไม่ต่างกันมากนัก แต่บางอย่างที่ซับซ้อนขึ้น หรือมีความต้องการพิเศษ อย่างเช่นเป็นรูปทรงเรขาคณิตซ้อนกัน การพิมพ์แบบฉีด (FDM) จะทำได้ยากกว่า เนื่องจากต้องใช้ซัพพอร์ตจำนวนมาก (ในกรณีที่เป็นเครื่องหัวฉีดเดี่ยว) ทำให้เก็บงานได้ยาก จนถึงอาจทำไม่ได้เลย ในขณะที่การพิมพ์แบบฉายแสงเรซิน (SLA) สามารถทำได้อย่างไม่ยากเย็นนัก
ปกติแล้วในการพิมพ์สามมิติของวงการอุตสาหกรรมจะขึ้นรูปแบบพิมพ์สามมิติที่ต้องการขึ้นมาเอง แต่พอผันมาสู่มือของผู้ใช้ทั่วไปแล้ว การหาแบบพิมพ์สามมิติเปลี่ยนไปสู่การทำแบบพิมพ์มาตรฐาน และเปิดให้ผู้ใช้สามารถปรับแต่งได้เองพอสมควร แม้ว่าจะทำให้การดัดแปลงปรับแต่งอันเป็นจุดเด่นของการพิมพ์สามมิติตกลงไป แต่ก็ทำให้การเข้าถึงแบบพิมพ์สามมิตินั้นง่ายขึ้นมาก
ไฟล์ .STL ที่ผู้ใช้เครื่องพิมพ์สามมิติโดยมากเลือกใช้นั้น มีให้ดาวน์โหลด (และขาย) ตามเว็บไซต์ต่างๆ มากมาย โดยเว็บไซต์ยอดนิยมที่เปิดให้ผู้คนอัพโหลด-ดาวน์โหลดไฟล์ พร้อมมีฟังก์ชันการแสดงผลไฟล์สามมิติได้ในตัวคงหนีไม่พ้น [Thingiverse](http://www.thingiverse.com/) ซึ่งแต่เดิมทำมาสำหรับผู้ใช้เครื่องพิมพ์สามมิติของ MakerBot โดยเฉพาะ
ฟังก์ชันของ Thingiverse มีตั้งแต่การเรนเดอร์ไฟล์สามมิติที่ผู้ใช้รายอื่นอัพโหลดขึ้นมา โดยแสดงผลเป็นภาพนิ่ง และโมเดลสามมิติที่สามารถพลิกหมุนได้ รวมถึงสามารถดูว่ามีใครเคยนำแบบพิมพ์สามมิตินี้ไปลองพิมพ์แล้วบ้างได้ด้วย
แบบพิมพ์ที่อัพโหลดขึ้นบน Thingiverse มีทั้งแบบล็อกรูปแบบไว้ และเปิดให้ปรับแต่งได้ โดยแต่ละชุดของการพิมพ์ก็จะมีจำนวนชิ้นส่วนที่ต่างกันไปตามความซับซ้อนของสิ่งนั้นๆ
**รู้จักกับเครื่องพิมพ์สามมิติ**
หลังจากที่ได้แบบพิมพ์มาแล้ว ก็จะมาถึงส่วนต่อไปคือการเลือกเครื่องพิมพ์สามมิติให้เหมาะกับงาน ในบทความนี้หวยล็อกเอาไว้แล้วว่าจะใช้การพิมพ์แบบหัวฉีด (FDM) อยู่แล้ว และเครื่องพิมพ์ที่เราไปขอยืมมาทดสอบคือ [ROBO 3D R1](http://www.robo3dprinter.com/collections/3d-printers/products/robo-3d-abs-model-fully-assembled) เครื่องพิมพ์สามมิติราคาไม่แพงนัก (799 เหรียญ ประมาณ 26,000 บาท) ที่มีขนาดการพิมพ์อยู่ที่ 10" x 9"x 8" (720 ลูกบาศก์เปนิ้ว) ใช้หัวฉีดเดี่ยว รับเส้นพลาสติกได้ที่ขนาด 1.75 มม. พิมพ์ได้ละเอียดสุด 100 ไมครอน หน้าตาของเครื่องพิมพ์เป็นแบบนี้ครับ
ส่วนประกอบสำคัญของเครื่องพิมพ์สามมิติแบบหัวฉีด (FDM) จะมีอยู่สองส่วนใหญ่ๆ หนึ่งคือแผ่นทำความร้อน (Heated bed) เพื่อให้ความร้อนกับพลาสติกที่ถูกฉีดลงไปบนฐาน ทำให้เกาะติด และไม่เสียรูปทรงในระหว่างทำงาน
วัสดุที่ใช้ทำเป็นแผ่นทำความร้อนนั้นหลากหลายตามแต่ผู้ผลิตจะเลือกใช้ ROBO 3D นั้นเลือกใช้กระจก ซึ่งสามารถทำความสะอาดได้ง่าย และแข็งแรงทนทานต่อความพยายามในการเอางานพิมพ์สามมิติออกมา
ส่วนประกอบสำคัญอีกอย่างคือหัวฉีด พร้อมกลไกสำหรับขยับในแกน X, Y และ Z โดยหลักการใช้มอเตอร์สำหรับดึงเส้นพลาสติกเข้าไปยังหัวฉีดที่มีอุณหภูมิสูงมาก (มากกว่า 150 องศาเซลเซียส)
ในการใช้งานเครื่องพิมพ์สามมิติ เพื่อให้พิมพ์ได้ตรงตามแบบที่ตั้งค่าไว้ ตัวเครื่องต้องตั้งศูนย์ให้ตรงกับโปรแกรมที่ใช้งานตลอดเวลา โดยในเครื่องจะมีจุดสำหรับบอกตำแหน่งเริ่มต้นอยู่ตามตำแหน่งต่างๆ ตามภาพนี้เป็นจุดเริ่มต้นสำหรับแกน X (แนวนอน) และแกน Z (แนวตั้ง)
หมดในส่วนของตัวเครื่องพิมพ์สามมิติกันแล้ว เราจะไปต่อในส่วนของโปรแกรมจัดการพิมพ์ หรือ Slicer กันครับ
**Slicer คืออะไร ใช้งานกับเครื่องพิมพ์สามมิติอย่างไร**
Slicer เรียกได้ว่าเป็นเพื่อนแท้ของเครื่องพิมพ์สามมิติ โดยเฉพาะกับเครื่องพิมพ์ราคาไม่แพงนักที่มักจะใช้ตัวควบคุมเป็น Arduino แล้ว สิ่งที่จะบอกได้ว่างานพิมพ์จะออกมารูปแบบไหนนั้นก็คือ Slicer นี่เอง
โดยปกติแล้ว เครื่องพิมพ์สามมิติมักจะมากับโปรแกรมสำหรับควบคุมเครื่องพิมพ์สามมิติของตัวเอง แต่สำหรับเครื่องพิมพ์สามมิติราคาถูกมักจะทำให้อุปกรณ์ของตัวเองนั้นสามารถใช้งานได้กับ Slicer หลายประเภท ตัวที่เราเลือกมาใช้กับเครื่องพิมพ์ ROBO 3D นั้นคือ Cura ซึ่งเป็น Slicer สำหรับเครื่องพิมพ์ Ultimaker ซึ่งราคาแพงกว่ามากๆ
ในการติดตั้ง Cura จะมีไดร์เวอร์ของ Arduino ติดมาด้วย ทำให้สามารถใช้งานได้กับเครื่องพิมพ์ที่ใช้ Arduino เป็นส่วนควบคุมหลัก พอเปิดโปรแกรมขึ้นมาครั้งแรก โปรแกรมจะช่วยตั้งค่าให้เหมาะสมกับเครื่องพิมพ์ที่เชื่อมต่ออยู่ทันที
พอตั้งค่าเรียบร้อยแล้วจะพบกับหน้าหลักของ Cura ซึ่งมีแถบซ้ายสำหรับตั้งค่า และด้านขวาสำหรับแสดงผลโมเดลสามมิติ
สำหรับผู้ใช้เครื่องพิมพ์บางรุ่นที่ไม่ได้รองรับอย่างเป็นทางการโดย Cura จะต้องมาตั้งค่าเครื่องพิมพ์อีกที โดยรายละเอียดต่างๆ จะต้องดูจากสเปคของเครื่องพิมพ์นั้น หลักๆ แล้วก็จะมีพื้นที่การผลิต จำนวนหัวฉีด ตัวเครื่องมี Heated bed หรือไม่ เป็นต้น
ส่วนของการตั้งค่าจะแบ่งออกเป็นสองส่วนใหญ่ๆ ที่ควรรู้ คือการตั้งค่าพื้นฐาน และการตั้งค่าขั้นสูง ซึ่งมีรายละเอียดดังต่อไปนี้ครับ
**Quality** ส่วนที่คุมคุณภาพของงานพิมพ์ แบ่งเป็นสามตัวเลือกคือความสูงของชั้น (layer height) งานละเอียดสำหรับเครื่องพิมพ์ทั่วไปจะอยู่ที่ 0.1 มม. (100 ไมครอน) หากต้องการความเร็วการพิมพ์ที่มากขึ้นโดยมากจะเลือกไว้ที่ประมาณ 0.25 มม.
ความหนาของขอบ (shell thickness) คือขนาดของขอบตัวแบบ วัดจากด้านนอกสุดเข้ามาด้านใน สำหรับคนที่งงว่าทำไมต้องมีกำหนดความหนาด้วย จะเข้าใจมากขึ้นเมื่ออธิบายเรื่องการเติม (fill) ในข้อต่อไปครับ สุดท้ายของหมวด Quality คือการรองรับ retraction เพื่อให้หัวฉีดสามารถถอยเส้นพลาสติกได้ ทำให้ได้ขนาดของชั้นแรกตอนเริ่มพิมพ์ที่สม่ำเสมอ
**Fill** ส่วนควบคุมการเติมพื้นที่ภายใน (บางครั้งเรียกว่า in fill) เนื่องจากการพิมพ์สามมิตินั้น ไม่ใช่การพิมพ์ทึบ แบบถมทุกชั้นให้ราบเป็นหน้ากลอง แต่เป็นการพิมพ์แบบตาข่ายเพื่อเสริมความแข็งแกร่งเท่านั้น วิธีนี้ทำให้เปลืองวัตถุดิบน้อยลง และพิมพ์ได้เร็วขึ้น (มากๆ) สิ่งที่ต้องตั้งค่าในส่วนนี้คือความหนาของขอบบน-ล่าง และสัดส่วนการพิมพ์ภายในตัวแบบ (หน่วยเป็น %)
ต่อมาเป็นการตั้งค่าความเร็ว และอุณหภูมิการพิมพ์ (speed and temperature) ซึ่งจะสอดคล้องกับเส้นพลาสติกที่ใช้พิมพ์ สำหรับการพิมพ์ด้วยพลาสติกแบบ ABS จะใช้ความร้อนหัวฉีดอยู่ที่ประมาณ 230 องศาเซลเซียส และใช้ความร้อน Heated bed ที่ราว 70-80 องศาเซลเซียส ส่วน PLA จะใช้ความร้อนน้อยกว่าที่ประมาณ 180-220 องศาเซลเซียส และบางครั้งไม่จำเป็นต้องใช้ความร้อนจาก Heated bed มาช่วยอีกด้วย
สำหรับตัวเลือกที่เหลืออย่างความเร็วการพิมพ์นั้น จะสัมพันธ์กับการปล่อยเส้นพลาสติกเข้าไปในหัวฉีดอีกทีครับ
**Support** หรือการตั้งค่าส่วนเสริมให้การพิมพ์บางรูปแบบสามารถทำได้ตามที่วางไว้ เช่นพิมพ์ชิ้นส่วนที่ลอยขึ้นจากฐานยึด เป็นต้น การตั้งค่าส่วนเสริม โดยทั่วไปมักจะเลือกเฉพาะส่วนที่จำเป็นเท่านั้น เครื่องพิมพ์จะพิมพ์ชิ้นส่วนที่เชื่อมต่อกับฐานด้านล่างขึ้นมา โดยทำให้สามารถหักออกเพื่อเก็บงานได้ง่าย
สำหรับการพิมพ์แบบหัวฉีด กับเส้นพลาสติก ABS จะมีปัญหาหลักคือตัวแบบยกตัว ทำให้ตำแหน่งการพิมพ์คลาดเคลื่อน (มีรูปให้ดูตอนท้าย) ตรงนี้มีตัวเลือกเพื่อแก้ปัญหานี้โดยเฉพาะ ด้วยการพิมพ์เพิ่มในส่วนฐาน แบ่งเป็นสองแบบดังนี้
- Brim - คือการพิมพ์เลเยอร์ขนาดใหญ่รอบฐานชั้นแรก เพื่อยึดติดอยู่กับ Heated bed ไม่ให้ยกตัวขึ้นมา (มีรูปตอนท้าย)
- Raft - คือการพิมพ์ฐานหนาใต้ตัวแบบ ข้อเสียคือทำให้พื้นผิวใต้ฐานนั้นไม่เรียบ
**Filament** คือการตั้งค่ารองรับเส้นพลาสติก ส่วนนี้จะง่ายหน่อยเพราะเครื่องพิมพ์ส่วนมากรองรับเส้นพลาสติกขนาด 1.75 มม. อีกตัวเลือกคือการไหลของเส้นพลาสติก ซึ่งต้องปรับให้เข้ากับความเร็วในการพิมพ์ด้วย ตรงนี้ต้องค่อยๆ ปรับแต่งกันไปตามถนัดครับ
ในส่วนของการตั้งค่าขั้นสูง ที่ควรรู้ไว้จะมีเรื่องของขนาดรูฉีด (nozzle size) ซึ่งจะมีผลกับการเติมภายใน (in fill) และความสม่ำเสมอของงานพิมพ์นั่นเอง ส่วนที่เหลือจะเป็นการตั้งค่ายิบย่อย เช่นตั้งให้พิมพ์ช้าลงสำหรับฐาน แล้วพิมพ์ไวขึ้นเมื่อเริ่มเติมภายใน เป็นต้น
รู้จักกับการตั้งค่ามากมายก่ายกองเสร็จแล้ว ก็มาเริ่มพิมพ์กันเสียครับ
**การตั้งค่าก่อนพิมพ์ และขั้นตอนการพิมพ์สามมิติ!**
การเริ่มพิมพ์สามมิตินั้นเริ่มต้นด้วยการเปิดไฟล์ขึ้นมาเสียก่อน เพื่อง่ายต่อการอธิบาย บทความนี้จะลองพิมพ์อะไรง่ายๆ อย่างป้ายติดกระเป๋าเดินทาง ว่าแล้วก็เปิดไฟล์ .STL กันเลย จากไอคอนรูปโฟลเดอร์ที่อยู่ด้านซ้ายบนของหน้าแสดงโมเดลสามมิติครับ
เปิดมาแล้วจะได้หน้าตาแบบนี้ครับ ที่มุมซ้ายบนใต้ปุ่มตั้งค่าจะเป็นเวลาการพิมพ์สามมิติโดยประมาณ ขนาด และปริมาณพลาสติกที่ใช้ (สามารถคลิกขวาแล้วลากเพื่อเปลี่ยนมุมมองได้)
ด้านซ้ายล่างจะเป็นตัวเลือกสำหรับปรับโมเดลสามมิติก่อนพิมพ์ โดยตัวเลือกแรกสุดเอาไว้สำหรับหมุนตัวแบบ ตามแกน X, Y และ Z ครับ
ตัวเลือกที่สองไว้สำหรับขยายขนาด สามารถปรับได้ทั้งเป็นสเกล และเป็นขนาดตามมาตรวัดมม.
ตัวเลือกสุดท้ายมีไว้สำหรับกลับวัตถุ (mirroring) ทำได้ทั้งแกน X, Y และ Z เช่นกัน
สำหรับการพิมพ์นั้นสามารถเพิ่มแบบพิมพ์เข้าไปได้จนกว่าจะเต็มพื้นที่ แน่นอนว่ายิ่งมากชิ้นก็ยิ่งทำให้ใช้เวลานานขึ้นเป็นเงาตามตัว
พอตั้งค่าเรียบร้อยก็สามารถกดสั่งพิมพ์ ตัวเครื่องก็จะเริ่มทำงานตามคำสั่งที่วางไว้ เริ่มต้นด้วยการถอยเส้นพลาสติก ไปที่มุม และลากเข้ามาเพื่อร่างกรอบครอบส่วนที่จะพิมพ์ ตามภาพครับ
เมื่อร่างขอบเรียบร้อยแล้ว เครื่องพิมพ์จะเริ่มพิมพ์ฐานซึ่งสำคัญมากในการพิมพ์สามมิติ แนวการพิมพ์จะเป็นแนวทแยง เพื่อให้ได้พื้นที่ต่อการขยับหัวฉีดที่มากขึ้น
เมื่อพิมพ์ฐานชั้นล่างได้ความหนาตามที่ตั้งค่าไว้แล้ว จะเข้าสู่การเติมภายใน (in fill) โดยหัวฉีดจะพิมพ์ในแนวทแยงสลับกันไปมา ทำให้การพิมพ์แต่ละชั้นใช้เวลาน้อยลง
เนื่องจากอันนี้เป็นงานพิมพ์อย่างง่าย ใช้เวลาไม่นานนัก ก็ออกมาเป็นรูปเป็นร่างแล้ว เพื่อให้งานออกมาเรียบร้อย เครื่องพิมพ์จะพิมพ์ขอบบนหนาตามที่เราตั้งค่าไว้ครับ (ในที่นี้คือ 0.6 มม.)
การพิมพ์สามมิตินั้น ยิ่งซับซ้อนมากขึ้นเท่าไหร่ ยิ่งต้องปรับแต่งมากขึ้นเท่านั้น และเพื่อให้งานออกมาสวยงาม ต้องมีการขัดด้วยกระดาษทรายเพื่อเก็บงาน และพ่นสีทับอีกครับ :)
**ปัญหาที่มักจะเกิดกับการพิมพ์สามมิติ และการแก้ไข**
ปัญหาหลักๆ ของการพิมพ์สามมิติแบบหัวฉีด (FDM) คือการยกตัวของพลาสติก ABS อันเนื่องจากอุณหภูมิ ซึ่งส่งผลให้งานพิมพ์คลาดเคลื่อนจนถึงล้มเหลวไปเลย เมื่อเกิดการยกตัวจะเป็นแบบนี้ครับ
วิธีการแก้ไขปัญหายกตัวมีตั้งแต่แก้เฉพาะหน้าอย่างการเอาเทปมาแปะไม่ให้ยกตัวมากขึ้นไปกว่านี้ ไปจนถึงการแก้ไขตั้งแต่เนิ่นๆ อย่างการพิมพ์ส่วนเสริมมาช่วยครับ
ในกรณีที่คาดการณ์ไว้ก่อนแล้วว่าแบบอาจจะยกตัวได้ การแก้ไขด้วยตัวเครื่องคือการพิมพ์ส่วนเสริมจากงานพิมพ์ออกมา ในภาพคือการพิมพ์ฐานยึด (Brim) มาคอยยึดตัวแบบไว้ไม่ให้ยกตัว โดยสามารถฉีกออกได้โดยง่าย (แต่กว่าจะออกจากฐานได้ ยาก...)
สำหรับการพิมพ์งานบางแบบที่มีการลอยตัว เช่นที่หนีบ ส่วนโค้งที่ฐาน จะมีการพิมพ์ส่วนเสริมมาช่วยให้สามารถพิมพ์ได้ง่าย ตามภาพด้านล่าง ซึ่งตรงนี้สามารถเอาออกได้ภายหลังในระหว่างเก็บงานได้ไม่ยากนัก
ปิดท้ายบทความนี้กันด้วยงานพิมพ์แบบอื่นๆ ที่ใช้ชิ้นส่วนหลายอันมาประกอบกัน อย่างเครื่องยิงเหรียญอันนี้ครับ
สำหรับใครที่ยังมีข้อสงสัยเกี่ยวกับการพิมพ์สามมิติ สามารถทิ้งคำถามเอาไว้ได้นะครับ และขอขอบคุณทาง [Startup Factory](https://www.facebook.com/thestartupfactory) ที่เอื้อเฟื้อเครื่องพิมพ์สามมิติมาให้ทดลองใช้ในครั้งนี้ด้วยครับ |
# [ฝึกงาน Blognone] ทดลองสร้าง Speech Recognition ด้วย CMUSphinx ตอนที่ 2 (ตอนจบ)
[ในตอนที่แล้ว](https://www.blognone.com/node/57994) ผมได้พูดถึงโปรแกรม PocketSphinx ซึ่งเป็นโปรแกรมรู้จำเสียงอัตโนมัติ (Automatic Speech Recognition หรือ ASR) ที่เป็น open source สามารถปรับแต่งให้รู้จำเสียงแบบใด ภาษาใดก็ได้ โดยผมได้พูดถึงการสร้างโมเดลที่จำเป็นต้องใช้สำหรับโปรแกรมรู้จำเสียงทั้งสามแบบ ได้แก่ language model, phonetic dictionary และ acoustic model ไปแล้ว ในตอนนี้จะเป็นการทดสอบโมเดลเพื่อวัดประสิทธิภาพของโมเดล การนำเอาโมเดลทั้งสามไปใช้งานจริง การทำ adaptation acoustic model และการทำ voice activation ครับ
## การทดสอบ Acoustic Model
ขั้นตอนการทดสอบ acoustic model ถือเป็นสิ่งที่จำเป็นมาก เพราะจะเป็นการประเมินโมเดลของเราว่าสามารถนำไปใช้งานได้หรือไม่ โดย Sphinx จะใช้ค่า WER เป็นตัวประเมิน
WER (Word Error Rate) นิยามดังนี้
กำหนดให้มีข้อความที่ถูกต้อง (original text) กับข้อความที่คอมพิวเตอร์สามารถฟังได้ (recognition text) ยาว N คำ ถ้าคำที่คอมพิวเตอร์ฟังผิดเป็นคำที่ถูกแทรกขึ้นมาจากข้อความเดิม I คำ (inserted words) เป็นคำที่หายไปจากข้อความเดิม D คำ (deleted words) และเป็นคำที่ถูกแทนที่ไปจากคำเดิม S คำ (substituted words) แล้ว word error rate สามารถคิดได้ดังนี้
```
WER = (I + D + S) / N
```
ค่า WER จะวัดเป็นเปอร์เซ็นต์ สังเกตว่ายิ่งค่า WER เยอะ ประสิทธิภาพของโมเดลก็จะยิ่งแย่
สำหรับคำถามที่ว่าค่า WER ระดับไหนถึงเหมาะสมกับการใช้งาน อันนี้ต้องขึ้นอยู่กับการนำไปใช้ อย่างงานของผมซึ่งใช้คำสั่งเพียงไม่กี่คำก็อาจจะมีค่า WER น้อยกว่า 5% เป็นต้น
สำหรับวิธีการทดสอบ acoustic model สามารถเข้าไปดูได้ที่ [http://cmusphinx.sourceforge.net/wiki/tutorialam#testing](http://cmusphinx.sourceforge.net/wiki/tutorialam#testing)
## การนำโมเดลไปใช้งาน
หลังจากที่ทำการฝึกและทดสอบ acoustic model เรียบร้อยแล้ว จะมีโฟลเดอร์ใหม่งอกขึ้นมาจากเดิมดังนี้ (ตอนก่อนฝึกเราจะมีแค่โฟลเดอร์ etc กับ wav)
- etc
- feat
- logdir
- model_parameters
- model_architecture
- wav
ซึ่งไฟล์ acoustic model ที่เราจะเอาไปใช้จริงๆ อยู่ในไดเรกทอรีนี้ครับ
```
model_parameters/<your_db_name>.cd_semi_<number_of senones>/
```
การนำเอาไปใช้งานก็ให้ก็อบปี้โฟลเดอร์นั้นทั้งหมด รวมทั้งไฟล์ language model และ phonetic dictionary มาไว้ในไดเรกทอรีเดียวกัน เมื่อจะใช้งานก็ให้สั่งใน terminal ว่า
`pocketsphinx_continuous -hmm <โฟล์เดอร์ของ acoustic model> -lm <ไฟล์ language model> -dict <ไฟล์ phonetic dictionary>`
รอให้ terminal ขึ้นสถานะว่า Ready… ก่อน จากนั้นก็ลองพูดดูครับ ถ้าโปรแกรมไม่มีปัญหาอะไร มันจะขึ้นว่า Listening ทันทีที่เราพูดจบหรือไม่มีเสียงภายนอกรบกวน และจะแสดงข้อมูลว่าโปรแกรมรู้จำคำศัพท์อะไรได้บ้าง
สำหรับ Troubleshooting ของการสร้าง acoustic model สามารถเข้าไปดูได้ที่ลิงก์นี้ [http://cmusphinx.sourceforge.net/wiki/tutorialam#troubleshooting](http://cmusphinx.sourceforge.net/wiki/tutorialam#troubleshooting)
## การทำ Adaptation Acoustic Model
วิธีการเพิ่มประสิทธิภาพของ acoustic model วิธีหนึ่งคือการทำ adaptation ครับ อย่างที่ผมได้บอกไว้ตั้งแต่ตอนที่แล้วว่าบางครั้งเราไม่จำเป็นต้องสร้าง acoustic model ใหม่ทุกครั้ง (ความจำเป็นในการฝึก acoustic model ใหม่นั้นสามารถดูได้ในตอนที่หนึ่ง)
Adaptation acoustic model สามารถ
- ช่วยให้โมเดลสามารถรู้จำเสียงของเราได้ดียิ่งขึ้น
- ช่วยเพิ่มประสิทธิภาพการรู้จำของโมเดลได้ดีขึ้น
- ช่วยให้โมเดลรู้จำสำเนียง (accent) อื่นๆ ในภาษาเดียวกันได้
- หากต้องการให้โมเดลรู้จำเสียงในสภาพแวดล้อมอื่นๆ ได้มากขึ้น เช่น ในออฟฟิศ การทำ adaptation ก็ช่วยได้เช่นกัน
- ภาษาจำพวก cross-language เช่น จะให้โมเดลสามารถรู้จำภาษาอื่นๆ ที่ยืมเอาภาษาอังกฤษ หรือจะให้รู้จำภาษาลาวจากโมเดลภาษาไทย ก็สามารถทำได้เช่นเดียวกัน
ข้อดีอย่างหนึ่งของการทำ adaptation acoustic model คือใช้ข้อมูลเสียงน้อยกว่าการสร้าง acoustic model ใหม่ค่อนข้างมาก CMUSphinx เคลมว่าใช้ข้อมูลเสียงแค่ 5 นาทีก็สามารถเพิ่มประสิทธิภาพของโมเดลขึ้นอย่างเห็นได้ชัด
## เตรียมข้อมูลสำหรับทำ Adaptation Acoustic Model
ไฟล์สำหรับทำ adaptation acoustic model มีแค่ 3 ไฟล์เท่านั้น (your_db คือชื่อ database ของเรา จะตั้งชื่อเป็นอะไรก็ได้)
- your_db.fileids
- your_db.transcription
- your_db.dic
- ข้อมูลเสียงสำหรับทำ adaptation
ไฟล์ทั้งหมดจะคล้ายๆ กับที่ใช้ในการสร้าง acoustic model
## กระบวนการ Adaptation
สำหรับวิธีการทำ adaptation และรายละเอียดอื่นๆ สามารถอ่านเพิ่มเติมได้ที่ [http://cmusphinx.sourceforge.net/wiki/tutorialadapt](http://cmusphinx.sourceforge.net/wiki/tutorialadapt)
อย่าลืมว่าหลังการทำ adaptation แล้วต้องทำการทดสอบเหมือนกับการสร้าง acoustic model ด้วยทุกครั้ง
## การทำ Voice Activation
สังเกตไหมครับว่าการสั่งงานด้วยเสียงบนสมาร์ทโฟนถ้าไม่กดปุ่มก่อนก็ต้องพูดคีย์เวิร์ดก่อนทุกครั้ง อย่างเช่น วลีเด็ดของกูเกิล “OK Google” หรืออย่าง “Hey, Siri” บน iOS 8 ซึ่งการกระทำในลักษณะนี้เราเรียกว่า voice activation
เหตุผลที่ต้องทำ voice activation ส่วนหนึ่งเข้าใจว่าเป็นการแยกระหว่างคำสั่งเสียงบนสมาร์ทโฟนกับคำพูดที่เราใช้พูดในชีวิตประจำวัน (ถ้าเราจะสั่งสมาร์ทโฟนให้ทำงานก็ต้องพูดคีย์เวิร์ดซะก่อน) อีกเหตุผลหนึ่งก็เนื่องมาจากว่าตัว automatic speech recognition ต้องประมวลผลข้อมูลเยอะมากเพื่อบอกว่าแต่ละคำที่เราพูดคืออะไรบ้าง ถ้าให้ตัว automatic speech recognition ทำงานตลอดเวลา สมาร์ทโฟนจะต้องประมวลผลมากจนเกินความจำเป็น ดังนั้น จะดีกว่าหากจะมีโปรแกรมหรือวิธีการที่จะสามารถจับเฉพาะคีย์เวิร์ดที่เราต้องการ ซึ่งน่าจะทำให้ใช้ทรัพยากรในการประมวลผลน้อยลง วิธีการในการจับเฉพาะคีย์เวิร์ดที่ต้องการดังที่อธิบายข้างต้น เราเรียกกันว่า keyword spotting ครับ
ผมจะสรุปความแตกต่างระหว่าง keyword spotting กับ speech recognition เป็นอย่างนี้ครับ
Speech recognition เป็นการประมวลผลคำพูดของผู้พูดโดยแปลงจากเสียงของผู้พูดให้เป็นข้อความทั้งหมด เช่น ถ้าผมพูดว่า “เย็นนี้ไปกินข้าวกันไหม” โปรแกรมนี้จะต้องสามารถบอกได้ว่าผมกำลังพูดประโยคที่ว่า “เย็นนี้ไปกินข้าวกันไหม” ได้ทั้งหมด
Keyword spotting เป็นการประมวลผลคำพูดของผู้พูดโดยจับเอาเฉพาะคีย์เวิร์ดที่เราต้องการเท่านั้น ไม่จำเป็นต้องแปลงคำพูดทั้งหมด เช่น ผมตั้งโปรแกรมให้จับคีย์เวิร์ดคำว่า “กินข้าว” แล้วผมพูดว่า “เย็นนี้ไปกินข้าวกันไหม” โปรแกรมจะบอกว่าผมได้พูดคำว่า “กินข้าว” ไปแล้ว
## CMUSphinx’s Keyword Spotting
CMUSphinx มีฟีเจอร์ keyword spotting ครับ แต่ต้องพูดก่อนว่าเวอร์ชันที่ใช้ปัจจุบัน (PocketSphinx-0.8) นั้นกลับไม่มีฟีเจอร์นี้มาให้ครับ (ทั้งๆ ที่เวอร์ชัน 0.7 ซึ่งเป็นเวอร์ชันก่อนหน้า หรือเวอร์ชัน 5prealpha ซึ่งเป็นเวอร์ชันที่ยังพัฒนากันอยู่กลับมีฟีเจอร์นี้มาให้) ดังนั้น ถ้าต้องการจะใช้จริงๆ ผมแนะนำให้ติดตั้งโปรแกรมเวอร์ชันที่พัฒนาอยู่แทน (เวอร์ชัน 0.7 ผมใช้แล้วไม่ค่อยเวิร์คเท่าไหร่) ลิงก์ดาวน์โหลดจะอยู่ที่ [http://sourceforge.net/p/cmusphinx/code/HEAD/tree/trunk/](http://sourceforge.net/p/cmusphinx/code/HEAD/tree/trunk/) คลิกที่ Download Snapshot ซึ่งวิธีการติดตั้งเหมือนกับเวอร์ชันก่อนๆ
ผมทดลองใช้ pocketsphinx_continuous กับ acoustic model ที่ถูกสร้างมาจาก sphinxtrain-1.0.8 แล้วไม่มีปัญหา (แถมยังใช้งานได้ดีกว่าเวอร์ชัน 0.8 เสียด้วยซ้ำ) ส่วนการสร้าง acoustic model จาก sphinxtrain ที่อยู่ใน snapshot ดังกล่าวพบว่าไม่สามารถใช้งานได้ครับ (แต่เนื่องจากเป็นเวอร์ชันพัฒนา ก็ไม่แน่ว่าอาจจะมีการแก้ไขแล้ว)
วิธีการใช้งาน keyword spotting นั้นจะใช้คำสั่งดังนี้
`pocketsphinx_continuous -hmm <โฟล์เดอร์ของโมเดล> -dict <ไฟล์ phonetic dictionary> -kws <ไฟล์ keyphrase> -inmic yes`
Option ที่เพิ่มขึ้นมาของ keyword spotting ใน PocketSphinx คือ -kws ครับ โดยสิ่งที่ตามหลัง -kws คือไฟล์ keyphrase ซึ่งเป็นไฟล์ที่เก็บคีย์เวิร์ดที่เราต้องการให้มันตรวจจับครับ โดยหนึ่งบรรทัดจะประกอบด้วยคีย์เวิร์ดซึ่งเป็นศัพท์ที่มีใน phonetic dictionary หนึ่งตัว ตัวอย่างเช่น ถ้าสมมติผมต้องการให้คำว่า “ฮัลโหล” เป็นคีย์เวิร์ดสำหรับทำ keyword spotting ผมก็เขียนแค่ว่า “ฮัลโหล” ก็พอแล้ว อีกสิ่งหนึ่งที่อยากให้สังเกตคือการทำ keyword spotting นั้นไม่ใช้ไฟล์ language model ครับ
การใช้งานของ pocketsphinx_continuous รุ่นที่กำลังพัฒนาอยู่นั้นจะแตกต่างจากเวอร์ชัน 0.8 อยู่อย่างหนึ่งตรงที่เราต้องบอกโปรแกรมเสมอว่าจะให้รับข้อมูลนำเข้าเป็นอะไร สังเกตได้ว่า ผมเพิ่ม option อันสุดท้ายคือ -inmic ลงไป แล้วตามด้วย yes ในที่นี้จะหมายถึงว่าให้โปรแกรมรับข้อมูลเสียงจากไมโครโฟนครับ (กรณีที่ต้องการให้รับข้อมูลเป็นไฟล์เสียงก็ใช้ -infile เหมือนเดิม)
## Thresholding ใน Keyword Spotting
กรณีที่เราต้องการ (หรือไม่ต้องการ) ให้โปรแกรม detect คำที่ใกล้เคียงกับคีย์เวิร์ด เช่น ต้องการให้โปรแกรมจับคำได้ง่ายขึ้น หรือไม่ต้องการจับคำว่า “หมั่นโถว” แทนที่จะเป็นคำว่า “ฮัลโหล” ก็สามารถปรับค่า threshold ของตัว keyword spotting ได้โดยเขียนคำสั่งดังนี้
`pocketsphinx_continuous -hmm <โฟล์เดอร์ของโมเดล> -dict <ไฟล์ phonetic dictionary> -kws <ไฟล์ keyphrase> -kws_threshold <value ที่ต้องการ> -inmic yes`
โดยค่า default ของ kws\_threshold คือ 1.00 ครับ ผมทดลองใช้ค่า default ในการให้ pocketsphinx\_continuous จับคีย์เวิร์ดพบว่ามันยังใช้ได้ไม่ดีนัก เลยลองปรับเพิ่ม/ลดค่าของ kws\_threshold ดู ปรากฏว่ายิ่งค่าของ kws\_threshold ลดลงเท่าไหร่ ยิ่งทำให้โปรแกรมจับคำคีย์เวิร์ดที่มีเสียงใกล้เคียงได้มากขึ้นเท่านั้น ส่วนจะปรับเท่าไหร่นั้นอันนี้ขึ้นอยู่กับการทดลอง (ผมลองปรับไปถึง 1e-10 หรือก็คือ 0.0000000001 แต่ผมลองหาบางกระทู้เค้าแนะนำถึง 1e-50 เลยครับ)
## ประเด็นเพิ่มเติมของ PocketSphinx
ต่อไปนี้จะพูดถึงประเด็นต่างๆ ที่น่าสนใจของ PocketSphinx เพิ่มเติมครับ
**ประเด็นที่ 1: Speech Recognition ใน PocketSphinx ไม่สามารถปรับค่า thresholding ได้**
อันนี้เป็นปัญหาใน speech recognition นะครับ ไม่ใช่ปัญหาของ keyword spotting
ปัญหาเกิดขึ้นหลังจากที่ผมลองพูดคำอื่นๆ ที่ไม่ใช่คำสั่งที่ต้องการ อย่างเช่นคำว่า “ปิดไฟ” ผมลองพูดคำว่า “กินไก่” แทน สังเกตได้ว่าคำสองคำนี้เสียงใกล้เคียงกันเลยทำให้ PocketSphinx นึกว่าผมพูดคำว่า “ปิดไฟ” ดังนั้น ผมจึงพยายามหาวิธีเพื่อที่จะทำให้ PocketSphinx ไม่ต้องหาคำใกล้เคียงกับที่ผมพูด (ศัพท์ทางเทคนิคของคำที่ใกล้เคียงกันแต่ไม่ต้องการให้โปรแกรมรู้จำได้นั้นเรียกว่า out-of-vocabulary word หรือ OOV word) แต่ปรากฏว่าหลายๆ เว็บต่างก็บอกว่าโปรแกรมนี้ไม่สามารถทำแบบนั้นได้
วิธีการหนึ่งที่จะแก้ปัญหานี้ได้คือต้องสร้างโมเดลที่จำคำที่ใกล้เคียงกับคำว่า “ปิดไฟ” ทั้งหมด เช่น คำว่า “มิด” “คิด” “ไผ่” “ไก่” เป็นต้น ซึ่งนั่นจะทำให้ต้องใช้เวลาในการสร้างโมเดลมากขึ้นครับ ส่วน Sphinx4 เข้าใจว่ามีเทคนิคหนึ่งคือการทำ phone loop แต่ไม่ได้ศึกษามาว่าต้องทำยังไงบ้าง
ศึกษาเรื่องของการทำ Rejecting Out-of-Grammar Utterances เพิ่มเติมได้ที่ [http://cmusphinx.sourceforge.net/wiki/sphinx4:rejectionhandling](http://cmusphinx.sourceforge.net/wiki/sphinx4:rejectionhandling)
สำหรับผู้ที่พัฒนาโปรแกรมบน iOS นั้นจะมีโปรแกรมเพิ่มเติมชื่อว่า OpenEars ของ PolitePix ซึ่งพัฒนามาจาก CMUSphinx มาอีกต่อหนึ่ง สามารถทำได้ทั้ง speech recognition และ text-to-speech synthesis และยังมี plugin เสริมเพื่อเพิ่มประสิทธิภาพของ OpenEars ด้วย ซึ่ง plugin ตัวหนึ่งที่มีคือ Rejecto สามารถปรับค่า thresholding สำหรับการทำ speech recognition ได้ แต่โปรแกรมนี้จะฟรีเฉพาะ OpenEars เท่านั้น plugin ที่เหลือต้องเสียเงินครับ สำหรับรายละเอียดโปรแกรมเพิ่มเติมสามารถอ่านได้ที่ [http://www.politepix.com/](http://www.politepix.com/)
**ประเด็นที่ 2: การพัฒนาโปรแกรม speech recognition บน Android และ iOS**
โมเดลที่ได้จากการทำ training นั้นสามารถนำไปใช้งานบน Android หรือ iOS ได้ครับ โดย iOS นั้นสามารถใช้โปรแกรม OpenEars ช่วยได้ ส่วนบน Android นั้นทาง CMUSphinx ได้ให้รายละเอียดเรื่องของวิธีการทำและมีตัว demo ด้วยครับ ซึ่งในบทความนี้จะขออนุญาตไม่พูดถึงรายละเอียดของการพัฒนาโปรแกรมบนสมาร์ทโฟนนะครับ ซึ่งรายละเอียดของการพัฒนาโปรแกรม speech recognition บน Android และ iOS เพิ่มเติมดูที่ [http://cmusphinx.sourceforge.net/wiki/building](http://cmusphinx.sourceforge.net/wiki/building)
โปรแกรม CMUSphinx สามารถช่วยอำนวยความสะดวกในการพัฒนาโปรแกรมรู้จำเสียงได้ในระดับหนึ่งครับ อันที่จริง งานในการพัฒนาโปรแกรมในลักษณะนี้จะใช้เวลาค่อนข้างมากครับ สังเกตได้ว่ากว่าจะสร้างโมเดลเพื่อใช้สำหรับรู้จำเสียงได้แต่ละครั้งนั้นต้องใช้เวลาเก็บข้อมูลเสียงนาน และที่สำคัญคือโปรแกรมเหล่านี้ยังมีปัญหาเรื่องของเสียงรบกวนอยู่ ก็ต้องรอดูกันต่อไปว่าปัญหาเหล่านี้จะสามารถแก้ไขได้เมื่อไหร่ครับ
สำหรับบทความ, tutorial ฉบับเต็ม, FAQ เอกสารประกอบของ PocketSphinx และ Sphinx4 หรือเนื้อหาอื่นๆ เพิ่มเติม สามารถเข้าไปชมได้ที่ลิงก์นี้ครับ [http://cmusphinx.sourceforge.net/wiki/](http://cmusphinx.sourceforge.net/wiki/) สำหรับฟอรั่มถามตอบสามารถเข้าได้ที่ลิงก์นี้ [http://sourceforge.net/p/cmusphinx/discussion/](http://sourceforge.net/p/cmusphinx/discussion/) หากมีข้อสงสัยใดๆ จะถามในคอมเมนต์ได้แต่ผมแนะนำให้ถามในฟอรั่มน่าจะได้คำตอบที่ดีกว่าครับ :)
สุดท้ายนี้ ขอให้สนุกกับการเขียนโปรแกรมครับ |
# บทความ: ธุรกิจที่อยู่ได้ด้วยการแจกฟรี
บทความนี้เป็นบทความที่ผมเขียนไปลงหนังสือพิมพ์กรุงเทพธุรกิจหน้าไอที ฉบับวันที่ 5 กุมภาพันธ์ 2552 (ชื่อบทความว่า [โมเดลธุรกิจ ฟรีแต่มีกำไร](http://www.bangkokbiznews.com/2009/02/05/news_28144584.php?news_id=28144584)) เนื่องจากข้อจำกัดในด้านเนื้อที่ทำให้บรรณาธิการตัดข้อความไปบางส่วน (ใจความหลักเหมือนกัน) ผมเลยเอาฉบับเต็มที่เขียนส่งไป นำมาลงในที่นี้ครับ
### ธุรกิจที่อยู่ได้ด้วยการแจกฟรี
เมื่อ ค.ศ. 2004 [คริส แอนเดอร์สัน](http://www.thelongtail.com/about.html) (Chris Anderson) บรรณาธิการของนิตยสาร Wired ด้านเทคโนโลยีชื่อดังของสหรัฐอเมริกา ได้เขียนบทความชิ้นหนึ่งชื่อว่า "[The Long Tail](http://www.wired.com/wired/archive/12.10/tail.html)" ลงในนิตยสารฉบับเดือนตุลาคม ตัวบทความนั้นว่าด้วยสภาพการกระจายตัวของยอดขายสินค้าในยุคดิจิทัลที่ไม่ต้องเสียค่าสต็อคสินค้า ซึ่งมันแตกต่างไปอย่างสิ้นเชิงจากการขายสินค้าแบบปกติทั่วไป ที่ถูกบีบบังคับจำนวนสินค้าที่วางขายด้วยขนาดและพื้นที่ของหน้าร้าน
การค้นพบของแอนเดอร์สันเปรียบเสมือนคัมภีร์สำหรับการค้าออนไลน์ยุคใหม่ โมเดลธุรกิจของเว็บไซต์อย่าง Amazon, Netflix, iTunes Store รวมไปถึงบริการรูปแบบใหม่อย่างเช่น บล็อก, รายการทีวีออนไลน์, สื่อภาคประชาชน ล้วนแต่สอดคล้องกับหลักการ The Long Tail ของแอนเดอร์สัน ไม่น่าแปลกใจเลยว่าหนังสือของเขา [The Long Tail: Why the Future of Business is Selling Less of More](http://www.amazon.com/Long-Tail-Revised-Updated-Business/dp/1401309666/ref=pd_bbs_sr_1?ie=UTF8&s=books&qid=1234031028&sr=8-1) (ฉบับภาษาไทยใช้ชื่อว่า "กลยุทธ์ลองเทล" แปลโดย ประวัติ เพียรเจริญ) กลายเป็นหนังสือขายดีติดอันดับ บทความต้นฉบับของแอนเดอร์สัน เป็นบทความที่คนเข้ามาอ่านมากที่สุดบนเว็บไซต์ Wired และตัวของคริส แอนเดอร์สันเองก็ขึ้นไปติดทำเนียบนักคิดนักเขียนคนสำคัญแห่งยุคเว็บ 2.0 ไปแล้วเรียบร้อย
ปี ค.ศ. 2009 แอนเดอร์สันกำลังจะกลับมาอีกครั้งกับหนังสือเล่มใหม่ของเขาที่มีชื่อว่า "[Free](http://www.amazon.com/Free-Past-Future-Radical-Price/dp/1401322905/ref=pd_bbs_sr_2?ie=UTF8&s=books&qid=1234031028&sr=8-2)" (กำหนดวางขายเดือนกรกฎาคม) ว่าด้วยความหมายของ "ราคา" สินค้าและบริการของยุคอินเทอร์เน็ต เขาเลือกใช้กลยุทธ์แบบเดียวกับเมื่อครั้ง The Long Tail นั่นคือส่งบทความขนาดสั้นนำทางมาก่อนหนังสือ
ในบทความชื่อ [The Economics of Giving It Away](http://online.wsj.com/article/SB123335678420235003.html) ลงพิมพ์ใน Wall Street Journal ฉบับวันที่ 31 มกราคม 2009 แอนเดอร์สันเริ่มต้นด้วยการอธิบายปรากฎการณ์ของราคาสินค้าในยุคดิจิทัล ที่ลดต่ำลงเรื่อยๆ จนเกือบถึงศูนย์ เขาบอกว่าในเมื่อต้นทุนในการผลิตซ้ำและแจกจ้ายสินค้านั้นแทบไม่มีค่าใช้จ่าย บริษัทและผู้ประกอบการต่างๆ จึงหันมาใช้โมเดลธุรกิจ "แจกสินค้าฟรีให้กับลูกค้าส่วนมาก และหารายได้จากลูกค้าส่วนน้อย" แทนการหากำไรจากสินค้าชิ้นต่อชิ้น
แนวคิดนี้ไม่ใช่เรื่องใหม่ ตัวอย่างที่ชัดเจนคือฟรีทีวีที่ผู้โฆษณาสินค้าจำนวนไม่มากนัก จ่ายเงินอุดหนุนเพื่อให้ผู้ชมทั่วไปจำนวนมหาศาลสามารถรับชมรายการได้ฟรี เพียงแต่ในยุคอินเทอร์เน็ตและเว็บ แนวทางนี้เป็นไปได้จริงในทางปฏิบัติมากขึ้น ครอบคลุมสินค้ามากชนิดจนถึงระดับที่เราแทบนึกไม่ออกแล้วว่ามีสินค้าอะไรที่ไม่ปฏิบัติตามนี้บ้าง
โมเดลธุรกิจแบบนี้จะสวนทางกับธุรกิจแบบเดิมอย่างหน้ามือเป็นหลังมือ ร้านขายเบเกอรี่อาจจะแจกขนมเค้กฟรี 1 ชิ้น เพื่อสร้างการบอกต่อและทำให้ลูกค้าอีก 99 คนหันมาซื้อเค้กร้านนี้ แต่ในโลกของเกมออนไลน์ บริษัทเกมทั้งหลายต่างพยายามแจกซีดีของตัวเกมออกไปให้มากที่สุดเท่าที่จะมากได้ แล้วหากินจากการขายสินค้าเสมือนในเกมให้กับผู้เล่นเพียงบางคน (ที่ยินดีจะซื้อสินค้าเสมือน) แทน
การที่สินค้าและบริการรุ่น "ฟรี" เกิดขึ้นเป็นจำนวนมาก และหลายๆ ตัวก็มีคุณภาพสูงพอที่จะใช้งานแทนสินค้าแบบเดิมได้ เราจึงเห็นปรากฎการณ์ที่ผู้บริโภคย้ายมาใช้บริการฟรีบนอินเทอร์เน็ตแทนสินค้าแบบเดียวกัน เช่น โทรศัพท์ข้ามโลกด้วย Skype แทนการคุยผ่านโทรศัพท์บ้าน หรือบางคนอาจเลิกเป็นสมาชิกเคเบิลทีวี แล้วหันมาดูวิดีโอออนไลน์แทน
โดยทั่วไปแล้ว "ผู้จ่ายเงินจำนวนน้อย" บนโลกไซเบอร์แบ่งได้เป็น 3 ชนิด นั่นคือ กลุ่มลูกค้าที่ยินดีซื้อผลิตภัณฑ์หรือบริการรุ่นพรีเมียมที่มีความสามารถมากกว่าปกติ, ผู้ลงโฆษณา และบริษัทยักษ์ใหญ่ (เช่น กูเกิลหรือไมโครซอฟท์) ที่เข้าซื้อกิจการของเว็บขนาดเล็กแต่มีฐานลูกค้าฟรีจำนวนมาก ที่ผ่านมา โมเดลธุรกิจเหล่านี้สามารถทำงานได้ค่อนข้างดี ดังที่เราจะเห็นได้จากตัวเลขมูลค่าของโฆษณาออนไลน์ที่เพิ่มสูงขึ้นทุกปี หรือข่าวการซื้อกิจการเว็บหน้าใหม่ของบริษัทดัง (เช่น กูเกิลซื้อ YouTube หรือ eBay ซื้อ Skype เป็นต้น)
ปัญหาเกิดขึ้นเมื่อโลกพบกับวิกฤตเศรษฐกิจ ยอดโฆษณาเริ่มฝืดเคือง และบริษัทยักษ์ใหญ่เองก็ยังเอาตัวแทบไม่รอด ทางออกเพียงหนึ่งเดียวของผู้ประกอบการดิจิทัลยุคนี้ จึงเหลือแค่หาโมเดลธุรกิจแบบใหม่ที่ลูกค้ารายย่อยนั้นยอมยินดีจะจ่ายสตางค์เพื่อใช้บริการ (จากที่คุ้นเคยกับบริการฟรีมาตลอด)
แอนเดอร์สันเรียกร้องให้ผู้ประกอบการเหล่านี้เค้นสมอง สร้างโมเดลธุรกิจออนไลน์แบบใหม่ๆ ขึ้นมา บริษัทจำนวนหนึ่งที่ประสบความสำเร็จ สร้างนวัตกรรมทางธุรกิจขึ้นมาได้ก็จะอยู่รอด (แอนเดอร์สันยกตัวอย่างเกม Tap Tap Revenge บนไอโฟน ซึ่งหารายได้จากเกมเวอร์ชันพรีเมียมที่มีเพลงประกอบจากวงดนตรีดัง และโครงการ BizSpark ของไมโครซอฟท์ ซึ่งให้บริษัทพัฒนาซอฟต์แวร์หน้าใหม่ใช้ซอฟต์แวร์ของไมโครซอฟท์ได้ฟรี และคิดราคาเมื่อบริษัทเหล่านี้เติบโตขึ้นถึงในระดับหนึ่ง)
แต่ยังมีบริษัทชื่อดังอีกมากที่มีผู้ใช้มากมาย แต่ไม่สามารถเปลี่ยนฐานลูกค้าเหล่านี้มาเป็นเงินได้ ตัวอย่างที่ดีที่สุดคือ YouTube ซึ่งมีคนเข้ามาดูวิดีโอวันละมหาศาล แต่ไม่สามารถหารายได้จากค่าโฆษณาที่สมน้ำสมเนื้อกับค่าใช้จ่ายด้านแบนด์วิธในแต่ละวันได้ ถ้าไม่มีเม็ดเงินมหาศาลของกูเกิลคอยพยุงไว้ YouTube ก็ไม่สามารถเอาตัวรอดได้ในทางธุรกิจเพียงลำพัง
โมเดลธุรกิจที่แอนเดอร์สันเรียกหานั้นแตกต่างกันออกไปตามแต่ละผลิตภัณฑ์และบริการ ยังไม่มีใครคิดค้นคำตอบสำเร็จรูปที่ใช้ได้กับทั้งอุตสาหกรรม เป็นไปได้ว่าแอนเดอร์สันอาจเสนอชุดของคำตอบนี้ผ่านหนังสือ "Free" ของเขา แต่ในอีกความเป็นไปได้หนึ่ง นักคิดแห่งยุคสมัยอย่างแอนเดอร์สันก็อาจไม่รู้คำตอบเช่นกัน |
# [ฝึกงาน Blognone] ทดลองสร้าง Speech Recognition ด้วย CMUSphinx ตอนที่ 1
โปรแกรมรู้จำเสียงอัตโนมัติ (Automatic Speech Recognition หรือ ASR) คือโปรแกรมที่รับข้อมูลนำเข้าเป็นเสียงและแปลงให้กลายเป็นข้อความ (text) แบบ real-time ปัจจุบันมีใช้กันแพร่หลายขึ้นมาก อย่าง Siri ของแอปเปิลก็สามารถพูดคุยโต้ตอบกันได้ หรืออย่างเครื่องใช้ไฟฟ้าบางยี่ห้อในปัจจุบันก็ได้เพิ่มฟังก์ชันการสั่งการด้วยเสียงแถมมาด้วย แต่จะเป็นไปได้ไหมถ้าเราจะสามารถสร้างเทคโนโลยีเหล่านี้ขึ้นมาใช้เองได้ ด้วยความสงสัยนี้ผมเลยคิดจะทดลองทำโปรเจคนี้ขึ้นมา
ในตอนแรก ผมคิดจะทำโปรเจคแบบที่พูดใส่คอมพิวเตอร์แล้วให้มันพิมพ์เป็นข้อความตามที่พูด แต่หลังจากประเมินเรื่องระยะเวลาแล้วคิดว่าเป็นไปได้ยาก จึงหันมาทำเรื่องที่ง่ายขึ้น คือการสร้าง device ควบคุมการทำงานของเครื่องใช้ไฟฟ้าด้วยเสียงอย่างง่าย โดยจะต้องใช้เสียงภาษาไทย โปรเจคนี้ไม่น่าจะซับซ้อนมากเพราะเคยเห็นตัวอย่างตามอินเทอร์เน็ตมาบ้างแล้ว แต่สิ่งที่ทำให้โปรเจคนี้น่าสนใจคือการใช้ open source ในการพัฒนา ผมใช้เวลาค้นคว้าสักพักจึงพบว่ามี open source ตัวหนึ่งที่น่าสนใจและมีการแนะนำกันค่อนข้างแพร่หลาย นั่นคือ CMUSphinx ซึ่งหลังจากนั้นมา ผมก็หันมาสนใจการพัฒนาโปรแกรมรู้จำเสียงด้วย CMUSphinx
สำหรับตอนที่หนึ่งนี้ ผมจะพูดถึงโปรแกรม CMUSphinx การสร้างโมเดลที่ใช้ในการสร้างโปรแกรมรู้จำเสียงอัตโนมัติ ซึ่งได้แก่ language model, phonetic dictionary และ acoustic model ครับ
## CMUSphinx
CMUSphinx เป็นโปรแกรม automatic speech recognition ที่เป็น open source พัฒนาโดยทีมนักวิจัยจาก Carnegie Mellon University สามารถรู้จำเสียงได้หลายภาษา แต่ถ้าหากจะให้รู้จำภาษาอื่นๆ ที่ไม่มีในฐานข้อมูลของโปรแกรมเราก็สามารถให้คอมพิวเตอร์จำเสียงของเราเพิ่มเติมได้ผ่านการอ่านข้อความให้ฟัง เทคนิคนี้จะเรียกกันว่าการฝึกภาษา (training)
ปัจจุบัน CMUSphinx มีให้ใช้ด้วยกัน 2 แบบ
1. Sphinx4 เป็น speech recognition ตัวล่าสุด มีความยืดหยุ่นสูง สามารถปรับแต่งได้ง่าย เขียนด้วยภาษา Java
2. PocketSphinx เป็น speech recognition ที่พัฒนาให้ประมวลผลเร็วและใช้หน่วยความจำน้อย เหมาะสำหรับใช้ใน embedded device เขียนด้วยภาษา C โดยผมเลือกใช้ PocketSphinx ในการทำโปรเจค (เวอร์ชันปัจจุบันคือ 0.8) และพัฒนาบน Linux ครับ
สำหรับโปรแกรมอื่นๆ ที่จำเป็นในการทำ automatic speech recognition มีด้วยกัน 3 ตัว
1. SphinxBase เป็นไลบรารี่ของ PocketSphinx ถ้าใช้ PocketSphinx อยู่ต้องติดตั้งตัวนี้ด้วย
2. CMUclmtk เป็นเครื่องมือที่ใช้สร้าง language model ซึ่งเป็นไฟล์ที่จำเป็นมากสำหรับการฝึกคอมพิวเตอร์ให้รู้จำเสียง จะอธิบายรายละเอียดในภายหลัง
3. SphinxTrain เป็นเครื่องมือที่ใช้ในการฝึกให้ PocketSphinx สามารถรู้จำเสียงที่เราต้องการได้ ซึ่งจะอธิบายวิธีการฝึกภายหลัง
ซอฟต์แวร์ SphinxBase, และ PocketSphinx ผมใช้เวอร์ชันปัจจุบันที่เสถียรที่สุดคือ 0.8 ส่วน SphinxTrain ที่ใช้นั้นคือเวอร์ชัน 1.0.8 โดยสามารถดาวน์โหลดซอฟต์แวร์ทั้งหมดได้ที่ [http://cmusphinx.sourceforge.net/wiki/download](http://cmusphinx.sourceforge.net/wiki/download)
## การติดตั้งและคอมไพล์โปรแกรม
ลำดับการติดตั้งควรจะเป็นแบบนี้ครับ SphinxBase > PocketSphinx > SphinxTrain ส่วน CMUclmtk ผมคิดว่าไม่น่าจะเกี่ยวข้องกับโปรแกรมสามตัวที่เหลือ จะติดตั้งเมื่อไหร่ก็ได้ สำหรับวิธีการติดตั้งผมจะไม่พูดถึงนะครับ ให้ไปศึกษารายละเอียดเองที่ [http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx#installation](http://cmusphinx.sourceforge.net/wiki/tutorialpocketsphinx#installation)
## กระบวนการรู้จำเสียง
กระบวนการรู้จำเสียงของ CMUSphinx สามารถอธิบายได้คร่าวๆ ดังนี้ หลังจากที่ได้รับข้อมูลคลื่นเสียงมาแล้ว Sphinx จะทำการแยกออกเป็น utterances โดยใช้เสียงเงียบ (silence) เป็นตัวแบ่งและจะพยายามแปลคำว่าเสียงที่เปล่งออกมานั้นคือคำว่าอะไร (เรียกว่าการรู้จำหรือ recognition) การที่จะรู้จำได้นั้น โปรแกรมจะต้องเช็กคำทุกคำที่เป็นไปได้แล้วเอาแต่ละคำมาเทียบเสียงกับข้อมูลเสียงที่รับเข้ามาว่าตรงกันหรือไม่ ซึ่งการที่จะให้โปรแกรมเทียบเสียงได้นั้นต้องมีข้อมูลทางด้านโครงสร้างทางภาษา หรือข้อมูลสำหรับเสียงที่โปรแกรมใช้ช่วยในการตัดสินใจในการรู้จำข้อมูล เราเรียกกันว่า “โมเดล”
## โมเดลที่ใช้ในกระบวนการรู้จำเสียงของ CMUSphinx
วิธีการหนึ่งที่จะทำให้โปรแกรมสามารถรู้จำเสียงได้นั้นจะต้องอาศัยโมเดลในการช่วยประมวลผลและตัดสินใจว่าเสียงที่เราพูดออกมาควรจะเป็นคำว่าอะไร โมเดลหลักๆ ที่จะต้องใช้ใน CMUSphinx มีอยู่ด้วยกัน 3 ตัว
1. Acoustic Model เป็นโมเดลที่เก็บคุณสมบัติต่างๆ ของเสียง
2. Phonetic Dictionary เป็นดิกชันนารีเสียงของคอมพิวเตอร์ คอมพิวเตอร์จะใช้ดิกชันนารีอันนี้เพื่อเช็กว่าคำนี้ควรจะออกเสียงอย่างไร
3. Language Model เป็นโมเดลที่บอกว่าหากผู้ใช้พูดคำนี้แล้วคำต่อไปน่าจะเป็นอะไรได้บ้าง ตัวอย่างเช่น ผมพูดคำว่า “หิว” คำต่อไปก็ควรจะเป็น “ข้าว” หรือ “น้ำ” มากกว่า “โต๊ะ” เป็นต้น โมเดลนี้จะช่วยลดจำนวนของคำที่เป็นไปได้ให้คอมพิวเตอร์ ทำให้คอมพิวเตอร์ใช้เวลาค้นหาคำเพื่อเปรียบเทียบเสียงน้อยลง
สำหรับข้อมูลเพิ่มเติมตั้งแต่เรื่องของโครงสร้างเสียง กระบวนการรู้จำเสียง และโมเดลที่ใช้ในการรู้จำเสียงสามารถอ่านได้เพิ่มเติมที่ [http://cmusphinx.sourceforge.net/wiki/tutorialconcepts](http://cmusphinx.sourceforge.net/wiki/tutorialconcepts)
อนึ่ง CMUSphinx ได้สร้างโมเดลสำหรับบางภาษาไว้ (เช่น ภาษาอังกฤษ ภาษาสเปน ภาษารัสเซีย) ซึ่งให้สามารถดาวน์โหลดเพื่อนำไปใช้ได้ผ่าน [http://sourceforge.net/projects/cmusphinx/files/Acoustic and Language Models/](http://sourceforge.net/projects/cmusphinx/files/Acoustic%20and%20Language%20Models/) แต่เนื่องจากฐานข้อมูลที่ให้มานั้นไม่มีภาษาไทย เราจึงจำเป็นต้องสร้างโมเดลเหล่านี้ขึ้นมาเอง
## การสร้าง Language Model
Language model สามารถอธิบายได้ 2 แบบ คือ อธิบายเป็นลักษณะแกรมม่ากับอธิบายในเชิงสถิติการเรียงตัวของคำ สำหรับในบทความนี้จะอธิบายเฉพาะการสร้าง language model เชิงสถิติเท่านั้น การสร้างโมเดลในลักษณะนี้จะใช้โปรแกรม CMUclmtk
อันดับแรกจะต้องหาบทความเพื่อใช้สร้างโมเดลให้ได้เสียก่อน โดยสามารถใช้บทความบนอินเทอร์เน็ตหรือข้อความสนทนาในชีวิตประจำวันได้ แล้วแต่ว่าจะสร้างโปรแกรมรู้จำเสียงเพื่อเอาไปใช้ในลักษณะไหน และไม่จำเป็นว่าจะต้องหาทุกๆ คำที่เกิดขึ้นบนโลก หาแค่ข้อความที่จำเป็นให้ครอบคลุมกับการใช้งานก็พอแล้ว
หลังจากนั้น จะต้องแปลงบทความให้ CMUclmtk สามารถนำไปประมวลผลได้ง่าย โดยทุกคำจะต้องแบ่งด้วย spacebar 1 ตัวเสมอ (เข้าใจว่าโปรแกรม CMUclmtk พัฒนาจากภาษาอังกฤษที่อาศัยการเว้นวรรคในการตัดแบ่งคำ ซึ่งภาษาไทยไม่มีการแบ่งคำ) และการแบ่งแต่ละประโยคออกจากกันจะต้องใส่แท็ก `<s>` และ `</s>` เสมอ หากมีคำภาษาอังกฤษควรจะแปลงให้เป็นตัวพิมพ์เล็กหรือตัวพิมพ์ใหญ่เหมือนๆ กันหมด และไม่ควรมีเครื่องหมายวรรคตอนหรือตัวเลขใดๆ ปนมาเด็ดขาด
เช่น “แม่มาถึงบ้านแล้ว แมวร้องเหมียวๆ” เราจะต้องเขียนใหม่เป็น
```
<s> แม่ มา ถึง บ้าน แล้ว </s>
<s> แมว ร้อง เหมียว เหมียว </s>
```
หลังจากที่ได้บทความที่ถูกแปลงมาขั้นต้นแล้ว ก็ใช้โปรแกรมทำการแปลงบทความดังกล่าวให้เป็นโมเดลทางสถิติได้เลย language model ที่ได้จะเป็นฟอร์แมตของ ARPA (ไฟล์สกุล .arpa) ซึ่งจะต้องแปลงเป็นไฟล์สกุล .lm.DMP อีกที
สำหรับวิธีการแปลงทั้งหมดสามารถอ่านได้ที่เว็บนี้ [http://cmusphinx.sourceforge.net/wiki/tutoriallm#building\\_a\\_statistical\\_language\\_model\\_using\\_cmuclmtk](http://cmusphinx.sourceforge.net/wiki/tutoriallm#building%5C%5C_a%5C%5C_statistical%5C%5C_language%5C%5C_model%5C%5C_using%5C%5C_cmuclmtk)
## การสร้าง Phonetic Dictionary
โครงสร้างของไฟล์ phonetic dictionary (ไฟล์นี้จะมีสกุล .dic) เป็นดังนี้ ในแต่ละบรรทัดจะประกอบไปด้วย 2 ส่วน คือ คำศัพท์ (ทั้งนี้คำจะต้องตรงกับไฟล์ language model ทุกคำ) เว้นวรรค แล้วตามด้วยการออกเสียงของคำศัพท์คำนั้น (phonetic transcription) โดยวิธีการเขียนจะอ้างอิงจาก ARPAbet ครับ (อ่านเพิ่มเติมได้ที่ [http://en.wikipedia.org/wiki/Arpabet](http://en.wikipedia.org/wiki/Arpabet)) ในหนึ่งบรรทัดจะมีคำศัพท์เพียงแค่คำเดียวเท่านั้น
ประเด็นสำคัญสำหรับการสร้าง phonetic dictionary ที่เป็นภาษาไทยคือ เท่าที่ลองค้นคว้ามา ผมไม่พบเว็บไหนที่อธิบายวิธีการเขียน phonetic transcription ภาษาไทยในรูปของ ARPAbet โดยตรง มีแต่รูปแบบของ IPA เท่านั้น ([http://en.wikipedia.org/wiki/Help:IPA\\_for\\_Thai\\_and\\_Lao](http://en.wikipedia.org/wiki/Help:IPA%5C%5C_for%5C%5C_Thai%5C%5C_and%5C%5C_Lao)) แต่ในวิกิพีเดียของ ARPAbet นั้นกลับมีวิธีการแปลงจากการเขียนแบบ IPA มาเป็นแบบ ARPAbet ดังนั้น การสร้างไฟล์ phonetic dictionary อาจจะเดาเสียงเทียบเคียงกับภาษาอังกฤษแล้วเขียนเป็น ARPAbet หรือจะเขียนเสียงเป็น IPA ก่อนแล้วค่อยแปลงเป็น ARPAbet อีกทีก็ได้ครับ
ตัวอย่างการแปลงเช่น คำว่า “ปิด” สามารถเขียน phonetic transcription แบบ ARPAbet ได้เป็น `P IH D` ดังนั้น เมื่อนำมาเขียนลง phonetic dictionary สามารถเขียนได้เป็น `ปิด P IH D`
สำหรับฐานข้อมูลที่มีขนาดใหญ่มากๆ นั้น Sphinx อนุญาตให้ไม่ต้องเขียน phonetic transcription ก็ได้ ตัวอย่างเช่น คำว่า ONE กับ TWO ปกติแล้วจะต้องเขียน phonetic transcription แบบ ARPAbet ดังนี้
```
ONE W AH N
TWO T UH
```
ถ้าฐานข้อมูลมีขนาดใหญ่มากก็อนุโลมเขียนแบบนี้ได้ ประสิทธิภาพของ CMUSphinx จะไม่ลดลงเท่าไหร่นัก
```
ONE O N E
TWO T W O
```
แต่ในกรณีที่ฐานข้อมูลมีขนาดเล็กมากนั้น จะต้องเขียน phonetic transcription ของแต่ละเสียงแยกออกจากกัน ตัวอย่างเช่น
```
ONE W_ONE AH_ONE N_ONE
TWO T_TWO UH_TWO
NINE N_NINE AY_NINE N_END_NINE
```
## การสร้าง Acoustic Model
ก่อนที่จะสร้าง acoustic model ของ SphinxTrain แต่ละครั้งให้คำนึงถึงสิ่งต่างๆ ต่อไปนี้
- จำเป็นต้องสร้าง acoustic model จริงๆ หรือไม่ ทาง CMUSphinx เองมีโมเดลของบางภาษามาให้อยู่แล้ว เช่น ภาษาอังกฤษ ภาษารัสเซีย ถ้าจะใช้ก็ดาวน์โหลดมาได้เลย กรณีที่ต้องสร้าง acoustic model จริงๆ ส่วนใหญ่จะเกิดจากการที่ต้องสร้างภาษาใหม่ขึ้นมา หรือต้องการสร้างโมเดลเฉพาะทางซึ่งมีขนาดเล็ก ใช้กับคำสั่งง่ายๆ เช่น การสั่งเครื่องใช้ไฟฟ้าให้ทำงานอย่าง “เปิดไฟ” “ปิดจอเครื่อง” เป็นต้น
ในกรณีของโปรเจคผม CMUSphinx ไม่มีโมเดลภาษาไทย และผมเองก็ต้องการสร้างโมเดลรองรับแค่คำสั่งควบคุมเครื่องใช้ไฟฟ้าเท่านั้น ดังนั้น ผมจึงจำเป็นต้องสร้าง acoustic model ขึ้นมาใหม่อย่างหลีกเลี่ยงไม่ได้ครับ
- ถ้าต้องการเพิ่มความแม่นยำในการรู้จำเสียง หรือต้องการให้ Sphinx สามารถรู้จำสำเนียงใหม่ของภาษาที่มีโมเดลรองรับอยู่แล้ว (เช่น อยากให้ Sphinx สามารถรู้จำภาษาอังกฤษสำเนียงไทย เป็นต้น) ไม่จำเป็นต้องสร้าง acoustic model ครับ ทาง CMUSphinx มีอีกช่องทางหนึ่งเรียกว่า acoustic model adaptation แทน ซึ่งสร้างง่ายกว่าการฝึก acoustic model ใหม่ทั้งหมด จะกล่าวถึงในตอนต่อไป
- ข้อมูลเสียงต้องมีมากพอที่จะสร้าง acoustic model ได้ มากขนาดไหนดูการเปรียบเทียบของ CMUSphinx ครับ
- ถ้าต้องการสร้าง speech recognition ที่รู้จำคำสั่งเฉพาะ และ
- ใช้แค่คนเดียว จะต้องมีข้อมูลเสียงของคนๆ นั้นรวมกัน 1 ชั่วโมง
- ใช้หลายคน จะต้องมีข้อมูลเสียงของคนอย่างน้อย 200 คน รวมกัน 5 ชั่วโมง
- ถ้าต้องการสร้าง speech recognition ที่รู้จำภาษาทั้งหมด และ
- ใช้แค่คนเดียว จะต้องมีข้อมูลเสียงของคนๆ นั้นรวมกัน 10 ชั่วโมง
- ใช้หลายคน จะต้องมีข้อมูลเสียงของคนอย่างน้อย 200 คน รวมกัน 50 ชั่วโมง
จะเห็นได้ว่า การสร้าง speech recognition แต่ละครั้งต้องใช้ข้อมูลเสียงมหาศาลมาก แต่ในความเป็นจริงไม่จำเป็นต้องใช้เยอะมากถึงขนาดนั้นครับ อย่างโปรเจคของผมก็อัดเสียงรวมๆ กันประมาณครึ่งชั่วโมงก็เพียงพอแล้ว ฉะนั้น ถ้าลองสร้าง acoustic model แล้วโปรแกรม SphinxTrain เกิดขัดข้องไม่สามารถทำการสร้างได้ก็เป็นไปได้ว่าอาจจะต้องเพิ่มข้อมูลเสียงครับ
สำหรับการใช้งานของโปรเจคผม เนื่องจากผมมีคำสั่งง่ายๆ แค่ 4 คำสั่ง คือ “เปิดไฟ” “ปิดไฟ” “เปิดแอร์” “ปิดแอร์” ดังนั้น วิธีการอัดให้ได้ถึงครึ่งชั่วโมงคือต้องพูดคำเดิมซ้ำกันไปเรื่อยๆ แต่เปลี่ยนสภาพแวดล้อมที่ผู้พูดอยู่แทน
## คุณสมบัติของข้อมูลเสียงที่ต้องใช้
ไฟล์ข้อมูลเสียงที่จะสามารถนำมาสร้าง acoustic model ได้นั้นต้องมีคุณสมบัติดังต่อไปนี้
- เป็นไฟล์สกุล .wav หรือ .sph
- มี sample rate 16 kHz 16 bit สำหรับ desktop application หรือ sample rate 8 kHz 16 bit สำหรับ mobile application
- ใช้ระบบเสียงแบบ mono
- ความยาวของข้อมูลเสียงแต่ละไฟล์ควรอยู่ที่ระหว่าง 5 - 30 วินาที
- Silence (เสียงเงียบ) ตรงช่วงเริ่มต้นและสิ้นสุดของแต่ละไฟล์ไม่ควรเกิน 0.2 วินาที
- ควรอัดในสภาพแวดล้อมที่ใช้งานจริง เช่น ถ้าใช้ในออฟฟิศก็ควรอัดที่ออฟฟิศเลยครับ
ทาง CMUSphinx แจ้งว่าปัญหาเรื่องของโปรแกรมที่ไม่สามารถสร้าง acoustic model ได้นั้นส่วนใหญ่มาจากการใช้ไฟล์ข้อมูลเสียงที่มีคุณสมบัติไม่ตรงตามสเปกที่กำหนด
## เตรียมข้อมูลก่อนการทำ Acoustic Model
ก่อนที่จะกล่าวถึงการเตรียมข้อมูลจะพูดถึงกระบวนการสร้าง acoustic model
การสร้าง acoustic model จะประกอบด้วยสองส่วนคือส่วนการฝึกภาษา (training) ซึ่งก็คือการให้คอมพิวเตอร์พยายามจำว่าเราพูดคำอะไรไปบ้าง กับส่วนการทดสอบ (testing) ซึ่งก็คือการทดสอบว่าคอมพิวเตอร์สามารถบอกได้ว่าเราพูดอะไรไปได้ถูกต้องมากน้อยแค่ไหน ขั้นตอนนี้เป็นสิ่งที่ควรทำทุกครั้งหลังจากสร้าง acoustic model ครับ เพราะจะได้ประเมินว่าโมเดลที่เราสร้างมามีความเที่ยงตรงแค่ไหน เหมาะที่จะนำเอาโมเดลไปใช้จริงหรือไม่
สำหรับข้อมูลเสียงที่จะนำมาทดสอบ acoustic model นั้น ห้ามนำข้อมูลเสียงที่มาจากการฝึกเด็ดขาด (พูดง่ายๆ คือต้องสร้างข้อมูลเสียงสำหรับทดสอบแยกออกมาต่างหาก) ส่วนเรื่องของความยาว ทาง CMUSphinx บอกว่าความยาวรวมๆ กันใช้แค่ 1 ใน 10 ของข้อมูลเสียงที่ใช้ในการฝึกก็พอแล้ว และไม่ควรเกิน 4 ชั่วโมง
การสร้าง acoustic model จะต้องจัดไดเรกทอรีและไฟล์ไว้ดังนี้ (`your_db` คือชื่อ database ของเราครับ จะตั้งชื่อเป็นอะไรก็ได้)
```
- etc/
+ your_db.dic (phonetic dictionary)
+ your_db.phone (phoneset file)
+ your_db.lm.DMP (language model)
+ your_db.filler (filler dictionary)
+ your_db_train.fileids (file_id for training)
+ your_db_train.transcription (transcription for training)
+ your_db_test.fileids (file_id for testing)
+ your_db_test.transcription (transcription for testing)
- wav/
+ speaker_1/
* file_1.wav (speech recording)
+ speaker_2/
* file_2.wav
```
## รายละเอียดของแต่ละไฟล์
- File_ids (for training and for testing) เป็นไฟล์ที่เก็บไดเรกทอรีของไฟล์ข้อมูลเสียงทั้งหมด โดยจะแยกกันระหว่างไฟล์ที่ใช้ในการฝึกกับไฟล์ที่ใช้ในการทดสอบ โดยจะเขียนที่อยู่บรรทัดละ 1 ไฟล์ และไม่ต้องเขียนสกุลของไฟล์ครับ จากตัวอย่างข้างต้นเราจะเขียนได้ดังนี้
```
speaker_1/file_1
speaker_2/file_2
```
- Transcription file (for training and for testing) เป็นไฟล์ที่บอกว่าเสียงที่เราบันทึกไปนั้น เราพูดว่าอะไรไปบ้าง วิธีการเขียนก็คือให้เขียนไฟล์ละ 1 บรรทัด โดยเขียนเป็นคำที่เราพูดบันทึกไป ครอบด้วยแท็ก `<s>` กับ `</s>` ตามด้วยวงเล็บ ข้างในวงเล็บเขียนชื่อไฟล์ไม่ต้องใส่สกุลไฟล์ครับ ที่สำคัญ ลำดับของแต่ละไฟล์จะต้องตรงกับลำดับใน file\_ids ห้ามสลับกันเด็ดขาด จากตัวอย่างข้างต้น สมมติ file\_1.wav ผมพูดว่า “ปิดไฟ” ส่วน file_2.wav ผมพูดว่า “เปิดไฟ” ก็ให้เขียนแบบนี้ครับ
```
<s> ปิด ไฟ </s> (file_1)
<s> เปิด ไฟ </s> (file_2)
```
- ไฟล์เสียงที่ใช้สำหรับฝึกภาษา (train) และทดสอบการรู้จำภาษา (test) คุณสมบัติต้องตรงตามที่ได้บอกไว้ครับ ให้เก็บไฟล์เหล่านี้ไว้ในโฟลเดอร์ wav/
- Phonetic dictionary ไฟล์ดิกชันนารีเสียงซึ่งอธิบายไปแล้วข้างต้น
- Language model ไฟล์โมเดลทางภาษาซึ่งอธิบายไปแล้วข้างต้น
- Phoneset file เป็นไฟล์ที่เก็บรายการของเสียงแบบ ARPAbet ทั้งหมดที่มีอยู่ในไฟล์ phonetic dictionary **และ filler dictionary** วิธีการเขียนก็คือในหนึ่งบรรทัดเขียนตัว ARPAbet ที่ใช้ในไฟล์ phonetic dictionary หนึ่งตัว ซึ่งจะต้องเขียนให้ครบทุกตัว เช่น คำว่า “เปิด” กับ “ปิด” สามารถเขียน phonetic transcription แบบ ARPAbet ได้เป็น `P ER D` และ `P IH D` ตามลำดับ ดังนั้น เราก็สามารถเขียนไฟล์ phoneset file ได้ดังนี้
```
P
ER
IH
D
```
- Filler dictionary ไฟล์ดิกชันนารีเสียงที่เป็นเสียงรบกวนหรือเสียงที่เป็น noise ครับ (ตัวอย่างเช่น เสียง อืม… เสียงหัวเราะ เสียงหายใจ หรือไม่มีเสียง) ลักษณะการเขียนจะเหมือนๆ กับตอนทำ phonetic dictionary เลยครับ ตัวอย่างต่อไปนี้จะใช้แท็ก <s>, </s> และ <sil> แทนการไม่มีเสียงในช่วงนั้น (SIL แทน silence)
```
<s> SIL
</s> SIL
<sil> SIL
```
สำหรับตัวอย่างนี้จะใช้ +um+ แทนเสียงอืม และ +noise+ แทนเสียงรบกวนครับ
```
+um+ ++um++
+noise+ ++noise++
```
การเขียน filler dictionary เท่าที่ผมเข้าใจนั้นปกติจะเขียนแค่ SIL ครับ แต่สำหรับเสียง noise ที่เป็น constant noise อย่างเสียง buzz จากไมค์หรือเสียงที่เป็นสภาพแวดล้อมนั้นไม่จำเป็นต้องเขียนในดิกชันนารีเพิ่มครับ อันที่จริง โปรเจคของผมใช้แค่สัญลักษณ์ SIL เท่านั้น **นอกจากนี้ จะต้องเพิ่มตัว filler dictionary เข้าไปใน phoneset file ด้วยนะครับ** เช่น ไฟล์ผมมีแต่คำว่า SIL ก็จะเพิ่มเสียงนี้เข้าไปใน phoneset file ครับ
หลังจากที่เตรียมไฟล์ครบทั้งหมดแล้วให้นำมาไว้ที่ไดเรกทอรีเดียวกันกับโปรแกรม SphinxTrain, SphinxBase และ PocketSphinx ครับ ตรงนี้จะไม่เหมือนกับที่บอกไว้ในเว็บ tutorial ของ CMUSphinx นะครับ เพราะผมลองทำตามใน CMUSphinx แล้วปรากฏว่าโปรแกรมไม่สามารถสร้างให้ได้เพราะหาไดเรกทอรี etc/ กับ wav/ ไม่เจอ
## กระบวนการสร้าง acoustic model
สำหรับวิธีการฝึก acoustic model และรายละเอียดอื่นๆ สามารถดูได้เพิ่มเติมที่ [http://cmusphinx.sourceforge.net/wiki/tutorialam](http://cmusphinx.sourceforge.net/wiki/tutorialam)
ตอนต่อไป ผมจะพูดถึงการทดสอบและค่าที่ใช้ในการวัดประสิทธิภาพของ speech recognition ที่ CMUSphinx ใช้ การนำ acoustic model, language model และ phonetic dictionary ไปใช้งานจริง การทำ adaptation acoustic model และการทำ voice activation ครับ
*edit1: ผมแก้ไขเรื่องของ phoneset file กับ filler dictionary ไว้ในหัวข้อรายละเอียดของแต่ละไฟล์นะครับ* |
# [Blognone Quest] RSA: การต่อสู้กับภัยคุกคามด้วยศูนย์ควบคุมความปลอดภัยขั้นสูง
สรุปเนื้อหาสาระจากงาน Blognone Quest for Modern Security ในช่วงแรกเป็นการบรรยายโดยคุณอภิเชษฐ์ ชัยเพ็ชร ที่ปรึกษาเทคโนโลยีอาวุโสจาก RSA
ความเปลี่ยนแปลงของการจัดการความปลอดภัยของระบบคอมพิวเตอร์จากสมัยก่อน มีความเปลี่ยนแปลงไปแล้วหลายอย่าง ได้แก่
1. โครงสร้างพื้นฐานไอทีที่เปลี่ยนไป จากยุคก่อนที่เมนเฟรมมีกระบวนการติดต่อกับผู้ใช้ชัดเจนและทางเข้าออกของข้อมูล แต่ในทุกวันนี้พอเข้าสู่ยุคคลาวด์หรือโมบาย การเชื่อมต่อมีมากขึ้นเป็นอย่างมาก
2. ความเปลี่ยนแปลงต่อมาคือกระบวนการทำธุรกิจเอง กระบวนการทำธุรกิจในช่วงหลังมีความเชื่อมโยงกันมากขึ้น มีกรณีที่แฮกเกอร์เจาะเข้าระบบของบริษัทอื่นๆ ที่เชื่อมต่อเครือข่ายกับบริษัทเป้าหมายเพื่อสร้างช่องทางโจมตี ความปลอดภัยจึงไม่ใช่เรื่องของคนภายในหรือคนภายนอกอีกต่อไป
3. ความเปลี่ยนแปลงของแรงจูงใจในการโจมตี แฮกเกอร์เริ่มสามารถหาประโยชน์เป็นตัวเงินได้จากการโจมตีออนไลน์ได้เป็นมูลค่าสูง ทำให้คุ้มกับการลงทุนจำนวนมากเพื่อโจมตีเป้าหมาย
โดยความเปลี่ยนแปลงของแรงจูงในการโจมตีทำให้แฮกเกอร์ในสมัยให่แบ่งออกเป็น 4 กลุ่มได้แก่
1. กลุ่มอาชญากร โจมตีเพื่อต้องการผลประโยชน์โดยตรง มุ่งเป้าไปเพื่อขโมยเงิน ความลับทางการค้า ในบางกรณีมีผลประโยชน์สูงมากจนกลายเป็นองค์กรอาชญากรรม
2. คนใน ที่อาจมีความโกรธแค้น หรือต้องการผลประโยชน์จากการใช้ข้อมูลภายใน
3. Hacktivist แฮกเพื่อเรียกร้อง หรือนำเสนอข้อความของตัวเอง
4. State-sponsored การโจมตีที่ได้รับการสนับสนุนจากหน่วยงานของรัฐ
กรณีสำคัญที่เกิดขึ้น เช่นกรณีของเกาหลีใต้ ถูกโจมตีด้วยการลบ master boot record จำนวนมหาศาล นับร้อยนับพันเครื่อง รวมเครื่องที่ติดมัลแวร์ถึง 48,000 เครื่อง แฮกเกอร์วางแผนเป็นอย่างดี ด้วยการโจมตีเครื่องอัพเดตเซิร์ฟเวอร์ แล้วสร้างมัลแวร์กระจายออกไปเพื่อให้ลบ master boot record
กรณีที่สองอโดบีที่ถูกโจมตีจนกระทั่งรหัสผ่านผู้ใช้นับล้านรายหลุดออกไป ทำให้บริการจำนวนมากต้องแจ้งผู้ใช้เร่งเปลี่ยนรหัสผ่านตามไป เพราะผู้ใช้จำนวนมากใช้รหัสผ่านซ้ำกันในหลายๆ บริการ
กรณีที่สาม ช่วงปลายปีที่แล้วมีการโจมตีห้าง Target ขโมยหมายเลขบัตรเครดิตไปเป็นจำนวนมาก ที่น่าตกใจคือมีการแจ้งเตือนมาก่อนแล้วแต่ทีมดูแลความปลอดภัยเจอการแจ้งเตือนแล้วเลือกที่จะปล่อยผ่าน ความเสียหายของกรณีนี้อาจจะถึงหลักพันล้านดอลลาร์
งานวิจัยของ Verizon เคยแสดงว่าแม้จะมีกระบวนการตรวจสอบแล้วแต่หน่วยงานกว่าจะเข้ามาตรวจสอบพบและตอบสนองต่อปัญหาได้อาจจะต้องใช้เวลานับสัปดาห์ มีเวลาให้แฮกเกอร์เตรียมการเป็นเวลานาน
จากกรณีเหล่านี้มีจุดร่วมอยู่คล้ายกันคือมักเริ่มจากอีเมลฟิชชิ่ง (phishing) กรณีหนึ่งคือแฮกเกอร์ส่งอีเมลหาเจ้าหน้าที่ฝ่ายบุคคลส่งมาจากเมลเซิร์ฟเวอร์ของบริษัทรับจัดหางาน มีเนื้อหาต่อเนื่องจากที่เคยคุยกันก่อนหน้า พร้อมกับแนบเอาไฟล์ที่มีโค้ดโจมตีส่งไปด้วย ฝ่ายบุคคลท่านนั้นเมื่อเปิดไฟล์ดูพบว่าเปิดไม่ได้ก็ไม่ได้สนใจนัก กรณีแบบนี้ในความเป็นจริงองค์กรใดๆ ก็แทบป้องกันไม่ได้
กระบวนการโจมตีเช่นนี้เป็นการโจมตีอย่างเจาะจง มีความพยายามซ่อนตัวเป็นอย่างดี และการโจมตีมีการโต้ตอบปรับเปลี่ยนกลยุทธ์
การโจมตีเจาะจงเป้าหมายเช่นนี้ไม่ว่าจะป้องกันอย่างไรก็เป็นไปได้ยากที่จะป้องกันได้ทุกทาง คำถามจึงกลับมาที่มาตอบสนองต่อปัญหาหากถูกโจมตีไปแล้ว กรณีเช่นนี้ย้อนกลับมาตั้งแต่การจัดการงบประมาณ ที่หน่วยงานส่วนมากจัดงบประมาณความปลอดภัยมักจะจัดให้ระบบ "ป้องกัน" มากถึง 70-80% โดยวางงบประมาณให้กับมอนิเตอร์ปัญหาที่เกิดขึ้นและการตอบสนองต่อปัญหาไม่มากนัก
มุมมองของ RSA ระบุว่างบประมาณด้านความปลอดภัยควรปรับให้สมดุลกัน โดยวางงบประมาณให้เท่ากันทั้งระบบป้องกัน, ระบบมอนิเตอร์, และการตอบสนองต่อปัญหา
ในส่วนของ RSA เองมีโซลูชั่นที่ปรับให้ระบบความปลอดภัยเป็นการดูแลความปลอดภัยที่เรียกว่า intelligence-driven security ตัวอย่างหนึ่งที่เราพบคือการล็อกอินที่บริการหนึ่งๆ อาจจะบังคับผู้ใช้ในรหัสผ่านใหม่ทุกครั้งที่ใช้งาน แต่ในหากมีการวิเคราะห์เพิ่มเติม หากผู้ใช้ใช้เครื่องเดิมทุกครั้งก็อาจจะปล่อยผ่านไม่ต้องใส่รหัสผ่านทุกครั้ง ขณะที่หากมีความเปลี่ยนแปลงอื่น เช่นล็อกอินจากเบราว์เซอร์ใหม่ก็อาจจะสอบถามข้อมูลเพิ่มเติม กระบวนการนี้ของ RSA วิเคราะห์จากแพ็กเก็ตเน็ตเวิร์ค วิเคราะห์ข้อมูลเข้าออกจำนวนมากด้วย Hadoop
อีกระบบหนึ่งคือ Security Operation มีการจัดลำดับการจัดการรายงานปัญหาเป็นลำดับขั้น เปิดให้กระบวนการจัดการปัญหาความปลอดภัยสามารถรับมือโดยเจ้าหน้าที่ขั้นต้น หากเกิดปัญหาที่แปลกออกไปก็สามารถรายงานขึ้นไปยังเจ้าหน้าที่ระดับสูงขึ้นไป
สำหรับใครที่สนใจเนื้อหาของทาง RSA และ EMC ทาง EMC ก็ฝากมาบอกว่าสามารถเข้าไปติดตามโพสต่างๆ ได้ใน [Facebook:EMC Thailand](https://www.facebook.com/emc.thailand?ref=br_tf) ครับ |
# พัฒนาการการแฮกช่องโหว่ซอฟต์แวร์: เทคนิคการเจาะช่องโหว่บัฟเฟอร์
Blognone เสนอข่าว "ช่องโหว่" ความปลอดภัยซอฟต์แวร์เป็นจำนวนมาก แม้ช่องโหว่หลายอย่างมาจากการวิเคราะห์ทางคณิตศาสตร์ของกระบวนการเข้ารหัสที่ซับซ้อนแต่ในความเป็นจริงแล้ว ช่องโหว่ส่วนมากมาจากปัญหาเหมือนๆ กันคือการไม่ระวังการใช้บัฟเฟอร์ ทำให้ข้อมูลที่วางลงไปยังบัฟเฟอร์มีขนาดเกินที่เผื่อไว้ ทำให้แฮกเกอร์เข้ามาวางโค้ดเอาไว้ และควบคุมให้มีการรันโค้ดนั้นๆ ได้
กระบวนการแฮกจากช่องโหว่บัฟเฟอร์เป็นกระบวนพื้นฐานอันหนึ่งที่ควรรู้เพื่อจะศึกษาและป้องกันช่องโหว่ในซอฟต์แวร์
## Stack Buffer Overflow
```c
#include <string.h>
void foo (char *bar)
{
char c\\[12\\];
strcpy(c, bar); // ไม่ตรวจขนาด input
}
int main (int argc, char **argv)
{
foo(argv\\[1\\]);
}
```
ปัญหาช่องโหว่บัฟเฟอร์เกิดได้ง่ายๆ จากความไม่ระมัดระวังในการนำข้อมูลเข้าสู่บัฟเฟอร์ ตัวอย่างข้างต้นเพียงแค่โปรแกรมเมอร์ไม่ยอมตรวจสอบก่อนว่าข้อมูลที่รับเข้ามาขนาดเกินบัฟเฟอร์ที่เตรียมไว้หรือไม่ ก็สร้างช่องโหว่นี้ได้ โดยหากเป็นการนำข้อมูลเข้าบัฟเฟอร์ที่เป็น stack (ตัวแปรที่ประกาศพื้นที่แน่นอนในฟังก์ชั่น) ก็จะเรียกว่า stack buffer overflow ส่วนถ้าเป็นตัวบัฟเฟอร์ที่ขอพื้นที่ใหม่ภายหลัง (ผ่าน malloc/new/HeapAlloc) ก็จะเรียกว่า heap buffer overflow
โดยปกติแล้ว โครงสร้างของ stack จะประกอบด้วยตัวแปรของแต่ละฟังก์ชั่น พร้อมกับจุดย้อนกลับ (return address) ซึ่งเป็นจุดของโค้ดที่เรียกฟังก์ชั่นเข้ามา เพื่อให้โปรแกรมสามารถย้อนกลับไปเมื่อออกจากฟังก์ชั่นได้ เมื่อแฮกเกอร์สามารถสร้างข้อมูลที่เขียนทับ return address นี้ได้ ก็จะกำหนดได้ว่าต้องการใช้โปรแกรมไปรันโค้ดส่วนใดก็ได้ ในกรณีนี้โปรแกรมตัวอย่างสร้าง `char bar[12]` เอาไว้ เราจะเห็นว่าจริงๆ แล้วภายในโครงสร้างหน่วยความจำมันเป็นพอยเตอร์วางคู่กับพื้นที่หน่วยความจำจริงๆ ด้านบนเป็นหน่วยความจำที่ยังไม่ได้ใช้งาน โดยจะถูกเรียกใช้เมื่อมีการเรียกฟังก์ชั่น ด้านล่างพื้นที่ของฟังก์ชั่นที่เรียกฟังก์ชั่นปัจจุบัน
การทำงานโดยปกติ ข้อมูลอินพุตจะถูกวางเข้าไปในบัฟเฟอร์ โดยไม่รบกวนตัวแปรรอบข้าง
แต่เนื่องจากไม่มีการตรวจสอบให้ดี ผู้เรียกใช้ฟังก์ชั่น (ที่อาจจะเรียกผ่านเครือข่ายจากระยะไกล) สามารถวางข้อมูลอย่างจงใจ ให้ข้อมูลล้นเกินบัฟเฟอร์ที่เตรียมไว้ แล้วเปลี่ยน return address ไป ในกรณีตัวอย่างคือเปลี่ยนค่าให้กลับไปรันในข้อมูลบัฟเฟอร์ที่เพิ่งใส่ให้เอง ทำให้สามารถกำหนดให้โปรแกรมรันอะไรก็ได้ตามที่แฮกเกอร์ต้องการ
ปัญหา buffer overflow นี้ถูกใช้ในเวิร์มตัวแรกของโลก คือ [Morris Worm](https://en.wikipedia.org/wiki/Morris_worm) ที่อาศัยฟังก์ชั่น `gets` ซึ่งไม่มีการกำหนดขนาดบัฟเฟอร์ และมีปัญหา stack buffer overflow เรื่อยมา จากโปรแกรม fingerd ที่เครื่องยูนิกซ์ในยุคนั้นมีรันทิ้งไว้แทบทุกเครื่อง ทำให้เวิร์มแพร่กระจายไปอย่างรวดเร็ว ในยุคหลัง คู่มือการเขียนโปรแกรมทั้งหมด จึงเตือนไม่ให้ใช้ฟังก์ชั่น `gets` และ `puts` อีกต่อไป
## Arc Injection
การป้องกัน stack buffer overflow ในช่วงหลัง ทำโดยห้ามไม่ให้รันโค้ดใดๆ ในพื้นที่ที่เป็น stack อีกต่อไป (Data Execution Prevention - DEP) ทำให้การวางโค้ดลงในบัฟเฟอร์แล้วชี้กลับมาที่โค้ดเพื่อให้ซีพียูทำตาม ไม่สามารถทำได้อีกต่อไป กระบวนการแนวใหม่คือการวางข้อมูลที่จะกระตุ้นให้เกิดผลตามที่แฮกเกอร์ต้องการ
ตัวอย่างหนึ่งของการทำ Arc Injection คือ การเปลี่ยนค่า return address ให้กลายเป็นฟังก์ชั่น `system` พร้อมกับระบุค่าอาร์กิวเมนต์ของฟังก์ชั่นให้เป็นบัฟเฟอร์ที่ใส่เข้าไป ทำให้แฮกเกอร์สามารถเรียกคำสั่งอะไรก็ได้ ตามต้องการในเครื่องของเหยื่อ
การทำ Arc Injection อาจจะเป็นการใช้โค้ดของเหยื่อเอง เช่น ใส่ข้อมูลจนล้นเพื่อไปเปลี่ยนตัวแปรอื่นๆ แต่หากเป็นการเปลี่ยนข้อมูลเพื่อเรียกไลบรารี มักเรียกกันว่าการโจมตีแบบ return-to-libc
## Pointer Subterfuge
นอกจากกระบวนการ "เติม" ข้อมูลเพื่อให้โปรแกรมทำงานตามที่แฮกเกอร์ต้องการแล้ว ยังมีอีกกระบวนการหนึ่ง คือการเปลี่ยนการทำงานของโปรแกรมด้วยการเปลี่ยนพอยเตอร์ ที่เรียกกระบวนการนี้ว่า Pointer Subterfuge ทำได้ในกรณีที่หน่วยความจำที่ต่อท้ายบัฟเฟอร์เป็นพอยเตอร์ไปยังฟังก์ชั่น กรณีเช่นนี้แฮกเกอร์สามารถเข้าไปกำหนดจุดที่ฟังก์ชั่นจะถูกเรียกได้
```c
void foo(void (_in\\_f)(),void * arg, size\\_t len)
{
char buf\\[256\\];
void (_f)() = in_f;
memcpy(buf,arg,len);
f();
return;
}
```
ฟังก์ชั่นตัวอย่างแสดงให้เห็นฟังก์ชั่นที่เสียงต่อการถูกเปลี่ยนค่าในพอยเตอร์ไปยังฟังก์ชั่น หากแฮกเกอร์สามารถรู้ได้ว่าฟังก์ชั่นที่ต้องการนั้นอยู่ที่พื้นที่หน่วยความจำใด ก็สามารถเรียกฟังก์ชั่นนั้นได้ตามใจชอบ
กระบวนการ Pointer Subterfuge นั้นแบ่งออกเป็นแบบย่อยๆ ได้อีกสามแบบ ได้แก่ Function Pointer Subterfuge ที่แสดงในตัวอย่าง, Data Pointer Subterfuge ที่เป็นการเปลี่ยนจุดชี้ข้อมูล ทำให้โปรแกรมทำงานตามที่ต้องการ คล้ายกับการทำ Arc Injection, และ VPTR Smashing ที่เป็นรูปแบบเฉพาะของภาษา C++ ที่ทุกออปเจกต์จะมีพอยเตอร์ไปยังตาราง virtual function (VTBL) เพราะแต่ละออปเจกต์นั้นอาจจะมีฟังก์ชั่นที่ต่างกันไป หากแฮกเกอร์สามารถย้ายจุดชี้ไปยังตารางนี้ได้ ก็เท่ากับสามารถทำให้โปรแกรมเรียกฟังก์ชั่นใดก็ได้ตามต้องการ
## Heap Overflow
ส่วนสุดท้ายที่ยากที่สุดของการเจาะช่องโหว่ Buffer Overflow คือการเจาะผ่านหน่วยความจำ heap ที่ไม่ได้ป้องกันไว้ดีเพียงพอ โดยทั่วไปแล้ว บัฟเฟอร์ในหน่วยความจำ heap นี้ยากต่อการเจาะมาก เพราะหน่วยความจำที่ขอขึ้นใหม่ระหว่างการรันโปรแกรมผ่านฟังก์ชั่น malloc หรือฟังก์ชั่น HeapAlloc นั้นมีพื้นที่เปลี่ยนไปทุกครั้งที่โปรแกรมรัน
การทำ Heap Overflow อาศัยการขอหน่วยความจำแต่ละครั้ง ระบบปฎิบัติการจะคืนค่าหน่วยความจำที่มี header ของหน่วยความจำก้อนนั้นๆ มาด้วย เพื่อให้ระบบปฎิบัติการสามารถตรวจสอบได้ว่า หน่วยความจำส่วนใดเลิกใช้งานแล้ว และว่างเป็นพื้นที่เท่าใด การที่หน่วยความจำ heap ถูกเขียนจนเกินพื้นที่ จะทำให้ header ของก้อนหน่วยความจำถัดไปที่วางติดกันถูกเขียนทับ เมื่อมีการคืนหน่วยความจำ ทำให้ระบบปฎิบัติการพยายามคืนหน่วยความจำผิดไปจากที่ขอหน่วยความจำไว้ ทำให้โปรแกรมเกิด segmentation fault เวลาที่รายงานปัญหาประเภทนี้ จะมีรายงานว่าเกิด Denial-of-Service (DoS)
แต่ความอันตรายของ Heap Overflow ไม่ได้หยุดเพียงแค่นั้น แฮกเกอร์ที่เข้าใจกระบวนการทำงานของระบบปฎิบัติการเป็นอย่างดี จะรู้ที่ที่ส่วนหัวของหน่วยความจำนั้น เป็นพอยเตอร์ไปยังก้อนหน่วยความจำก่อนหน้า (bk - back pointer) และก้อนหน่วยความจำก้อนถัดไป (fd - forward pointer) เมื่อหน่วยความจำก้อนใดถูกคืนกลับสู่ระบบ ฟังก์ชั่น ulink ของระบบปฎิบัติการจะเข้าไปดูหน่วยความจำก้อนนั้นๆ แล้วเปลี่ยนตัวแปร fd ของหน่วยความจำก้อนก่อนหน้าให้กลายเป็น bk ของหน่วยความจำก้อนต่อไป และเปลี่ยน bk หน่วยความจำก้อนถัดไป ให้ชี้ไปที่หน่วยความจำก้อนก่อนหน้า
แฮกเกอร์บางคนอาศัยพฤติกรรมนี้ เปลี่ยนค่า fd และ bk ให้กลายเป็นตำแหน่งของฟังชั่นพื้นฐาน เช่น free โดยอาศัยความจริงที่ว่า การเรียกฟังก์ชั่นพื้นฐานจำนวนมาก จริงๆ แล้วเป็นการเรียกผ่านตารางพอยเตอร์ไปยังฟังก์ชั่น เรียกตารางนั้นว่า global offset table (GOT) เมื่อเปลี่ยนค่าพอยเตอร์ของตารางนี้ได้ผ่านกระบวนการ Heap Overflow ทำให้เมื่อมีการคืนความจำหลังจากถูกโจมตีด้วยฟังก์ชั่น free จะกลายเป็นการเรียกฟังก์ชั่นใดๆ ที่แฮกเกอร์ต้องการ เช่น คำสั่ง system
## การป้องกัน Buffer Overflow
การป้องกัน Buffer Overflow ที่ดีที่สุดคงเป็นการเขียนโปรแกรมอย่างถูกต้อง รับรู้อย่างชัดเจนว่าข้อมูลส่วนใดที่เชื่อถือไม่ได้ เป็นข้อมูลจากผู้ส่งที่อาจจะเป็นผู้ไม่หวังดีต่อระบบ การตรวจสอบ และจำกัดพื้นที่การใช้หน่วยความจำอย่างระมัดระวังในภาษาโปรแกรมมิ่งใหม่ๆ ช่วยลดปัญหาเหล่านี้ได้เป็นอย่างดี
แต่ซอฟต์แวร์ที่ไม่มีบั๊กย่อมไม่มีในโลก ทุกวันนี้กระบวนการเพิ่มการตรวจสอบเพื่อให้การโจมตีแบบนี้ทำได้ยากขึ้นมีการพัฒนาขึ้นทุกวัน กระบวนการเหล่านี้อาศัยความร่วมมือกันระหว่างผู้ผลิตซีพียูและผู้ผลิตระบบปฎิบัติการ
ฟีเจอร์ NX (No Execution) ทำให้ระบบปฎิบัติการสามารถบอกซีพียูได้ว่า ส่วนใดของหน่วยความจำสามารถรันเป็นโปรแกรมได้ และส่วนใดห้ามรัน หากมีความพยายามจะรันโปรแกรมจากหน่วยความจำเหล่านั้นจะทำให้โปรแกรมหยุดทำงาน แต่แฮกเกอร์ก็พยายามรันผ่านระบบ shell ผ่านคำสั่ง system ได้
ฟีเจอร์ ASLR เป็นการสุ่มตำแหน่งของฟังก์ชั่นต่างๆ ในระบบรวมถึงฟังก์ชั่น system ที่มักใช้โจมตีระบบ แม้แฮกเกอร์จะสามารถเข้ามาแก้ไขให้รันโค้ดที่ตำแหน่งต่างๆ ได้เอง แต่ถ้าไม่สามารถหาตำแหน่งของฟังก์ชั่นที่ต้องการได้ ก็ยากที่จะควบคุมให้โปรแกรมทำงานตามที่ต้องการได้
## การแข่งขัน
พัฒนาการของการป้องกันซอฟต์แวร์ยังคงมีไปอย่างต่อเนื่อง ทุกวันนี้กระบวนการสุ่มตำแหน่งของฟังก์ชั่นถูกตรวจสอบให้ "สุ่มให้คาดเดาได้ยาก" หลายระบบปฎิบัติการที่ยังยอมรับไลบรารีเก่าที่ไม่รองรับ ASLR เริ่มมีกระบวนการเปลี่ยนผ่าน ด้วยการไม่ยอมรับไลบรารีเก่าๆ เหล่านั้นเป็นค่าเริ่มต้น และโปรแกรมเมอร์ถูกฝึกให้พัฒนาโค้ดในระบบที่มีการป้องกันหลายชั้นก่อนโค้ดจะถูกรันในซีพียูจริง เช่น ภาษาสคริปต์ หรือภาษาที่มีการจัดการ (managed) อย่างจาวาหรือ C# กระบวนการเหล่านี้ช่วยลดช่องโหว่จากโปรแกรมเมอร์มือใหม่ได้เป็นอย่างดี แต่พร้อมๆ กันก็สร้างช่องโหว่จากแพลตฟอร์มที่มีการใช้งานอย่างกว้างขวางอย่างในกรณีของจาวาเอง
กระบวนการเจาะระบบด้วยบัฟเฟอร์เป็นเพียงรูปแบบหนึ่งของการเจาะระบบ ซอฟต์แวร์ที่ซับซ้อนขึ้นเรื่อยๆ สร้างช่องโหว่รูปแบบใหม่ๆ ที่ไม่มีใครคิดถึงในสิบปีก่อนได้ทุกวัน ทำให้ความปลอดภัยคอมพิวเตอร์ยังเป็นหัวข้อวิจัยที่ยังมีงานวิจัยใหม่ๆ จำนวนมากในทุกวันนี้ |
# รู้จัก Amazon S3 มันคืออะไร? ทำไมต้องเก็บข้อมูลลง Bucket? ข้อมูลหลุดได้อย่างไร?
Amazon S3 ย่อมาจากคำว่า Simple Storage Service มันคือบริการเก็บข้อมูลบนคลาวด์ของ Amazon Web Services (AWS) ซึ่งเป็นผู้ให้บริการคลาวด์อันดับหนึ่งของโลก นอกจากนี้ S3 ยังถือเป็นบริการตัวแรกสุดของ AWS ด้วย โดยเปิดตัวมาตั้งแต่ปี 2006 หรือ 12 ปีก่อน
### S3 คืออะไร? ทำหน้าที่อย่างไร?
Amazon S3 คือบริการเก็บข้อมูลแบบวัตถุ (ออบเจคต์) มีชื่อเรียกอย่างเป็นทางการว่า object storage
รูปแบบของแอพพลิเคชันในอดีต (ยุคก่อนคลาวด์) เราคุ้นเคยกับการเก็บข้อมูลในรูปแบบของไฟล์ (file) หรือเก็บลงฐานข้อมูล (relational database) โดยขึ้นกับประเภทการใช้งาน หากข้อมูลต้นทางมาในรูปแบบของไฟล์ เช่น รูปภาพ, ไฟล์เอกสาร (doc/pdf) การเก็บข้อมูลจะเก็บในรูปแบบไฟล์ในโฟลเดอร์ที่กำหนดไว้
แต่ในยุคของคลาวด์ รูปแบบของแอพพลิเคชันเริ่มซับซ้อนมากขึ้น เกิดการแยกส่วนระหว่างการประมวลผล (compute) และการเก็บข้อมูล (storage) ออกจากกัน โดยงานสองส่วนไม่จำเป็นต้องอยู่ที่เดียวกันก็ได้ เราอาจเก็บข้อมูลไว้บนบริการคลาวด์รายหนึ่ง แล้วนำไปประมวลผลบนคลาวด์อีกรายหนึ่งก็ย่อมทำได้
AWS มีบริการประมวลผลชื่อว่า EC2 (ย่อมาจาก Elastic Compute Cloud) และมีบริการเก็บข้อมูลให้เลือกหลายตัว ขึ้นกับประเภทการใช้งาน โดย S3 เป็นบริการตัวหนึ่งในนั้น หน้าที่ของมันคือเก็บข้อมูลแบบออบเจคต์ (object storage) หรือการเก็บวัตถุเป็นชิ้นๆ เทียบได้กับการเก็บไฟล์นั่นเอง (ส่วนการเก็บแบบฐานข้อมูลก็มีบริการอื่นอย่าง Amazon RDS หรือ DynamoDB ซึ่งจะไม่พูดถึงในที่นี้)
### ทำไมเราจึงต้องเก็บข้อมูลลง S3
เหตุผลในการเก็บข้อมูลลง S3 มีหลากหลาย ตั้งแต่ความสามารถในการรองรับข้อมูลจำนวนมาก (scalability) ในระดับที่องค์กรทั่วไปไม่สามารถมีได้เท่ากับ AWS, ความน่าเชื่อถือในระบบคลาวด์ของ AWS การันตีว่าข้อมูลจะเข้าถึงได้เสมอ (ด้วยพลังวิศวกรรมของ AWS ที่เป็นคลาวด์อันดับหนึ่งของโลก), การมีเซิร์ฟเวอร์ของ S3 กระจายตัวอยู่ทั่วโลก ให้บริการลูกค้าได้จากทุกภูมิภาค ไปจนถึงความสะดวกในการบริหารจัดการ สำหรับองค์กรที่ไม่อยากมีภาระในการดูแลเซิร์ฟเวอร์เอง
ส่วนรูปแบบการใช้งาน S3 ก็มีหลากหลายเช่นกัน ตั้งแต่การเก็บข้อมูลทั่วไป การสำรองข้อมูล (แทนการสำรองลงเทปหรือข้ามไซต์ ก็เปลี่ยนมาเก็บลงคลาวด์แทน) หรือการเก็บข้อมูล Big Data เพื่อใช้วิเคราะห์
สำหรับแอพพลิเคชันยุคใหม่ๆ ที่เริ่มต้นในยุคคลาวด์ การเลือกเก็บข้อมูลลง S3 (หรือบริการเทียบเคียงของคู่แข่งอย่าง Azure หรือ Google Cloud) จึงเป็นเรื่องสมเหตุสมผล สตาร์ตอัพและบริษัทจำนวนมากในไทยก็เป็นลูกค้าของบริการในลักษณะนี้
### ความน่าเชื่อถือและความปลอดภัยของ S3
เนื่องจาก S3 เป็นบริการที่เปิดมายาวนาน ได้รับความน่าเชื่อถือมาก จึงมีองค์กรระดับโลกเลือกเก็บข้อมูลลง S3 เช่น Netflix หรือ Airbnb รวมถึงหน่วยงานรัฐบาลของสหรัฐอย่างกระทรวงกลาโหม
ส่วนในแง่ความปลอดภัย ก็ต้องบอกว่าโครงสร้างพื้นฐานของ AWS มีความปลอดภัยสูงพอในระดับที่สามารถบริการกับลูกค้าองค์กรขนาดใหญ่จำนวนมาก และผ่านมาตรฐาน (compliance) ตามข้อกำหนดด้านกฎหมายและกฎระเบียบในประเทศต่างๆ ([รายละเอียด](https://aws.amazon.com/compliance/programs/))
### อะไรคือ Bucket
ในการใช้งาน S3 จำเป็นต้องสร้าง "ถัง" (bucket) สำหรับเก็บข้อมูลขึ้นก่อน คำอธิบายแบบรวบรัดของ bucket เปรียบได้กับโฟลเดอร์ชั้นนอกสุด เพื่อให้เราจัดหมวดหมู่ข้อมูลได้เป็นระเบียบ และไม่นำข้อมูลที่ไม่เกี่ยวข้องกัน (เช่น ใช้งานคนละโครงการ) มายุ่งกัน
ข้อจำกัดของ bucket คือแต่ละถังต้องมีชื่อเฉพาะของตัวเอง และห้ามซ้ำกันในระบบทั้งหมดของ S3 ด้วย ผู้ใช้แต่ละรายสามารถตั้งชื่อ bucket เป็นอะไรก็ได้ (แค่ว่าห้ามซ้ำกับ bucket ที่มีอยู่แล้วในระบบ) ชื่อของ bucket ที่ตั้งไว้จะกลายเป็นส่วนหนึ่ง URL สำหรับให้เข้าถึงได้ ตัวอย่างเช่น https://**myawsbucket**.s3.amazonaws.com
เมื่อสร้าง bucket แล้ว ผู้ใช้ถึงสามารถเก็บข้อมูล (S3 เรียกว่า object) ลงในถังตามที่ต้องการใช้งาน
### สิทธิการเข้าถึงข้อมูลใน Bucket
ตามปกติแล้ว เมื่อสร้าง bucket ขึ้นมาในระบบของ AWS แล้ว สิทธิการเข้าถึงข้อมูลทั้งหมดใน bucket นั้นจะถูกกำหนดมาเป็นแบบ "private" ตั้งแต่แรก แปลว่ามีเฉพาะผู้ใช้เจ้าของ bucket เท่านั้นที่สามารถเข้าถึงข้อมูลได้
จากนั้น เจ้าของ bucket อาจเปิดสิทธิการเข้าถึงข้อมูล (grant access permissions) ให้กับบุคคลอื่น (เช่น เพื่อนร่วมงาน ลูกค้า) ได้ในภายหลัง ผ่านเครื่องมือที่เรียกว่า policies and access control lists (ACLs)
ในแง่ความปลอดภัยแล้ว ข้อมูลใน bucket ควรจำกัดการเข้าถึงเฉพาะผู้ที่ได้รับอนุญาตเท่านั้น แต่เราก็สามารถตั้งค่า bucket ให้ "ทุกคน" เข้าถึงได้โดยไม่จำเป็นต้องล็อกอินใดๆ หรือที่เรียกว่าเป็น public bucket ซึ่งเหมาะสำหรับข้อมูลที่ตั้งใจเป็น public อยู่แล้ว เช่น ข้อมูลเว็บไซต์หรือเอกสารสำหรับเผยแพร่ต่อสาธารณะ
AWS มีนโยบายให้ผู้ใช้งาน S3 พึงรู้ตัวอยู่เสมอว่าข้อมูลใน bucket ใดบ้างที่เปิดเป็น public (ไม่ว่าจะตั้งใจหรือเผลอ) ผ่านเครื่องมือจัดการในระบบของ S3 เอง
### การสแกนหา Bucket ที่เปิดเป็น Public
อย่างไรก็ตาม ถึงแม้ว่าผู้ใช้เผลอเปิด S3 Bucket เป็น public แล้ว แต่ถ้าหากไม่รู้ชื่อ bucket หรือ URL ก็ยังไม่สามารถเข้าถึงข้อมูลใน bucket นั้นได้อยู่ดี เหตุนี้จึงมีแฮกเกอร์จำนวนมาก หาวิธีสแกนชื่อ bucket ในระบบของ AWS "เผื่อว่า" จะเจอ bucket ที่เป็น public และสามารถนำข้อมูลออกมาได้โดยไม่ต้องเสียเวลาเจาะระบบอะไรเลย
ในกรณีของ iTrueMart นั้น นักวิจัยด้านความปลอดภัยชื่อ Niall Merrigan ใช้เครื่องมือชื่อ [Bucket Stream](https://github.com/eth0izzle/bucket-stream) ซึ่งเป็นเครื่องมือที่เผยแพร่กันทั่วไป มาค้นหา public bucket ที่เปิดให้ทุกคนเข้าถึงได้ (รายละเอียดของเทคนิคที่ Bucket Stream ใช้จะไม่กล่าวถึงในที่นี้) เพื่อแจ้งเตือนเจ้าของ bucket นั้นให้รู้ตัว
การสแกนของเขา ทำให้ค้นเจอ bucket อันหนึ่ง (เขาไม่เปิดเผยชื่อ bucket) ที่มีโครงสร้างโฟลเดอร์ชื่อ truemoveh/idcard/YYYY/MM/FILENAME อยู่ในนั้น
ส่วนเหตุผลที่ bucket นี้เปิดข้อมูลเป็น public นั้นก็ไม่สามารถทราบได้ |
# ย้อนตำนาน Nokia เดินหมากพลาดตาเดียว พ่ายแพ้ทั้งกระดาน
ช่วงกลางเดือนที่ผ่านมา เราเห็น Satya Nadella ซีอีโอไมโครซอฟท์ออกมาประกาศข่าวสำคัญหลายเรื่อง (ที่สำคัญคือทุกเรื่องเกี่ยวข้องกับ "กิจการมือถือของโนเกีย") ได้แก่
- [ปลดพนักงานครั้งใหญ่ 18,000 ตำแหน่ง](https://www.blognone.com/node/58417) โดย 12,500 คนจาก 18,000 คนคือพนักงานโนเกียเดิม
- [เลิกทำ Nokia X ฮาร์ดแวร์ที่อยู่ในสายพัฒนาจะเปลี่ยนไปใช้ Windows Phone](https://www.blognone.com/node/58418)
- (ยังไม่ยืนยันแต่น่าจะจริง) [เลิกทำ Asha และมือถือฟีเจอร์โฟนของโนเกียเดิม](https://www.blognone.com/node/58422)
ผมคิดว่าท่าทีของไมโครซอฟท์รอบล่าสุดนี้ น่าจะถือเป็น "จุดสิ้นสุด" ของธุรกิจมือถือของโนเกียอย่างเต็มตัว เพราะต่อจากนี้ไปเราจะเหลือแค่ "Windows Phone เพื่อไมโครซอฟท์" เพียงอย่างเดียว
อะไรคือความผิดพลาดของโนเกีย อดีตราชามือถือโลกติดต่อกันเป็นเวลานานถึง 14 ปี บทความนี้จะพาไป "ย้อนรอย" ดูความผิดพลาดเหล่านั้นครับ
### โนเกียไม่ได้เริ่มจากมือถือ
บริษัทชื่อ "โนเกีย" มีประวัติความเป็นมายาวนานถึง 149 ปี โดยเปิดกิจการตั้งแต่ปี 1865 เพื่อเป็น "โรงเลื่อยไม้" และเริ่มใช้ชื่อ "โนเกีย" ครั้งแรกพร้อมกับจดทะเบียนบริษัทในปี 1871
จากนั้นเส้นทางของโนเกียก็บุกตะลุย ฝ่าฟันกาลเวลามาอย่างโชกโชน เอาตัวรอดผ่านสงครามโลกสองครั้ง ภาวะเกือบล้มละลายหลายครั้ง และทำธุรกิจหลากหลายตั้งแต่ยาง สายเคเบิล กระดาษ รองเท้า ยุทโธปกรณ์ (เช่น หน้ากากป้องกันแก๊ส) พลาสติก เคมีภัณฑ์ สินค้าอิเล็กทรอนิกส์ โทรคมนาคม และคอมพิวเตอร์ (โนเกียเคยขายคอมพิวเตอร์มาก่อนในยุค 80s แถมยังเคยทำจอภาพ CRT/LCD ก่อนขายให้ ViewSonic)
อ่านประวัติของโนเกียเพิ่มเติมได้จาก [เว็บไซต์โนเกีย](http://company.nokia.com/en/about-us/our-company/our-story)
บริษัทรองเท้ายาง [Nokian Footwear](http://nokianjalkineet.fi/en/) ที่แยกตัวมาจากโนเกีย
บริษัทยางรถยนต์ [Nokian Tyres](http://www.nokiantyres.com/) หนึ่งในธุรกิจดั้งเดิมของโนเกียที่แยกตัวออกมา
ช่วงปลายทศวรรษ 80s โนเกียประสบปัญหาขาดทุนอย่างหนักในธุรกิจทีวี ถึงขนาดซีอีโอ [Kari Kairamo](http://en.wikipedia.org/wiki/Kari_Kairamo) ฆ่าตัวตายในปี 1988
จุดเปลี่ยนครั้งสำคัญของโนเกียคือปี 1992 ซีอีโอคนใหม่ [Jorma Ollila](http://en.wikipedia.org/wiki/Jorma_Ollila) (ปัจจุบันเป็นประธานบอร์ดของ Royal Dutch Shell) ตัดสินใจเลิกทำธุรกิจทุกอย่าง แล้วหันมาทุ่มให้ "โทรศัพท์มือถือ" เพียงอย่างเดียว
ช่วงทศวรรษ 80s โนเกียเป็นแกนหลักในการพัฒนามาตรฐาน GSM มาก่อน เมื่อกระแสโทรศัพท์มือถือเริ่มมาแรง บวกกับเทคโนโลยี GSM สามารถเอาชนะ CDMA ได้ ทำให้กระแสเหล่านี้ช่วยหนุนเสริมให้โนเกียภายใต้การคุมบังเหียนของ Ollila กลายเป็นผู้ผลิตโทรศัพท์อันดับหนึ่งของโลกได้สำเร็จในปี 1998
### ย้อนดู "ระบบปฏิบัติการ" ของโนเกีย
นับจากนั้นเป็นต้นมา ยุคทองอันยาวนานของโนเกียก็เริ่มต้นขึ้น แต่ทว่า... เกือบ 20 ปีหลังจากนั้น มันก็สิ้นสุดลง
ในความรับรู้ของคนทั่วไป ความผิดพลาดของโนเกียเกิดจากการปรับตัวไม่ทันเทคโนโลยีสมาร์ทโฟน แต่คำถามก็คือ โนเกียไม่รู้เลยหรือว่า "สมาร์ทโฟน" กำลังจะมา?
โทรศัพท์มือถือในยุคก่อนเป็น "อุปกรณ์สื่อสาร" ไม่ใช่ "อุปกรณ์คอมพิวเตอร์" หน้าที่หลักของมันคือเชื่อมต่อกับเครือข่าย cellular เพื่อสื่อสารด้วยเสียงเป็นหลัก
จุดขายของโทรศัพท์ในยุคนี้จึงเน้นคุณภาพของสัญญาณ บวกกับการออกแบบตัวเครื่อง ชิ้นส่วนฮาร์ดแวร์ คุณภาพของงานประกอบ ในขณะที่ซอฟต์แวร์นั้นเป็นแค่ "ส่วนเสริม" ที่เป็นลูกเล่นหรือจุดขายเล็กๆ น้อยๆ เท่านั้น
ในยุคแรกๆ โนเกียจึงไม่มีชื่อเรียก "ระบบปฏิบัติการ" ของโทรศัพท์มือถือ ในลักษณะเดียวกับระบบปฏิบัติการของคอมพิวเตอร์ (คนทั่วไปอาจเรียกกันเล่นๆ ว่า Nokia OS แต่มันไม่มีชื่ออย่างเป็นทางการนะครับ) พอมาถึงช่วงปี 2000 บวกลบเล็กน้อย โนเกียก็คลอด "แพลตฟอร์มซอฟต์แวร์" (ไม่ใช่ OS เต็มตัว อาจพอเทียบได้กับ Desktop Environment ของฝั่งพีซี) ออกมาทั้งหมด 6 ตัว ([อ้างอิง](http://www.filesaveas.com/nokia.html)) ไล่จากรุ่นเล็กไปใหญ่ดังนี้
- Series 20
- Series 30
- [Series 40](http://developer.nokia.com/community/wiki/Series_40)
- [Series 60](http://developer.nokia.com/community/wiki/Series_60)
- [Series 80](http://developer.nokia.com/community/wiki/Series_80)
- [Series 90](http://developer.nokia.com/community/wiki/Series_90)
แพลตฟอร์มที่มีชีวิตรอดมาได้จนถึงทศวรรษ 2010s เหลืออยู่ 3 ตัวคือ Series 30, Series 40 และ Series 60 (ภายหลังถูกเรียกว่าเป็น S30+, S40, S60/Symbian) ถ้าเทียบรุ่นตามแบบปัจจุบันก็คือ
- S30+ ใช้กับมือถือโนเกียรุ่นแป้นตัวเลข เช่น Nokia 10x
- S40 ใช้กับมือถือโนเกียรุ่นแป้นตัวเลขความสามารถเยอะขึ้นมาอีกหน่อย เช่น Nokia 11x หรือ 2xx บางรุ่น และคาบเกี่ยวไปถึงสมาร์ทโฟน Asha รุ่นล่างที่ใช้รหัส 2xx กับ 3xx (แต่ไม่ใช่ Asha 5xx)
- S60 หรือภายหลังเรียก Symbian ใช้กับสมาร์ทโฟนโนเกียในยุค 2000s แทบทุกตัว จนมาจบที่ 808 PureView เป็นตัวสุดท้าย
ส่วน Series 80/90 เคยถูกวางตัวไว้ใช้กับสินค้าตัวท็อปสาย Nokia Communicator แต่สุดท้ายก็ไปไม่รอด ถูกผนวกรวมกับ S60 แทน
Nokia 7710 มือถือตัวแรกที่ใช้ S90 วางขายปี 2004 แถมเป็นมือถือจอสัมผัสตัวแรกของโนเกีย (ก่อน iPhone นาน 3 ปี)
### Symbian/S60 ราชาแห่งทศวรรษ 2000s
เมื่อพูดถึงระบบปฏิบัติการของโนเกีย หลายคนมักนึกถึง Symbian แต่เอาเข้าจริงแล้ว โนเกียไม่ได้เป็นผู้สร้าง Symbian ครับ
Symbian มีประวัติความเป็นมาที่ยาวนานมาก ต้นกำเนิดของมันมาจากบริษัทชื่อ [Psion](http://en.wikipedia.org/wiki/Psion) (อ่านว่า ไซออน) ที่สร้างอุปกรณ์ PDA ยุคแรกๆ ชื่อ Psion Organizer โดยใช้ระบบปฏิบัติการทำเองชื่อ EPOC มาตั้งแต่ทศวรรษ 1980s
EPOC ถูกพัฒนามาเรื่อยๆ โดยมีโมเดลธุรกิจคือการขายไลเซนส์ให้บริษัทฮาร์ดแวร์อื่นๆ นำไปใช้งาน พอถึงปี 1998 มันก็กลายร่างเป็นบริษัท Symbian Inc. โดยมีผู้ถือหุ้นทั้งหมด 4 รายคือ Psion เดิม, โนเกีย, โมโตโรลา และอีริคสัน
เนื่องจาก Symbian Inc. เป็นบริษัทที่เกิดจากการลงขันกันของ 3 ผู้ยิ่งใหญ่แห่งวงการมือถือในยุคนั้น ตัวระบบปฏิบัติการ Symbian OS จึงมีปัจจัยด้านการเมืองภายในบริษัทมาเกี่ยวข้อง ตัวระบบปฏิบัติการจึงทำงานที่ฮาร์ดแวร์ระดับล่าง และเปิดให้แต่ละบริษัทสามารถสร้าง UI ของตัวเองขึ้นมาครอบระบบปฏิบัติการได้ ซึ่ง UI ก็ถูกแบ่งออกเป็น 3 ค่ายใหญ่ๆ คือ
- S60 (สนับสนุนโดยโนเกีย ซัมซุง แอลจี)
- UIQ (สนับสนุนโดยอีริคสัน โมโตโรลา)
- MOAP (สนับสนุนโดยบริษัทฝั่งญี่ปุ่น เช่น ฟูจิตสึ ชาร์ป)
ถึงแม้แกนหลักของระบบปฏิบัติการเป็นตัวเดียวกัน แต่ด้วยความแตกต่างด้าน UI และแพลตฟอร์มการพัฒนา บวกกับการเมืองระหว่างค่ายมือถือ ทำให้การเขียน "แอพ" บนมือถือในยุคนั้นทำได้ยากมาก เพราะต้องเขียนเจาะเป็นรายรุ่นเท่านั้น (และนี่เป็นเหตุผลสำคัญที่ Andy Rubin ต้องการสร้างระบบปฏิบัติการเพียงตัวเดียวที่ทุกคนมาใช้ได้ และการันตีว่าแอพรันได้เสมออย่าง Android ขึ้นมา)
อย่างไรก็ตาม สถานการณ์ในโลกมือถือยุค 2000s ก็ไม่ได้บีบให้ผู้ผลิตมือถือต้องจริงจังเรื่องซอฟต์แวร์มากนัก เพราะรูปแบบการใช้งานยังเน้นการสนทนาด้วยเสียง แอพพลิเคชันยังเป็นแค่ส่วนเสริมการใช้งานเท่านั้น ดังนั้นการใช้งาน Symbian จึงถือว่าตอบโจทย์ของยุคสมัยนั้นได้เป็นอย่างดี โนเกียมีระบบปฏิบัติการที่ "ดีในระดับหนึ่ง" ใช้งาน เมื่อบวกกับแสนยานุภาพของโนเกียในยุคนั้นก็สามารถทำยอดขายได้ถล่มทลาย เบียดบังคู่แข่งร่วมยุคอย่าง Windows Mobile, Palm OS และ BlackBerry มาได้อย่างไม่ยากเย็นนัก
### Maemo แท็บเล็ตที่มาก่อนยุคสมัย
ปัญหาของ Symbian คือสถาปัตยกรรมของมันค่อนข้างเก่าแก่ เพราะสร้างมาตั้งแต่สมัย Psion ออกแบบมาสำหรับมือถือปุ่มกด เน้นการสื่อสารด้วยเสียงเป็นสำคัญ
แต่ภาพอนาคตที่ทุกคนมองเห็นเด่นชัดคือ โทรศัพท์มือถือกับคอมพิวเตอร์จะถูกหลอมรวมเข้าด้วยกัน แนวคิดการทำงานโดยอิง "ข้อมูล" (data) แบบคอมพิวเตอร์กำลังวิ่งเข้าหาวงการมือถือ เทคโนโลยีการส่งข้อมูลผ่านเครือข่ายโทรศัพท์อย่าง EDGE และ 3G กำลังเริ่มกลายเป็นกระแสหลัก
โนเกียเห็นภาพอนาคตนี้ก่อนใครๆ และกระโจนเข้าไป "ทดลอง" รับมือกับมันผ่านโครงการชื่อ Maemo (อ่านว่า "เมโม") ตั้งแต่ปี 2005
Maemo เรียกตัวเองว่าเป็น "Internet Tablet" มันคืออุปกรณ์จอสัมผัสขนาดเล็กประมาณ 4-6 นิ้ว มีเว็บเบราว์เซอร์และโปรแกรมอีเมลในตัว เชื่อมต่อเน็ตผ่าน Wi-Fi ทำงานได้ "เทียบเท่า" คอมพิวเตอร์จริงๆ โดยสถาปัตยกรรมภายในของมันคือ "ลินุกซ์" (เป็น Debian) ที่รันด้วยส่วนติดต่อผู้ใช้ที่ดัดแปลงมาจาก GNOME
แผนผังแนวคิดและฟีเจอร์ของ Maemo ที่ถือว่าล้ำสมัยมากในยุคนั้น (ลองเปลี่ยนคำว่า Maemo ในแผนภาพออก แล้วเอาคำว่า Android ใส่เข้าไป ยังใช้ได้เลย)
สถาปัตยกรรมของ Maemo เน้นเทคโนโลยีสาย Debian/GNOME เป็นหลัก, ภาพจาก [Maemo.org](http://maemo.org/intro/platform/)
สินค้าตัวแรกของโนเกียที่ใช้ระบบปฏิบัติการ Maemo คือ [Nokia 770](http://en.wikipedia.org/wiki/Nokia_770) (เปิดตัวปลายปี 2005) จากนั้นโนเกียก็ออกแท็บเล็ตประมาณปีละ 1 ตัวโดยใช้ชื่อเรียกว่า Nxxx ได้แก่ N800 (2007), N810 (2007/2008) และ N900 (2009)
Nokia 770 แท็บเล็ต Maemo ตัวแรก (ออกปี 2005)
Nokia N900 แท็บเล็ต Maemo ตัวสุดท้ายพร้อมระบบปฏิบัติการ Maemo 5 (ออกปี 2009)
แผนการของโนเกียในตอนนั้นค่อนข้างชัดเจนว่า ทำ Maemo ขนานไปกับ Symbian โดยวาง Maemo ไว้ที่ตลาดบน จับลูกค้าที่ต้องการฟีเจอร์จากอุปกรณ์พกพาในลักษณะที่ใกล้เคียงกับคอมพิวเตอร์ แล้วค่อยๆ เปลี่ยนผ่านจาก Symbian ไปยัง Maemo อย่างช้าๆ ค่อยเป็นค่อยไป
อย่างไรก็ตาม แผนการ Maemo ไม่ออกดอกออกผลอย่างที่หวัง การพัฒนาเป็นไปอย่างเชื่องช้า และสุดท้ายโนเกียต้องประกาศรวมโครงการ Maemo เข้ากับโครงการ Moblin ของอินเทลในปี 2010 กลายเป็นโครงการใหม่ชื่อ MeeGo แต่สุดท้ายก็ยังล้มเหลวอีก เราได้เห็นสมาร์ทโฟน MeeGo วางขายจริงได้เพียงรุ่นเดียวคือ Nokia N9 ในปี 2011 (วางขายช่วงที่เมืองไทยมีน้ำท่วมใหญ่พอดี) แล้วก็ถูกยกเลิกโครงการไป
### อะไรคือปัจจัยที่ทำให้โนเกียเปลี่ยนผ่านไม่สำเร็จ?
วิสัยทัศน์ของโนเกียในช่วงนั้น (ปี 2005-2007) ดูจะถูกต้องสมบูรณ์ มองการณ์ไกล บริษัทออกสินค้ากลุ่มแท็บเล็ตหรือสมาร์ทดีไวซ์จอสัมผัสก่อน iPhone ถึง 2 ปี, ก่อน iPad ถึง 5 ปี แต่ทำไม Maemo ยังล้มเหลว?
ผมคิดว่าปัญหาที่สำคัญของโนเกียในช่วงยุคเปลี่ยนผ่านคือ "การเมืองภายในบริษัท"
ถ้าเราย้อนดูประวัติซีอีโอของโนเกียตลอด 20 ปีที่ผ่านมา โนเกียมีซีอีโอเพียงแค่ 3 คน คือ
- [Jorma Ollila](http://en.wikipedia.org/wiki/Jorma_Ollila) อยู่กับโนเกียนานถึง 14 ปี (1992-2006) เขาเป็นคนพาโนเกียเข้าสู่ยุคทอง กลายเป็นราชาโลกมือถือติดต่อกันนานเป็นสิบปี
- [Olli-Pekka Kallasvuo](http://en.wikipedia.org/wiki/Olli-Pekka_Kallasvuo) เนื่องจากชื่อเขาค่อนข้างยาว ในวงการจึงเรียกชื่อย่อ OPK เขาเป็นลูกหม้อของโนเกียมานาน และสืบทอดอำนาจของ Ollila ในปี 2006 มาจนถึงปี 2010
- [Stephen Elop](http://en.wikipedia.org/wiki/Stephen_Elop) ผู้บริหารที่ชาว Blognone น่าจะคุ้นเคยกันดี เขาเป็นคนแคนาดา ย้ายข้ามวิกมาจากไมโครซอฟท์ในปี 2010 และอยู่เป็นซีอีโอถึงปี 2013 ในตอนที่[ไมโครซอฟท์ประกาศซื้อกิจการมือถือของโนเกีย](https://www.blognone.com/node/48162))
ช่วงการเปลี่ยนผ่านที่สำคัญคือการถ่ายโอนอำนาจจาก Ollila มาเป็น OPK ในปี 2006 ครับ โลกมือถือในช่วงนั้นมีการเปลี่ยนแปลงหลายอย่างเกิดขึ้นไล่เลี่ยกัน
- ปี 2005 โนเกียเริ่มโครงการ Maemo
- ปี 2006 เปลี่ยนตัวซีอีโอเป็น OPK
- ปี 2007 แอปเปิลเปิดตัว iPhone รุ่นแรก
- ปี 2008 กูเกิลเปิดตัว Android รุ่นแรก
โนเกียเห็นสภาพการเปลี่ยนแปลงที่เบื้องหน้า ว่าโทรศัพท์มือถือต้องเปลี่ยนเป็นจอสัมผัส ต้องเน้นการใช้งานอินเทอร์เน็ตเป็นหลัก และคู่แข่งหน้าใหม่ๆ จากสายไอทีเริ่มกระโดดเข้ามาสู่วงการโทรคมนาคม
ทางเลือกของโนเกีย ณ ช่วงปี 2006-2007 มีอยู่สองทางคือ จะอยู่กับ Symbian ต่อไป (ของที่คุ้นเคย พิสูจน์ตัวเองแล้ว แต่เก่าคร่ำครึ) หรือจะมุ่งหน้าสู่ Maemo (ของใหม่ที่น่าจะดีกว่า แต่ยังไม่เคยพิสูจน์ตัวเอง)
โนเกียในช่วงเวลานั้นจึงตัดสินใจอยู่กับ Symbian เป็นหลัก และแบ่งทรัพยากรมาให้ Maemo อีกนิดหน่อย การพัฒนาแยกทีมกันชัดเจนไม่ยุ่งกันนัก
เหตุผลอีกอย่างที่ผมคิดว่าโนเกียเลือก Symbian คือโครงสร้างอำนาจภายในบริษัท เพราะโนเกียมีผู้บริหารใหญ่อีกคนชื่อ [Anssi Vanjoki](http://fi.wikipedia.org/wiki/Anssi_Vanjoki) เป็นหนึ่งในสามผู้บริหารยุค "ดรีมทีม" ร่วมกับ Ollila และ OPK ซึ่งเขาถูกคาดหมายว่าจะได้เป็นซีอีโอคนต่อไป ถัดจาก OPK
Anssi Vanjoki เติบโตมากับอาณาจักรของ Symbian ตลอดมา ตำแหน่งสุดท้ายของเขาคือผู้อำนวยการฝ่ายโทรศัพท์มือถือ (ในขณะที่ทีม Maemo เป็นผู้บริหารคนอื่น) เมื่อคนในคาดกันว่าเขาจะกลายเป็นซีอีโอคนต่อไป ผนวกกับสถานการณ์ในตอนนั้นที่ Symbian ยังแข็งแกร่ง [ขายได้เป็นหลักร้อยล้านเครื่อง](https://www.blognone.com/news/3383/symbian-%E0%B8%89%E0%B8%A5%E0%B8%AD%E0%B8%87%E0%B8%A2%E0%B8%AD%E0%B8%94%E0%B8%82%E0%B8%B2%E0%B8%A2-100-%E0%B8%A5%E0%B9%89%E0%B8%B2%E0%B8%99%E0%B8%8A%E0%B8%B8%E0%B8%94) จึงไม่น่าแปลกใจนักที่โนเกียจะยัง "play safe" เลือกอยู่กับ Symbian ต่อ
### Symbian ยุคใหม่ใต้เงา Foundation
เมื่อโนเกียเลือกได้แล้วว่า "เอา Symbian" กระบวนการปรับปรุง Symbian ให้ทันสมัย (modernization) จึงเริ่มต้นขึ้น
อย่างที่เขียนไปข้างต้นว่า Symbian เป็นระบบปฏิบัติการที่ 4 บริษัทร่วมลงขันกันทำ กระบวนการพัฒนาจึงไม่ค่อยคล่องตัวนัก เพราะทิศทางในการพัฒนาแยกไปคนละทาง (ตัว UI แต่ละระบบก็แตกต่างกัน ใช้งานร่วมกันไม่ได้) ในปี 2008 (หลัง iPhone รุ่นแรกวางขายได้ประมาณหนึ่งปี) โนเกียจึง[ซื้อหุ้นทั้งหมดใน Symbian](https://www.blognone.com/news/8151/symbian-%E0%B9%80%E0%B8%9B%E0%B8%B4%E0%B8%94%E0%B8%8B%E0%B8%AD%E0%B8%A3%E0%B9%8C%E0%B8%AA%E0%B9%81%E0%B8%A5%E0%B9%89%E0%B8%A7) ประกาศเปิดซอร์สโค้ดเท่าที่จะทำได้ และตั้ง [Symbian Foundation](https://www.blognone.com/news/9371/symbian-foundation-%E0%B8%95%E0%B8%B1%E0%B9%89%E0%B8%87%E0%B8%9C%E0%B8%B9%E0%B9%89%E0%B8%9A%E0%B8%A3%E0%B8%B4%E0%B8%AB%E0%B8%B2%E0%B8%A3%E0%B8%84%E0%B8%99%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88) เป็นองค์กรกลางขึ้นมาดูแลกระบวนการพัฒนา Symbian ทั้งหมด (ตอบโต้ Android ที่โอเพนซอร์สมาตั้งแต่ต้น)
ในแง่เทคนิคแล้ว Symbian มีปัญหาเรื่องกระบวนการพัฒนาแอพที่ยุ่งยากซับซ้อน ช่วงต้นปี 2008 โนเกียจึงแก้เกมโดย[ซื้อบริษัท Trolltech](https://www.blognone.com/news/6857/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%8B%E0%B8%B7%E0%B9%89%E0%B8%AD-trolltech) เจ้าของเฟรมเวิร์ค Qt ที่มีชื่อเสียงด้านความง่ายในการพัฒนาแอพ งานนี้โนเกียหวังยิงนกสองตัวพร้อมกัน โดยใช้ความง่ายของ Qt ดึงดูดนักพัฒนา และ[ใช้ Qt เป็นตัวเชื่อมการพัฒนาแอพบนระบบปฏิบัติการสองตัวคือ Symbian และ Maemo](https://www.blognone.com/news/7567/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%81%E0%B8%B2%E0%B8%A8%E0%B8%A3%E0%B8%AD%E0%B8%87%E0%B8%A3%E0%B8%B1%E0%B8%9A-qt-%E0%B9%83%E0%B8%99%E0%B9%81%E0%B8%9E%E0%B8%A5%E0%B8%95%E0%B8%9F%E0%B8%AD%E0%B8%A3%E0%B9%8C%E0%B8%A1-maemo) (แนวคิดคือ เขียนแอพให้รองรับ Qt ก็พอ ไม่ต้องสนใจว่าเป็น Symbian หรือ Maemo)
ช่วงปี 2008-2009 ถือว่ากระบวนการปรับปรุง Symbian ของโนเกียเริ่มต้นได้ค่อนข้างสวย (ประกอบกับ iPhone/Android ในยุคนั้นก็ยังพัฒนาไม่ดีพอ ความสามารถยังจำกัด แอพยังน้อย) เราเห็นกระบวนการที่น่าสนใจหลายอย่างจากฝั่งโนเกีย ได้แก่
- [เปิด Nokia App Store](https://www.blognone.com/news/10660/nokia-%E0%B9%80%E0%B8%95%E0%B8%A3%E0%B8%B5%E0%B8%A2%E0%B8%A1%E0%B9%80%E0%B8%9B%E0%B8%B4%E0%B8%94-app-store) มาแข่งกับ App Store ของแอปเปิล (ภายหลังเปลี่ยนชื่อเป็น Ovi Store)
- [แผนการออก Symbian รุ่นใหม่ทุก 6 เดือน](https://www.blognone.com/news/11015/symbian-foundation-%E0%B9%80%E0%B8%9C%E0%B8%A2%E0%B9%81%E0%B8%9C%E0%B8%99-%E0%B8%AD%E0%B8%AD%E0%B8%81%E0%B8%A3%E0%B8%B8%E0%B9%88%E0%B8%99%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88%E0%B8%97%E0%B8%B8%E0%B8%81-6-%E0%B9%80%E0%B8%94%E0%B8%B7%E0%B8%AD%E0%B8%99) (มาแนว Ubuntu) โดยจะใช้ชื่อ Symbian^1, Symbian^2 ไปเรื่อยๆ
- [โครงการสนับสนุนนักพัฒนามากมาย](https://www.blognone.com/news/12453/symbian-foundation-%E0%B9%80%E0%B8%A3%E0%B8%B4%E0%B9%88%E0%B8%A1%E0%B8%AD%E0%B8%AD%E0%B8%81%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%87%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%AA%E0%B8%99%E0%B8%B1%E0%B8%9A%E0%B8%AA%E0%B8%99%E0%B8%B8%E0%B8%99%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%9E%E0%B8%B1%E0%B8%92%E0%B8%99%E0%B8%B2) ทั้งช่วยทำตลาด ลดความยุ่งยากในระบบ SDK และการ sign โปรแกรม, ระดมความเห็นจากนักพัฒนาและผู้ใช้, ปรับปรุงฟีเจอร์ด้านมัลติมีเดีย
- [เจรจาให้ไมโครซอฟท์ทำ Microsoft Office เวอร์ชัน Symbian](https://www.blognone.com/news/12704/%E0%B9%80%E0%B8%95%E0%B8%A3%E0%B8%B5%E0%B8%A2%E0%B8%A1%E0%B8%9E%E0%B8%9A-ms-office-%E0%B8%9A%E0%B8%99-symbian-%E0%B8%95%E0%B9%89%E0%B8%99%E0%B8%9B%E0%B8%B5%E0%B8%AB%E0%B8%99%E0%B9%89%E0%B8%B2)
- [ยกเครื่อง UI ครั้งใหญ่ ปรับหน้าจอให้เรียบง่าย ไม่รก เหมาะกับจอสัมผัส ใช้จำนวนคลิกน้อยลง](https://www.blognone.com/news/14155/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%81%E0%B8%B2%E0%B8%A8%E0%B8%A2%E0%B8%81%E0%B9%80%E0%B8%84%E0%B8%A3%E0%B8%B7%E0%B9%88%E0%B8%AD%E0%B8%87-ui-%E0%B8%82%E0%B8%AD%E0%B8%87-symbian-%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88%E0%B8%9B%E0%B8%B5%E0%B8%AB%E0%B8%99%E0%B9%89%E0%B8%B2)
อย่างไรก็ตาม ผลลัพธ์ที่ได้ของ Symbian Foundation กลับไม่ออกมาเป็นไปตามที่หวัง กระบวนการพัฒนาต่างๆ ล่าช้ากว่าที่คาดไปมาก จนทำให้โทรศัพท์มือถือเรือธงของโนเกียหลายๆ รุ่นในช่วงนั้นต้องเลื่อนออกไปเยอะ
ปี 2008 ในช่วง Symbian ก่อนยุคเปลี่ยนผ่าน โนเกียยังสามารถออกมือถือเด่นๆ อย่าง 5800 XpressMusic, มือถือคีย์บอร์ด E71, หรือมือถือรุ่นท็อป N96
Nokia 5800 XpressMusic มือถือ Symbian ในตำนานอีกเครื่องหนึ่ง เคยปรากฏตัวในหนัง The Dark Knight ด้วย
แต่พอมาถึงปี 2009-2010 มือถือเรือธงออกน้อยลงและช้าลงมาก กว่าเราจะได้เห็น Symbian รุ่นท็อปตัวต่อมาคือ N97 ก็ต้องรอถึงกลางปี 2009 (พร้อมกับระบบปฏิบัติการ S60 5th Edition หรือ Symbian^1) และกว่าเราจะได้เห็น Symbian ตัวแรกในยุค Foundation ที่เริ่มใช้งานได้ (Symbian^3) ก็ต้องรอถึงปลายปี 2010 (ออกพร้อม Nokia N8)
ช่วงเวลา 2-3 ปีในโลกไอทีถือว่าเร็วมากนะครับ พอโนเกียเข็น N97 ออกมาสำเร็จในปี 2009 ก็ต้องเจอกับคู่แข่งอย่าง iPhone 3GS ที่พัฒนาขึ้นจากเดิมมาก พอมาถึงปี 2010 มือถือเรือธงอย่าง N8 ก็ต้องเผชิญหน้ากับทั้ง iPhone 4 และ Galaxy S1 ที่พัฒนาจนเริ่มอยู่ตัวแล้ว
Nokia N8 มือถือเรือธงในยุค Symbian Foundation (2010)
Nokia 808 PureView มือถือกล้องเทพ 41 ล้านพิกเซล และได้ชื่อว่าเป็น Symbian ตัวสุดท้าย, ภาพจาก [Nokia](http://conversations.nokia.com/2013/07/25/the-incredible-history-of-nokia-camera-phones-in-pictures/)
### MeeGo มีความพยายามแต่ยังอ่อนหัด
ในฝั่งของ Maemo/MeeGo เองที่ได้ทรัพยากรน้อยกว่า Symbian มาก ก็มีชะตากรรมที่น่าเศร้าไม่ต่างกันนัก เพราะต้องผ่าน "การเปลี่ยนแปลงเชิงนโยบาย" หลายครั้ง ตั้งแต่เปลี่ยนจาก GTK+ เป็น Qt ในปี 2008 และการรวมโครงการ Maemo กับ Moblin ของอินเทลในปี 2010
โนเกียออกสินค้า Maemo ตัวสุดท้ายคือ N900 ในปี 2009 และต้องรออีกสองปีกว่าเราจะได้เห็นผู้สืบทอดสาย MeeGo (ที่ออกมาเพียงรุ่นเดียว) คือ N9 ในช่วงปลายปี 2011 ซึ่งก็ออกมา "ช้าเกินไป" ในช่วงที่โนเกียตัดสินใจทิ้ง Symbian/MeeGo และหันไปเลือก Windows Phone แทนแล้ว
Nokia N9 มือถือตัวแรกและตัวเดียวที่ใช้ระบบปฏิบัติการ MeeGo
UI ที่ยอดเยี่ยมของ N9 ใช้ง่ายและคล่องตัว
ผู้อ่าน Blognone คงทราบกันดีว่ามีทีมงานหลายคนของ Maemo/MeeGo ออกไปเปิดบริษัท Jolla สืบทอดเจตนารมณ์ ต้องรอดูกันต่อไปครับว่าจะไปได้ไกลแค่ไหน
### ความล่าช้าของโนเกีย
ความล่าช้าของโนเกียมีเหตุมาจากหลายปัจจัย
อย่างแรกที่สุดคงเป็นเรื่องการเปลี่ยนสถาปัตยกรรมเทคโนโลยีครั้งใหญ่ในปี 2008 โดยแนวคิดของโนเกียคือการเปลี่ยนจาก S60/C++ มุ่งไปสู่ Symbian/Qt เป็นหลัก แนวคิดนี้ในเชิงทฤษฎีฟังดูดี แต่ในเชิงปฏิบัติคือการเขียนใหม่ทั้งในส่วนของระบบปฏิบัติการเอง และส่วนของแอพจากนักพัฒนาภายนอก
แนวคิดของโนเกียคือยุบรวม S60/C++ กับ Maemo/GTK+ ให้มาอยู่ใต้ร่มของ Symbian/Qt ให้หมด แต่กลับกลายเป็นว่าแอพบน S60/C++ กับ Maemo/GTK+ เดิมก็ไม่สามารถนำไปใช้ต่อบน Qt ได้ ในขณะที่ Qt เองที่มีรากฐานมาจากระบบปฏิบัติการเดสก์ท็อป ก็ต้องใช้เวลาอีกสักระยะหนึ่งในการปรับตัวเข้าสู่โลกของอุปกรณ์พกพา ([เบื้องหลังความล้มเหลวของโนเกียในการสร้าง UI ใหม่ให้ Symbian](https://www.blognone.com/news/22385/%E0%B9%80%E0%B8%9A%E0%B8%B7%E0%B9%89%E0%B8%AD%E0%B8%87%E0%B8%AB%E0%B8%A5%E0%B8%B1%E0%B8%87%E0%B8%84%E0%B8%A7%E0%B8%B2%E0%B8%A1%E0%B8%A5%E0%B9%89%E0%B8%A1%E0%B9%80%E0%B8%AB%E0%B8%A5%E0%B8%A7%E0%B8%82%E0%B8%AD%E0%B8%87%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B9%83%E0%B8%99%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%AA%E0%B8%A3%E0%B9%89%E0%B8%B2%E0%B8%87-ui-%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88%E0%B9%83%E0%B8%AB%E0%B9%89-symbian))
ปัจจัยที่สองคือ Symbian เดิมเป็นระบบปฏิบัติการหลายบริษัทร่วมกันทำ การเปลี่ยนมาเป็น Symbian Foundation ก็ดูดีในแง่ทฤษฎี แต่การโอเพนซอร์สมีประเด็นเรื่องกฎหมายเข้ามายุ่งเกี่ยว เพราะ Symbian Foundation ต้องไล่เจรจาคุยกับเจ้าของลิขสิทธิ์โค้ดทีละส่วนทีละราย ให้ยินยอมเปิดซอร์สโค้ด (มีกระบวนการทางกฎหมายยุ่งยากมากมาย, โครงการ Mozilla ยุคแรกๆ ก็เจอปัญหานี้มาก่อน) ดังนั้นกว่า Symbian Foundation จะเปิดซอร์สโค้ดสำเร็จก็ต้องใช้เวลานานมาก (บางส่วนก็ต้องเขียนใหม่ขึ้นทดแทนโค้ดเดิม) ดังนั้นเราจึงเห็นว่าโนเกียประกาศโอเพนซอร์ส Symbian ในปี 2008 แต่[กว่าจะทำเสร็จต้องรอถึงปี 2010](https://www.blognone.com/news/14958/symbian-%E0%B9%82%E0%B8%AD%E0%B9%80%E0%B8%9E%E0%B8%99%E0%B8%8B%E0%B8%AD%E0%B8%A3%E0%B9%8C%E0%B8%AA%E0%B9%80%E0%B8%AA%E0%B8%A3%E0%B9%87%E0%B8%88%E0%B8%AA%E0%B8%A1%E0%B8%9A%E0%B8%B9%E0%B8%A3%E0%B8%93%E0%B9%8C)
ปัจจัยที่สามคือวัฒนธรรมองค์กรของโนเกียเองที่ไม่รีบร้อนมากนัก อาจเป็นเพราะคงความเป็นอันดับหนึ่งมายาวนาน มีโครงสร้างองค์กรซับซ้อน (โดยเฉพาะถ้าเทียบกับกระบวนการพัฒนา iPhone ยุคแรกๆ ที่สตีฟ จ็อบส์ ลงมาคุมเอง และทำงานกันหนักมาก) เรื่องนี้สะท้อนให้เห็นผ่านเรื่องเล่าของ Adam Greenfield ดีไซเนอร์ภายนอกที่เคยทำงานกับโนเกียระหว่างปี 2008-2010 เขาเล่าถึงวัฒนธรรมของ "ฟินแลนด์" ประเทศที่อากาศหนาวเกือบตลอดปีว่า ในช่วงเดือนกรกฎาคมที่เป็นหน้าร้อน (อันหายาก) สำนักงานของโนเกียแทบร้าง เพราะพนักงานและผู้บริหารนิยมไปพักร้อนในกระท่อมส่วนตัวกลางป่าเขา ดังนั้นถ้าเขาต้องการให้โนเกียอนุมัติงานใดๆ ในช่วงเดือนกรกฎาคม-สิงหาคม นั้นแทบจะเป็นไปไม่ได้เลย ต้องรอถึงเดือนกันยายนกว่าผู้บริหารจะเริ่มกลับมาทำงานกัน ([Bloomberg](http://www.bloomberg.com/news/2011-03-27/elop-fights-nokia-traditions-in-race-to-ship-microsoft-phone.html))
ดังนั้นเราอาจพอสรุปได้ว่า เมื่อแอปเปิลวางขาย iPhone รุ่นแรกในเดือนกรกฎาคม 2007 ผู้บริหารของโนเกียน่าจะยังพักผ่อนกันอยู่ และไม่ได้สนใจมากนักกับ "ภัยคุกคามใหม่" ที่กำลังพุ่งเข้าหาตัวเอง
(Stephen Elop ให้สัมภาษณ์ไว้ในบทความเดียวกันของ Bloomberg ว่า สิ่งที่โนเกียต้องปรับปรุงเป็นอันดับแรกคือ "ความรวดเร็ว" ในการทำงาน)
สำนักงานใหญ่ของโนเกียในเมือง Espoo ที่ฟินแลนด์, ภาพจาก Nokia
Juhani Risku อดีตผู้บริหารของโนเกีย เคยให้สัมภาษณ์เรื่องปัญหาของโนเกีย ([ข่าวเก่า](https://www.blognone.com/news/17614/%E0%B8%AD%E0%B8%B0%E0%B9%84%E0%B8%A3%E0%B8%84%E0%B8%B7%E0%B8%AD%E0%B8%84%E0%B8%A7%E0%B8%B2%E0%B8%A1%E0%B8%9C%E0%B8%B4%E0%B8%94%E0%B8%9E%E0%B8%A5%E0%B8%B2%E0%B8%94%E0%B8%82%E0%B8%AD%E0%B8%87%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2-%E0%B9%81%E0%B8%A5%E0%B8%B0%E0%B8%AD%E0%B8%B0%E0%B9%84%E0%B8%A3%E0%B8%84%E0%B8%B7%E0%B8%AD%E0%B8%A7%E0%B8%B4%E0%B8%98%E0%B8%B5%E0%B9%81%E0%B8%81%E0%B9%89%E0%B9%84%E0%B8%82)) เอาไว้ว่าฝ่ายวิจัยของโนเกียคิดนวัตกรรมใหม่ๆ มากมายแต่ผู้บริหารไม่สนใจ, ความล่าช้าด้านการตัดสินใจภายในองค์กร (ซื้อ Navteq มา 6 เดือนแล้วไม่ทำอะไร), แต่ละฝ่ายขององค์กรไม่เป็นอันหนึ่งอันเดียวกัน (บริการ Ovi และแบรนด์ Nokia ดูแลโดยบริษัทภายนอกจากอังกฤษ), ระบบปฏิบัติการ Symbian ซับซ้อนมากจนคนข้างในเองก็ยังไม่เข้าใจมันนัก
### วิกฤตโนเกียปี 2010
สถานการณ์ของโนเกียในปี 2010 ค่อนข้างเลวร้าย เพราะมือถือเรือธงทั้งสองตัว (N8 สาย Symbian และ N9 สาย MeeGo) ไม่สามารถต่อกรกับคู่แข่งได้ทั้งในแง่ฟีเจอร์และแอพ (Symbian ยังเปลี่ยนผ่านไม่สำเร็จ ส่วน MeeGo ก็ยังพัฒนาไม่เสร็จ-ไม่มีแอพ)
ผลคือ ส่วนแบ่งตลาดของ Symbian ที่เคยสูงเกินครึ่งเริ่มลดลง [นักพัฒนาเริ่มตีจาก](https://www.blognone.com/news/16761/%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%9E%E0%B8%B1%E0%B8%92%E0%B8%99%E0%B8%B2%E0%B9%80%E0%B8%A3%E0%B8%B4%E0%B9%88%E0%B8%A1%E0%B8%95%E0%B8%B5%E0%B8%88%E0%B8%B2%E0%B8%81-symbian-%E0%B8%AB%E0%B8%B1%E0%B8%99%E0%B9%84%E0%B8%9B%E0%B8%8B%E0%B8%9A-iphoneandroid) [ผลประกอบการและมูลค่าหุ้นลดฮวบ](https://www.blognone.com/news/17529/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%A2%E0%B8%B1%E0%B8%87%E0%B8%A3%E0%B8%B1%E0%B8%81%E0%B8%A9%E0%B8%B2%E0%B8%AA%E0%B9%88%E0%B8%A7%E0%B8%99%E0%B9%81%E0%B8%9A%E0%B9%88%E0%B8%87%E0%B8%95%E0%B8%A5%E0%B8%B2%E0%B8%94%E0%B9%84%E0%B8%94%E0%B9%89-%E0%B9%81%E0%B8%95%E0%B9%88%E0%B8%81%E0%B8%B3%E0%B9%84%E0%B8%A3%E0%B8%A5%E0%B8%94%E0%B9%84%E0%B8%9B-40) [ผู้ถือหุ้นเริ่มทนไม่ไหว](https://www.blognone.com/node/16190) และ[กดดันให้เปลี่ยนซีอีโอและบอร์ด](https://www.blognone.com/news/17441/%E0%B8%9C%E0%B8%B9%E0%B9%89%E0%B8%96%E0%B8%B7%E0%B8%AD%E0%B8%AB%E0%B8%B8%E0%B9%89%E0%B8%99%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B9%80%E0%B8%A3%E0%B8%B4%E0%B9%88%E0%B8%A1%E0%B8%81%E0%B8%94%E0%B8%94%E0%B8%B1%E0%B8%99%E0%B9%83%E0%B8%AB%E0%B9%89%E0%B9%80%E0%B8%9B%E0%B8%A5%E0%B8%B5%E0%B9%88%E0%B8%A2%E0%B8%99%E0%B8%8B%E0%B8%B5%E0%B8%AD%E0%B8%B5%E0%B9%82%E0%B8%AD%E0%B9%81%E0%B8%A5%E0%B8%B0%E0%B8%9A%E0%B8%AD%E0%B8%A3%E0%B9%8C%E0%B8%94)
นักวิเคราะห์จาก Gartner เปรียบเทียบสถานการณ์ของโนเกียในปี 2010 ว่าบริษัท "กำลังย้ายเก้าอี้บนเรือไททานิคที่กำลังจะจม" แต่ดันมัวสนใจเรื่องไร้สาระที่ไม่ใช่ประเด็นหลักในการตัดสินใจซื้อมือถือของลูกค้า ในขณะที่ปัญหาเรื่อง UI ของ Symbian ก็ยังไม่ถูกแก้ไขอย่างจริงจัง และต้องรอไปถึง Symbian^4 ที่ไม่รู้ว่าจะออกเมื่อไร ([ข่าวเก่า](https://www.blognone.com/news/17334/%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%A7%E0%B8%B4%E0%B9%80%E0%B8%84%E0%B8%A3%E0%B8%B2%E0%B8%B0%E0%B8%AB%E0%B9%8C%E0%B8%9A%E0%B8%AD%E0%B8%81-quotsymbian-%E0%B8%81%E0%B8%B3%E0%B8%A5%E0%B8%B1%E0%B8%87%E0%B8%A2%E0%B9%89%E0%B8%B2%E0%B8%A2%E0%B9%80%E0%B8%81%E0%B9%89%E0%B8%B2%E0%B8%AD%E0%B8%B5%E0%B9%89%E0%B8%9A%E0%B8%99%E0%B9%80%E0%B8%A3%E0%B8%B7%E0%B8%AD%E0%B9%84%E0%B8%97%E0%B8%97%E0%B8%B2%E0%B8%99%E0%B8%B4%E0%B8%84quot))
เดือนกันยายนปี 2010 บอร์ดของโนเกียก็ออกมาประกาศข่าวที่ทุกคนรอคอยคือ โนเกียตั้ง Stephen Elop เป็นซีอีโอคนใหม่แทน OPK ซึ่งถือเป็นผู้บริหารคนนอกคนแรกในรอบหลายสิบปีของโนเกีย ([ข่าวเก่า](https://www.blognone.com/news/18494/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B9%80%E0%B8%9B%E0%B8%A5%E0%B8%B5%E0%B9%88%E0%B8%A2%E0%B8%99%E0%B8%95%E0%B8%B1%E0%B8%A7%E0%B8%8B%E0%B8%B5%E0%B8%AD%E0%B8%B5%E0%B9%82%E0%B8%AD%E0%B9%81%E0%B8%A5%E0%B9%89%E0%B8%A7-stephen-elop-%E0%B8%A2%E0%B9%89%E0%B8%B2%E0%B8%A2%E0%B8%82%E0%B9%89%E0%B8%B2%E0%B8%A1%E0%B8%A7%E0%B8%B4%E0%B8%81%E0%B8%88%E0%B8%B2%E0%B8%81%E0%B9%84%E0%B8%A1%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%97%E0%B9%8C))
ส่วน Anssi Vanjoki ที่ถูกคาดหมายว่าจะได้เป็นซีอีโอคนถัดไปก็ลาออกจากบริษัทหลังจากนั้นเพียงหนึ่งสัปดาห์ ([ข่าวเก่า](https://www.blognone.com/news/18545/%E0%B8%AB%E0%B8%B1%E0%B8%A7%E0%B8%AB%E0%B8%99%E0%B9%89%E0%B8%B2%E0%B8%9D%E0%B9%88%E0%B8%B2%E0%B8%A2%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%96%E0%B8%B7%E0%B8%AD%E0%B8%82%E0%B8%AD%E0%B8%87%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%A5%E0%B8%B2%E0%B8%AD%E0%B8%AD%E0%B8%81-%E0%B9%80%E0%B8%9B%E0%B8%B4%E0%B8%94%E0%B8%97%E0%B8%B2%E0%B8%87%E0%B9%83%E0%B8%AB%E0%B9%89%E0%B8%9A%E0%B8%A3%E0%B8%B4%E0%B8%A9%E0%B8%B1%E0%B8%97%E0%B9%80%E0%B8%82%E0%B9%89%E0%B8%B2%E0%B8%AA%E0%B8%B9%E0%B9%88%E0%B8%A2%E0%B8%B8%E0%B8%84%E0%B8%9C%E0%B8%A5%E0%B8%B1%E0%B8%94%E0%B9%83%E0%B8%9A)) ในอีกด้าน Ari Jaaksi หัวหน้าฝ่าย MeeGo ก็ประกาศลาออกหลังจากนั้นไม่นานเช่นกัน ([ข่าวเก่า](https://www.blognone.com/news/19020/quot%E0%B8%AE%E0%B8%B2%E0%B8%A3%E0%B9%8C%E0%B8%94%E0%B9%81%E0%B8%A7%E0%B8%A3%E0%B9%8C%E0%B8%82%E0%B8%AD%E0%B8%87-n9-%E0%B9%83%E0%B8%81%E0%B8%A5%E0%B9%89%E0%B9%80%E0%B8%84%E0%B8%B5%E0%B8%A2%E0%B8%87%E0%B8%81%E0%B8%B1%E0%B8%9A%E0%B8%84%E0%B8%B3%E0%B8%A7%E0%B9%88%E0%B8%B2%E0%B8%AA%E0%B8%A1%E0%B8%9A%E0%B8%B9%E0%B8%A3%E0%B8%93%E0%B9%8C%E0%B9%81%E0%B8%9A%E0%B8%9Aquot-%E0%B8%AB%E0%B8%B1%E0%B8%A7%E0%B8%AB%E0%B8%99%E0%B9%89%E0%B8%B2%E0%B8%9D%E0%B9%88%E0%B8%B2%E0%B8%A2-meego-%E0%B8%A5%E0%B8%B2%E0%B8%AD%E0%B8%AD%E0%B8%81))
### 2011: โนเกียบนทางแพร่ง เลือกอะไรดี Symbian, MeeGo, Android หรือ Windows Phone?
ช่วงรอยต่อของโนเกียในปี 2010-2011 ภายใต้ซีอีโอคนใหม่ Stephen Elop ถือเป็น "จุดเปลี่ยน" ครั้งสำคัญของโนเกียว่าจะเลือกไปในทิศทางใด ระหว่างระบบปฏิบัติการภายใน 2 ตัวคือ Symbian, MeeGo (ที่ไม่พร้อมทั้งคู่) หรือจะมุ่งสู่ระบบปฏิบัติการของบริษัทอื่นอย่าง Android หรือ Windows Phone ([นักวิเคราะห์เสนอ 4 ทางเลือกของโนเกีย](https://www.blognone.com/news/21130/%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%A7%E0%B8%B4%E0%B9%80%E0%B8%84%E0%B8%A3%E0%B8%B2%E0%B8%B0%E0%B8%AB%E0%B9%8C%E0%B9%80%E0%B8%AA%E0%B8%99%E0%B8%AD-4-%E0%B8%97%E0%B8%B2%E0%B8%87%E0%B9%80%E0%B8%A5%E0%B8%B7%E0%B8%AD%E0%B8%81%E0%B8%82%E0%B8%AD%E0%B8%87%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2))
ช่วงนี้เราเห็น "วาทะเด็ด" ของโนเกียออกมามากมาย เช่น [การเปลี่ยนมาใช้ Android เปรียบเหมือนการฉี่รดกางเกงให้อบอุ่นในฤดูหนาว](https://www.blognone.com/news/18738/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2-%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B9%80%E0%B8%9B%E0%B8%A5%E0%B8%B5%E0%B9%88%E0%B8%A2%E0%B8%99%E0%B8%A1%E0%B8%B2%E0%B9%83%E0%B8%8A%E0%B9%89-android-%E0%B9%80%E0%B8%9B%E0%B8%A3%E0%B8%B5%E0%B8%A2%E0%B8%9A%E0%B9%80%E0%B8%AB%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%99%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%89%E0%B8%B5%E0%B9%88%E0%B8%A3%E0%B8%94%E0%B8%81%E0%B8%B2%E0%B8%87%E0%B9%80%E0%B8%81%E0%B8%87%E0%B9%83%E0%B8%AB%E0%B9%89%E0%B8%AD%E0%B8%9A%E0%B8%AD%E0%B8%B8%E0%B9%88%E0%B8%99%E0%B9%83%E0%B8%99%E0%B8%A4%E0%B8%94%E0%B8%B9%E0%B8%AB%E0%B8%99%E0%B8%B2%E0%B8%A7) ของ Anssi Vanjoki ที่กำลังจะลาออก หรือ [Burning Platform](https://www.blognone.com/news/21703/%E0%B8%9A%E0%B8%B1%E0%B8%99%E0%B8%97%E0%B8%B6%E0%B8%81%E0%B8%A0%E0%B8%B2%E0%B8%A2%E0%B9%83%E0%B8%99%E0%B8%82%E0%B8%AD%E0%B8%87-stephen-elop-quot%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%81%E0%B8%B3%E0%B8%A5%E0%B8%B1%E0%B8%87%E0%B8%A2%E0%B8%B7%E0%B8%99%E0%B8%AD%E0%B8%A2%E0%B8%B9%E0%B9%88%E0%B8%9A%E0%B8%99%E0%B9%81%E0%B8%97%E0%B9%88%E0%B8%99%E0%B8%82%E0%B8%B8%E0%B8%94%E0%B9%80%E0%B8%88%E0%B8%B2%E0%B8%B0%E0%B8%99%E0%B9%89%E0%B8%B3%E0%B8%A1%E0%B8%B1%E0%B8%99%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B9%84%E0%B8%9F%E0%B9%84%E0%B8%AB%E0%B8%A1%E0%B9%89quot) ของ Elop
สุดท้ายการตัดสินใจก็เกิดขึ้นในช่วงต้นปี 2011 โดย [Elop และโนเกียเลือก Windows Phone](https://www.blognone.com/news/21767/%E0%B9%80%E0%B8%81%E0%B9%87%E0%B8%9A%E0%B8%97%E0%B8%B8%E0%B8%81%E0%B8%A3%E0%B8%B2%E0%B8%A2%E0%B8%A5%E0%B8%B0%E0%B9%80%E0%B8%AD%E0%B8%B5%E0%B8%A2%E0%B8%94-quot%E0%B8%84%E0%B8%A7%E0%B8%B2%E0%B8%A1%E0%B8%A3%E0%B9%88%E0%B8%A7%E0%B8%A1%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%84%E0%B8%A3%E0%B8%B1%E0%B9%89%E0%B8%87%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%A7%E0%B8%B1%E0%B8%95%E0%B8%B4%E0%B8%A8%E0%B8%B2%E0%B8%AA%E0%B8%95%E0%B8%A3%E0%B9%8Cquot-%E0%B8%A3%E0%B8%B0%E0%B8%AB%E0%B8%A7%E0%B9%88%E0%B8%B2%E0%B8%87%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%81%E0%B8%B1%E0%B8%9A%E0%B9%84%E0%B8%A1%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%97%E0%B9%8C) และ[ประกาศทิ้ง MeeGo/Qt/Symbian โดยยังเก็บ S40 ไว้](https://www.blognone.com/news/22754/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%9E%E0%B8%B9%E0%B8%94%E0%B8%96%E0%B8%B6%E0%B8%87%E0%B8%AD%E0%B8%99%E0%B8%B2%E0%B8%84%E0%B8%95%E0%B8%82%E0%B8%AD%E0%B8%87-symbian-qt-%E0%B9%81%E0%B8%A5%E0%B8%B0-series-40)
โนเกียที่ต้องผ่าน "การเปลี่ยนแปลงเชิงนโยบาย" หลายครั้งในปี 2008-2009 ก็ต้องเจอกับการเปลี่ยนแปลงเชิงนโยบายอีกครั้ง สายการพัฒนามือถือ Symbian/MeeGo ถูกระงับ และเราก็ต้องรออีกประมาณครึ่งปี กว่าจะได้เห็น Nokia Windows Phone รุ่นแรก ([Lumia 800](https://www.blognone.com/news/27263/%E0%B9%83%E0%B8%99%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B8%AA%E0%B8%B8%E0%B8%94%E0%B8%81%E0%B9%87%E0%B8%A1%E0%B8%B2%E0%B9%80%E0%B8%AA%E0%B8%B5%E0%B8%A2%E0%B8%97%E0%B8%B5-%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B9%80%E0%B8%9B%E0%B8%B4%E0%B8%94%E0%B8%95%E0%B8%B1%E0%B8%A7-lumia-800-%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%96%E0%B8%B7%E0%B8%AD-windows-phone-%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B9%81%E0%B8%97%E0%B9%89%E0%B8%88%E0%B8%A3%E0%B8%B4%E0%B8%87%E0%B9%80%E0%B8%84%E0%B8%A3%E0%B8%B7%E0%B9%88%E0%B8%AD%E0%B8%87%E0%B9%81%E0%B8%A3%E0%B8%81) ช่วงปลายปี 2011)
### 2011-2014 เมืองขึ้นชื่อ "โนเกีย" ไร้อิสระแต่ต้องดิ้นรน
โดยส่วนตัวแล้วผมคิดว่าการเลือก Windows Phone ค่อนข้างสมเหตุสมผล ณ เวลานั้น คือทิ้งระบบปฏิบัติการเก่าคร่ำครึอย่าง Symbian ออกไปก่อน พอเหลือระบบปฏิบัติการอีก 3 ตัว จะเห็นว่า MeeGo อ่อนแอที่สุดเพราะไม่มียักษ์ใหญ่หนุนหลังเลย ตัวเลือกที่น่าสนใจจึงเหลือแค่ 2 ตัวคือ Android กับ Windows Phone
สถานการณ์ในตอนนั้น Android กำลังเติบโตอย่างรวดเร็ว และบริษัทมือถือจำนวนมากก็ร่วมขบวน Android กันหมด (HTC เข้าเป็นรายแรกในปี 2008, ซัมซุงมาปี 2009) ในปี 2011 โนเกียอาจถือว่า "ออกตัวช้า" ถ้าจะเข้าร่วมขบวน Android กับเขาบ้าง (แถมมีข่าวว่าเจรจากันแล้วกูเกิลไม่ให้สิทธิพิเศษใดๆ ทำให้โนเกียไม่สามารถสร้างจุดแตกต่างของตัวเองกับ Android รายอื่นๆ ได้)
ทางเลือกสุดท้ายที่เหลืออยู่คือการ "เสี่ยง" กับ Windows Phone แพลตฟอร์มที่ "น่าจะดูดี" เพราะมียักษ์ใหญ่อย่างไมโครซอฟท์หนุนหลังอยู่ ไมโครซอฟท์เป็นเจ้าโลกเดสก์ท็อปมานาน แถมยังเคยมีประสบการณ์กับ Windows Mobile มาอย่างโชกโชน และยังทุ่มเต็มที่ดึงโนเกียมาเป็นพันธมิตร ช่วยสนับสนุนเงินค่าการตลาดมากมาย
ปัจจัยทุกอย่างพร้อมสรรพ โนเกียเลือก Windows Phone และทุ่มสุดตัวไปกับมัน แต่ปัจจัยหนึ่งที่ตอนนั้นคงไม่มีใครคาดคิด (รวมถึง Elop ในฐานะอดีตผู้บริหารไมโครซอฟท์ด้วย) คือไมโครซอฟท์เองพัฒนา Windows Phone ช้ากว่าที่ทุกคนคิดไปมาก เพราะไมโครซอฟท์ก็เป็นบริษัทที่อยู่ระหว่าง "การเปลี่ยนผ่าน" เหมือนกัน
ช่วงปี 2011-2013 โนเกียฝากความหวังไว้กับไมโครซอฟท์เต็มที่ และออกมือถือที่น่าสนใจใน (เชิงฮาร์ดแวร์) มาหลายตัว แต่ผลกลับออกมาไม่ดีดังหวังเพราะฝั่งซอฟต์แวร์ที่ไมโครซอฟท์รับผิดชอบนั้นเดินหน้าไปช้ามาก โนเกียจึงต้องหาทางเลือกอื่นๆ ให้ตัวเอง (ในฐานะบริษัทอิสระ) กระบวนการคัดเลือกเป็นอย่างไรไม่รู้ แต่ ผลสุดท้ายออกมาได้เป็น [Asha Platform](https://www.blognone.com/node/44095) (จากบริษัท Smarterphone ที่ซื้อมาในปี 2012) และ Nokia X มือถือพลัง Android
สถานการณ์ช่วงปี 2013-2014 ของโนเกียจึงวนกลับมาคล้ายกับช่วงปี 2008-2009 คือโนเกียมีระบบปฏิบัติการในสังกัดเยอะมากจนน่าตกใจ (ที่แย่คือไม่สมบูรณ์เลยสักรุ่น) ถึง 5 รุ่นได้แก่
- สมาร์ทโฟนตลาดกลาง-บน: Windows Phone
- สมาร์ทโฟนตลาดกลาง-ล่าง: Nokia X/Android
- สมาร์ทโฟนตลาดล่าง (จอสัมผัส): Asha Platform
- สมาร์ทโฟนตลาดล่าง (ปุ่มกด): Asha S40
- ฟีเจอร์โฟน: S30+
ลองคิดดูนะครับว่าทรัพยากรที่ต้องถูกแบ่งแยกไปยังระบบปฏิบัติการแต่ละตัว จะกระจัดกระจายแค่ไหน และโนเกียลงทุนซ้ำซ้อนมากเพียงใด
### 2014: ปิดตำนานมือถือโนเกีย, มุ่งสู่โนเกียยุคใหม่
โนเกียที่สับสนวุ่นวายกับระบบปฏิบัติการ 5 ตัว ดูยังไงก็คงไปไม่รอด แต่สุดท้าย ช่วงปลายปี 2013 โนเกีย (ในฐานะบริษัท) ก็เอาตัวรอด (แบบเสียศักดิ์ศรี) โดยการขายกิจการมือถือและบริการให้กับไมโครซอฟท์
ไมโครซอฟท์ (ที่กำลังดิ้นรนปรับตัวเต็มที่เช่นกัน) ตัดสินใจทิ้ง Nokia X, Asha, S40, ฟีเจอร์โฟน เพื่อมุ่งเน้นไปที่ Windows Phone เพียงอย่างเดียว ถือว่าเป็นการตัดสินใจที่เหมาะสมกับยุทธศาสตร์ของไมโครซอฟท์เอง ส่วนอนาคตจะเป็นอย่างไรต่อไปนั้นก็ขึ้นกับฝีมือของ Satya Nadella แล้ว
ส่วนโนเกีย (ในฐานะบริษัท) ยังมีชีวิตอยู่แม้จะขายกิจการมือถือออกไปแล้ว บริษัทยังไปได้ดีในธุรกิจอุปกรณ์เครือข่าย NSN ที่ลงทุนทิ้งเอาไว้ตั้งนานแล้ว (แถมลุ่มๆ ดอนๆ อยู่พักใหญ่) แต่สุดท้ายแล้วมันก็พิสูจน์ตัวเองว่าในยามที่โนเกียบริษัทหลักกำลังย่ำแย่ ก็ยังเหลือ NSN ที่พยุงชีวิตให้อยู่รอดต่อไปได้ในฐานะ "โนเกียรัฐอิสระ" และก้าวเดินต่อไปภายใต้การดูแลของ [Rajeev Suri ซีอีโอคนใหม่ที่มาจากธุรกิจฝั่ง NSN](https://www.blognone.com/node/55773)
ผมคิดว่าถ้าเราย้อนดูประวัติศาสตร์อันยาวนานนับร้อยปีของโนเกียแล้ว บริษัทฝ่าฟันคลื่นลมมามาก ทำธุรกิจมาหลายแขนง ผ่านการเปลี่ยนแปลง ขายทิ้งและเริ่มกิจการใหม่มาโดยตลอด (น่าจะเป็นบริษัท "แมวเก้าชีวิต" อีกรายหนึ่ง) ธุรกิจโทรศัพท์ที่สร้างชื่อให้โนเกียมีอายุแค่ประมาณ 30 ปี ถือเป็นส่วนหนึ่งของประวัติศาสตร์บริษัท แต่ไม่ใช่ทั้งหมด ในภาพรวมแล้วก็น่าดีใจแทนโนเกียที่สามารถเอาตัวรอดต่อไปได้ แม้จะต้องทิ้งธุรกิจโทรศัพท์ไปอย่างน่าเสียดาย (เป็นกรณีศึกษาที่ดีของการกระจายธุรกิจให้หลากหลายยามรุ่งเรือง เพื่อช่วยพยุงบริษัทต่อไปได้แม้ธุรกิจหลักจะมีปัญหาในอนาคต)
### บทวิเคราะห์: เดินหมากพลาดตาเดียว พ่ายแพ้ทั้งกระดาน
ทั้งหมดทั้งปวงที่เขียนมาตั้งยาว ถือเป็นกรณีศึกษาเชิงธุรกิจที่ดีมากๆ ว่าความล้มเหลวของโนเกีย เกิดจากความผิดพลาดเพียงเรื่องเดียว แต่ดันไปพลาดในจุดสำคัญที่ส่งผลให้พ่ายแพ้ทั้งกระบวนเกม
ถ้าเรามองอุตสาหกรรมโทรศัพท์มือถือตลอด 10 ปีที่ผ่านมา การเปลี่ยนแปลงที่สำคัญคือโทรศัพท์เปลี่ยนแปลงตัวเองจาก "อุปกรณ์สื่อสารด้วยเสียงแบบพกพา" มาเป็น "คอมพิวเตอร์พกพา" ในยุคของสมาร์ทโฟน
โนเกียที่เป็นเจ้าโลกของ "อุปกรณ์สื่อสาร" ด้วยเสียง ไม่สามารถเปลี่ยนผ่านไปสู่การเป็น "คอมพิวเตอร์พกพา" ได้ เนื่องจากรากเหง้าของธุรกิจที่แตกต่างกัน
บริษัทมือถือในยุค 90s โดดเด่นในแง่วิศวกรรมฮาร์ดแวร์ ด้านการสื่อสารให้รับสัญญาณได้ดี สนทนาแล้วเสียงคมชัด แบตเตอรี่อึดทน แต่กลับไม่เชี่ยวชาญด้านซอฟต์แวร์ ส่วนติดต่อผู้ใช้ ระบบปฏิบัติการ แอพ ฯลฯ มากนัก
พอมาถึงทศวรรษ 2000s ที่โลกหมุนสู่ "สมาร์ทโฟน" บริษัทมือถือในอดีตจึงล้มหายตายจาก หรือไม่ก็ต้องถอนตัวจากวงการกันถ้วนหน้า ให้เอ่ยชื่อก็อย่างเช่น Siemens, Palm, Ericsson, Motorola และล่าสุดคือ "โนเกีย" (รายที่เหลืออยู่คือ HTC กับ BlackBerry ที่กำลังลำบากอยู่ในเวลานี้)
ในขณะเดียวกัน เราเห็นบริษัทสายไอทีบุกเข้าโลกอุปกรณ์พกพา ที่ชัดเจนคือแอปเปิลกับกูเกิล (ซึ่งทำได้ดีทั้งคู่) ส่วนบริษัทฮาร์ดแวร์สายไอทีก็ปรับตัวเข้าสู่โลกของโทรศัพท์เช่นกัน (Samsung, LG, Lenovo, Huawei)
โนเกียเห็นอนาคตก่อนใครว่าต้องปรับตัว ต้องหา "อะไรบางอย่าง" มาทดแทน Symbian ที่เริ่มถึงขีดจำกัด แต่น่าเสียดายว่าวัฒนธรรมองค์กร และมุมมองของผู้บริหารโนเกียในยุคนั้น กลับไม่สามารถนำพาบริษัทให้เดินตามวิสัยทัศน์ดังกล่าวได้
ถ้าโนเกียสามารถเปลี่ยนผ่านจาก Symbian เป็น Maemo/MeeGo ได้ในช่วงปี 2006-2008 สถานการณ์ในเวลานี้อาจไม่เกิดขึ้น เมื่อโนเกียทำไม่สำเร็จเพราะเกิดปัญหาภายในหลายประการ (ดังที่กล่าวไปแล้ว) การเปลี่ยนใจมาเลือก Windows Phone ในปี 2011 จึงถือเป็น "ความพยายามแก้ปัญหา" ที่อาจมาช้าเกินไป (ไม่ว่า Elop จะเลือกอะไร ตัวเลือกที่มีอยู่ในตอนนั้นก็ไม่เลิศเลอเพอร์เฟคต์สักอย่าง)
แถมโนเกียที่พยายามกู้ชีพกลับมาภายใต้ยุค Elop ก็มาเจอ "เคราะห์ซ้ำกรรมซัด" ตรงที่ไมโครซอฟท์ไม่สามารถนำพา Windows Phone ให้โดดเด่นได้ตามที่สัญญาไว้ การเจอปัญหาใหญ่ๆ สองครั้งในจุดสำคัญที่สุด (ในที่นี้คือระบบปฏิบัติการ/แพลตฟอร์ม) จึงทำให้โนเกียหมดอนาคตในฐานะบริษัทมือถืออิสระที่เคยใหญ่อันดับหนึ่งของโลก ไปอย่างน่าเสียดาย
ถือเป็นการปิดตำนานโนเกีย จากการเดินหมากพลาดตาเดียว (เปลี่ยนผ่านจาก Symbian ไม่สำเร็จ) ต้องตกอยู่ในสถานการณ์ลำบากอยู่หลายปี จนพ่ายแพ้ทั้งกระดาน ต้องขายกิจการมือถือทิ้งในท้ายที่สุดครับ |