การปะทะกันทางข้อมูลข่าวสารระหว่างไทย-กัมพูชาในปี พ.ศ. 2568 ได้เผยให้เห็นรูปแบบใหม่ของสงครามที่มิได้ใช้กำลังทหาร หากแต่ใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) สร้างข่าวปลอมเพื่อบ่อนทำลายความเชื่อมั่นและสร้างความเกลียดชัง
ปรากฏการณ์นี้ถือเป็นกรณีศึกษาสำคัญในวงวิชาการด้านสื่อสารมวลชน, เทคโนโลยีดิจิทัล และความมั่นคงทางข้อมูล โดยบทความนี้วิเคราะห์บทบาทของ Generative AI ในการปลุกปั่นข่าวเท็จ บทเรียนจากกรณีไทย-กัมพูชา เปรียบเทียบกับกรณีรัสเซีย-ยูเครน พร้อมเสนอแนวทางรับมือที่ยึดหลัก "ความจริง" และพัฒนา Media Literacy ควบคู่กับการใช้เทคโนโลยีตรวจสอบข่าวปลอมอย่างเป็นระบบ
1. บทนำ
ในยุคสมัยที่ข่าวสารสามารถแพร่กระจายได้ในเวลาไม่กี่วินาที การบิดเบือนข้อมูลด้วยเทคโนโลยีปัญญาประดิษฐ์กำลังกลายเป็นเครื่องมืออันทรงพลังในการทำสงครามข่าวสาร (Information Warfare) เหตุการณ์ในเดือนกรกฎาคม 2568 ซึ่งเกิดการปล่อยข่าวปลอมระหว่างกัมพูชาและไทย โดยเฉพาะจากฝั่งกัมพูชา ได้สร้างความตึงเครียดขึ้นอย่างรวดเร็วและกลายเป็นต้นแบบของ "AI Propaganda War" ที่ไม่เคยปรากฏในระดับภูมิภาคเอเชียตะวันออกเฉียงใต้มาก่อน
2. AI กับการสร้างข่าวปลอม: ภัยเงียบที่ขยายตัว
AI โดยเฉพาะในรูปแบบ Generative AI เช่น ChatGPT, Copilot, Gemini ได้ถูกนำมาใช้ในการผลิตเนื้อหาทั้งข้อความ ภาพ และวิดีโอ ที่มีความสมจริงสูง เมื่อข้อมูลปลอมถูกสร้างซ้ำในปริมาณมหาศาลจนกลายเป็น "consensus effect" ทำให้แม้แต่ AI เองก็อาจวิเคราะห์ผิดพลาดและเข้าใจว่าเนื้อหานั้นเป็นความจริง
ปฐม อินทโรดม กรรมการผู้จัดการ บริษัท เอสวีโอเอ จำกัด (มหาชน) และกรรมการสภาดิจิทัล (DCT) ชี้ให้เห็นถึงความเสี่ยงที่ AI อาจถูก “สอนผิด” โดยข้อมูลปลอมจำนวนมาก และเสนอว่าแนวคิด Blockchain Provenance อาจเข้ามามีบทบาทในอนาคต เพื่อรับรองที่มาของข้อมูลอย่างโปร่งใสและตรวจสอบได้
3. กรณีศึกษา: ข่าวปลอมจากฝั่งกัมพูชา
ในเดือนกรกฎาคม 2568 สื่อโซเชียลมีเดียของกัมพูชาได้เผยแพร่ข่าวปลอมในระดับที่ไม่เคยเกิดขึ้นมาก่อน เช่น ภาพโดรนไทยบินในกัมพูชา ภาพสมเด็จฮุนเซนที่ผลิตโดย AI หรือแม้กระทั่งภาพผู้สื่อข่าวปลอมรายงานเหตุการณ์ที่ไม่เคยเกิดขึ้นจริง
เป้าหมายของการกระทำนี้ดูจะเน้นการหล่อหลอมประชาชนภายในประเทศให้มีทัศนคติลบต่อประเทศไทย โดยหวังผลด้านจิตวิทยามากกว่าความแม่นยำของข้อมูล โดยมีการระบุว่า รัฐบาลกัมพูชา ใช้สื่อของรัฐในการเผยแพร่ข้อมูลปลอมอย่างเป็นทางการ ซึ่งถือเป็นเหตุการณ์แรกที่ “ข่าวปลอมจาก AI” ถูกใช้โดยรัฐต่อรัฐ
4. บทเรียนจากรัสเซีย-ยูเครน: เปรียบเทียบใน 4 มิติ
ประเด็น ไทย-กัมพูชา รัสเซีย-ยูเครน
1. ระดับความรุนแรง ระดับภูมิภาค ระดับโลก
2. เป้าหมายข่าวปลอม ปลุกปั่นภายในประเทศ สร้างการสนับสนุนระดับนานาชาติ
3. คุณภาพข่าวปลอม ต่ำ เห็นได้ชัด สูง สมจริงมาก
4. บทบาทของรัฐ สื่อรัฐเผยแพร่ข่าวปลอม ส่วนใหญ่จำกัดในโซเชียลมีเดีย
5. แนวทางการรับมือ: ยึดความจริงและพัฒนา Media Literacy
ปฐม อินทโรดม แนะนำว่าแนวทางที่ยั่งยืนที่สุดสำหรับไทย คือ ตอบโต้ด้วยความจริง พร้อมทั้งส่งเสริมการแปลข้อมูลที่ถูกต้องเป็นภาษาต่างๆ เพื่อเผยแพร่ไปยังประชาคมโลก ไม่ควรตอบโต้กลับด้วยข่าวปลอม เนื่องจากจะทำลายความน่าเชื่อถือของประเทศในระยะยาว
จุดแข็งของไทยคือระดับ Media Literacy ของประชาชนที่อยู่ในระดับดี แต่จำเป็นต้องพัฒนาให้สูงขึ้นอีก โดยควรใช้เครื่องมือทันสมัย เช่น:
ระบบ Watermark บนภาพ/วิดีโอ
ระบบ Blockchain Provenance
ระบบ Fact-checking อัตโนมัติ
การสร้างฐานข้อมูลข่าวปลอมเพื่อการศึกษา
6. ข้อเสนอเชิงนโยบาย
รัฐบาลไทย ควรลงทุนในระบบตรวจสอบข่าวปลอมแบบอัตโนมัติ และจัดตั้งหน่วยงานเฝ้าระวังข่าวปลอมในระดับนานาชาติ
ภาคการศึกษา ควรบรรจุ Media Literacy ในหลักสูตรทุกระดับ
องค์กรสื่อ ต้องร่วมมือกันสร้างระบบตรวจสอบข้ามพรมแดน โดยเฉพาะการสื่อสารระหว่างไทย-กัมพูชา
ภาคประชาชน ต้องได้รับการสนับสนุนให้เข้าถึงข้อมูลที่ตรวจสอบแล้ว และฝึกการคิดเชิงวิเคราะห์ผ่านการใช้เทคโนโลยี
7. สรุป
สงครามข่าวปลอมในยุค AI ระหว่างไทย-กัมพูชาเป็นตัวอย่างชัดเจนว่า "ข้อมูล" คืออาวุธใหม่ในศตวรรษที่ 21 การรับมือกับภัยคุกคามรูปแบบนี้ไม่สามารถใช้เพียงมาตรการทางกฎหมายหรือทางเทคนิคเพียงอย่างเดียว แต่ต้องอาศัย ความร่วมมือระดับโลก การพัฒนา ทักษะรู้เท่าทันสื่อ และ การยึดมั่นในความจริง เป็นหัวใจหลักในการสู้ภัยข่าวปลอมจาก AI

ไม่มีความคิดเห็น:
แสดงความคิดเห็น