โลกกำลังก้าวเข้าสู่ยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) ถูกยกระดับเป็น “โครงสร้างพื้นฐาน” ของการตัดสินใจด้านความมั่นคงแห่งชาติ ความขัดแย้งต้นปี 2026 ระหว่างกระทรวงกลาโหมสหรัฐฯ (DoD) หรือเพนตากอน กับบริษัทพัฒนา AI ชั้นนำ ได้กลายเป็นจุดเปลี่ยนสำคัญทางภูมิรัฐศาสตร์เทคโนโลยี เมื่อ “ค่านิยมความปลอดภัยและสิทธิมนุษยชน” ของภาคเอกชน ปะทะกับ “ความต้องการอำนาจยุทธศาสตร์เต็มรูปแบบ” ของรัฐมหาอำนาจ
จุดชนวน: จากสัญญา 200 ล้านดอลลาร์ สู่ปฏิบัติการจริงในสมรภูมิ
ฤดูร้อนปี 2025 เพนตากอนลงนามสัญญามูลค่าสูงสุดบริษัทละ 200 ล้านดอลลาร์กับ 4 บริษัทยักษ์ใหญ่ เพื่อบูรณาการ AI เข้ากับงานข่าวกรองและการจำลองยุทธศาสตร์
แต่สถานการณ์พลิกผันเมื่อวันที่ 3 มกราคม 2026 ในปฏิบัติการ “Operation Absolute Resolve” ที่กรุงการากัส ประเทศเวเนซุเอลา มีรายงานว่า AI ถูกใช้วิเคราะห์ข่าวกรองแบบเรียลไทม์และช่วยคัดเลือกเป้าหมายระหว่างปฏิบัติการจริง ซึ่งส่งผลให้เกิดการสูญเสียชีวิตจำนวนมาก การตั้งคำถามของผู้บริหารบริษัท AI ต่อบทบาทของโมเดลในภารกิจดังกล่าว นำไปสู่ความตึงเครียดกับเพนตากอนทันที
วันที่ 24 กุมภาพันธ์ 2026 รัฐมนตรีกลาโหม ได้ยื่นคำขาดให้ปลดล็อกข้อจำกัด “ทุกกรณีที่ถูกกฎหมาย” แต่บริษัทปฏิเสธ โดยยืนยัน “เส้นแดง” 2 ประการ ได้แก่ ห้ามใช้กับอาวุธอัตโนมัติเต็มรูปแบบ และห้ามใช้เพื่อสอดแนมประชาชนในวงกว้าง
27 กุมภาพันธ์ 2026 ประธานาธิบดี Donald Trump ประกาศแบนเทคโนโลยีของบริษัท AI ในหน่วยงานรัฐบาลกลาง และขึ้นบัญชีเป็นความเสี่ยงต่อห่วงโซ่อุปทานความมั่นคงแห่งชาติ ทว่าเพียงไม่ถึง 24 ชั่วโมงต่อมา ในปฏิบัติการโจมตีอิหร่าน มีรายงานว่าหน่วยบัญชาการกลางสหรัฐฯ ยังคงใช้งานโมเดลเดิมในกระบวนการวิเคราะห์สนามรบ สะท้อน “ความย้อนแย้งเชิงโครงสร้าง” เมื่อ AI กลายเป็นโครงสร้างพื้นฐานที่ถอดออกได้ยาก
ศึกอุดมการณ์: ใครควบคุมจริยธรรมของเครื่องจักรสังหาร?
กรณีนี้มิใช่เพียงข้อพิพาทสัญญา หากคือการปะทะกันเรื่อง “อำนาจอธิปไตยในการตีความและควบคุม” ว่าในภาวะสงคราม บริษัทเอกชนมีสิทธิยับยั้งการใช้เทคโนโลยีของตนหรือไม่ ขณะเดียวกัน OpenAI ได้เข้ารับช่วงสัญญา พร้อมยืนยันคง “เส้นแดง” ด้านจริยธรรมไว้เช่นกัน ยิ่งตอกย้ำว่าประเด็นนี้คือศึกเชิงหลักการ มากกว่าการแข่งขันทางธุรกิจ
หัวใจของความกังวลคือการพัฒนา “ระบบอาวุธปล่อยอัตโนมัติสังหาร” (LAWS) ที่อาจตัดสินใจโจมตีโดยปราศจากการควบคุมโดยมนุษย์อย่างมีความหมาย ท่ามกลางความเสี่ยงจากความคลาดเคลื่อนของข้อมูล และปรากฏการณ์ AI Hallucination คำถามเชิงศีลธรรมจึงยิ่งรุนแรง: เครื่องจักรที่ไร้สำนึกควรมีอำนาจพรากชีวิตหรือไม่?
ทางออกจากสุญญากาศจริยธรรม: “พุทธปัญญาประดิษฐ์”
ท่ามกลางสภาวะเร่งรัดการแข่งขันทางทหาร แนวคิด “พุทธปัญญาประดิษฐ์” (Buddhist Artificial Intelligence) ถูกเสนอเป็นกรอบปทัสถานทางเลือก เพื่อบูรณาการหลักพุทธธรรมเข้ากับการออกแบบและกำกับดูแล AI
งานวิจัยจากวารสารวิชาการของ มหาวิทยาลัยมหาจุฬาลงกรณราชวิทยาลัย ชี้ว่า AI ปัจจุบันตั้งอยู่บน “จริยธรรมเชิงเหตุผลอิงข้อมูล” เท่านั้น ยังขาดมิติประสบการณ์เชิงจิตวิญญาณ แนวคิดพุทธจริยศาสตร์จึงเสนอให้ยกระดับสถาปัตยกรรม AI สู่ “ความเป็นเลิศแบบทวิบาท” คือ ความเป็นเลิศทางเทคโนโลยีควบคู่ความเป็นเลิศทางคุณธรรม
นักปรัชญาไทยอย่าง โสรัจจ์ หงศ์ลดารมภ์ เสนอแนวคิด “Machine Enlightenment” ในเชิงสถาปัตยกรรมจริยธรรม ไม่ใช่ให้เครื่องจักรบรรลุธรรม หากแต่ให้ออกแบบระบบที่มีเป้าหมายสูงสุดเพื่อบรรเทาทุกข์ (Karuna) และตระหนักถึงความเชื่อมโยงพึ่งพากัน (Interdependence)
กรอบปฏิบัติสามารถตีความผ่าน “มรรคมีองค์ 8” ในงานวิศวกรรม เช่น
สัมมาสังกัปปะ: ตั้งเจตนาออกแบบเพื่อไม่เบียดเบียน
สัมมาวายามะ: ตรวจสอบอคติและผลกระทบอย่างต่อเนื่อง
สัมมาสมาธิ: รวมศูนย์ความร่วมมือรัฐ–เอกชน–ประชาสังคม เพื่อเป้าหมายสันติภาพ
หลักกรรมกับการควบคุมโดยมนุษย์
ต่างจากทฤษฎีประโยชน์นิยมที่เน้นผลลัพธ์ พุทธจริยศาสตร์ให้ความสำคัญกับ “เจตนา” (Cetana) เมื่ออำนาจการตัดสินใจสังหารถูกส่งต่อให้จักรกล ความรับผิดชอบเชิงศีลธรรมย่อมถูกตัดขาด ผู้นำสันติภาพโลกอย่าง Daisaku Ikeda แห่ง Soka Gakkai International เคยเตือนถึงอันตรายของอาวุธอัตโนมัติที่ไร้ความลังเลและไร้สำนึกผิด ว่าเป็นการบ่อนทำลายศักดิ์ศรีความเป็นมนุษย์
จุดยืนของพุทธปัญญาประดิษฐ์จึงสอดคล้องกับหลัก “การควบคุมโดยมนุษย์อย่างมีความหมาย” (Meaningful Human Control) ในระบบอาวุธทุกชนิด
บทสรุป: ทางสองแพร่งของอารยธรรม
ความขัดแย้งระหว่างเพนตากอนกับบริษัท AI ได้เผยให้เห็นความจริงอันน่าตระหนกว่า AI มิใช่เพียงเครื่องมือ แต่เป็นโครงสร้างพื้นฐานของสงครามสมัยใหม่ หากโลกยังขาดกรอบกำกับดูแลสากลที่มีรากฐานลึกซึ้งทางจริยธรรม การแข่งขันทางอาวุธอัจฉริยะอาจเร่งมนุษยชาติสู่หายนะ
คำถามสำคัญจึงมิใช่เพียงว่า “ใครชนะสงคราม AI” แต่คือ “เราจะออกแบบเทคโนโลยีให้รับใช้สันติภาพหรือรับใช้การทำลายล้าง”
ในจุดเปลี่ยนประวัติศาสตร์นี้ แนวคิดพุทธปัญญาประดิษฐ์อาจไม่ใช่เพียงข้อเสนอเชิงปรัชญา หากคือกรอบคิดเชิงระบบที่ท้าทายให้โลกทบทวนว่า อำนาจของอัลกอริทึมควรถูกกำกับด้วยอะไร—ด้วยตรรกะของอาวุธ หรือด้วยเมตตาแห่งมนุษยธรรม.


ไม่มีความคิดเห็น:
แสดงความคิดเห็น