ท่ามกลางกระแสการปฏิวัติอุตสาหกรรมครั้งที่ 4 ที่เทคโนโลยีปัญญาประดิษฐ์ (AI) เข้ามามีบทบาทลึกซึ้งต่อเศรษฐกิจ สังคม และการบริหารองค์กร นักวิชาการด้านพุทธปรัชญาและเทคโนโลยีเสนอแนวคิดใหม่ในการกำกับดูแล AI โดยประยุกต์ “หลักมาร” ในพระไตรปิฎกเป็นกรอบวิเคราะห์ความเสี่ยงเชิงจริยธรรม พร้อมชี้ว่าโลกกำลังเผชิญ “วิกฤตการจัดตำแหน่งคุณค่า” (Alignment Predicament) ระหว่างมนุษย์กับอัลกอริทึม
รายงานวิเคราะห์ระบุว่า แม้ AI จะช่วยเพิ่มประสิทธิภาพการตัดสินใจ แต่กลับมีองค์กรเพียงร้อยละ 20 เท่านั้นที่มีกรอบจริยธรรม AI อย่างชัดเจน ขณะที่ปัญหาอคติของข้อมูล ความไม่โปร่งใส และความเสี่ยงเชิงโครงสร้างยังคงทวีความซับซ้อน
“เบญจมาร” กับความเสี่ยง AI
นักวิชาการได้ถอดบทเรียนจาก “มาร 5 ประการ” หรือเบญจมารในพระไตรปิฎก มาเทียบเคียงกับโครงสร้างเทคโนโลยีสมัยใหม่ พบว่าสามารถอธิบายความเสี่ยงของ AI ได้อย่างเป็นระบบ ได้แก่
- กิเลสมาร สะท้อนอคติในอัลกอริทึม (Algorithmic Bias) ที่เกิดจากข้อมูลมนุษย์ เช่น การเลือกปฏิบัติในการจ้างงานหรือสินเชื่อ
- ขันธมาร เปรียบกับข้อจำกัดเชิงโครงสร้าง เช่น ระบบ “กล่องดำ” ที่ขาดความโปร่งใส
- อภิสังขารมาร ชี้ถึงปัญหาความรับผิดชอบ เมื่อ AI ตัดสินใจแทนมนุษย์แต่ไม่สามารถระบุผู้รับผิดชอบได้
- เทวปุตตมาร สะท้อนอำนาจของแพลตฟอร์มดิจิทัลและเศรษฐกิจความสนใจ ที่ชักนำพฤติกรรมมนุษย์
- มัจจุมาร เตือนถึงความเสี่ยงระดับอัตถิภาวะ ทั้งการสูญเสียงานและภัยจาก AI ขั้นสูง
ผู้เชี่ยวชาญระบุว่า การมอง AI ผ่านเลนส์ “มาร” ทำให้เห็นว่าปัญหาไม่ได้อยู่ที่เทคโนโลยีเพียงอย่างเดียว แต่เกิดจากการผสมกันของโครงสร้างระบบและกิเลสของมนุษย์
อริยมรรค 8 กับ “วิศวกรรมความน่าเชื่อถือ”
ข้อเสนอสำคัญคือการนำ “อริยมรรคมีองค์ 8” มาเป็นกรอบสร้าง “Trustworthy AI” หรือ AI ที่น่าเชื่อถือ โดยเน้นทั้งมิติเทคนิคและจริยธรรม เช่น
- การมี “สัมมาทิฏฐิ” เพื่อเข้าใจผลกระทบของ AI ต่อสังคม
- “สัมมาสังกัปปะ” ในการออกแบบด้วยเจตนาที่ไม่เอาเปรียบ
- “สัมมาวาจา” เพื่อรับมือข่าวปลอมและสื่อสังเคราะห์
- “สัมมากัมมันตะ” ที่ฝังระบบตรวจสอบอคติ
- ไปจนถึง “สัมมาสติ” และ “สัมมาสมาธิ” เพื่อไม่ให้มนุษย์ถูกเทคโนโลยีครอบงำ
แนวคิดดังกล่าวถูกเรียกว่า “วิศวกรรมความน่าเชื่อถือ” (Trust Engineering) ซึ่งมุ่งสร้างสมดุลระหว่างนวัตกรรมกับคุณธรรม
ผู้นำยุคใหม่ต้อง “ไม่ประมาท” และคิดเป็นระบบ
นักวิเคราะห์ยังชี้ว่า ผู้นำองค์กรจำเป็นต้องใช้หลัก “อัปปมาทธรรม” เป็นฐานการบริหารความเสี่ยง และ “โยนิโสมนสิการ” เพื่อวิเคราะห์ข้อมูลจาก AI อย่างมีวิจารณญาณ ไม่ตกอยู่ในภาวะ “เชื่อเครื่องจักรโดยไม่ตั้งคำถาม”
พร้อมกันนี้ การบริหารทรัพยากรมนุษย์ต้องยึดหลัก “พรหมวิหาร 4” เพื่อรองรับผลกระทบจากการแทนที่แรงงาน และลดความขัดแย้งภายในองค์กร
ไทยกับโจทย์วัฒนธรรม AI
ในบริบทสังคมไทย งานวิจัยพบว่า AI มีแนวโน้มหลีกเลี่ยงเนื้อหาที่อ่อนไหวทางศาสนาและสังคม เพื่อรักษาความสามัคคี สะท้อนให้เห็นว่าการพัฒนา AI จำเป็นต้องสอดคล้องกับบริบทวัฒนธรรม ไม่ใช่ใช้มาตรฐานสากลเพียงอย่างเดียว
สู่ “ระบบนิเวศจริยธรรมโลก”
บทสรุประบุว่า การกำกับดูแล AI ไม่อาจพึ่งกฎหมายเพียงอย่างเดียว แต่ต้องอาศัย “ภูมิปัญญาเชิงจิตวิญญาณ” ควบคู่เทคโนโลยี โดยเฉพาะหลักพุทธที่มีอายุกว่า 2,500 ปี
“การบริหาร AI ไม่ใช่การเอาชนะเครื่องจักร แต่คือการเอาชนะกิเลสในตัวมนุษย์เอง” รายงานระบุ พร้อมชี้ว่า หากสามารถผสานเทคโนโลยีกับคุณธรรมได้อย่างสมดุล AI จะไม่ใช่ภัยคุกคาม แต่จะกลายเป็น “กัลยาณมิตร” ของมนุษยชาติในอนาคต

ไม่มีความคิดเห็น:
แสดงความคิดเห็น