AI แอปเปิล iPhone Siri ฐานข้อมูล สมาร์ทโฟน
โครงข่ายประสาทเทียม (artificial neural network)
ผู้วิเคราะห์ฐานข้อมูล
คู่สนทนาแบบ Chatbot
ปรัชญา
นักปรัชญาอย่าง มาร์ติน ไฮเด็กเกอร์ (Martin Heidegger) งานเขียนเรื่อง ‘Question Concerning Technology’ เมื่อปี 1954 กับวิธีคิดที่ว่าโลกนี้กลายเป็นวัตถุและแหล่งทรัพยากรพร้อมใช้ เพราะว่าความรู้แบบวิทยาศาสตร์เป็นการศึกษาโลกในฐานะวัตถุ
เป็นจุดตั้งต้นสำหรับการศึกษาปรัชญาเทคโนโลยี เพราะกลัวว่ามนุษย์จะถูกกำหนดโดยเทคโนโลยี
ศักยภาพ การประมวลผลข้อมูล
เมื่อพูดถึงประเด็นปรัชญาในการใช้ AI ในสังคม แนวคิดของนักปรัชญาที่น่าสนใจคือแนวคิดของ ปีเตอร์-พอล เฟอร์เบค (Peter-Paul Verbeek) นักปรัชญาที่เป็นคณะกรรมการด้านจริยธรรมในงานประชุมด้านจริยธรรมหุ่นยนต์ของยูเนสโกเมื่อปลายปีที่ผ่านมา
แนวคิดของเฟอร์เบคมีความน่าสนใจก็คือ เทคโนโลยีเป็นตัวกลาง (Mediation) ที่มีส่วนในการกำหนดพฤติกรรมและกิจกรรมต่างๆ ของเรา เฟอร์เบคเป็นหนึ่งในกลุ่มนักปรัชญาเทคโนโลยีที่เรียกว่า ‘หลังปรากฏการณ์วิทยา’ (Postphenomenology) ที่มีแนวคิดว่า เทคโนโลยีแยกไม่ออกจากตัวเราและการกระทำของเรา ยิ่งไปกว่านั้นแนวคิดของเฟอร์เบคเสนอว่าเทคโนโลยียังหลอมรวม (Merge) ตัวเราเข้ากับสิ่งแวดล้อมของเทคโนโลยีด้วย เช่น ระบบเรียกแพทย์อัตโนมัติที่เชื่อมกับอุปกรณ์ที่สวมใส่อยู่ในผู้สูงอายุ หรือเทคโนโลยี AR (Augmented Reality) ซึ่งการแสดงผลของเทคโนโลยีกับโลกกายภาพเป็นหนึ่งเดียวกัน
แนวคิดของเฟอร์เบคพัฒนามาจากแนวคิดแบบไฮเด็กเกอร์ที่ว่า เทคโนโลยีกำหนดความเข้าใจที่เรามีต่อโลก แต่แง่มุมที่เฟอร์เบคเสนอก็คือ ทุกกิจกรรมของเราสัมพันธ์กับการใช้เทคโนโลยีแบบใดแบบหนึ่งเสมอ
อย่างที่พูดไว้ข้างต้นว่าเทคโนโลยีแท้จริงแล้วอยู่ในระบบและบริบทการใช้ในสังคมที่แวดล้อมมันอยู่ การมี AI จึงไม่ใช่เครื่องมือของใครคนใดคนหนึ่ง แต่กำลังจะเข้ามามีบทบาทกับกิจกรรมโดยรวมทั้งหมดของสังคม ในงานประชุมของยูเนสโกเมื่อปลายปีที่ผ่านมาเฟอร์เบคจึงเสนอแนวทางในการออกนโยบายเกี่ยวกับ AI ว่ามีแง่มุมทางจริยธรรมก็คือ การออกแบบเทคโนโลยีในอนาคตหลีกเลี่ยงแง่มุมทางจริยธรรมไม่ได้ เพราะที่สุดแล้ว เทคโนโลยีจะสร้างผลกระทบกับสังคมโดยรวม
AI จะอยู่ในสังคมอย่างไร
จากที่กล่าวมาข้างต้นจะเห็นว่า AI ยังนับเป็นเทคโนโลยีประเภทหนึ่ง และเทคโนโลยีเป็นสิ่งที่แยกไม่ออกจากสังคมเทคโนโลยีซึ่งก็คือระบบของการทำงานที่แวดล้อมมันอยู่ ดังนั้นผลกระทบจากการใช้ AI ก็คือผลกระทบที่จะเกิดขึ้นกับสังคมโดยรวม ถ้าหากว่า AI ที่ฉลาดมากๆแปลว่ามันจะฉลาดกว่าสังคมโดยรวมทั้งหมดรึเปล่า? ที่จริงมันไม่ได้เป็นแบบนั้น ลูชาโน ฟลอริดิ (Luciano Floridi) นักปรัชญาสารสนเทศจากอ็อกซ์ฟอร์ดอธิบายว่า ความฉลาดของ AI จำกัดอยู่ที่ระบบที่แวดล้อมมันอยู่ และ AI ที่จะเข้ามามีบทบาทในอนาคตอันใกล้เป็น AI แบบแคบซึ่งทำงานได้เฉพาะหน้าที่แบบใดแบบหนึ่งเท่านั้น
ปัญหาเรื่องจริยธรรมหุ่นยนต์ที่สำคัญคือ ความรับผิดชอบของการกระทำที่เกิดจากหุ่นยนต์ (รวมถึง AI) จะเป็นอย่างไร ถ้าหากระบบที่ทำงานและตัดสินใจด้วยตัวเองเกิดความผิดพลาด ถ้าหากรถไร้คนขับชนคนบนท้องถนน ใครจะเป็นผู้รับผิดชอบ ซึ่งประเด็นนี้มีความยุ่งยากกว่ากรณีรถยนต์ที่มนุษย์ควบคุม เพราะความรับผิดชอบเป็นของคนที่ควบคุมรถ (ซึ่งรายละเอียดจะยังไม่พูดถึงในที่นี้) และอีกปัญหาหนึ่งคือ ความสัมพันธ์ทางศีลธรรมระหว่างมนุษย์กับหุ่นยนต์จะมีลักษณะอย่างไร ความสัมพันธ์ระหว่างมนุษย์กับหุ่นยนต์จะเหมือนหรือแตกต่างกับความสัมพันธ์ระหว่างมนุษย์กับมนุษย์ด้วยกัน
ในงานปรัชญาเรื่อง Can we trust robot? (เราจะไว้วางใจหุ่นยนต์ได้หรือไม่?) ของ มาร์ค คูเคอร์เบิร์ก (Mark Coekelbergh) อธิบายถึงปัญหาความไว้วางใจว่า ความไว้วางใจที่เรามีต่อหุ่นยนต์จะมีสถานภาพทางศีลธรรม เหมือนกับความไว้วางใจที่เรามีต่อมนุษย์ได้หรือไม่?
คูเคอร์เบิร์กให้คำตอบที่น่าสนใจว่า เราได้ให้ความไว้วางใจกับเทคโนโลยีหุ่นยนต์ไปแล้วตั้งแต่ต้น เพราะว่าเราอยู่ในสังคมที่เราพัฒนาหุ่นยนต์ขึ้นมาในฐานะเทคโนโลยีรูปแบบหนึ่ง ความคิดนี้สอดคล้องกับแนวคิดแบบหลังปรากฏการณ์วิทยา แต่ข้อเสนอของคูเคอร์เบิร์กไม่ได้บอกให้ว่า เราไว้วางใจหุ่นยนต์โดยสนิทใจ เพียงแต่หุ่นยนต์กลายเป็นสิ่งที่อยู่ในความสัมพันธ์ของความไว้วางใจ
หมายความว่า ความไว้วางใจที่มีต่อหุ่นยนต์อาจมากหรือน้อย ขึ้นอยู่กับวัฒนธรรมซึ่งมีปัจจัยให้เกิดความไว้วางใจเทคโนโลยีหุ่นยนต์แตกต่างกัน เช่น บทบาทของมนุษย์-หุ่นยนต์ในสังคม การสื่อสาร-การใช้ภาษาระหว่างมนุษย์และหุ่นยนต์ หรืออิสรภาพ-การกระทำของหุ่นยนต์อยู่ภายใต้การควบคุมของมนุษย์เพียงใด
แนวคิดของคูเคอร์เบิร์กแสดงให้เห็นว่า ความไว้วางใจที่เรามีต่อเทคโนโลยีเป็นส่วนหนึ่งของความสัมพันธ์ทางศีลธรรม ไม่ต่างจากความไว้วางใจที่เรามีต่อมนุษย์ด้วยกัน เพราะว่าเราสามารถประเมินปัจจัยต่างๆ เพื่อให้เราตัดสินใจว่า จะไว้วางใจเทคโนโลยีได้เพียงใด ไม่ต่างจากการประเมินว่าเราจะเชื่อใจมนุษย์ด้วยกันได้มากน้อยเพียงใด
ท้ายที่สุดแล้วเมื่อ AI เข้ามาเป็นส่วนหนึ่งของสังคม ก็เท่ากับว่ามันกำลังเข้ามาอยู่ในความสัมพันธ์ทางศีลธรรม ซึ่งเป็นการตัดสินใจบนคุณค่าหรือบรรทัดฐานบางอย่าง ว่าเราจะให้เทคโนโลยีนี้อยู่ร่วมกับเราในรูปแบบใด และที่สำคัญก็คือ ตราบใดที่เราเป็นส่วนหนึ่งของสังคมเทคโนโลยี เราในฐานะสมาชิกของสังคมจึงเลี่ยงไม่ได้ที่จะต้องประเมินและกำหนดรูปแบบของมัน
https://themomentum.co/human-vs-ai-intelligence-3/
https://www.salika.co/2018/10/16/siri-artificial-intelligence-thai-owned/
เพิ่งทราบว่าโปรแกรม Siri ในiPhone ที่ผมใช้พูดสั่งการต่างๆได้โดยไม่ต้องแตะหน้าจอเลยนั้น
เป็นฝีมือคนไทย !
คือ รศ. ดร.วีระ บุญจริง แห่งสาขาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ สถาบันเทคโนโลยีพระจอมเกล้าเจ้าคุณทหารลาดกระบัง ทำในสมัยที่ยังเป็นนักศึกษาปริญญาเอกที่อเมริกา ทำวิจัยร่วมกับอาจารย์ที่ปรึกษา
ที่รับทราบเรื่องนี้เพราะข่าวที่ท่านอาจารย์และอาจารย์ที่ปรึกษาได้ชนะคดีกับบริษัท แอปเปิ้ล ได้รับเงินชดเชยมา 800 ล้านบาท
เป็นฝีมือคนไทย !
คือ รศ. ดร.วีระ บุญจริง แห่งสาขาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ สถาบันเทคโนโลยีพระจอมเกล้าเจ้าคุณทหารลาดกระบัง ทำในสมัยที่ยังเป็นนักศึกษาปริญญาเอกที่อเมริกา ทำวิจัยร่วมกับอาจารย์ที่ปรึกษา
ที่รับทราบเรื่องนี้เพราะข่าวที่ท่านอาจารย์และอาจารย์ที่ปรึกษาได้ชนะคดีกับบริษัท แอปเปิ้ล ได้รับเงินชดเชยมา 800 ล้านบาท
ขอแสดงความยินดีและความภาคภูมิใจที่คนไทย มีคนเก่งระดับโลก
ถ้าผมย้อนหลังเวลาไปได้ผมจะขอ กลับอายุไปเหลือ 20 ปี แล้วไปสมัครเรียนกับอาจารย์ครับ
ถ้าผมย้อนหลังเวลาไปได้ผมจะขอ กลับอายุไปเหลือ 20 ปี แล้วไปสมัครเรียนกับอาจารย์ครับ
ไม่มีความคิดเห็น:
แสดงความคิดเห็น