วันพุธที่ 1 กุมภาพันธ์ พ.ศ. 2566

จุฬาฯจัดเสวนา “AI – ChatGPT โอกาสและความท้าทายในอุตสาหกรรมสื่อและการศึกษา”



ภาควิชาวารสารสนเทศ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ขอเชิญผู้ที่สนใจร่วมอัพเดท #แนวโน้มการสื่อสารปี2023 ในงาน เสวนา “AI – ChatGPT โอกาสและความท้าทายในอุตสาหกรรมสื่อและการศึกษา”   วันศุกร์ที่ 10 กุมภาพันธ์ 2566 เวลา 9.00-12.00 น. ณ ห้องประชุม 1001 ชั้น 10 อาคารอาคารมงกุฎสมมติวงศ์ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย

8.45-9.00 น. ลงทะเบียน

9.00-10.00 น. ภาพรวมสถานการณ์ “AI – ChatGPT ทิศทางอุตสาหกรรมสื่อปี 2023” 

- คุณโชค วิศวโยธิน ผู้เชี่ยวชาญด้าน Digital Media:  “แนวโน้มของอุตสาหกรรรมสื่อและเนื้อหาที่จะเกิดขึ้นจากการจับคู่กับ เทคโนโลยี AI ในปี 2023” 

- คุณชัชวาล สังคีตตระการ วิศวกรวิจัยอาวุโส กลุ่มวิจัยปัญญาประดิษฐ์ NECTEC: “การพัฒนาในประเทศไทย AI – OpenAI ในประเทศไทย”

- คุณศรีสุดา วินิจสุวรรณ์ ผู้เชี่ยวชาญด้าน Digital Content & Storytelling: “Content Creator กับ Storytelling ยุค AI”

- ผศ.ดร.อลงกรณ์ ปริวุฒิพงศ์ หัวหน้าภาควิชาวารสารสนเทศ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย “สังคมและภาคการศึกษารู้เท่าทันการใช้เทคโนโลยี AI และ ChatGPT” 

10.00-11.30 น. ล้อมวงเสวนาและอภิปรายแลกเปลี่ยน “AI – ChatGPT โอกาสและความท้าทายในอุตสาหกรรมสื่อและการศึกษา” โดยวิทยากรทั้ง 4 ท่าน

11.30-12.00 น. ช่วงถาม-ตอบ

ลงทะเบียนเข้าร่วมเสวนา ฟรี! (40 คนเท่านั้น) 


เปิดเหตุผลที่ ChatGPT สั่นสะเทือนโลก AI  โดย เบิร์น เอลเลียต รองประธานฝ่ายวิจัย การ์ทเนอร์ อิงค์


ไม่นานมานี้ OpenAI บริษัทวิจัยและพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้เปิดตัว ChatGPT แพลตฟอร์มสนทนา AI รูปแบบใหม่อย่างเป็นทางการ จากข้อมูลของบริษัทฯ ระบุว่ารูปแบบการสนทนาที่จัดทำโดยแพลตฟอร์มนี้ทำให้ ChatGPT สามารถ "ตอบคำถามได้ครอบคลุม ยอมรับข้อผิดพลาด พร้อมนำเสนอข้อมูลใหม่ ๆ เพื่อปรับเปลี่ยนข้อมูลที่ไม่ถูกต้อง และปฏิเสธคำร้องขอที่ไม่สมเหตุสมผล"

นับตั้งแต่ ChatGPT เปิดให้บริการ บนโลกโซเชียลมีเดียก็มีการถกเถียงกันถึงความเป็นไปได้ในการนำนวัตกรรมนี้มาปรับใช้รวมถึงอันตรายที่อาจตามมา เนื่องจากความสามารถในการวิเคราะห์หาข้อผิดพลาดของโค้ด (Debug Code) ไปจนถึงศักยภาพในการเขียนเรียงความสำหรับนักศึกษา

เพราะอะไร ChatGPT ถึงได้รับความสนใจเป็นอย่างมาก?

ChatGPT เป็นปรากฎการณ์ Perfect Storm ที่เป็นการรวมกันของปัญญาประดิษฐ์ (AI) สองเรื่องใหญ่ ๆ ที่กำลังมาแรงในปัจจุบัน นั่นคือแชทบอท และ GPT3 ที่นำเสนอวิธีการสื่อสารโต้ตอบพร้อมสร้างเนื้อหาที่น่าสนใจ เสมือนการพูดคุยกับมนุษย์ได้อย่างน่าอัศจรรย์ ซึ่งเป็นผลมาจากการพัฒนาเทคโนโลยีที่เกี่ยวข้องสำคัญในช่วงห้าปีที่ผ่านมา

แชทบอทสร้างปฏิสัมพันธ์การสนทนาแบบ 'ชาญฉลาด' ขณะที่ GPT3 สร้างเอาต์พุทที่ดู 'เข้าใจ' คำถาม เนื้อหา และบริบทของการสนทนา ซึ่งเมื่อสองสิ่งนี้รวมกันได้สร้างผลกระทบใหญ่จนเกิดคำถามว่า 'เรากำลังสนทนากับมนุษย์หรือคอมพิวเตอร์กันแน่หรือว่าเป็นคอมพิวเตอร์ที่เหมือนกับมนุษย์' ซึ่งการโต้ตอบบางครั้งสร้างความขบขัน บ้างนำเสนอข้อมูลลึกซึ้งและบางทีก็เต็มไปด้วยสาระความรู้

แต่น่าเสียดายที่บางครั้ง ChatGPT ยังนำเสนอเนื้อหาได้ไม่ถูกต้องและไม่ได้อยู่บนพื้นฐานความเข้าใจหรือสติปัญญาของมนุษย์ ปัญหาอาจอยู่ที่คำว่า 'เข้าใจ' และ 'ความฉลาด' ซึ่งขึ้นอยู่กับการป้อนข้อมูลของมนุษย์ที่อาจมีความหมายคลุมเครือไม่ชัดเจน ดังนั้นเมื่อนำไปใช้กับอัลกอริธึม อาจส่งผลให้เกิดความเข้าใจผิดอย่างรุนแรง

ในมุมที่มีประโยชน์กว่าคือการได้เห็นว่าแชทบอทและโมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT ได้กลายเป็นเครื่องมือที่มีคุณค่าสำหรับการทำงานเฉพาะอย่างให้สำเร็จลุล่วงได้ ที่ไม่ใช่เพื่อความบันเทิง โดยความสำเร็จจะเกิดขึ้นหรือไม่นั้นขึ้นอยู่กับการนำเทคโนโลยีเหล่านี้ไปใช้ในแอปพลิเคชันที่เหมาะสมและมอบประโยชน์ต่อองค์กรอย่างแท้จริง

รูปแบบการใช้ ChatGPT ในองค์กร

สำหรับการใช้งานเทคโนโลยีแชทบอทหรือผู้ช่วยการสนทนาในเชิงธุรกิจระดับสูงนั้น จะใช้เพื่อจัดเตรียมรูปแบบการโต้ตอบด้วยการเรียบเรียงเนื้อหาจากแหล่งข้อมูล โดยแชทบอทจะมีรูปแบบการใช้งานมากมายอยู่ในระบบของตัวเองอยู่แล้ว ตั้งแต่การให้บริการลูกค้าไปจนถึงการช่วยเหลือทีมงานเทคนิคระบุปัญหาต่าง ๆ

สำหรับการใช้งาน ChatGPT ระดับสูงขึ้นไปอีก จะใช้เป็นแชทบอทที่มีความเฉพาะสำหรับ (แชท) โต้ตอบหรือ 'สนทนา' กับแหล่งข้อมูลของ GPT ในกรณีนี้แหล่งข้อมูล GPT จะได้รับการทดสอบโดเมนเฉพาะโดย OpenAI ซึ่งข้อมูลการทดสอบที่ใช้ในแบบจำลองนี้จะกำหนดวิธีการตอบคำถาม


อย่างไรก็ตามความสามารถของ GPT สำหรับสร้างฐานข้อมูลยังไม่สามารถคาดเดาได้ว่าข้อมูลที่ได้นั้นเป็นเท็จ นั่นหมายความว่าข้อมูลสามารถใช้ได้กับบางสถานการณ์ที่ข้อผิดพลาดสามารถยอมรับหรือแก้ไขให้ถูกต้องได้


มีรูปแบบการใช้งานโมเดลพื้นฐานมากมาย เช่น GPT ในโดเมนต่าง ๆ ประกอบด้วย Computer Vision, Software Engineering และงานวิจัยและพัฒนาทางวิทยาศาสตร์ (Scientific Research and Development) เช่น มีการใช้แบบจำลองพื้นฐานสร้างรูปภาพขึ้นจากข้อความ และตรวจสอบโค้ดจากภาษาธรรมชาติ (Natural Language) รวมถึงการทำ Smart Contracts หรือแม้แต่ในด้านการดูแลสุขภาพ (Healthcare) เช่น การสร้างยารักษาโรคใหม่ ๆ และการถอดรหัสลำดับจีโนมเพื่อจำแนกโรค


ข้อกังวลด้านจริยธรรม


โมเดลแบบจำลองพื้นฐาน AI เช่น GPT แสดงให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ด้าน AI จากประโยชน์เฉพาะตัวที่มอบให้ อาทิ การช่วยลดต้นทุนและระยะเวลาสร้างโมเดลแบบจำลองเฉพาะโดเมน


อย่างไรก็ตามสิ่งเหล่านี้ก่อให้เกิดความเสี่ยงและข้อกังวลด้านจริยธรรม ซึ่งประกอบด้วย


Complexity: โมเดลจำลองขนาดใหญ่ต้องใช้พารามิเตอร์นับพันล้านหรืออาจมากถึงล้านล้าน โดยโมเดลจำลองเหล่านี้มีขนาดใหญ่เกินไปที่องค์กรจะนำมาทดสอบใช้งาน เนื่องจากต้องใช้ทรัพยากรการประมวลผลที่จำเป็นจำนวนมาก อาจทำให้มีราคาแพงและไม่เป็นมิตรต่อสิ่งแวดล้อม


Concentration of power: โมเดลจำลองเหล่านี้ส่วนใหญ่สร้างขึ้นโดยบริษัทเทคโนโลยีที่ใหญ่ที่สุด ด้วยการลงทุนกับการวิจัยและพัฒนาจำนวนมหาศาล และมีความสามารถด้าน AI เป็นสำคัญ ซึ่งสิ่งเหล่านี้ส่งผลให้เกิดการกระจุกตัวของอำนาจในหน่วยงานขนาดใหญ่ไม่กี่แห่ง อาจสร้างความไม่สมดุลในอนาคต


Potential misuse: โมเดลจำลองพื้นฐานช่วยลดต้นทุนในการสร้างเนื้อหา ซึ่งหมายความว่าการสร้าง Deepfake ที่ใกล้เคียงกับต้นฉบับจะง่ายขึ้น รวมถึงทุก ๆ อย่าง ตั้งแต่การเลียนแบบเสียงและวิดีโอไปจนถึงผลงานศิลปะปลอม ตลอดจนการโจมตีแบบกำหนดเป้าหมาย ซึ่งข้อกังวลด้านจริยธรรมร้ายแรงที่เกี่ยวข้องอาจทำให้เสียชื่อเสียงหรือสร้างความขัดแย้งทางการเมืองได้


Black-box nature: โมเดลจำลองเหล่านี้ยังต้องการการทดสอบอย่างถี่ถ้วนและสามารถมอบผลลัพธ์ที่ไม่น่าพอใจ เนื่องจากการทดสอบในลักษณะกล่องดำ (Black-box nature) ที่ไม่คำนึงถึงคำสั่งภายในซอฟต์แวร์ และคลุมเครือว่าฐานข้อมูลที่ตอบสนองนั้นเท็จจริงเพียงใด อาจนำเสนอผลลัพธ์ที่เอนเอียงได้จากข้อมูลที่กำหนดไว้ โดยกระบวนการทำให้ข้อมูลตรงกันของแบบจำลองดังกล่าวสามารถนำไปสู่ความล้มเหลวได้ หากคลาดเคลื่อนเพียงจุดเดียว


Intellectual property: โมเดลแบบจำลองถูกทดสอบกับคลังข้อมูลของชิ้นงานที่สร้างขึ้น และยังไม่ชัดเจนว่าจะมีกฎหมายบังคับอย่างไรสำหรับการนำเนื้อหานี้กลับมาใช้ใหม่ และหากเนื้อหานั้นมาจากทรัพย์สินทางปัญญาของผู้อื่น


แนวทางการใช้โมเดลพื้นฐานเอไออย่างมีจริยธรรม


เริ่มต้นจากการใช้งานการประมวลผลภาษาตามธรรมชาติ (Natural Language Processing - NLP) เช่น การจัดหมวดหมู่ การสรุป และการสร้างข้อความในสถานการณ์ที่ไม่ได้เจอตัวลูกค้า และเลือกงานที่มีความเฉพาะ โดยโมเดลจำลองที่ได้รับการฝึกฝนมาแล้วจะสามารถลดต้นทุนการปรับแต่งและการทดสอบที่มีราคาแพง หรือใช้ในกรณีที่ต้องการตรวจสอบผลลัพธ์โดยมนุษย์


ใช้สร้างเอกสารเชิงกลยุทธ์ที่สรุปประโยชน์ ความเสี่ยง โอกาส และแผนงานการปรับใช้โมเดลจำลองพื้นฐาน AI เช่น GPT ซึ่งจะช่วยพิจารณาว่าได้ประโยชน์มากกว่าความเสี่ยงหรือไม่ กรณีที่นำมาใช้งานเฉพาะ


ใช้ APIs บนคลาวด์สำหรับสร้างรูปแบบจำลองและเลือกแบบจำลองที่มีขนาดเล็กที่สุด เพื่อให้มีความแม่นยำและมีประสิทธิภาพตรงตามความต้องการเพื่อลดความซับซ้อนในการดำเนินงาน ลดการใช้พลังงานและเพิ่มประสิทธิภาพด้านต้นทุนรวมสำหรับการเป็นเจ้าของ


จัดลำดับความสำคัญของผู้จำหน่ายที่ส่งเสริมการปรับใช้โมเดลอย่างมีความรับผิดชอบโดยการเผยแพร่แนวทางการใช้งาน การบังคับใช้ รวมถึงบันทึกช่องโหว่และจุดอ่อนที่ทราบ พร้อมเปิดเผยพฤติกรรมที่เป็นอันตรายและสถานการณ์การใช้งานในทางที่ผิดแบบเชิงรุก


เกี่ยวกับการ์ทเนอร์ 


บริษัท การ์ทเนอร์ (Gartner, Inc.) (NYSE: IT) คือบริษัทวิจัยและให้คำปรึกษาชั้นนำของโลก มอบข้อมูลเชิงลึก คำแนะนำ และเครื่องมือต่าง ๆ แก่ผู้บริหารองค์กรธุรกิจ เพื่อรองรับการดำเนินภารกิจสำคัญที่มีอยู่ในปัจจุบันและสร้างองค์กรให้ประสบความสำเร็จในอนาคต ดูข้อมูลเพิ่มเติมเกี่ยวกับแนวทางของการ์ทเนอร์ในการช่วยให้ผู้บริหารตัดสินใจอย่างถูกต้องเพื่อขับเคลื่อนอนาคตของธุรกิจได้ที่ gartner.com


ที่มา: พีซี แอนด์ แอสโซซิเอทส์ คอนซัลติ้ง


ไม่มีความคิดเห็น:

แสดงความคิดเห็น

ธรรมะกับประชาธิปไตยไยห่วงใยสถาบันศาสนา

การวิเคราะห์ประชาธิปไตยในปริบทพุทธสันติวิธีชี้ให้เห็นถึงความสำคัญของการนำหลักธรรมมาประยุกต์ใช้ในระบอบประชาธิปไตย เพื่อลดความขัดแย้ง สร้างควา...