การพัฒนาเทคโนโลยีปัญญาประดิษฐ์หรือ AI กำลังเปลี่ยนแปลงโลกอย่างรวดเร็ว ทั้งในภาคธุรกิจ ภาครัฐ และชีวิตประจำวันของผู้คน ตั้งแต่ระบบวิเคราะห์ข้อมูลขนาดใหญ่ การแพทย์อัจฉริยะ ไปจนถึงระบบแนะนำสินค้าและบริการ อย่างไรก็ตาม ความก้าวหน้าที่รวดเร็วของ AI ก็มาพร้อมกับคำถามสำคัญเกี่ยวกับความปลอดภัย จริยธรรม ความเป็นส่วนตัว และผลกระทบต่อสังคม ดังนั้นแนวคิดเรื่อง “AI Governance” หรือการกำกับดูแล AI จึงกลายเป็นประเด็นสำคัญของโลกยุคดิจิทัล เพราะการสร้างสมดุลระหว่างการควบคุมความเสี่ยงและการส่งเสริมนวัตกรรมเป็นสิ่งจำเป็น หากกำกับเข้มงวดเกินไปอาจทำให้นวัตกรรมชะลอตัว แต่หากปล่อยเสรีเกินไปก็อาจนำไปสู่ปัญหาทางสังคมและจริยธรรมที่ยากจะแก้ไขในระยะยาว
AI Governance หมายถึงกรอบแนวคิด นโยบาย และกระบวนการที่ใช้กำกับการพัฒนา การใช้งาน และการจัดการระบบ AI เพื่อให้เกิดความโปร่งใส ความรับผิดชอบ และความปลอดภัยต่อผู้ใช้และสังคมโดยรวม หลายประเทศและองค์กรระหว่างประเทศเริ่มให้ความสำคัญกับเรื่องนี้มากขึ้น เนื่องจาก AI มีศักยภาพในการตัดสินใจหรือสนับสนุนการตัดสินใจในหลายด้าน เช่น การเงิน การแพทย์ การจ้างงาน หรือกระบวนการยุติธรรม ซึ่งหากระบบ AI มีอคติในข้อมูลหรือการออกแบบ ก็อาจนำไปสู่การเลือกปฏิบัติหรือการตัดสินใจที่ไม่เป็นธรรมได้
ประเด็นสำคัญประการแรกของการกำกับดูแล AI คือ “ความโปร่งใส” (transparency) ระบบ AI โดยเฉพาะโมเดลที่ซับซ้อน เช่น deep learning มักถูกเรียกว่าเป็น “กล่องดำ” เนื่องจากยากต่อการอธิบายว่าระบบตัดสินใจอย่างไร หากผู้ใช้งานหรือผู้ที่ได้รับผลกระทบไม่สามารถเข้าใจเหตุผลของการตัดสินใจได้ ก็จะเกิดปัญหาความไม่ไว้วางใจต่อเทคโนโลยี ดังนั้นองค์กรที่พัฒนา AI ควรมีแนวทางในการอธิบายหลักการทำงานของระบบในระดับที่เหมาะสม รวมถึงเปิดเผยข้อมูลเกี่ยวกับแหล่งที่มาของข้อมูล วิธีการฝึกโมเดล และข้อจำกัดของระบบ
ประเด็นต่อมาคือ “ความรับผิดชอบ” (accountability) ซึ่งหมายถึงการกำหนดความรับผิดชอบอย่างชัดเจนเมื่อระบบ AI ก่อให้เกิดความเสียหาย เช่น หากระบบคัดกรองผู้สมัครงานใช้ข้อมูลที่มีอคติและทำให้เกิดการเลือกปฏิบัติ ใครควรเป็นผู้รับผิดชอบระหว่างผู้พัฒนา ผู้ใช้งาน หรือองค์กรที่นำระบบไปใช้ การกำหนดโครงสร้างความรับผิดชอบที่ชัดเจนจะช่วยให้เกิดการตรวจสอบและการปรับปรุงระบบได้อย่างเป็นระบบ
อีกประเด็นหนึ่งที่สำคัญคือ “ความเป็นธรรมและการลดอคติ” (fairness and bias mitigation) AI เรียนรู้จากข้อมูลในอดีต ซึ่งอาจสะท้อนอคติทางสังคมโดยไม่ตั้งใจ เช่น อคติด้านเพศ เชื้อชาติ หรือสถานะทางเศรษฐกิจ หากไม่มีการตรวจสอบอย่างรอบคอบ AI อาจขยายอคติเหล่านี้ให้รุนแรงขึ้น ดังนั้นกระบวนการพัฒนา AI ควรมีการตรวจสอบคุณภาพข้อมูล การทดสอบความเป็นธรรมของโมเดล และการปรับปรุงอัลกอริทึมเพื่อป้องกันการเลือกปฏิบัติ
ในขณะเดียวกัน การกำกับดูแล AI ไม่ควรมุ่งเน้นเพียงการควบคุมเท่านั้น แต่ควรสนับสนุนการพัฒนานวัตกรรมด้วย แนวทางหนึ่งที่หลายประเทศใช้คือการกำกับดูแลตามระดับความเสี่ยง (risk-based approach) กล่าวคือ ระบบ AI ที่มีความเสี่ยงต่ำ เช่น ระบบแนะนำภาพยนตร์ อาจต้องการข้อกำหนดเพียงเล็กน้อย ในขณะที่ระบบที่มีผลกระทบสูง เช่น AI ทางการแพทย์ หรือระบบที่เกี่ยวข้องกับความปลอดภัยสาธารณะ ควรมีมาตรฐานและการตรวจสอบที่เข้มงวดมากขึ้น วิธีนี้ช่วยให้การกำกับดูแลมีความยืดหยุ่นและไม่เป็นอุปสรรคต่อการพัฒนาเทคโนโลยีโดยไม่จำเป็น
อีกแนวทางที่สำคัญคือการสร้าง “ระบบนิเวศของความร่วมมือ” ระหว่างภาครัฐ ภาคเอกชน สถาบันการศึกษา และภาคประชาสังคม การกำหนดมาตรฐานหรือแนวปฏิบัติด้าน AI จำเป็นต้องอาศัยความรู้จากหลายสาขา ทั้งด้านเทคโนโลยี กฎหมาย จริยธรรม และสังคมศาสตร์ การเปิดพื้นที่ให้ผู้มีส่วนได้ส่วนเสียเข้ามามีส่วนร่วมในการกำหนดนโยบาย จะช่วยให้กรอบกำกับดูแลมีความสมดุลและสะท้อนความต้องการของสังคมได้ดีขึ้น
นอกจากนี้ การพัฒนาทักษะและความรู้ด้าน AI ในสังคมก็เป็นองค์ประกอบสำคัญของ AI Governance เช่นกัน หากผู้ใช้งาน ผู้กำหนดนโยบาย หรือผู้บริหารองค์กรไม่มีความเข้าใจพื้นฐานเกี่ยวกับ AI ก็อาจตัดสินใจใช้เทคโนโลยีอย่างไม่เหมาะสม หรือกำหนดกฎระเบียบที่ไม่สอดคล้องกับความเป็นจริง ดังนั้นการส่งเสริมการเรียนรู้ด้าน AI literacy ทั้งในระบบการศึกษาและในองค์กรจึงเป็นสิ่งจำเป็น
โดยสรุป การกำกับดูแล AI ที่มีประสิทธิภาพไม่ใช่เพียงการสร้างกฎระเบียบเพื่อควบคุมเทคโนโลยี แต่เป็นการสร้างกรอบการทำงานที่ช่วยให้ AI ถูกพัฒนาและใช้งานอย่างมีความรับผิดชอบ โปร่งใส และเป็นธรรม ในขณะเดียวกันก็ยังเปิดพื้นที่ให้เกิดนวัตกรรมและการเติบโตทางเศรษฐกิจ หากสังคมสามารถออกแบบระบบ AI Governance ที่สมดุลได้ ก็จะสามารถใช้ประโยชน์จากพลังของ AI เพื่อพัฒนาคุณภาพชีวิต เศรษฐกิจ และสังคมได้อย่างยั่งยืนในระยะยาว
ผู้เขียน: ก้องปพัฒน์ กำจรจรุงวิทย์