ความสะดวกรวดเร็วของ AI มาพร้อมกับความเสี่ยงที่เพิ่มมากขึ้น และความจำเป็นเร่งด่วนในการกำกับดูแล ความรับผิดชอบ และความร่วมมือระหว่างอุตสาหกรรม
ปัญญาประดิษฐ์ (AI) ไม่ใช่เรื่องในฝันอีกต่อไป มันมาถึงแล้ว และกำลังเปลี่ยนแปลงวิธีการทำงานในทุกอุตสาหกรรมและธุรกิจ ตั้งแต่การจัดการงานประจำวันไปจนถึงการตัดสินใจที่ซับซ้อน AI ช่วยให้เราทำงานได้มีประสิทธิภาพมากขึ้น และเปิดโอกาสใหม่ ๆ ในการทำงาน แต่ด้วยศักยภาพที่ยิ่งใหญ่นี้ ก็มีปัญหาใหญ่ ๆ ตามมา โดยเฉพาะเรื่องจริยธรรม การปฏิบัติตามกฎหมาย และความเสี่ยงในชีวิตประจำวันจากการใช้ AI
วันนี้ ธุรกิจทั่วโลกกำลังเผชิญกับปัญหาการใช้ AI ในทางปฏิบัติและความเสี่ยงที่เกิดขึ้นเอง ซึ่งต้องการการแก้ไขทันทีและจากผู้เชี่ยวชาญ ธุรกิจที่นำ AI มาใช้มักเจอปัญหาเหล่านี้:
- ความเสี่ยงด้านจริยธรรมและสังคม: AI เรียนรู้จากข้อมูลที่เราป้อนให้ ถ้าข้อมูลมีอคติ AI ก็อาจทำให้อคติเหล่านั้นแย่ลงโดยไม่ตั้งใจ ส่งผลให้ชื่อเสียงเสียหาย ถูกฟ้องร้อง และคนสูญเสียความเชื่อมั่นในบริษัท
- ความเสี่ยงด้านความเป็นส่วนตัวและความปลอดภัยของข้อมูล: AI สามารถค้นหาข้อมูลที่ละเอียดอ่อนมาก รวมถึงข้อมูลส่วนบุคคล ดังนั้นต้องมีมาตรการรักษาความเป็นส่วนตัวและความปลอดภัยที่เข้มงวดเพื่อป้องกันการรั่วไหล การเข้าถึงโดยไม่ได้รับอนุญาต และการนำไปใช้ผิดวัตถุประสงค์
- ความเสี่ยงด้านการดำเนินงาน: ถ้าไม่มีกระบวนการพัฒนา ทดสอบ และติดตามอย่างต่อเนื่อง AI อาจให้ผลลัพธ์ผิดพลาด ล้มเหลวทั้งระบบ หรือสูญเสียประสิทธิภาพไปตามเวลา ส่งผลให้พลาดโอกาสทางธุรกิจ สร้างความวุ่นวายในการทำงาน ขาดทุนใหญ่ และลูกค้าพอใจน้อยลง
- ขาดความเชี่ยวชาญภายในและโครงสร้างการจัดการที่แข็งแกร่ง: บริษัทหลายแห่งรีบนำ AI มาใช้โดยไม่มีการกำหนดบทบาทหรือกฎภายในที่ชัดเจน ตลอดจนผู้เชี่ยวชาญภายในองค์กร ส่งผลให้เกิด AI เงา (Shadow AI) ที่ไม่ได้รับการดูแล และเสี่ยงที่ต้องจัดการแก้ไขปัญหาในภายหลัง
แนวทางแก้ไขจึงต้องเป็นระบบและประเมินสถานการณ์ที่อาจเกิดขึ้นในอนาคต หัวใจสำคัญคือการวางกรอบธรรมาภิบาล AI ที่ครอบคลุมมากกว่าการตรวจสอบการปฏิบัติตามข้อกำหนดพื้นฐาน ต้องมีหลักจริยธรรมชัดเจนเป็นเข็มทิศในการตัดสินใจในกิจกรรมทุกอย่างที่มี AI เกี่ยวข้อง มีคณะกรรมการกำกับดูแลเพื่อสร้างความรับผิดชอบข้ามแผนก พร้อมบทบาทและหน้าที่ที่ชัดเจนเพื่อป้องกันความกำกวม และมั่นใจได้ว่าอำนาจการตัดสินใจ ขั้นตอนการเลื่อนระดับความสำคัญ และการเป็นเจ้าของระบบ AI มีความโปร่งใสทั่วทั้งองค์กร
AI ที่มีความรับผิดชอบควรถูกฝังไว้ในการออกแบบด้วย ซึ่งนั่นหมายความว่าความยุติธรรม ความโปร่งใส ความรับผิดชอบ และการคุ้มครองข้อมูลส่วนบุคคลเป็นสิ่งที่ถูกพิจารณาถึงเป็นอันแรกและเป็นองค์ประกอบในทุกขั้นตอนของวงจรชีวิตของ AI การคัดเลือกข้อมูลต้องมีการควบคุมอย่างใกล้ชิดเพื่อป้องกันอคติ ขั้นตอนการฝึกสอนและการยืนยันต้องมีการป้องกันผลลัพธ์ที่ไม่พึงประสงค์ และการนำไปใช้ต้องมาพร้อมกับการปกป้องคุ้มครองความเป็นส่วนตัวและกลไกที่เอื้อให้ผู้ใช้งานและผู้ตรวจสอบเข้าใจกระบวนการตัดสินใจได้ ที่สำคัญอย่างยิ่งคือความโปร่งใสที่ช่วยเน้นย้ำว่าสามารถอธิบายที่มาของโมเดลต่าง ๆ และผลที่ออกมาได้ ซึ่งเป็นสิ่งสำคัญอย่างมากในการสร้างความเชื่อใจทั้งภายในและภายนอกองค์กร
การตรวจสอบและการประเมินผลอย่างต่อเนื่องถือเป็นอีกหนึ่งเสาหลักที่สำคัญ ระบบ AI มีความเปลี่ยนแปลงอยู่ตลอดเวลา ทั้งความแม่นยำ ความเกี่ยวข้อง และความเป็นธรรมอาจลดลงได้เมื่อสภาพแวดล้อม ข้อมูล หรือพฤติกรรมของผู้ใช้เปลี่ยนแปลงไป การติดตามอย่างต่อเนื่องเพื่อเฝ้าระวังการเสื่อมสภาพของโมเดล การบานปลายของอคติ และช่องโหว่ด้านความปลอดภัย จะช่วยให้องค์กรสามารถรักษาความน่าเชื่อถือและเข้าไปจัดการแก้ไขได้ก่อนที่ความเสี่ยงจะทวีความรุนแรงขึ้น นอกจากนี้การตรวจสอบโดยบุคคลที่สามอย่างสม่ำเสมอยังช่วยเพิ่มความน่าเชื่อถือ และแสดงถึงความมุ่งมั่นจริงจังขององค์กรในการใช้งาน AI อย่างมีจริยธรรม
อีกสิ่งที่สำคัญไม่แพ้กันคือการสร้างวัฒนธรรมที่ทุกคนเข้าใจ AI อย่างแท้จริง การกำกับดูแลไม่ควรถูกจำกัดไว้เพียงทีมเทคนิคเท่านั้น แต่ต้องอาศัยความร่วมมือข้ามสายงาน ไม่ว่าจะเป็นนักวิทยาศาสตร์ข้อมูล เจ้าหน้าที่กำกับดูแลให้เป็นไปตามกฎ ฝ่ายกฎหมาย ผู้จัดการความเสี่ยง ไปจนถึงผู้นำองค์กร การอบรมและการสร้างความตระหนักรู้ควรถูกนำไปใช้ในทุกแผนก เพื่อสร้างความเข้าใจร่วมกันถึงทั้งประโยชน์และความเสี่ยงของ AI ทำให้การกำกับดูแลครอบคลุมในภาพรวมไม่ถูกแบ่งแยกเป็นส่วน ๆ การเปลี่ยนวัฒนธรรมเช่นนี้จะช่วยให้องค์กรก้าวจากการจัดการความเสี่ยงแบบตั้งรับ ไปสู่การบริหารจัดการ AI อย่างเชิงรุกและมีวิสัยทัศน์
ท้ายที่สุด การมีส่วนร่วมกับหน่วยงานกำกับดูแลและองค์กรที่วางมาตรฐานถือเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เมื่อกฎระเบียบด้าน AI ทั่วโลกกำลังพัฒนาอย่างรวดเร็ว องค์กรจำเป็นต้องมีท่าทีที่มองไปข้างหน้า ทั้งการติดตามความเคลื่อนไหว เช่น กฎระเบียบด้านปัญญาประดิษฐ์ของสหภาพยุโรป (EU Artificial Intelligence Act: EU AI Act) และกรอบกฎหมายใหม่ ๆ ในระดับประเทศ การปรับการปฏิบัติภายในให้สอดคล้องกับมาตรฐานสากล และการเข้าร่วมการอภิปรายเชิงนโยบายเมื่อมีโอกาส สิ่งเหล่านี้ไม่เพียงช่วยลดความเสี่ยงด้านการปฏิบัติตามกฎหมาย แต่ยังทำให้องค์กรก้าวขึ้นมาเป็นผู้นำด้านการใช้งาน AI อย่างมีความรับผิดชอบด้วย อย่างไรก็ดีสำหรับหลายองค์กร การทำให้ความตั้งใจเหล่านี้เกิดขึ้นจริงไม่ใช่เรื่องง่าย การออกแบบและนำกรอบธรรมาภิบาล AI มาใช้ จำเป็นต้องอาศัยความเชี่ยวชาญเฉพาะทาง กรอบการทำงานที่พิสูจน์ว่าใช้ได้จริง และความเข้าใจในแนวทางสากลที่ดีที่สุด ผู้เชี่ยวชาญภายนอกจึงมีบทบาทสำคัญในการช่วยเร่งการดำเนินงาน ช่วยประเมินผลลัพธ์ และมอบเครื่องมือที่ปรับให้เหมาะกับแต่ละอุตสาหกรรมและข้อกำหนดในแต่ละประเทศ
การใช้ประโยชน์จากความร่วมมือดังกล่าวจะช่วยให้องค์กรอุดช่องว่างด้านขีดความสามารถ และก้าวจากหลักการไปสู่การปฏิบัติได้อย่างมั่นใจ
ธรรมาภิบาล AI ไม่ใช่เพียงเรื่องของการปฏิบัติตามข้อกำหนดเท่านั้น แต่ยังสามารถกลายเป็นแต้มต่อทางการแข่งขันได้ด้วย เพราะมันสามารถช่วยสร้างความไว้วางใจกับผู้มีส่วนได้ส่วนเสีย และเปิดโอกาสให้องค์กรสามารถนำนวัตกรรมมาใช้ได้อย่างมีความรับผิดชอบ ด้วยเหตุนี้เอง เอบีม คอนซัลติ้ง (ประเทศไทย) จึงให้การสนับสนุนองค์กรต่าง ๆ ในการพัฒนากลยุทธ์ธรรมาภิบาล AI แบบครบวงจร ตั้งแต่การออกแบบนโยบาย การฝึกอบรมบุคลากร การติดตามตรวจสอบ ไปจนถึงการสอดรับกับกฎระเบียบ ความเชี่ยวชาญระดับโลกและมุมมองเชิงลึกเฉพาะอุตสาหกรรมทำให้ เอบีม คอนซัลติ้ง (ประเทศไทย) มีความชำนาญที่สามารถช่วยให้องค์กรก้าวสู่ยุค AI ด้วยความมั่นใจ และทำให้ AI กลายเป็นพลังแห่งนวัตกรรมที่ตั้งอยู่บนความโปร่งใส ความรับผิดชอบ และความยั่งยืนได้
