รายงาน NTT DATA ชี้ชัด 81% ผู้นำธุรกิจเรียกร้องการใช้ AI อย่างรับผิดชอบ

Share

 

ผลวิจัยใหม่จาก NTT DATA Inc. เปิดเผยว่า ภาคธุรกิจกำลังเร่งนำเทคโนโลยีปัญญาประดิษฐ์ (AI) มาใช้ แต่พบว่ามีช่องว่างด้านความรับผิดชอบที่อาจส่งผลกระทบต่อความก้าวหน้า โดยมากกว่า 80% ของผู้บริหารยอมรับว่าความเป็นผู้นำ ความสามารถในการกำกับดูแล และความพร้อมของพนักงานไม่สามารถก้าวทันความก้าวหน้าของ AI ซึ่งส่งผลให้การลงทุน ความปลอดภัย และความไว้วางใจจากสาธารณชนตกอยู่ในความเสี่ยง ดังนั้น งานวิจัยนี้เน้นย้ำถึงความสำคัญของการพัฒนาแนวทางใหม่เพื่อสนับสนุนการใช้ AI อย่างมีความรับผิดชอบและปลอดภัย เพื่อให้เกิดประโยชน์สูงสุดแก่ทุกฝ่ายที่เกี่ยวข้อง 

รายงานเรื่อง “The AI Responsibility Gap: Why Leadership is the Missing Link” ได้รวบรวมข้อมูลเชิงลึกจากผู้บริหารระดับสูง (C-suite) กว่า 2,300 คนใน 34 ประเทศทั่วโลก เปิดเผยถึงความจำเป็นเร่งด่วนในการขับเคลื่อนนโยบายการบริหาร AI ด้วยความรับผิดชอบเชิงจริยธรรม 

อภิจิต ดูเบย์ (Abhijit Dubey) ประธานเจ้าหน้าที่บริหารของ NTT DATA Inc. กล่าวว่า ผลการวิจัยชี้ให้เห็นว่า การใช้นวัตกรรมโดยไม่มีความรับผิดชอบคือการเพิ่มความเสี่ยง องค์กรจำเป็นต้องมีการบริหาร AI ที่ขับเคลื่อนด้วยความเป็นผู้นำเพื่อปิดช่องว่างนี้ ก่อนที่ความก้าวหน้าจะชะงักงันและความไว้วางใจจะเสื่อมลง 

ผลการวิจัยหลัก ประเด็นสำคัญสำหรับผู้บริหาร : ช่องว่างด้านความรับผิดชอบของ AI กำลังมีมากขึ้น 

  • นวัตกรรม vs ความรับผิดชอบ – ทีมผู้บริหารมีความเห็นแบ่งออกเป็นสามกลุ่ม คือ หนึ่งในสามของผู้นำให้ความสำคัญกับความรับผิดชอบมากกว่านวัตกรรม อีกหนึ่งในสามให้ความสำคัญกับนวัตกรรมแม้จะเสี่ยงกับความปลอดภัย ขณะที่หนึ่งในสามที่เหลือมองว่าทั้งสองด้านมีความสำคัญเท่ากัน 
  • ความไม่ชัดเจนของกฎระเบียบขัดขวางความก้าวหน้า – ผู้บริหารกว่า 80% บอกว่ากฎระเบียบของรัฐบาลที่ไม่ชัดเจนเป็นอุปสรรคต่อการลงทุนและการนำ AI มาใช้ ส่งผลให้การนำมาใช้ล่าช้า 
  • การพิจารณาด้านความปลอดภัยและจริยธรรมตามไม่ทันความก้าวหน้าของ AI – ผู้บริหารระดับสูง 89% แสดงความกังวลเกี่ยวกับภัยคุกคามด้านความปลอดภัยของ AI แต่มีเพียง 24% ของผู้บริหารฝ่ายสารสนเทศ (CISOs) เท่านั้นที่เชื่อว่าองค์กรของตนมีกรอบการทำงานที่แข็งแกร่งในการสร้างสมดุลระหว่างความเสี่ยงของ AI และการสร้างคุณค่า 
  • พนักงานยังไม่พร้อม – ผู้บริหาร 67% ระบุว่าพนักงานของตนขาดทักษะในการทำงานร่วมกับ AI อย่างมีประสิทธิภาพ และ 72% ยอมรับว่าไม่มีนโยบาย AI เพื่อให้การใช้งานเป็นไปอย่างรับผิดชอบ 
  • ความกังวลเรื่องความยั่งยืน – ผู้นำ 75% เชื่อว่าความทะเยอทะยานของ AI ขัดแย้งกับเป้าหมายความยั่งยืนขององค์กร ทำให้องค์กรต้องคิดใหม่เกี่ยวกับกลยุทธ์ AI ที่ใช้พลังงานมาก 

 

ภารกิจความเป็นผู้นำ : ปิดช่องว่างด้านความรับผิดชอบใน AI 

หากไม่มีการดำเนินการที่เด็ดขาด องค์กรต่างๆ เสี่ยงที่จะเผชิญกับอนาคตที่ความก้าวหน้าของ AI ล้ำหน้าไปมากเกินกว่าที่จะกำกับดูแลการใช้งาน AI เป็นไปอย่างมีจริยธรรม ปลอดภัย และมีประสิทธิภาพ ดังนั้น ผู้นำต้องแก้ไขประเด็นต่อไปนี้ 

  1.       หลักการรับผิดชอบตั้งแต่การออกแบบ – AI และ GenAI ต้องถูกพัฒนาอย่างรับผิดชอบตั้งแต่ต้นจนจบ โดยรวมถึงความปลอดภัย การปฏิบัติตามกฎระเบียบ และความโปร่งใสในการพัฒนาตั้งแต่วันแรก 
  2.   ข้อบังคับการกำกับดูแล – ผู้นำต้องก้าวข้ามความต้องการทางกฎหมายและมาตรฐานทางจริยธรรมและสังคมของ AI โดยใช้วิธีการอย่างเป็นระบบ 
  3.       ความพร้อมของพนักงาน – องค์กรต้องพัฒนาทักษะพนักงานเพื่อทำงานร่วมกับ AI และให้ทีมงานเข้าใจถึงความเสี่ยงและโอกาสของ AI 
  4.       ความร่วมมือระดับโลกด้านนโยบาย AI – ภาคธุรกิจ ผู้กำกับดูแล และผู้นำในอุตสาหกรรมต้องร่วมมือกันสร้างกรอบการกำกับดูแล AI ที่ชัดเจนและสามารถดำเนินการได้ พร้อมทั้งกำหนดมาตรฐาน AI ระดับโลก 

อภิจิต ดูเบย์ กล่าวด้วยว่า ถ้าแนวทางของ AI ชัดเจน ผลลัพธ์ของมันจะเพิ่มขึ้นเรื่อยๆ แต่หากไม่มีผู้นำที่เด็ดขาด เราเสี่ยงที่จะเผชิญอนาคตที่นวัตกรรมแซงหน้าเรื่องความรับผิดชอบ ซึ่งจะนำไปสู่ช่องโหว่ด้านความปลอดภัย การละเลยจริยธรรม และการสูญเสียโอกาส 

“ภาคธุรกิจต้องดำเนินการในทันที โดยการผสานความรับผิดชอบลงในแกนหลักของ AI ตั้งแต่การออกแบบ การกำกับดูแล การเตรียมความพร้อมของพนักงาน และแนวทางปฏิบัติด้านจริยธรรม เราจะสามารถนำศักยภาพของ AI มาใช้ได้อย่างเต็มที่ และจะเป็นประโยชน์ต่อธุรกิจ พนักงาน และสังคมโดยรวม” 

 

Related Articles