ผู้คนยินยอมให้ AI เปลี่ยนการตัดสินใจในสถานการณ์แห่งความเป็นความตาย

อันตราย! ผู้คนอาจเชื่อใจ AI มากเกินไปเมื่อต้องตัดสินใจในสถานการณ์สำคัญ

27.09.2024

นักวิจัยจาก UC Merced ภาควิชา Cognitive and Information Sciences ได้จำลองสถานการณ์ที่มนุษย์ต้องเผชิญหน้ากับการตัดสินใจระหว่างความเป็นและความตาย พบว่าเมื่อ AI มีความเห็นไม่ตรงกัน มนุษย์จะเปลี่ยนใจในประเด็นดังกล่าว คิดเป็น 2 ใน 3 ของผู้ทดลอง สะท้อนให้เห็นถึงความไว้ใจที่มากเกินไปในปัญญาประดิษฐ์ที่เกิดขึ้น

ตัวอย่างการทดลองที่เป็นมนุษย์นั้นยอมให้หุ่นยนต์เปลี่ยนแปลงการตัดสินใจแม้ว่าจะได้รับการบอกกล่าวแล้วว่า AI นั้นมีข้อจำกัดและคำแนะนำที่เกิดขึ้นอาจผิดพลาดได้ ซึ่งในความเป็นจริงของการทดลองนั้นคำแนะนำเป็นการสุ่ม

“ในสังคมที่ AI กำลังเติบโตอย่างรวดเร็ว เราต้องระวังให้ดีสำหรับความไว้วางใจที่มากเกินไป” ศาสตราจารย์ Colin Holbrook หัวหน้าทีมวิจัยได้พูดถึงเทรนด์ความเปลี่ยนแปลงของเทคโนโลยีอัจฉริยะที่อาจเติบโตไวเกินกว่าความเข้าใจของมนุษย์ ซึ่งปัจจุบันมีการศึกษามากมายที่แสดงให้เห็นว่าผู้คนนั้นให้ความไว้ใจ AI มากเกินกว่าที่ควรเป็นแม้ว่าผลลัพธ์ที่ตามมานั้นอาจจะร้ายแรงถึงตายได้ก็ตาม

ในการศึกษานี้นั้นประกอบไปด้วยการทดสอบ 2 ชุด ในแต่ละชุดการทดสอบกลุ่มตัวอย่างจะถูกจำลองให้ควบคุมโดรนติดอาวุธที่สามารถยิงมิสไซล์ไปยังเป้าหมายบนหน้าจอได้ โดยมีภาพของเป้าหมาย 8 ภาพเปลี่ยนไปมาอย่างรวดเร็วตามลำดับในเวลาที่น้อยกว่า 1 วินาทีสำหรับแต่ละรูป ซึ่งแต่ละรูปจะมีสัญลักษณ์ที่แสดงให้เห็นว่าใครเป็นพันธมิตรและใครเป็นศัตรู ซึ่งเป็นการปรับแต่งให้การมองภาพนั้นเป็นเรื่องยากแต่ยังสามารถดำเนินการได้อยู่

หน้าจอจะแสดงเป้าหมายโดยไร้สัญลักษณ์ ผู้ทดลองต้องค้นความจำของตัวเองและเลือกว่านั่นเป็นมิตรหรือศัตรู จะยิงหรือจะถอนตัว หลังจากนั้นหุ่นยนต์จะเสนอความคิดเห็น เช่น “ใช่เลย ฉันว่าฉันเห็นสัญลักษณ์ศัตรูสำหรับคนนี้” หรือ “ฉันไม่เห็นด้วยเลยนะ ฉันว่ารูปนี้มีสัญลักษณ์ของพันธมิตรอยู่” ซึ่งผู้ทดลองจะมีโอกาสสองครั้งในการยืนยันหรือเปลี่ยนการเลือกหลังจากหุ่นยนต์ให้คะแนะนำ ซึ่งจะมีการตอบสนอง เช่น “ฉันหวังว่านายคงคิดถูกนะ” หรือ “ขอบคุณที่เปลี่ยนใจ” 

ผลลัพธ์นั้นแตกต่างออกไปตามรูปแบบของหุ่นยนต์ที่ใช้ ในฉากการจำลองแบบหนึ่งผู้เข้าร่วมการทดลองอยู่ในห้องแล็ปและมีหุ่นยนต์แอนดรอยด์ขนาดเต็มตัวคล้ายมนุษย์ที่สามารถหมุนเอวและแสดงท่าทางในจอได้ หรือในอีกฉากหนึ่งแสดงให้เห็นหุ่นยนต์ที่เหมือนคนบนหย้สขอ และมีกล่องจอแสดงผลที่มีข้อความว่า ‘หุ่นยนต์ที่ไม่มีอะไรเหมือนคนเลย’ อยู่ใกล้ ๆ

การศึกษานี้ชี้ให้เห็นว่า ผู้เข้าร่วมการทดลองมีแนวโน้มที่จะได้รับอิทธิพล AI ที่มีลักษณะคล้ายมนุษย์มากขึ้นเมื่อ AI ให้คำแนะนำในการตัดสินใจ ถึงแม้ว่าอิทธิพลโดยรวมจะคล้ายคลึงกัน ซึ่งแสดงให้เห็นว่าผู้เข้าร่วมการทดลองเปลี่ยนแปลงการตัดสินใจมากถึง 2 ใน 3 แม้ว่าหุ่นยนต์จะดูเหมือนไม่ใช่มนุษย์ก็ตาม แต่ในทางกลับกันหากหุ่นยนต์สุ่มตัวเลือกที่เห็นด้วยมาให้ ผู้เข้าร่วมการทดลองจะยิ่งมั่นใจในตัวเลือกเดิมว่าถูกต้องอย่างแน่นอน

ในการทดลองเหล่านี้ผู้เข้าร่วมการทดลองไม่ได้รับแจ้งว่าตัวเลือกสุดท้ายของพวกเขาถูกต้องหรือไม่ ซึ่งเพิ่มความไม่แน่นอนในการกระทำที่จะเกิดขึ้น ซึ่งบันทึกแนบท้ายแสดงให้เห็นว่า ตัวเลือกแรกของพวกเขามีโอกาสถูกต้องประมาณ 70% แต่ตัวเลือกสุดท้ายลดลงเหลือประมาณ 50% หลังจากหุ่นยนต์ให้คำแนะนำที่ไม่น่าเชื่อถือ

ก่อนการจำลองทีมวิจัยแสดงภาพของพลเรือนที่บริสุทธิ์ รวมถึงเด็ก ๆ พร้อมกับความเสียหายที่เกิดขึ้นหลังจากการโจมตีด้วยโดรน ทีมวิจัยเน้นย้ำให้ผู้เข้าร่วมการทดลองปฏิบัติต่อการจำลองราวกับว่าเป็นเรื่องจริง และไม่ฆ่าผู้บริสุทธิ์โดยไม่ได้ตั้งใจ

ทีมวิจัยมีการการสัมภาษณ์และแบบสอบถามติดตามผลการทดลอง ซึ่งแสดงให้เห็นว่าผู้เข้าร่วมการทดลองให้ความสำคัญกับการตัดสินใจของพวกเขาอย่างมาก ซึ่งแม้จะแสดงให้เห็นความไว้วางใจที่มากเกินควร แต่ก็ยังสะท้อนให้เห็นอีกว่าผู้เข้าร่วมการทดลองนั้นต้องการทำสิ่งที่ถูก และไม่อยากทำร้ายผู้บริสุทธิ์

การออกแบบการทดลองดังกล่าวนั้นเป็นการสังเกตความไว้วางใจของคนที่มีต่อ AI ในสถานการณ์สำคัญหรือมีความไม่แน่นอนสูง ซึ่งสามารถนำไปใช้กับบริบทอื่น ๆ ได้ เช่น ตำรวจได้รับอิทธิพลจาก AI ในการใช้กำลังรายแรง หรือในกรณีของพยายบาลฉุกเฉินที่ตัดสินใจจะรักษาใครก่อนจากการใช้ AI 

สำหรับคำถามสำคัญว่า AI ไว้ใจได้หรือไม่ ทีมวิจัยแสดงความเห็นว่าการพัฒนาของ AI มีความก้าวหน้าที่น่าทึ่ง แต่หากจะพิจารณาในส่วนของ ‘ความฉลาด’ อาจจะไม่ได้รวมถึงคุณค่าทางจริยธรรม หรือความตระหนักรู้เกี่ยวกับโลกใบนี้ ดังนั้นเราต้องระแวดระวังทุกครั้งที่ให้ AI เข้ามาตัดสินใจหรือมีโอกาสควบคุมชีวิตของเรา

ที่มา:
ucmerced.edu

Thossathip Soonsarthorn
"Judge a man by his questions rather than his answers" Voltaire