แชทบอท AI เช่น ChatGPT สามารถคัดลอกลักษณะของมนุษย์ได้ และผู้เชี่ยวชาญกล่าวว่านี่เป็นความเสี่ยงอย่างมาก

Posted on

ตัวแทน AI กำลังพัฒนาเสียงมนุษย์ให้ดีขึ้น แต่การวิจัยใหม่ชี้ให้เห็นว่าพวกเขาทำมากกว่าคัดลอกคำพูดของเรา จากการศึกษาล่าสุด โมเดล AI ยอดนิยมอย่าง ChatGPT สามารถเลียนแบบลักษณะบุคลิกภาพของมนุษย์ได้อย่างสม่ำเสมอ นักวิทยาศาสตร์กล่าวว่าความสามารถดังกล่าวมีความเสี่ยงสูง โดยเฉพาะอย่างยิ่งท่ามกลางคำถามที่เพิ่มขึ้นเกี่ยวกับความน่าเชื่อถือและความแม่นยำของปัญญาประดิษฐ์

นักวิจัยจากมหาวิทยาลัยเคมบริดจ์และ Google DeepMind ได้พัฒนาสิ่งที่พวกเขาเรียกว่าแพลตฟอร์มทดสอบบุคลิกภาพแห่งแรกที่ได้รับการตรวจสอบทางวิทยาศาสตร์สำหรับแชทบอท AI โดยใช้เครื่องมือทางจิตวิทยาแบบเดียวกับที่ออกแบบมาเพื่อวัดบุคลิกภาพของมนุษย์ (ผ่าน TechXplore)

ทีมงานใช้เฟรมเวิร์กนี้กับโมเดลภาษาขนาดใหญ่ (LLM) ยอดนิยม 18 โมเดล รวมถึงระบบที่อยู่เบื้องหลังเครื่องมืออย่าง ChatGPT พวกเขาพบว่าแชทบอทเลียนแบบลักษณะบุคลิกภาพของมนุษย์อย่างสม่ำเสมอ แทนที่จะโต้ตอบแบบสุ่ม ทำให้เกิดความกังวลมากขึ้นว่า AI จะถูกผลักดันให้เกินการป้องกันที่ตั้งใจไว้ได้ง่ายเพียงใด

ผลการศึกษาแสดงให้เห็นว่าโมเดลการเรียนการสอนที่มีขนาดใหญ่กว่า เช่น ระบบคลาส GPT-4 สามารถจำลองโปรไฟล์บุคลิกภาพที่มั่นคงได้ดีเป็นพิเศษ เมื่อใช้การแจ้งเตือนที่มีโครงสร้าง นักวิจัยสามารถรับแชทบอทเพื่อปรับใช้พฤติกรรมที่เฉพาะเจาะจง เช่น มีความมั่นใจมากขึ้นหรือมีความเห็นอกเห็นใจ

การเปลี่ยนแปลงพฤติกรรมนี้แปลเป็นงานประจำวัน เช่น การเขียนโพสต์หรือการตอบกลับผู้ใช้ ซึ่งหมายความว่าบุคลิกภาพของพวกเขาสามารถกำหนดรูปแบบได้อย่างจงใจ นี่คือจุดที่ผู้เชี่ยวชาญมองเห็นอันตราย โดยเฉพาะอย่างยิ่งเมื่อแชทบอท AI โต้ตอบกับผู้ใช้ที่มีช่องโหว่

เหตุใดบุคลิกภาพของ AI จึงกลายเป็นธงสีแดงสำหรับผู้เชี่ยวชาญ

Gregory Serapio-Garcia ผู้ร่วมเขียนคนแรกจาก Cambridge Psychometric Center กล่าวว่าเป็นเรื่องน่าทึ่งที่ LLM สามารถโน้มน้าวใจลักษณะของมนุษย์ได้ เขาเตือนว่าการสร้างบุคลิกภาพอาจทำให้ระบบ AI โน้มน้าวใจมากขึ้นและมีผลกระทบทางอารมณ์มากขึ้น โดยเฉพาะอย่างยิ่งในด้านที่มีความละเอียดอ่อน เช่น สุขภาพจิต การศึกษา และการอภิปรายทางการเมือง

บทความนี้ยังก่อให้เกิดความกังวลเกี่ยวกับการยักย้ายและสิ่งที่นักวิจัยเรียกว่าความเสี่ยงของ “โรคจิต AI” หากผู้ใช้พัฒนาความสัมพันธ์ทางอารมณ์ที่ไม่ดีต่อสุขภาพกับแชทบอท รวมถึงสถานการณ์ที่ AI อาจเสริมสร้างความเชื่อที่ผิดหรือบิดเบือนความเป็นจริง

ทีมงานกล่าวว่ากฎระเบียบเป็นสิ่งจำเป็นเร่งด่วน แต่ยังตั้งข้อสังเกตด้วยว่ากฎระเบียบไม่มีความหมายอะไรเลยหากไม่มีการวัดผลที่เหมาะสม ด้วยเหตุนี้ ชุดข้อมูลและโค้ดของแพลตฟอร์มการทดสอบบุคลิกภาพจึงได้รับการเปิดเผยต่อสาธารณะ ช่วยให้นักพัฒนาและผู้กำกับดูแลสามารถตรวจสอบโมเดล AI ก่อนที่จะเผยแพร่

เนื่องจากแชทบอทฝังตัวอยู่ในชีวิตประจำวันมากขึ้น ความสามารถในการเลียนแบบบุคลิกภาพของมนุษย์อาจพิสูจน์ได้ว่าทรงพลัง แต่ก็ยังต้องมีการวิเคราะห์อย่างรอบคอบมากกว่าเมื่อก่อนอีกด้วย

ดูแหล่งที่มา

Leave a Reply

Your email address will not be published. Required fields are marked *