ก่อนที่อดัมเรนวัย 16 ปีเสียชีวิตเนื่องจากการฆ่าตัวตายใช้เวลาหลายเดือนในการปรึกษาหารือกับ Chatgpt เกี่ยวกับแผนการของเขาที่จะจบชีวิตของเขา ตอนนี้พ่อแม่ของเขากำลังยื่นฟ้องคดีที่ผิดกฎหมายครั้งแรกเกี่ยวกับความตายกับ Openai แจ้งให้เดอะนิวยอร์กไทม์ส
AI chatbots จำนวนมากที่ส่งถึงผู้บริโภคได้รับการตั้งโปรแกรมให้เปิดใช้งานฟังก์ชั่นความปลอดภัยหากผู้ใช้แสดงความตั้งใจที่จะทำร้ายตัวเองหรือผู้อื่น แต่การศึกษาแสดงให้เห็นว่าการป้องกันเหล่านี้ยังห่างไกลจากความน่าเชื่อถือ
ในกรณีของเรนใช้เวอร์ชันที่ชำระเงินของ CHATGPT-4O และมักจะสนับสนุนให้เขาขอความช่วยเหลือจากมืออาชีพหรือติดต่อกับสายความช่วยเหลือ อย่างไรก็ตามเขาสามารถข้ามราวจับเหล่านี้ได้โดยพูดว่า Chatgpt ว่าเขาถามเกี่ยวกับวิธีการฆ่าตัวตายในเรื่องที่เขาเขียน
Opeli หันไปหาข้อบกพร่องเหล่านี้ในบล็อกของเขา “ เมื่อโลกปรับตัวเข้ากับเทคโนโลยีใหม่นี้เรารู้สึกรับผิดชอบอย่างลึกซึ้งในการช่วยเหลือผู้ที่ต้องการมันมากที่สุด” เราอ่านในโพสต์ “เรากำลังปรับปรุงวิธีการที่โมเดลของเราตอบสนองต่อการโต้ตอบที่ละเอียดอ่อนอย่างต่อเนื่อง”
อย่างไรก็ตามเรื่องนี้ บริษัท ยืนยันข้อ จำกัด ของการฝึกอบรมด้านความปลอดภัยที่มีอยู่สำหรับรุ่นขนาดใหญ่ “การป้องกันของเราทำงานได้อย่างน่าเชื่อถือมากขึ้นการแลกเปลี่ยนสั้น ๆ ” โพสต์ต่อไป “เมื่อเวลาผ่านไปเราได้เรียนรู้ว่าการปกป้องเหล่านี้บางครั้งอาจมีความน่าเชื่อถือน้อยกว่าในการโต้ตอบที่ยาวนาน: เมื่อความปลอดภัยของแบบจำลองของการฝึกอบรมด้านความปลอดภัยของโมเดลเพิ่มขึ้นพวกเขาสามารถลดลงได้”
ปัญหาเหล่านี้ไม่ซ้ำกับ OpenAI อักขระ. แชทบอทที่ขับเคลื่อนโดย LLM นั้นเกี่ยวข้องกับกรณีของภาพลวงตาที่เกี่ยวข้องกับ AI ซึ่งความปลอดภัยที่มีอยู่พยายามตรวจจับ
กิจกรรม TechCrunch
ซานฟรานซิสโก
–
27-29 ตุลาคม 2568