สหภาพยุโรปได้เปิดตัว แนวทางในการให้ความชัดเจนทางกฎหมายเกี่ยวกับการใช้ AI ต้องห้ามภายในพระราชบัญญัติ EU AI เพื่อให้แน่ใจว่ามีประสิทธิภาพการใช้งานที่สม่ำเสมอและสม่ำเสมอและปกป้องสิทธิและความปลอดภัยของพลเมืองยุโรป
การกระทำของสหภาพยุโรป AI ที่สรุปกฎสำหรับการพัฒนาที่ตั้งตลาดการดำเนินงานและการใช้ปัญญาประดิษฐ์ในสหภาพยุโรป มีผลบังคับใช้ในเดือนสิงหาคม 2567
แนวทางปฏิบัติตามวิธีการตามความเสี่ยงและรวมถึงสี่หมวดความเสี่ยง:
- ความเสี่ยงที่ยอมรับไม่ได้ซึ่งรวมถึงความเสี่ยงของสิทธิขั้นพื้นฐานและค่านิยมของมนุษย์
- ความเสี่ยงสูงซึ่งรวมถึงความเสี่ยงด้านสุขภาพความปลอดภัยและสิทธิขั้นพื้นฐาน
- ความเสี่ยงต่อความโปร่งใส: ความโปร่งใสที่ จำกัด ภายใน AI
- น้อยที่สุดถึงไม่มีความเสี่ยง
คณะกรรมาธิการมีวัตถุประสงค์เพื่อชี้แจงข้อ 5 ของพระราชบัญญัติ EU AI ซึ่ง “ห้ามการจัดวางในตลาดสหภาพยุโรปที่ให้บริการในการใช้หรือการใช้ระบบ AI บางอย่างสำหรับการจัดการการใช้ประโยชน์การควบคุมทางสังคมหรือการเฝ้าระวังซึ่งโดยธรรมชาติโดยธรรมชาติ ค่านิยมและค่านิยมสหภาพแรงงาน” คำแนะนำกล่าว
แนวทางที่เน้นว่าระบบ AI ที่ปล่อยอารมณ์โดยทั่วไปนั้นเป็นสิ่งต้องห้ามในสถานที่ทำงานและสถาบันการศึกษายกเว้นเมื่อใช้เพื่อเหตุผลทางการแพทย์หรือความปลอดภัยและระบบเหล่านี้จะต้องถูกทำเครื่องหมายให้มีคุณสมบัติสำหรับข้อยกเว้นภายใต้กฎหมายของสหภาพยุโรป
พวกเขาตระหนักถึงบทบาทของการรับรู้อารมณ์ AI ในการดูแลสุขภาพเช่นการค้นพบภาวะซึมเศร้าช่วยป้องกันการฆ่าตัวตายและการวินิจฉัยออทิสติก
การรับรู้อารมณ์ที่ขับเคลื่อนด้วย AI สำหรับความเป็นอยู่ที่ดีของสถานที่ทำงานเนื่องจากการตรวจสอบระดับความเครียดนั้นเป็นสิ่งต้องห้ามและไม่ถือว่าเป็นการใช้งานทางการแพทย์
“ อีกตัวอย่างหนึ่งคือระบบ AI ที่ประเมินผู้คนและพิจารณาว่าพวกเขามีสิทธิ์ที่จะได้รับผลประโยชน์และบริการความช่วยเหลือสาธารณะที่สำคัญเช่นบริการด้านการดูแลสุขภาพและบริการประกันสังคมที่จัดว่ามีความเสี่ยงสูงหรือไม่” แนวทางปฏิบัติ กรณีสำหรับ AI นี้เป็นสิ่งต้องห้าม
AI ที่จัดการหรือหลอกลวงผู้ป่วยที่อ่อนแอ – เช่นผู้ที่มีความพิการอายุขั้นสูงหรือสถานะทางเศรษฐกิจและสังคมต่ำ – เป็นสิ่งต้องห้าม ในทำนองเดียวกัน AI ซึ่งทำนายเงื่อนไขทางการแพทย์อย่างหมดจดผ่านการทำโปรไฟล์โดยไม่มีข้อมูลทางการแพทย์ที่มีวัตถุประสงค์เป็นสิ่งต้องห้าม
คู่มือเน้นว่าระบบ AI ดำเนินการระบุไบโอเมตริกซ์ในอาชญากรรมแบบเรียลไทม์
คณะกรรมาธิการชี้แจงว่าระบบ AI ที่ใช้เทคนิคอ่อนเกินนั้นไม่เป็นอันตรายเสมอไป ตัวอย่างเช่น chatbot การรักษาที่แนะนำผู้ใช้ให้เลิกสูบบุหรี่ผ่านการโน้มน้าวใจอย่างละเอียดได้รับอนุญาตให้มีประโยชน์ต่อสุขภาพระยะยาวเกินดุลความรู้สึกไม่สบายชั่วคราว