1. ใช้อินสแตนซ์ส่วนตัวของเครื่องมือ AI
เพื่อรักษาความปลอดภัย AI ในโรงพยาบาล Pete Johnson ซึ่งเป็น CTO ด้านปัญญาประดิษฐ์ของ CDW แนะนำให้ใช้โซลูชันภายในที่ให้แพทย์และการทดลองพนักงานอื่น ๆ ด้วยแอพ AI-Chat โดยไม่ต้องเลื่อนข้อมูลไปยังพื้นที่สาธารณะ องค์กรยังสามารถทำงานร่วมกับรูปแบบสาธารณะที่มีการปกป้องความเป็นส่วนตัวที่ถูกต้อง
“ผู้ที่มีความสำคัญทั้งสามคน – Amazon, Microsoft และ Google – มีข้อตกลงการป้องกันข้อมูลของพวกเขาว่าพวกเขาจะไม่ใช้เนื้อหาด่วนของคุณในการฝึกอบรมแบบจำลองใหม่” Johnson กล่าว “ด้วยวิธีนี้คุณได้รับการปกป้องแม้ว่าคุณจะไม่มีโปรแกรม AI ในเว็บไซต์หากคุณใช้ในคลาวด์
2. จัดทำแผนปฏิบัติการในกรณีที่มีการโจมตี
แผนปฏิบัติการจะต้องให้รายละเอียดว่าจะทำอย่างไรหากมีการละเมิดข้อมูลเกิดขึ้นหรือหากอีเมลฟิชชิ่งจำนวนมากไหลเวียนในการฉ้อโกงทางการเงินที่พยายาม
“ มันเป็นสิ่งสำคัญอย่างยิ่งสำหรับผู้เชี่ยวชาญด้านไอทีที่จะเข้าใจว่าพื้นผิวใหม่เป็นอย่างไรและดูอย่างไรและเริ่มสร้างกรอบการทำงานเพื่อจัดการกับมัน” ฮอว์คิงกล่าว “มันมีทุกอย่าง – ฮาร์ดแวร์ซอฟต์แวร์และสถาปัตยกรรมไอทีจริง – แต่ยังรวมถึงนโยบายและข้อบังคับที่มีอยู่เพื่อแก้ไขปัญหาเหล่านี้”
สำรวจ: ที่อยู่ที่เชื่อถือได้และข้อกังวลเกี่ยวกับความเป็นส่วนตัวเพื่อสนับสนุนการดูแลสุขภาพ AI เต็มรูปแบบ
3. ทำตามขั้นตอนเล็ก ๆ เพื่อดำเนินการตาม AI
เมื่อองค์กรด้านสุขภาพทดลองกับ AI พวกเขาควรเริ่มต้นเล็ก ๆ ตัวอย่างเช่นพวกเขาสามารถใช้การฟังโดยรอบและเอกสารอัจฉริยะเพื่อลดภาระของแพทย์และแพทย์
“ อย่าใช้วันที่ทั้งหมดของคุณและทำให้พวกเขามีไว้สำหรับบอท AI บางตัวเป็นใบสั่งยาเกี่ยวกับปัญหาที่คุณพยายามแก้ไข” จอห์นสันกล่าว
4. ใช้บัญชีองค์กรด้วยเครื่องมือ AI
Hawking เตือนไม่ให้ใช้บัญชีอีเมล E ส่วนบุคคลเพื่อหลีกเลี่ยงการสร้างจุดป้อนข้อมูลสำหรับการแบ่งปันข้อมูลที่สามารถใช้ในการฝึกอบรมโมเดลโดยไม่ได้รับความยินยอม
5. เครื่องมือ Vet AI ไม่ว่าจะใช้ที่ไหน
Hawking ยังแนะนำให้องค์กรสร้างทีมตรวจสอบสำหรับเครื่องมือ Vet AI ทีมอาจรวมถึงผู้มีส่วนได้ส่วนเสียเช่นแผนกไอทีแพทย์และแม้แต่ทนายความผู้ป่วย
“ มันไม่ได้หมายถึงการล็อค AI ทั้งหมด แต่เข้าใจสิ่งที่ใช้และทำไมมันถึงใช้” ฮอว์คิงกล่าว
ถัดไป: กลยุทธ์การควบคุมข้อมูล AI ที่จะทำให้คุณประสบความสำเร็จ
6. ทำการประเมินความเสี่ยงที่สมบูรณ์และแก้ไขเต็มรูปแบบ
การประเมินความเสี่ยงอย่างละเอียดช่วยให้องค์กรด้านสุขภาพสามารถระบุความเสี่ยงของการปฏิบัติตามกฎระเบียบและพัฒนานโยบายและขั้นตอนการใช้งานของ AI
“ มันเป็นสิ่งสำคัญมากในการเป็นส่วนหนึ่งของการตรวจสอบ AI เพื่อให้ได้ภาพรวมที่เหมาะสมว่าสิ่งเหล่านี้เกิดขึ้นได้อย่างไร” ฮอว์คิงกล่าว “นั่นคือจุดเริ่มต้นสำหรับการกำกับดูแลที่ดี”