ภัยคุกคามทางไซเบอร์ที่เกิดขึ้นใหม่ต่อการวินิจฉัยทาง AI และเครื่องมือสนับสนุนการตัดสินใจทางคลินิก

ภัยคุกคามทางไซเบอร์ที่เกิดขึ้นใหม่ต่อการวินิจฉัยทาง AI และเครื่องมือสนับสนุนการตัดสินใจทางคลินิก

Posted on

ต่อไปนี้เป็นบทความของแขกโดย Ed Gaudet ผู้ก่อตั้งและซีอีโอของ CensInetinet

เมื่อคำพูดเกินจริงไปการแปลงจะอยู่ใกล้กับด้านบนของรายการ แต่เมื่อมีบางสิ่งที่เปลี่ยนแปลงได้จริงมันก็ปฏิเสธไม่ได้ และนั่นคือสิ่งที่เราได้เห็นโดยใช้ปัญญาประดิษฐ์ (AI) ในอุตสาหกรรมสุขภาพ: การปฏิวัติการเปลี่ยนแปลงทางดิจิตอลที่แท้จริง

ด้วยตลาดการดูแลสุขภาพของ AI มูลค่า 26.69 พันล้านดอลลาร์ในปี 2567 และคาดว่าจะสูงกว่า 600 พันล้านเหรียญสหรัฐในปี 2577 การเปลี่ยนแปลงนี้ไม่เพียง แต่ช่วยลดแรงเสียดทานในการดำเนินงานและภาระการบริหารทั่วทั้งองค์กรด้านสุขภาพ แต่ที่สำคัญกว่านั้นมีศักยภาพในการปรับปรุงผลลัพธ์ของผู้ป่วย

อย่างไรก็ตามการเปลี่ยนแปลงที่น่าตื่นเต้นนี้เกิดขึ้นในราคา: เพิ่มความเสี่ยงด้านความปลอดภัยในโลกไซเบอร์ซึ่งผู้เชี่ยวชาญด้านสุขภาพหลายคนยังไม่พร้อมที่จะจัดการ

เครื่องมือ AI -diagnostics และ CDS สามารถเป็นเป้าหมายได้อย่างไร

ก่อนที่ AI จะจัดลำดับความสำคัญการวินิจฉัยแบบดั้งเดิมและระบบ CDS การปกป้องข้อมูลผู้ป่วยเมื่อมันมาถึงความปลอดภัยในโลกไซเบอร์ เนื่องจากระบบที่ใช้ AI มีส่วนเกี่ยวข้องมากขึ้นในการตีความข้อมูลไปสู่การตัดสินใจที่เกี่ยวข้องกับการดูแลความพยายามได้เปลี่ยนไป: การโจมตีทางไซเบอร์ในระบบเหล่านี้ไม่ได้หมายถึงการสูญเสียข้อมูลที่อาจเกิดขึ้นอีกต่อไปพวกเขาสามารถทำร้ายผู้ป่วยได้โดยตรง เทคนิคบางอย่างที่นักแสดงที่ไม่ดีใช้ ได้แก่ :

  • การจัดการแบบจำลอง: การโจมตีแผนกต้อนรับคือเมื่อนักแสดงทำการเปลี่ยนแปลงขนาดเล็ก แต่มีเป้าหมายในข้อมูลอินพุตซึ่งจะทำให้โมเดลวิเคราะห์ข้อมูลที่ไม่ถูกต้อง ตัวอย่างเช่นเนื้องอกมะเร็งอาจสับสนกับความอ่อนโยนซึ่งนำไปสู่ผลที่ตามมาจากหายนะ
  • ข้อมูลพิษ: ผู้โจมตีที่เข้าถึงข้อมูลการศึกษาสำหรับการพัฒนาแบบจำลอง AI สามารถสร้างความเสียหายให้กับพวกเขาซึ่งนำไปสู่คำแนะนำทางการแพทย์ที่เป็นอันตรายหรือไม่แน่นอน
  • แบบจำลองการโจรกรรมและเทคนิคย้อนกลับ: ผู้โจมตีสามารถรับโมเดล AI ผ่านการโจรกรรมหรือการตรวจสอบเชิงตรรกะเพื่อแยกจุดอ่อนของโมเดลจากนั้นสร้างเวอร์ชันที่เป็นอันตรายใหม่หรือทำซ้ำโมเดลที่มีอยู่เดิม
  • อินพุตเท็จและ deepfakes: การฉีดข้อมูลผู้ป่วยเทียมรายการทางการแพทย์ที่จัดการและผลการถ่ายภาพผ่านระบบนำไปสู่การรักษาที่วินิจฉัยผิดพลาด
  • การรบกวนในการดำเนินงาน: สถาบันการแพทย์ใช้ระบบ AI ในการตัดสินใจในการดำเนินงานเช่น ICU triage; การกระทำหรือการทุจริตของระบบเหล่านี้สร้างความผิดปกติในการดำเนินงานอย่างรุนแรงซึ่งทำให้ผู้ป่วยทั้งสองตกอยู่ในความเสี่ยงและส่งผลให้เกิดความล่าช้าอย่างมากตลอดโรงพยาบาล

เหตุใดความเสี่ยงจึงไม่ซ้ำกันในการดูแลสุขภาพ

ข้อผิดพลาดในการดูแลสุขภาพอาจหมายถึงชีวิตและความตายได้อย่างง่ายดาย ดังนั้นการวินิจฉัยที่ไม่ถูกต้องเนื่องจากเครื่องมือ AI ที่เสียนั้นเป็นมากกว่าความรับผิดชอบทางการเงิน มันเป็นภัยคุกคามทันทีต่อชีวิตของผู้คน นอกจากนี้การรับรู้การโจมตีทางไซเบอร์อาจใช้เวลา แต่การประนีประนอมของเครื่องมือ AI อาจเป็นอันตรายได้ทันทีหากแพทย์ใช้ข้อมูลที่มีข้อบกพร่องเพื่อทำการตัดสินใจเกี่ยวกับการรักษาผู้ป่วย น่าเสียดายที่มันเป็นเรื่องยากมากที่จะรักษาระบบ AI ในอุตสาหกรรมนี้เนื่องจากโครงสร้างพื้นฐานที่เก่ากว่าและทรัพยากรที่ จำกัด ไม่ต้องพูดถึงระบบนิเวศของซัพพลายเออร์ที่ซับซ้อน

ผู้นำด้านสุขภาพควรทำอะไรในตอนนี้

เป็นสิ่งสำคัญที่ผู้นำในอุตสาหกรรมพิจารณาภัยคุกคามนี้อย่างรอบคอบและเตรียมความพร้อม ข้อมูลไม่ใช่สินทรัพย์เดียวที่ต้องการการป้องกันที่มีประสิทธิภาพแบบจำลอง AI กระบวนการฝึกอบรมและระบบนิเวศทั้งหมดยังจำเป็นต้องปกป้อง

นี่คือขั้นตอนที่สำคัญที่สุดในการพิจารณา:

  • ทำการประเมิน AI ที่กว้างขวาง: ทำการประเมินความปลอดภัยอย่างละเอียดก่อนที่จะใช้เครื่องมือการวินิจฉัยการวินิจฉัยหรือการตัดสินใจทางคลินิก (CDS) ที่ใช้ AI เพื่อทำความเข้าใจกับความเสี่ยงและช่องโหว่และแผนสำหรับการหยุดทำงานที่ขยายเวลาในระบบเหล่านี้
  • ใช้การตรวจสอบความปลอดภัยไซเบอร์เฉพาะ AI: ปฏิบัติตามแนวทางปฏิบัติด้านความปลอดภัยในโลกไซเบอร์ที่สร้างขึ้นสำหรับระบบ AI โดยดำเนินการตรวจสอบการโจมตีที่ขัดแย้งกัน
  • รักษาความปลอดภัยห่วงโซ่อุปทาน: ต้องการผู้ขายที่สาม -บุคคลเพื่อให้ข้อมูลโดยละเอียดเกี่ยวกับความปลอดภัยของโมเดลพร้อมกับข้อมูลการฝึกอบรมและขั้นตอนการอัปเดต การวิจัยจากสถาบัน Ponemon พบว่าช่องโหว่ในผู้ให้บริการบุคคลที่สามได้คำนึงถึง 59% ของการละเมิดการดูแลสุขภาพดังนั้นองค์กรด้านสุขภาพจะต้องตรวจสอบให้แน่ใจว่าการใช้ภาษาตามสัญญาการบังคับใช้ความเสี่ยง
  • ใช้คลินิกและพนักงานไอทีที่ AI -risks: ทั้งเจ้าหน้าที่คลินิกและพนักงานไอทีต้องการการฝึกอบรมอย่างละเอียดเกี่ยวกับกรณีการใช้งานที่ได้รับอนุมัติและจุดอ่อนด้านความปลอดภัยพิเศษที่พบในระบบ AI พนักงานจะต้องได้รับการฝึกอบรมที่ช่วยให้พวกเขารับรู้ถึงความผิดปกติในเอาท์พุท AI ซึ่งบ่งบอกถึงการจัดการไซเบอร์ที่อาจเกิดขึ้นหรือภาพหลอนแบบจำลอง
  • ทนายความสำหรับมาตรฐานและการทำงานร่วมกัน: องค์กรด้านสุขภาพควรสนับสนุนมาตรฐานและกฎระเบียบเฉพาะ AI ที่เข้มงวดรวมถึงความร่วมมือและชิ้นส่วนที่ระบุช่องโหว่ในเทคโนโลยี AI โปรแกรมของสภาการประสานงานของภาคสุขภาพและ HHS 405 (d) ให้ฐานรากที่สำคัญ แต่จำเป็นต้องมีมาตรการเพิ่มเติม

อนาคตของ AI ในการดูแลสุขภาพขึ้นอยู่กับความไว้วางใจ

AI มีศักยภาพที่สำคัญในการเปลี่ยนการส่งมอบการดูแลและการดำเนินงานของโรงพยาบาล แต่ถ้าภัยคุกคามทางไซเบอร์ประนีประนอมความคืบหน้าเหล่านี้ความไว้วางใจในหมู่แพทย์และผู้ป่วยสามารถกัดเซาะได้อย่างรวดเร็ว – ไม่เพียง แต่การรับเลี้ยงบุตรบุญธรรมเท่านั้น แต่ยังมีความปลอดภัยในตัวเอง

ความปลอดภัยจะต้องฝังอยู่ในทุกขั้นตอนของการพัฒนา AI และการดำเนินการ – มันไม่ได้เป็นเพียงแค่ความจำเป็นทางคลินิกและการดำเนินงาน แต่เป็นคุณธรรม ผู้นำด้านการดูแลสุขภาพมีความรับผิดชอบในการปกป้องการวินิจฉัยที่ขับเคลื่อนด้วย AI และเครื่องมือสนับสนุนการตัดสินใจทางคลินิกที่มีความเข้มงวดเหมือนกันกับระบบที่สำคัญอื่น ๆ อนาคตของนวัตกรรมในการดูแลสุขภาพขึ้นอยู่กับความไว้วางใจเป็นพื้นฐาน หากไม่มีระบบ AI ที่ปลอดภัยและเชื่อถือได้ซึ่งปรับปรุงประสิทธิภาพทางคลินิกเราไม่สามารถรับหรือรักษาความมั่นใจนี้ได้

เกี่ยวกับ Ed Gaudet

Ed Gaudet เป็นผู้ก่อตั้งและซีอีโอของ CensInetinet ซึ่งมีความเป็นผู้นำในการเป็นผู้นำในนวัตกรรมซอฟต์แวร์การตลาดและการขายใน บริษัท ที่เพิ่งเริ่มต้นและ บริษัท มหาชน ก่อนหน้านี้ CMO และ GM บน Imprivata เขาเป็นผู้นำการขยายตัวของเขาไปสู่การดูแลสุขภาพและเปิดตัวแพลตฟอร์ม Cortext ที่ได้รับรางวัล เอ็ดมีสิทธิบัตรหลายประการในการอนุมัติการจัดการสิทธิและความปลอดภัยและทำหน้าที่ในคณะทำงานด้านความปลอดภัยของ HHS 405 (d) และกองกำลังสภาการประสานงานของภาคสุขภาพหลายแห่ง

ดูแหล่งที่มา

Leave a Reply

Your email address will not be published. Required fields are marked *