เมื่อพูดถึง AI องค์กรด้านสุขภาพหมายถึงดี เหตุใดพนักงานจึงไปขยะ?

Posted on

ต่อไปนี้เป็นบทความแขกโดย Lauren Player นักวิเคราะห์องค์กรที่ ManageEngine

ระบบการดูแลสุขภาพใช้ความพยายามอย่างมีนัยสำคัญเมื่อพูดถึงการกำกับดูแล AI: การพัฒนาโปรแกรมการออกกำลังกายการดำเนินการประเมินความเสี่ยงเครื่องมือควบคุมสำหรับการปฏิบัติตามและการสร้างแนวทาง แม้จะมีความคิดริเริ่มที่ดี แต่การหยุดชะงักที่สำคัญเกิดขึ้นระหว่างการกำกับดูแลอย่างเป็นทางการและพฤติกรรมของพนักงาน

ตามที่ล่าสุด แผนที่70% ของพนักงานดูแลสุขภาพรายงานว่าเพื่อนร่วมงานของพวกเขาใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาต ยิ่งกว่านั้นตระหนักถึง 90% ของผู้เชี่ยวชาญที่อยู่ในการดูแลสุขภาพที่พนักงานใช้ AI เร็วกว่าเครื่องมือเหล่านี้สามารถประเมินและอนุมัติได้อย่างถูกต้อง

แม้ว่าตัวเลขเหล่านี้เกี่ยวข้องกับการค้นพบของเราเปิดเผยว่านี่ไม่ได้เกี่ยวกับกฎที่เป็นอันตราย แต่ปัจจัยสำคัญสามประการอธิบายว่าทำไมคนงานด้านสุขภาพที่มีความหมายดีใช้ AI ได้เร็วกว่าองค์กรสามารถก้าวได้: วัฒนธรรมที่รับเลี้ยงบุตรบุญธรรมของการดูแลสุขภาพการเข้าถึงที่ไม่เคยเกิดขึ้นมาก่อนและความเข้าใจผิดของข้อมูล

เพื่อให้เข้าใจว่าทำไมการหยุดชะงักนี้ยังคงมีอยู่เราจึงพูดคุยกับความปลอดภัยทางไซเบอร์ ลีคิม และดำเนินการด้านสุขภาพ Dr. Anthony Tedeschi– ข้อมูลเชิงลึกของพวกเขาไม่เพียง แต่เผยให้เห็นสิ่งที่ผลักดันการใช้ AI ที่ไม่ได้รับอนุญาต แต่ผู้นำด้านสุขภาพสามารถสร้างธรรมาภิบาลที่พนักงานของพวกเขาจะปฏิบัติตามได้อย่างไร

ออกแบบมาก่อนถามในภายหลัง

หากการยอมรับ AI ที่รวดเร็วของบริการสุขภาพรู้สึกท่วมท้น Tedeschi เสนอมุมมองที่แน่นอน: เราเคยมาที่นี่มาก่อน

ผู้บริหารอาวุโสที่ตรวจสอบการหยุดพักของโรงพยาบาลหลายแห่งและการเปลี่ยนแปลงการดูแลสุขภาพจำได้ว่าเขาเข้าสู่การดูแลสุขภาพครั้งแรกในช่วงต้นยุค 2000 เจ้าหน้าที่สุขภาพเริ่มใช้มันสำหรับทุกสิ่งตั้งแต่การอัพเดทผู้ป่วยไปจนถึงการเปลี่ยนแปลงการวางแผนบ่อยครั้งก่อนที่องค์กรของพวกเขาจะมีโปรโตคอลความปลอดภัยในสถานที่

บทเรียนจากยุคนี้ไม่ใช่ว่าคนงานด้านสุขภาพนั้นไร้ความปรานี แต่วัฒนธรรมที่ขับเคลื่อนด้วยภารกิจของพวกเขาทำให้พวกเขายอมรับทุกสิ่งที่สามารถช่วยเหลือผู้ป่วยหรือเพื่อนร่วมงานได้ คิมผู้มีอำนาจระดับโลกสำหรับ AI และความเสี่ยงดิจิทัลซึ่งทำหน้าที่เป็นอธิการบดีอาวุโสด้านความมั่นคงทางไซเบอร์และความเป็นส่วนตัวที่ HIMSS มองว่าวัฒนธรรมเดียวกันนี้เป็นแรงผลักดันสำหรับความท้าทายในการยอมรับของ AIS ในวันนี้: “ในโรงพยาบาลและองค์กรสุขภาพที่เรามาจากมุมมองของมนุษย์

ในขณะที่มีค่าสัญชาตญาณที่ใช้ร่วมกันนี้สามารถนำไปสู่การยอมรับอย่างรวดเร็วของเครื่องมือใหม่โดยไม่ต้องตรวจสอบอย่างเป็นทางการ – รูปแบบ Tedeschi ได้สังเกตตลอดอาชีพของเขา “ทุกครั้งที่เทคโนโลยีใหม่เข้ามาในการดูแลสุขภาพประสบการณ์ที่ฉันมีคือหลาย ๆ คนพร้อมที่จะกระโดดเข้ามาและใช้มันบ่อยครั้งก่อนที่เราจะมีโอกาสพัฒนากรอบ”

ไม่ได้บอกว่าองค์กรไม่ได้พัฒนากรอบดังกล่าว – อันที่จริงพวกเขาลงทุนมากในการกำกับดูแล AI โรงพยาบาลและองค์กรด้านสุขภาพในสหรัฐอเมริกาสร้าง AI ภายในอย่างแข็งขัน เฟรมการจัดการ เพื่อควบคุมความเสี่ยงและส่งเสริมการใช้งานที่รับผิดชอบ สมาคมโรงพยาบาลอเมริกันสนับสนุนความพยายามนี้ผ่านทรัพยากรและ การสนับสนุน สอดคล้องกับนโยบาย AI ของรัฐบาลกลางในขณะที่ American Medical Association ให้บริการ ชุดเครื่องมือปฏิบัติ เพื่อช่วยสร้างความเป็นผู้นำและโครงสร้างการกำกับดูแล

ความพยายามเหล่านี้มีความสำคัญอย่างยิ่งในสหรัฐอเมริกาที่ การจัดการข้อมูลการดูแลสุขภาพ ภูมิทัศน์มีการแยกส่วน แต่แม้กระทั่งโปรแกรมของรัฐบาลที่กว้างขวางที่สุดก็ต้องเผชิญกับความท้าทายพื้นฐาน: เครื่องมือของตัวเองก็ไม่สามารถเข้าถึงได้มากขึ้น

ฟรีทันทีและไม่อาจต้านทานได้

หากมีสิ่งใด ๆ ที่รวบรวมปัญหาทางวัฒนธรรมกับ AI ในระบบการดูแลสุขภาพมันเป็นที่แพร่หลายแพร่หลาย “ ฉันได้ยินเพื่อนร่วมงานมากขึ้นเรื่อย ๆ บอกว่ามันยากที่จะไม่ใช้ AI” Tedeschi กล่าว “มันสร้างขึ้นในเครื่องมือค้นหาของเราตอนนี้ทุกที่”

ไม่เพียง แต่เครื่องมือเหล่านี้ทุกที่– มันเป็นอิสระและทันทีโดยไม่ต้องกำจัดอุปสรรคที่อาจทำให้พนักงานต้องขออนุมัติก่อน รวมเข้ากับ เข้าใจผิดว่า ai -chats เป็นคนไว้วางใจและข้อมูลผู้ป่วยมีความเสี่ยงร้ายแรง “ มีความคิดนี้ว่าฉันอยู่ที่นี่ที่ทำงานของฉันและมีเพียงฉันเท่านั้นที่เห็นได้” คิมอธิบาย “แน่นอนถ้าคุณใช้เครื่องมือ AI ฟรีเราไม่รู้ว่าเกิดอะไรขึ้นกับข้อมูลนี้”

ช่องว่างของสตินี้เป็นปัญหาที่แท้จริงในการดูแลสุขภาพ เพียงครึ่งเดียว (52%) ของพนักงานสำนักงานที่สำรวจเชื่อว่าไม่มีความเสี่ยงที่จะใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตในขณะที่ 40% มีความมั่นใจในตัวเองที่จะใช้เครื่องมือ AI ที่รับผิดชอบแม้ว่าจะไม่ได้รับการอนุมัติก็ตาม เกือบหนึ่งในสาม (32%) ไม่เห็นปัญหาในการใช้เครื่องมือ AI โดยไม่ได้รับการอนุมัติจากที่นั่นหากอยู่ในอุปกรณ์ของตัวเองและมากกว่าหนึ่งในสี่ (26%) ดูเหมือนว่าจะโอเคถ้าเครื่องมือดูเหมือนจะเสี่ยง

ในขณะเดียวกันพนักงานไอที 58% เชื่อว่าพนักงานไม่เข้าใจความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับ AI ในทุก ๆ เปอร์เซ็นต์และเชื่อว่าผู้นำระดับสูงยังประมาทความเสี่ยงของ Shadow AI ความเสี่ยงเหล่านี้เน้นคิมอย่างจริงจัง: “หากความปลอดภัยของผู้ป่วยมีความเสี่ยงเนื่องจากการใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาตมันเป็นโศกนาฏกรรม”

หากองค์กรด้านสุขภาพต้องการปิดช่องว่างนี้พวกเขาจะต้องเข้าใจความเข้าใจผิดที่ทำให้คนงานและความเป็นผู้นำทั้งคู่มั่นใจว่าการใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาต

จุดบอดความปลอดภัยของข้อมูล

ข้อมูลสุขภาพที่ได้รับการคุ้มครองหรือ PHI รวมถึงข้อมูลที่ละเอียดอ่อนที่สุดที่คุณจะได้รับเกี่ยวกับบุคคล ซึ่งรวมถึงลายนิ้วมือหมายเลขประกันสังคมการสแกนสมองและข้อมูลทางจิตวิทยา – ทุกสิ่งที่ต้องได้รับการจัดการด้วยการประเมินที่ยิ่งใหญ่ที่สุดจากองค์กรสุขภาพ

ดังนั้นด้วยการแบ่งปัน PHI โดยเจตนากับเครื่องมือ AI ที่ยังไม่ได้รับการพัฒนาจะต้องเป็นไปได้สำหรับผู้ปฏิบัติงานทางการแพทย์ใด ๆ ที่มีผู้ป่วยที่อยู่ในความดูแลของพวกเขา แต่ Tedeschi ไม่แน่ใจว่าทุกคนเข้าใจถึงผลกระทบของ PHI ในห้อง AI “ ฉันคิดว่าผู้คนมักใช้เครื่องมือ chatgpt หรือเครื่องมือ AI อื่น ๆ ในพื้นที่ส่วนตัวของพวกเขาและเห็นว่าเป็นวิธีที่จะได้รับข้อมูลเพิ่มเติม” เขากล่าว “ดังนั้นพวกเขาจึงพึ่งพามันพวกเขานำกิจกรรมเหล่านี้เข้ามาในที่ทำงาน”

คิมยังเห็นสิ่งนี้ “น่าเสียดายที่มีการขาดการศึกษาในที่สาธารณะโดยรวมและในแง่ขององค์กรด้านสุขภาพบางครั้งก็เป็นเพียงแค่ไม่มีนโยบายเกี่ยวกับหนังสือในแง่ของเครื่องมือที่คุณสามารถหรือไม่สามารถใช้งานได้”

การขาดการศึกษานี้เป็นปัญหาที่ใหญ่กว่าที่องค์กรส่วนใหญ่ตระหนักถึง พนักงานมักจะไม่เข้าใจว่าการโต้ตอบเป็นประจำกับเครื่องมือ AI สามารถเลื่อนออกไปได้ในรูปแบบที่ไม่คาดคิด – เช่นผู้ช่วยเสียงที่จัดเก็บการสนทนาสนับสนุนตั๋วที่มีตัวระบุผู้ป่วยหรือคำอธิบายกรณีที่ไม่ระบุชื่อที่สามารถระบุผู้ป่วยในชุมชนขนาดเล็กหากเครื่องมือรวบรวมข้อมูลทางภูมิศาสตร์ที่หลายคนทำ

ความซับซ้อนถูกคูณด้วยอุปกรณ์ส่วนบุคคล ในขณะที่คิมชี้ให้เห็นเมื่อพนักงานสุขภาพใช้เครื่องมือ AI บนโทรศัพท์ที่ใช้ร่วมกันกับสมาชิกในครอบครัวพวกเขาสร้างความเสี่ยงในการรับสัมผัสที่พวกเขาอาจยังไม่ได้พิจารณา “ตัวอย่างเช่นถ้าลูกของฉันได้รับโทรศัพท์ของฉันเขาจะดูอะไรกันแน่? มันจะเป็นข้อมูลสุขภาพหรือไม่?”

การปิดช่องโหว่ความรู้เหล่านี้ต้องมีการเปลี่ยนแปลงขั้นพื้นฐานในการที่องค์กรด้านสุขภาพกำลังเข้าใกล้การจัดการ AI แทนที่จะเพียงแค่สร้างนโยบายเพิ่มเติมความสำเร็จที่ประสบความสำเร็จในการจัดการกับสิ่งที่ผลักดันการรับเลี้ยงบุตรบุญธรรมที่ไม่ได้รับอนุญาตอย่างแท้จริง: ความจริงที่ว่าเบื้องหลังเครื่องมือเหล่านี้เป็นคนจริง

การสร้างกรอบการจัดการ AI สำหรับผู้คน

ในคำถามของสิ่งที่สามารถช่วยลด Shadow AI ในองค์กรของพวกเขาคนงานด้านการดูแลสุขภาพกล่าวถึงโซลูชั่นต่อไปนี้:

  • 76% แนะนำให้ใช้การควบคุมทางเทคนิคเช่นการตรวจสอบเครือข่ายและการปิดกั้นเว็บไซต์เฉพาะ
  • 64% แนะนำให้รวมเครื่องมือที่ได้รับอนุมัติเข้ากับเวิร์กโฟลว์มาตรฐานและแอปพลิเคชันธุรกิจ
  • 60% แนะนำการใช้นโยบายและแนวทางที่ชัดเจนสำหรับการใช้ AI ที่ยอมรับได้
  • 56% แนะนำการจัดตั้งรายการเครื่องมือ AI ที่ได้รับอนุมัติ/ตรวจสอบ


ในขณะที่การแก้ปัญหาทางยุทธวิธีเหล่านี้เกี่ยวข้องกับความกังวลทันที Tedeschi และ Kim เสนอวิธีการที่ครอบคลุมมากขึ้นซึ่งกล่าวถึงสาเหตุพื้นฐานของการใช้ AI ที่ไม่ได้รับอนุญาตโดยการจัดลำดับความสำคัญของการศึกษา Tedeschi กล่าวว่า “เรามาได้รับการฝึกฝนเกี่ยวกับสิ่งที่ AI ของเราคืออะไรสิ่งที่เป็นไปได้และปัญหาและงานบางอย่างคืออะไรที่มันแก้”

สำหรับสิ่งที่การศึกษานี้ควรมีลักษณะเป็นคิมเน้นสั้น ๆ : “น้อยกว่ามากขึ้นไปคือยุคที่มีการสนทนาหรือการบรรยายหนึ่งชั่วโมงสร้างวิดีโอที่เป็นเวลาหนึ่งหรือสองนาทีหรือ 30 วินาทีหรือน้อยกว่า” เป็นสิ่งสำคัญอย่างเท่าเทียมกันเพื่อให้แน่ใจว่าทรัพยากรนั้นง่ายและย่อยได้ เพื่อขยายการศึกษานี้อย่างมีประสิทธิภาพคิมแนะนำให้ “รับสมัครอาจารย์หรือสองในทีมเพื่อให้พวกเขาสามารถช่วยสื่อสารการส่งมอบการส่งข้อความการฝึกอบรม ฯลฯ “

“ ในการฝึกอบรมบริบทคุณสามารถเสริมข้อความของคุณผ่านเพื่อนร่วมงานและเพื่อนร่วมงานที่คนอื่นเคารพ” เธอกล่าวต่อ “ความเคารพและความไว้วางใจในคนที่เราระบุด้วยการมองหาและทำงานตรงกันข้ามเป็นสิ่งสำคัญมันไม่ควรเป็นสิ่งที่เย็นชาและไม่มีตัวตนที่ไม่มีใบหน้ามนุษย์หรือเสียงสำหรับมัน”

ในที่สุดโปรแกรมการฝึกอบรมที่ใช้งานไม่ไกลโดยไม่มีการจัดการข้ามหน้าที่ ดังที่คิมแนะนำว่า “รับผู้มีอำนาจตัดสินใจที่สำคัญที่สุดในองค์กรของคุณ – ฝ่ายทรัพยากรบุคคล, มัน, กฎหมาย, การเงินและความเสี่ยง – ไปยังพื้นที่, รูปแบบ, คณะกรรมการ AI และให้พวกเขาพูดคุยกันอย่างสม่ำเสมอเกี่ยวกับวิธีการดำเนินการและดำเนินการมุมมอง AI หรือโปรแกรมเปิด”

ประเด็นสำคัญ

ปัญหาการจัดการ AI ของการดูแลสุขภาพไม่ได้เกี่ยวกับพนักงานขยะ-มันเป็นเรื่องเกี่ยวกับคนงานที่มีความหมายดีนำทางสัญชาตญาณการช่วยเหลือเทคโนโลยีที่เข้าถึงได้และหลุมความรู้

วิธีการดั้งเดิมที่มุ่งเน้นนโยบายและการควบคุมทางเทคนิคลืมว่าเครื่องมือเหล่านี้ได้รับการออกแบบมาในตอนแรก: ผู้คน การกำกับดูแลที่มีประสิทธิภาพนั้นต้องใช้การศึกษาสั้น ๆ โดยไม่ต้องใช้การศึกษายาวนานกว่าการศึกษาที่ยาวนาน เพียร์แชมป์เพื่อขยายการศึกษานี้ และการเลือก AI ข้ามสายงานเชิงรุกมากกว่าการกำกับดูแลแบบปฏิกิริยา

องค์กรที่ประสบความสำเร็จไม่ได้มีนโยบายที่เข้มงวดที่สุด พวกเขามีเฟรมที่ออกแบบมาสำหรับคนจริงที่ต้องการทำงานให้ดีที่สุดอย่างปลอดภัย

เกี่ยวกับลอเรน

Lauren Player เป็นนักวิเคราะห์ธุรกิจที่ ManageEngine ซึ่งเธอสำรวจว่าเทคโนโลยีใหม่ ๆ เช่น AI เปลี่ยนงานดิจิตอลอย่างไร การวิจัยและการเขียนของเธอมุ่งเน้นไปที่การกำกับดูแลการรักษาความปลอดภัยและด้านมนุษย์ของการยอมรับทางเทคนิค ก่อนที่จะมาที่ ManageEngine เธอทำงานที่ Gartner และพัฒนาเนื้อหาที่ได้รับการพัฒนาเพื่อช่วยให้ผู้นำธุรกิจและผู้ซื้อซอฟต์แวร์ตัดสินใจอย่างชาญฉลาดในตลาดที่เคลื่อนไหวอย่างรวดเร็ว

ดูแหล่งที่มา

Leave a Reply

Your email address will not be published. Required fields are marked *