
การใช้ AI ในการปรับความเสี่ยงสำหรับการดูแลที่ได้รับการจัดการก็เหมือนกับการเติมเชื้อเพลิงจรวดให้กับเครื่องยนต์ของคุณ ตั้งแต่การเร่งการตรวจสอบแผนภูมิไปจนถึงการระบุโอกาสในการเขียนโค้ดในแบบเรียลไทม์ AI สามารถปรับปรุงประสิทธิภาพ ความแม่นยำ และการปฏิบัติตามข้อกำหนดได้อย่างมาก แต่หากไม่มีการป้องกันที่เหมาะสม เครื่องมือเดียวกันเหล่านั้นก็สามารถขยายข้อผิดพลาด ทำให้เกิดอคติ และสร้างการเปิดเผยด้านกฎระเบียบที่มีค่าใช้จ่ายสูงได้เช่นกัน
ในขณะที่องค์กร Managed Care นำทางภูมิทัศน์ที่พัฒนาอย่างรวดเร็วนี้ คำถามสำคัญก็เกิดขึ้น: เราจะแน่ใจได้อย่างไรว่า AI ยังคงซื่อสัตย์ มีประโยชน์ และป้องกันได้
คำตอบ: ใช้ราวกั้นที่ถูกต้อง เราไม่จำเป็นต้องเริ่มต้นจากศูนย์ อุตสาหกรรมที่มีอัตรากำไรขั้นต้นเป็นศูนย์สำหรับข้อผิดพลาด เช่น การบิน ใช้เวลาหลายทศวรรษในการปรับปรุงระบบให้สมบูรณ์แบบเพื่อจัดการการดำเนินงานที่ซับซ้อนและมีความเสี่ยงสูง การนำการปรับความเสี่ยงของ Medicare ไปใช้อย่างระมัดระวัง การป้องกันเหล่านี้ช่วยให้องค์กรด้านการดูแลสุขภาพลดความเสี่ยงไปพร้อมๆ กับปลดล็อกศักยภาพของ AI ได้อย่างเต็มที่
สองเสาหลักของการป้องกัน AI เพื่อการปรับความเสี่ยง
เป้าหมายของการป้องกันด้วย AI ในการปรับความเสี่ยงของ Medicare นั้นมีสองเท่า:
- รับประกันความถูกต้องและถูกต้อง
- สร้างความมั่นใจในการติดตามและความรับผิดชอบ
เสาหลักที่ 1: การรับรองความถูกต้องและถูกต้อง
ในการปรับความเสี่ยงความถูกต้องไม่สามารถต่อรองได้ รหัส HCC ที่ไม่ถูกต้องหนึ่งรหัสสามารถกระเพื่อมผ่านการเบิกจ่าย การปฏิบัติตามข้อกำหนด และบันทึกของผู้ป่วย ทำให้เกิดความเสี่ยงด้านการปฏิบัติงานและทางกฎหมาย หลักการง่ายๆ ก็คือ กำจัดข้อผิดพลาดที่สามารถป้องกันได้ก่อนที่จะก่อให้เกิดอันตราย
การป้องกันที่สำคัญประกอบด้วย:
- สร้างความมั่นใจในการกำกับดูแลของมนุษย์ผ่านการตรวจสอบโดยผู้เชี่ยวชาญ
เครื่องมือที่ได้รับความช่วยเหลือจาก AI สามารถลดเวลาในการเขียนโค้ดได้อย่างมาก โดยการทดลองแบบครอสโอเวอร์แบบสุ่มในปี 2568 พบว่าผู้เขียนโค้ดที่ใช้เครื่องมือ AI กรอกบันทึกทางคลินิกที่ซับซ้อนได้เร็วขึ้น 46% แต่ยังขาดความเข้าใจทางคลินิกที่เหมาะสมยิ่งซึ่งผู้เชี่ยวชาญที่มีประสบการณ์นำมาให้ รหัสที่ AI แนะนำแต่ละรายการควรได้รับการตรวจสอบโดยผู้เชี่ยวชาญด้านการเข้ารหัสทางคลินิกก่อนส่ง การฝังอินเทอร์เฟซการตรวจสอบความถูกต้องลงในแพลตฟอร์มการเขียนโค้ดโดยตรงจะช่วยเพิ่มความคล่องตัวให้กับกระบวนการและหลีกเลี่ยงการหยุดชะงักของเวิร์กโฟลว์
- ข้อเสนอ AI พื้นฐานในเอกสารทางคลินิก
เพื่อให้มั่นใจในความถูกต้อง แต่ละแฟล็กจะต้องเชื่อมโยงกับบันทึกที่มีการประทับเวลาอย่างชัดเจน – ไม่มีโค้ดที่ไม่รองรับ AI ควรตรวจสอบเอกสารสนับสนุนโดยอัตโนมัติ (เช่น คำอธิบาย ICD-10 หรือค่าการวินิจฉัย) ก่อนที่จะส่งข้อเสนอเพื่อตรวจสอบ ผู้จัดการการปฏิบัติตามกฎระเบียบด้านการเข้ารหัสหรือผู้เชี่ยวชาญ CDI ควรเป็นเจ้าของราวกั้นนี้ที่ป้องกันความเสี่ยงในการปฏิบัติตามกฎระเบียบและส่งเสริมความเชื่อมั่นของผู้ให้บริการ
- ความคิดเห็นของแพทย์ในฐานะเครื่องมือการเรียนรู้
สร้างกลไกสำหรับผู้ให้บริการในการแบ่งปันคำติชมที่มีโครงสร้าง (การให้คะแนน ความคิดเห็น ฯลฯ) ในแต่ละข้อเสนอ AI โดยให้ข้อมูลนี้โดยตรงไปยังการฝึกอบรมโมเดลใหม่ การกำกับดูแลอย่างสม่ำเสมอโดยผู้จัดการข้อมูลทางคลินิกหรือที่ปรึกษาแพทย์ซึ่งสามารถแปลข้อมูลของผู้ให้บริการเป็นข้อมูลการบำบัดได้ ช่วยให้มั่นใจได้ว่า AI จะพัฒนาไปพร้อมกับมาตรฐานและแนวทางปฏิบัติในการเขียนโค้ดในโลกแห่งความเป็นจริง
- การป้องกันการโอเวอร์โค้ด การฉ้อโกง และการละเมิด
หากไม่มีการควบคุม AI ก็สามารถขับเคลื่อนการอัปเกรดโดยไม่ได้ตั้งใจ การสืบสวนของกระทรวงยุติธรรมเมื่อเร็วๆ นี้เปิดเผยว่าการวินิจฉัยที่ไม่ได้รับการสนับสนุนเพิ่มคะแนนความเสี่ยง และนำไปสู่การจ่ายเงินเกินจำนวนหลายล้านใน Medicare Advantage การป้องกันการปฏิบัติตามกฎระเบียบควรระบุการวินิจฉัยที่มีความเสี่ยงสูง ต้องมีการตรวจสอบระดับที่สอง และสอดคล้องกับกฎความสมบูรณ์ของโปรแกรม CMS ซึ่งดูแลโดยเจ้าหน้าที่ความถูกต้องของการเข้ารหัสหรือผู้ประสานงานหน่วยสืบสวนพิเศษ (SIU)
เสาหลักที่ 2: การตรวจสอบย้อนกลับและความรับผิดชอบ
เมื่อเกิดข้อผิดพลาดในการบิน เจ้าหน้าที่สืบสวนสามารถสร้างเหตุการณ์ขึ้นใหม่ได้ผ่านเครื่องบันทึกกล่องดำ บันทึกการบำรุงรักษา และบันทึกการสื่อสาร ความโปร่งใสนี้สร้างความไว้วางใจและการปรับปรุงอย่างต่อเนื่อง
ในการปรับความเสี่ยงของ Medicare วิธีการต่างๆ จะต้องสามารถอธิบาย ทบทวน และป้องกันได้ การป้องกันที่สำคัญประกอบด้วย:
1. สร้างการตัดสินใจที่ตรวจสอบย้อนกลับได้ด้วยตรรกะที่โปร่งใส
ผู้ตรวจสอบต้องการ “ทำไม” เบื้องหลังโค้ดที่ส่งมาทุกครั้ง – ความทึบเป็นสิ่งที่จำเป็น การศึกษาในปี 2025 พบว่าแพทย์ไว้วางใจ AI มากขึ้นเมื่อมีการอธิบายและเชื่อมโยงพวกเขากับข้อมูลทางคลินิกที่เฉพาะเจาะจงอย่างชัดเจน– เทคนิค AI ที่อธิบายได้ เช่น การเน้นจุดข้อมูลที่เกี่ยวข้องหรือการแสดงคะแนนความน่าเชื่อถือ ช่วยให้ผู้ตรวจสอบติดตามการตัดสินใจและสร้างความไว้วางใจ
2. รักษาความเป็นธรรมโดยการติดตามจริยธรรมและความลำเอียง
AI สามารถขยายเวลาความไม่เท่าเทียมกันได้ การทบทวนอย่างเป็นระบบในปี 2023 พบอคติทั่วไป 6 ประเภทในโมเดล AI ที่ได้รับการฝึก EHR การตรวจสอบความเท่าเทียมที่มีโครงสร้างควรติดตามความแตกต่างระหว่างเชื้อชาติ เพศ อายุ และภูมิศาสตร์ โดยมีการปรับเปลี่ยนตามความจำเป็น การกำกับดูแลการตรวจสอบอคติและการอัปเดตนโยบายควรขึ้นอยู่กับผู้นำด้านจริยธรรมของ AI หรือคณะกรรมการกำกับดูแลที่ตัดขวาง
3. การควบคุมเวอร์ชันและเอกสารประกอบที่ครอบคลุมเพื่อการตรวจสอบย้อนกลับอย่างเต็มรูปแบบ
ปฏิบัติต่อโมเดล AI เหมือนซอฟต์แวร์ระดับองค์กร: มีเวอร์ชันที่เคร่งครัด ประทับเวลา และจัดทำเอกสารครบถ้วน รักษาฐานความรู้แบบรวมศูนย์ที่รวบรวมการกำหนดค่าโมเดล สแน็ปช็อตข้อมูลการฝึกอบรม โปรโตคอลการตรวจสอบ และเหตุผลสำหรับการเปลี่ยนแปลง – เป็นเจ้าของโดยผู้จัดการการปฏิบัติตามกฎระเบียบหรือการกำกับดูแล ความเป็นเจ้าของกระบวนการนี้ควรขึ้นอยู่กับผู้นำด้านการปฏิบัติตามกฎระเบียบและการกำกับดูแลที่ได้รับมอบหมาย เช่น สถาปนิกแพลตฟอร์มหรือผู้จัดการวงจรการใช้งาน AI ซึ่งมีหน้าที่รับผิดชอบในการรักษาความเที่ยงตรงของเอกสาร ความพร้อมในการตรวจสอบ และการควบคุมการเปลี่ยนแปลงในโมเดลที่ปรับใช้ทั้งหมด
4. การเตรียมความพร้อมในการตรวจสอบอย่างต่อเนื่อง
ทำให้ความพร้อมในการตรวจสอบเป็นกระบวนการที่ดำเนินการตลอดเวลา ไม่ใช่การต่อสู้รายไตรมาส ทีมปฏิบัติตามกฎระเบียบควรตรวจสอบบันทึกการตรวจสอบแบบเรียลไทม์ ตรวจสอบให้แน่ใจว่าทุกข้อเสนอโค้ดและขั้นตอนการตรวจสอบความถูกต้องได้รับการบันทึก และใช้แดชบอร์ดเพื่อเน้นความผิดปกติ ผู้จัดการการปฏิบัติตามกฎระเบียบหรือการตรวจสอบภายในควรตรวจสอบบันทึกการตรวจสอบแบบเรียลไทม์ ตรวจสอบการบันทึกข้อเสนอโค้ดแต่ละรายการและขั้นตอนการตรวจสอบ และตรวจสอบการแจ้งเตือนที่ขับเคลื่อนด้วยแดชบอร์ด
บทสรุป
AI ให้คำมั่นสัญญาอันยิ่งใหญ่สำหรับการปรับความเสี่ยงของ Medicare โดยเร่งการระบุผู้ต้องสงสัย เปิดเผยโอกาสที่ซ่อนอยู่ และเพิ่มประสิทธิภาพรายได้ แต่หากไม่มีราวกั้นที่เหมาะสม มันก็อาจกลายเป็นความรับผิดชอบได้อย่างรวดเร็ว: การสร้างโค้ดที่ไม่รองรับ การเรียกใช้การตรวจสอบ และทำให้ผู้ให้บริการแปลกแยก
ด้วยการยึดกลยุทธ์ AI ของคุณเข้ากับอุปสรรคเหล่านี้ คุณจะสร้างระบบที่ไม่เพียงแต่เร็วขึ้นและชาญฉลาดขึ้นเท่านั้น แต่ยังป้องกันได้ด้วยการออกแบบอีกด้วย
เกี่ยวกับปริญญาเอก อรุณ ฮัมปาปูร์
ดร.อรุณ ฮัมปาปูร์ เป็นผู้ร่วมก่อตั้งและซีอีโอของ Bloom Value ซึ่งเป็นบริษัทที่ใช้ประโยชน์จาก AI/ML, บิ๊กดาต้า และระบบอัตโนมัติ เพื่อปรับปรุงประสิทธิภาพทางการเงินและการดำเนินงานของผู้ให้บริการด้านสุขภาพ อดีตผู้นำ AI/ML ที่ IBM Research เขามีสิทธิบัตรของสหรัฐอเมริกามากกว่า 150 ฉบับ และเป็น IEEE Fellow
