เมื่อพูดถึงเรื่องความปลอดภัยทางไซเบอร์ในปี 2568 ปัญญาประดิษฐ์เป็นสิ่งสำคัญอันดับแรกสำหรับนักวิเคราะห์และผู้เชี่ยวชาญหลายคน
ปัญญาประดิษฐ์จะถูกนำไปใช้โดยทั้งฝ่ายตรงข้ามและผู้ปกป้อง แต่ผู้โจมตีจะได้รับประโยชน์มากขึ้นจากมัน Willy Leichter, CMO ของ แอพ SOCผู้ให้บริการการจัดการความปลอดภัยของแอปพลิเคชันและการจัดการช่องโหว่ในซานโฮเซ่ รัฐแคลิฟอร์เนีย
“เรารู้ว่า AI จะถูกนำมาใช้มากขึ้นในทั้งสองฝ่ายของสงครามไซเบอร์” เขาบอกกับ TechNewsWorld “อย่างไรก็ตาม ผู้โจมตีจะยังคงถูกจำกัดน้อยลง เพราะพวกเขากังวลน้อยลงเกี่ยวกับความแม่นยำของ AI จริยธรรม หรือผลที่ตามมาที่ไม่ได้ตั้งใจ เทคนิคต่างๆ เช่น เครือข่ายฟิชชิ่งและกำจัดสิ่งสกปรกที่เป็นส่วนตัวสูงสำหรับจุดอ่อนแบบเดิมจะได้รับประโยชน์จาก AI”
“ในขณะที่ AI มีศักยภาพอย่างมากในการป้องกัน แต่ก็มีข้อจำกัดมากกว่าทั้งทางกฎหมายและในทางปฏิบัติ ซึ่งจะทำให้การยอมรับช้าลง” เขากล่าว
Chris Hauk แชมป์ด้านความเป็นส่วนตัวของผู้บริโภคที่ ความเป็นส่วนตัวของพิกเซลผู้เผยแพร่คู่มือความปลอดภัยและความเป็นส่วนตัวของผู้บริโภคออนไลน์ คาดการณ์ว่าปี 2025 จะเป็นปีแห่ง AI เทียบกับ AI เนื่องจากคนดีใช้ AI เพื่อป้องกันการโจมตีทางไซเบอร์ที่ขับเคลื่อนด้วย AI
“น่าจะเป็นปีแห่งการต่อสู้กลับไปกลับมา เนื่องจากทั้งสองฝ่ายใช้ข้อมูลที่รวบรวมจากการโจมตีครั้งก่อนเพื่อตั้งค่าการโจมตีใหม่และการป้องกันใหม่” เขากล่าวกับ TechNewsWorld
การลดความเสี่ยงด้านความปลอดภัยของ AI
Leichter ยังคาดการณ์ด้วยว่าศัตรูทางไซเบอร์จะเริ่มกำหนดเป้าหมายระบบ AI บ่อยขึ้น “เทคโนโลยี AI ขยายขอบเขตการโจมตีอย่างมากด้วยภัยคุกคามที่เกิดขึ้นอย่างรวดเร็วต่อโมเดล ชุดข้อมูล และระบบปฏิบัติการภาษาเครื่อง” เขาอธิบาย “นอกจากนี้ เมื่อแอปพลิเคชัน AI ถูกเร่งจากห้องปฏิบัติการไปสู่การผลิต ผลกระทบด้านความปลอดภัยทั้งหมดจะไม่เป็นที่เข้าใจจนกว่าจะเกิดการละเมิดที่หลีกเลี่ยงไม่ได้”
คาร์ล โฮล์มควิสต์ ผู้ก่อตั้งและซีอีโอของ ผนังสุดท้ายบริษัทรักษาความปลอดภัยข้อมูลส่วนตัวซึ่งตั้งอยู่ในโฮโนลูลูตกลงกัน “การปรับใช้เครื่องมือ AI จำนวนมากโดยไม่ได้รับการตรวจสอบ ซึ่งมักเปิดตัวโดยไม่มีรากฐานด้านความปลอดภัยที่แข็งแกร่ง จะนำไปสู่ผลกระทบร้ายแรงในปี 2568” เขากล่าวกับ TechNewsWorld
“หากไม่มีมาตรการความเป็นส่วนตัวและกรอบความปลอดภัยที่เพียงพอ ระบบเหล่านี้จะกลายเป็นเป้าหมายสำคัญสำหรับการละเมิดและการยักย้าย” เขากล่าว “แนวทาง Wild West ในการใช้งาน AI จะทำให้ข้อมูลและระบบการตัดสินใจตกอยู่ในอันตราย โดยผลักดันให้องค์กรต่างๆ จัดลำดับความสำคัญของการควบคุมความปลอดภัยขั้นพื้นฐาน กรอบการทำงานของ AI ที่โปร่งใส และการติดตามอย่างต่อเนื่องเพื่อลดความเสี่ยงที่เพิ่มมากขึ้นเหล่านี้”
Leichter ยังยืนยันว่าทีมรักษาความปลอดภัยจะต้องรับผิดชอบมากขึ้นในการรักษาความปลอดภัยระบบ AI ในปี 2568
“สิ่งนี้ฟังดูชัดเจน แต่ในหลายองค์กร โครงการ AI เริ่มต้นได้รับการขับเคลื่อนโดยนักวิทยาศาสตร์ข้อมูลและผู้เชี่ยวชาญด้านธุรกิจ ซึ่งมักจะหลีกเลี่ยงกระบวนการรักษาความปลอดภัยแอปพลิเคชันแบบเดิมๆ” เขากล่าว “ทีมรักษาความปลอดภัยจะต่อสู้กับการต่อสู้ที่พ่ายแพ้หากพวกเขาพยายามบล็อกหรือชะลอการริเริ่มด้าน AI แต่พวกเขาจะต้องนำโครงการ AI อันธพาลมาอยู่ภายใต้การรักษาความปลอดภัยและการปฏิบัติตามกฎระเบียบ”
Leichter ยังชี้ให้เห็นว่า AI จะขยายขอบเขตการโจมตีสำหรับฝ่ายตรงข้ามที่กำหนดเป้าหมายไปที่ห่วงโซ่อุปทานซอฟต์แวร์ในปี 2568 “เราได้เห็นแล้วว่าห่วงโซ่อุปทานกลายเป็นเวกเตอร์หลักสำหรับการโจมตี เนื่องจากกลุ่มซอฟต์แวร์ที่ซับซ้อนต้องอาศัยโค้ดของบุคคลที่สามและโอเพ่นซอร์สอย่างมาก “เขากล่าว “การนำ AI มาใช้อย่างแพร่หลายทำให้เป้าหมายนี้ใหญ่ขึ้นด้วยเวกเตอร์ที่ซับซ้อนของการโจมตีชุดข้อมูลและแบบจำลอง”
“การทำความเข้าใจลำดับวงศ์ตระกูลของแบบจำลองและการรักษาความสมบูรณ์ของชุดข้อมูลที่เปลี่ยนแปลงนั้นเป็นปัญหาที่ซับซ้อน และในปัจจุบัน ไม่มีทางที่เป็นไปได้สำหรับแบบจำลอง AI ในการเรียนรู้ข้อมูลที่เป็นพิษ” เขากล่าวเสริม
ภัยคุกคามที่เป็นพิษต่อข้อมูลต่อโมเดล AI
Michael Lieberman ซีทีโอและผู้ร่วมก่อตั้ง Kusari ซึ่งเป็นบริษัทรักษาความปลอดภัยห่วงโซ่อุปทานซอฟต์แวร์ในริดจ์ฟิลด์ รัฐคอนเนตทิคัต มองว่าการวางยาพิษโมเดลภาษาขนาดใหญ่เป็นการพัฒนาที่สำคัญในปี 2568 “การโจมตีด้วยการเป็นพิษของข้อมูลที่มีจุดมุ่งหมายเพื่อจัดการกับ LLM จะแพร่หลายมากขึ้น แม้ว่า วิธีการนี้มีแนวโน้มว่าจะต้องใช้ทรัพยากรมากกว่าเมื่อเทียบกับกลยุทธ์ที่ง่ายกว่า เช่น การกระจาย LLM แบบเปิดที่เป็นอันตราย” เขากล่าวกับ TechNewsWorld
“องค์กรส่วนใหญ่ไม่ได้ฝึกอบรมโมเดลของตนเอง” เขาอธิบาย “แต่พวกเขาอาศัยโมเดลที่ผ่านการฝึกอบรมมาแล้ว ซึ่งมักจะให้บริการฟรี การขาดความโปร่งใสเกี่ยวกับต้นกำเนิดของโมเดลเหล่านี้ทำให้ผู้ไม่ประสงค์ดีแนะนำโมเดลที่เป็นอันตรายได้ง่าย ดังที่เห็นได้จากเหตุการณ์มัลแวร์ Hugging Face” เหตุการณ์ดังกล่าวเกิดขึ้นในต้นปี 2024 เมื่อพบว่า LLM ประมาณ 100 LLM ที่มีประตูหลังที่ซ่อนอยู่ซึ่งสามารถรันโค้ดที่กำหนดเองบนเครื่องของผู้ใช้ได้ถูกอัปโหลดไปยังแพลตฟอร์ม Hugging Face
“ความพยายามทำลายข้อมูลในอนาคตมีแนวโน้มที่จะกำหนดเป้าหมายไปยังผู้เล่นหลักๆ เช่น OpenAI, Meta และ Google ซึ่งฝึกฝนโมเดลของพวกเขาบนชุดข้อมูลขนาดใหญ่ ทำให้การโจมตีดังกล่าวยากต่อการตรวจจับ” Lieberman คาดการณ์
“ในปี 2025 ผู้โจมตีมีแนวโน้มที่จะแซงหน้ากองหลัง” เขากล่าวเสริม “ผู้โจมตีมีแรงจูงใจทางการเงิน ในขณะที่กองหลังมักจะดิ้นรนเพื่อให้ได้งบประมาณที่เพียงพอ เนื่องจากโดยทั่วไปแล้วการรักษาความปลอดภัยไม่ได้ถูกมองว่าเป็นตัวขับเคลื่อนรายได้ อาจต้องใช้การละเมิดห่วงโซ่อุปทาน AI ที่สำคัญ — คล้ายกับเหตุการณ์ SolarWinds Sunburst — เพื่อกระตุ้นให้อุตสาหกรรมจัดการกับภัยคุกคามอย่างจริงจัง”
ต้องขอบคุณ AI ที่จะมีผู้คุกคามที่เปิดตัวการโจมตีที่ซับซ้อนมากขึ้นในปี 2568 “เมื่อ AI มีความสามารถและเข้าถึงได้มากขึ้น อุปสรรคในการเข้าสู่ผู้โจมตีที่มีทักษะน้อยจะลดลง ในขณะเดียวกันก็เร่งความเร็วในการโจมตีด้วย ” Justin Blackburn วิศวกรตรวจจับภัยคุกคามบนคลาวด์อาวุโสของอธิบาย แอพ Omniบริษัทซอฟต์แวร์การจัดการความปลอดภัย SaaS ในเมืองซานมาเทโอ รัฐแคลิฟอร์เนีย
“นอกจากนี้ การเกิดขึ้นของบอทที่ขับเคลื่อนด้วย AI จะช่วยให้ผู้คุกคามสามารถดำเนินการโจมตีขนาดใหญ่โดยใช้ความพยายามเพียงเล็กน้อย” เขาบอกกับ TechNewsWorld “ด้วยเครื่องมือที่ขับเคลื่อนด้วย AI เหล่านี้ แม้แต่ศัตรูที่มีความสามารถน้อยกว่าก็อาจสามารถเข้าถึงข้อมูลที่ละเอียดอ่อนโดยไม่ได้รับอนุญาต และขัดขวางบริการในระดับที่ก่อนหน้านี้มีเพียงผู้โจมตีที่มีความซับซ้อนและมีเงินทุนเพียงพอเท่านั้นที่จะเห็นได้”
Script Babies เติบโตขึ้น
ในปี 2025 การเพิ่มขึ้นของเอเจนต์เอไอ ซึ่งเป็นเอไอที่มีความสามารถในการตัดสินใจอย่างอิสระ ปรับให้เข้ากับสภาพแวดล้อม และดำเนินการโดยไม่ต้องมีการแทรกแซงของมนุษย์โดยตรง จะทำให้ปัญหาของผู้ปกป้องรุนแรงขึ้นเช่นกัน “ความก้าวหน้าด้านปัญญาประดิษฐ์คาดว่าจะช่วยให้ผู้มีบทบาทที่ไม่ใช่รัฐสามารถพัฒนาอาวุธไซเบอร์อัตโนมัติได้” กล่าว เจสัน พิตต์แมนรองศาสตราจารย์วิทยาลัยที่โรงเรียนความปลอดภัยทางไซเบอร์และเทคโนโลยีสารสนเทศที่ University of Maryland Global Campus ใน Adelphi, Md
“Agentic AI ทำงานอัตโนมัติโดยมีพฤติกรรมมุ่งเป้าไปที่เป้าหมาย” เขาบอกกับ TechNewsWorld “ระบบดังกล่าวสามารถใช้อัลกอริธึมชายแดนเพื่อระบุช่องโหว่ แทรกซึมระบบ และพัฒนากลยุทธ์แบบเรียลไทม์โดยไม่ต้องใช้มนุษย์ควบคุม –
“ฟีเจอร์เหล่านี้แตกต่างจากระบบ AI อื่นๆ ที่ต้องอาศัยคำสั่งที่กำหนดไว้ล่วงหน้าและต้องใช้ข้อมูลจากมนุษย์” เขาอธิบาย
“เช่นเดียวกับหนอนมอร์ริสในทศวรรษที่ผ่านมา การปล่อยอาวุธไซเบอร์เอเจนต์อาจเริ่มต้นจากอุบัติเหตุ ซึ่งเป็นเรื่องที่ลำบากมากกว่า เนื่องจากความสามารถในการเข้าถึงเครื่องมือ AI ขั้นสูงและการแพร่กระจายของเฟรมเวิร์กการเรียนรู้ของเครื่องแบบโอเพ่นซอร์สช่วยลดอุปสรรคในการพัฒนาอาวุธไซเบอร์ที่ซับซ้อน เมื่อสร้างขึ้นแล้ว คุณสมบัติความเป็นอิสระอันทรงพลังสามารถนำไปสู่เอเจนต์เอไอที่หลีกเลี่ยงมาตรการด้านความปลอดภัยได้อย่างง่ายดาย”
แม้ว่า AI จะเป็นอันตรายเมื่อตกอยู่ในมือของผู้คุกคาม แต่ก็สามารถช่วยรักษาความปลอดภัยข้อมูลได้ดีขึ้น เช่น ข้อมูลที่สามารถระบุตัวบุคคลได้ (PII) “หลังจากวิเคราะห์ไฟล์ Google Drive มากกว่าหกล้านไฟล์ เราพบว่า 40% ของไฟล์มี PII ซึ่งทำให้ธุรกิจเสี่ยงต่อการละเมิดข้อมูล” Rich Vibert ผู้ร่วมก่อตั้งและ CEO ของ กล่าว เมโทมิกแพลตฟอร์มความเป็นส่วนตัวของข้อมูลในลอนดอน
“เมื่อเราก้าวเข้าสู่ปี 2025 เราจะเห็นบริษัทต่างๆ จำนวนมากขึ้นจัดลำดับความสำคัญของวิธีการจำแนกข้อมูลอัตโนมัติ เพื่อลดปริมาณของข้อมูลที่มีช่องโหว่ซึ่งถูกบันทึกโดยไม่ได้ตั้งใจในไฟล์ที่เข้าถึงได้แบบสาธารณะและพื้นที่ทำงานที่ทำงานร่วมกันทั่วทั้ง SaaS และสภาพแวดล้อมคลาวด์” เขากล่าวต่อ
“ธุรกิจต่างๆ จะใช้เครื่องมือที่ขับเคลื่อนด้วย AI มากขึ้น ซึ่งสามารถระบุ แท็ก และรักษาความปลอดภัยข้อมูลที่ละเอียดอ่อนได้โดยอัตโนมัติ” เขากล่าว “การเปลี่ยนแปลงนี้จะช่วยให้บริษัทต่างๆ สามารถติดตามข้อมูลจำนวนมหาศาลที่สร้างขึ้นในแต่ละวัน เพื่อให้มั่นใจว่าข้อมูลที่ละเอียดอ่อนได้รับการปกป้องอย่างต่อเนื่อง และการเปิดเผยข้อมูลที่ไม่จำเป็นจะลดลง”
อย่างไรก็ตาม ปี 2025 อาจนำมาซึ่งความผิดหวังในหมู่ผู้เชี่ยวชาญด้านความปลอดภัย เมื่อกระแสความนิยมเกี่ยวกับ AI เข้ามาโจมตีแฟนๆ “CISO จะลดลำดับความสำคัญของการใช้ Gen AI ลง 10% เนื่องจากขาดมูลค่าเชิงปริมาณ” Cody Scott นักวิเคราะห์อาวุโสของ วิจัยฟอร์เรสเตอร์บริษัทวิจัยตลาดซึ่งมีสำนักงานใหญ่ในเมืองเคมบริดจ์ รัฐแมสซาชูเซตส์ เขียนไว้ในบล็อกของบริษัท
“ตามข้อมูลของ Forrester ในปี 2024 พบว่า 35% ของ CISO และ CIO ทั่วโลกพิจารณาสำรวจและปรับใช้กรณีการใช้งานสำหรับ Gen AI เพื่อปรับปรุงประสิทธิภาพการทำงานของพนักงานเป็นลำดับความสำคัญสูงสุด” เขากล่าว “ตลาดผลิตภัณฑ์รักษาความปลอดภัยได้รับความสนใจอย่างรวดเร็วถึงประโยชน์ด้านการผลิตที่คาดหวังของ Gen AI แต่การขาดผลลัพธ์เชิงปฏิบัติกำลังส่งเสริมให้เกิดความท้อแท้”
“ความคิดของศูนย์ปฏิบัติการรักษาความปลอดภัยอัตโนมัติที่ใช้ Gen AI สร้างความฮือฮาอย่างมาก แต่ก็ไม่สามารถไปไกลจากความเป็นจริงได้” เขากล่าวต่อ “ในปี 2568 แนวโน้มจะยังคงดำเนินต่อไป และผู้ปฏิบัติงานด้านความปลอดภัยจะจมลึกลงไปในความไม่ลุ่มหลง เนื่องจากความท้าทาย เช่น งบประมาณไม่เพียงพอ และประโยชน์ของ AI ที่ยังไม่เกิดขึ้นจริง จะช่วยลดจำนวนการใช้งาน Gen AI ที่เน้นความปลอดภัย”