เกือบครึ่งหนึ่งของปริมาณการใช้อินเทอร์เน็ตถูกสร้างขึ้นโดยหน่วยงานอัตโนมัติที่เรียกว่าบอทและส่วนใหญ่เป็นภัยคุกคามต่อผู้บริโภคและ บริษัท ต่างๆบนอินเทอร์เน็ต
-[B]OT สามารถช่วยในการสร้างการฉ้อโกงฟิชชิ่งได้รับความมั่นใจจากผู้ใช้และใช้พวกเขาสำหรับการฉ้อโกง การฉ้อโกงเหล่านี้อาจมีผลกระทบร้ายแรงต่อผู้เสียหายซึ่งบางส่วนครอบคลุมถึงการสูญเสียทางการเงินการขโมยข้อมูลประจำตัวและการแพร่กระจายของซอฟต์แวร์ที่เป็นอันตราย “Christoph C. Cemper ผู้ก่อตั้ง AIPRM, AI PLUBH Engineering and Management Company ใน Wilmington, Del. เขากล่าวในแถลงการณ์ที่นำเสนอในแถลงการณ์ Techneworld
“ น่าเสียดายที่นี่ไม่ใช่เพียงภัยคุกคามต่อความปลอดภัยที่บอทสร้างขึ้น” เขากล่าวต่อ “พวกเขายังสามารถสร้างความเสียหายต่อชื่อเสียงของแบรนด์โดยเฉพาะอย่างยิ่งสำหรับแบรนด์และ บริษัท ที่มีโปรไฟล์โซเชียลมีเดียยอดนิยมและความมุ่งมั่นในอัตราที่สูง ด้วยการรวมแบรนด์เข้ากับการปฏิบัติที่ผิดพลาดและผิดจรรยาบรรณบอทสามารถทำลายชื่อเสียงของแบรนด์และลดความภักดีของผู้บริโภค –
ตามรายงานของ Bad Bot Imperva 2024 ระดับของการเคลื่อนไหวของ Bot Evil เพิ่มขึ้นในปีที่ห้าติดต่อกันซึ่งบ่งบอกถึงแนวโน้มที่น่าตกใจ เขาสังเกตเห็นว่าการเติบโตส่วนหนึ่งเป็นแรงผลักดันจากความนิยมที่เพิ่มขึ้นของปัญญาประดิษฐ์ (AI) และโมเดลการเรียนรู้ขนาดใหญ่ (LLM)
รายงานอธิบายว่าในปี 2566 บอทที่ไม่ดีคิดเป็น 32% ของปริมาณการใช้งานอินเทอร์เน็ตทั้งหมด – เพิ่มขึ้น 1.8% ของปี 2565 ส่วนหนึ่งของการเคลื่อนไหวของบอทที่ดีก็เพิ่มขึ้นแม้ว่าจะน้อยกว่าเล็กน้อยจาก 17.3% ของปริมาณการใช้อินเทอร์เน็ตทั้งหมดในปี 2565 เป็น 17.6 % ในปี 2023 ทั้งหมด 49.6% ของการจราจรทางอินเทอร์เน็ตทั้งหมดในปี 2023 ไม่ใช่มนุษย์เพราะระดับการเคลื่อนไหวของมนุษย์ลดลง 50.4% ของการเคลื่อนไหวทั้งหมด
“Good Bots ช่วยดัชนีเครือข่ายเครื่องมือค้นหา, การตรวจสอบความปลอดภัยในโลกไซเบอร์โดยอัตโนมัติและช่วยฝ่ายบริการลูกค้าผ่าน Chatbots” James McQuiggan ทนายความด้านการรับรู้ด้านความปลอดภัยใน Knowbe4 ผู้ให้บริการฝึกอบรมในสาขาการรับรู้ด้านความปลอดภัยที่ Clearwater, Fla อธิบาย
“ พวกเขาช่วยตรวจจับช่องว่างในการรักษาความปลอดภัยปรับปรุงกระแสงานและปรับปรุงขั้นตอนออนไลน์” TechnicsWorld กล่าว “ศิลปะคือการรู้ระบบอัตโนมัติที่มีค่าและกิจกรรมที่เลวทราม”
การปรับขนาดของตั๋วในระดับ
เทรนด์ระบบอัตโนมัติและความสำเร็จในการเติบโตของ Botnet, Thomas Richards ผู้อำนวยการฝึกอบรมของเครือข่ายและทีมสีแดงที่ Black Duck Software, Application Security Company ใน Burlington, Mass
“ ความเป็นไปได้ของการปรับขนาดช่วยให้นักแสดงที่เป็นอันตรายสามารถบรรลุเป้าหมายได้” TechnicsWorld กล่าว “AI มีผลกระทบทำให้นักแสดงที่เป็นอันตรายเหล่านี้มีการกระทำของผู้คนมากขึ้นและระบบอัตโนมัติของการเข้ารหัสและงานอื่น ๆ ตัวอย่างเช่น Google เปิดเผยว่าฝาแฝดถูกใช้เพื่อสร้างสิ่งที่เป็นอันตราย –
“เรายังเห็นมันในประสบการณ์อื่น ๆ ในชีวิตประจำวัน” เขากล่าวต่อ – “เหมือนการต่อสู้ในช่วงไม่กี่ปีที่ผ่านมาเพื่อรับตั๋วสำหรับคอนเสิร์ตสำหรับกิจกรรมยอดนิยม Scalpers ค้นหาวิธีสร้างผู้ใช้หรือใช้บัญชีเพื่อซื้อตั๋วได้เร็วกว่าผู้ชาย พวกเขาได้รับเงินขายตั๋วในราคาที่สูงขึ้นมาก –
การใช้งานการโจมตีอัตโนมัตินั้นง่ายและทำกำไรได้เพิ่มสตีเฟ่น Kowski, Field CTO ใน SlashNext ซึ่งเป็น บริษัท คอมพิวเตอร์และเครือข่ายความปลอดภัยใน Plesanton, California
“ อาชญากรใช้เครื่องมือที่ซับซ้อนเพื่อข้ามมาตรการรักษาความปลอดภัยแบบดั้งเดิม” TechnicsWorld กล่าว “ระบบขับเคลื่อน AI ทำให้บอทน่าเชื่อถือมากขึ้นและตรวจจับได้ยากขึ้นทำให้พวกเขาเลียนแบบพฤติกรรมมนุษย์ได้ดีขึ้นและปรับให้เข้ากับมาตรการป้องกัน”
“ การรวมกันของเครื่องมือ AI ที่มีอยู่อย่างง่ายดายและมูลค่าที่เพิ่มขึ้นของข้อมูลที่ถูกขโมยทำให้เกิดเงื่อนไขที่ยอดเยี่ยมสำหรับการโจมตีบอทขั้นสูงยิ่งขึ้นในอนาคต” เขากล่าว
ทำไมบอทที่ไม่ดีจึงเป็นภัยคุกคามร้ายแรง
David Brauchler ผู้อำนวยการด้านเทคนิคและหัวหน้าฝ่ายรักษาความปลอดภัย AI และ ML ที่ NCC Group การปรึกษาหารือระดับโลกเกี่ยวกับความปลอดภัยทางไซเบอร์คาดว่าการจราจรทางอินเทอร์เน็ตที่ไร้มนุษยธรรมจะพัฒนาขึ้น
“ เมื่อมีการเชื่อมต่อกับอุปกรณ์มากขึ้นเรื่อย ๆ โดยอินเทอร์เน็ตแพลตฟอร์ม SaaS จะเพิ่มฟังก์ชั่นรวมกันและอุปกรณ์ที่ละเอียดอ่อนใหม่เข้าสู่เวทีการเคลื่อนไหวที่เกี่ยวข้องกับขวดมีโอกาสที่จะเพิ่มการมีส่วนร่วมในเครือข่ายต่อไป” Techniwsworld กล่าว
Brauchler เสริมว่าบอทที่ไม่ดีสามารถสร้างความเสียหายได้อย่างมาก “ บอทถูกนำมาใช้เพื่อกระตุ้นการหยุดพักจำนวนมากโดยทรัพยากรเครือข่ายที่ท่วมท้นเพื่อปฏิเสธการเข้าถึงระบบและบริการ” เขากล่าว
“ ด้วยการปรากฏตัวของปัญญาประดิษฐ์ที่เกิดจากการกำเนิดบอทยังสามารถใช้เพื่อปลอมตัวเป็นกิจกรรมที่เป็นจริงของผู้ใช้บนแพลตฟอร์มอินเทอร์เน็ตเพิ่มความเสี่ยงและการฉ้อโกง” เขาอธิบาย “พวกเขายังสามารถสแกนและใช้ช่องโหว่ในด้านความปลอดภัยในระบบคอมพิวเตอร์”
เขาอ้างว่าความเสี่ยงที่ยิ่งใหญ่ที่สุดของ AI คือการแพร่กระจายของสแปม “ไม่มีทางออกทางเทคนิคที่แข็งแกร่งในการระบุและบล็อกเนื้อหาออนไลน์ประเภทนี้” เขาอธิบาย “ผู้ใช้เข้าหาชื่อของปรากฏการณ์ AI นี้และเสี่ยงที่จะทำให้สัญญาณของการโต้ตอบออนไลน์ที่เป็นธรรมในเสียงเทียม”
อย่างไรก็ตามเขาเตือนว่าอุตสาหกรรมควรระมัดระวังอย่างมากเมื่อเขาพิจารณาทางออกที่ดีที่สุดสำหรับปัญหานี้ “ การเยียวยาที่อาจเกิดขึ้นมากมายอาจทำให้เกิดความเสียหายได้มากขึ้นโดยเฉพาะอย่างยิ่งผู้ที่เสี่ยงต่อการโจมตีความเป็นส่วนตัวออนไลน์” เขากล่าว
วิธีระบุบอทที่เป็นอันตราย
Brauchler ยอมรับว่าผู้คนสามารถตรวจจับบอทที่เป็นอันตรายได้ยาก “ บอทส่วนใหญ่ที่ท่วมท้นไม่ได้ทำงานในทางที่ผู้คนสามารถตรวจจับได้” เขากล่าว “พวกเขาติดต่อโดยตรงกับระบบที่สัมผัสกับอินเทอร์เน็ตถามเกี่ยวกับข้อมูลหรือการโต้ตอบกับบริการ”
“หมวดหมู่ของบอทที่คนส่วนใหญ่จัดการคือตัวแทน AI อิสระที่สามารถปกปิดเป็นคนที่จะโกงคนออนไลน์” เขากล่าวต่อ “AI chatbots จำนวนมากใช้รูปแบบการพูดที่คาดเดาได้ซึ่งผู้ใช้สามารถเรียนรู้ที่จะรับรู้โดยการโต้ตอบกับเครื่องกำเนิดข้อความออนไลน์ AI”
“ในทำนองเดียวกันภาพวาดที่สร้างโดย AI มีจำนวนมาก” กล่าวว่า “ผู้ใช้สามารถเรียนรู้ที่จะมองรวมถึงรูปแบบที่แตกหักเช่นมือและนาฬิกาที่ไม่เหมาะสมขอบของวัตถุที่ละลายในวัตถุอื่น ๆ และพื้นหลังอุดตัน” เขากล่าว
“เสียง AI ยังมีการติดเชื้อและการแสดงออกที่ผิดปกติและการแสดงออกของเสียงที่ผู้ใช้สามารถเรียนรู้ที่จะได้รับ” เขากล่าวเสริม
บอทที่เป็นอันตรายมักจะใช้บนแพลตฟอร์มโซเชียลมีเดียเพื่อเข้าถึงผู้คนหรือกลุ่มที่เชื่อถือได้ “ระวังสัญญาณเช่นรูปแบบที่ผิดปกติในคำเชิญไปยังเพื่อนรูปโปรไฟล์ทั่วไปหรือที่ถูกขโมยและบัญชีที่พวกเขาเผยแพร่ด้วยความเร็วหรือความถี่ที่ไร้มนุษยธรรม” Kowski เตือน
นอกจากนี้เขายังแนะนำให้ระวังโปรไฟล์ที่มีข้อมูลส่วนบุคคลที่ จำกัด รูปแบบที่น่าสงสัยของความมุ่งมั่นหรือเกินโปรแกรมเฉพาะผ่านคำตอบอัตโนมัติ
ในองค์กรเขากล่าวต่อการวิเคราะห์พฤติกรรมแบบเรียลไทม์สามารถตรวจจับการกระทำอัตโนมัติที่ไม่ตรงกับรูปแบบของมนุษย์ตามธรรมชาติเช่นการคลิกที่เป็นไปไม่ได้อย่างรวดเร็วหรือกรอกแบบฟอร์ม
ภัยคุกคามต่อ บริษัท
เขาสังเกตเห็นว่าบอทที่เป็นอันตรายอาจเป็นภัยคุกคามร้ายแรงต่อองค์กร Ken Dunham ผู้อำนวยการฝ่ายวิจัยเกี่ยวกับภัยคุกคามใน Qualys ซัพพลายเออร์ของโซลูชั่นไอทีความปลอดภัยและการปฏิบัติตามข้อกำหนดในคลาวด์ที่ Foster City ในแคลิฟอร์เนีย
“ภัยคุกคามที่รวบรวมโดยนักแสดงสามารถติดอาวุธได้” Techniwsworld กล่าว “บอทมีทรัพยากรที่น่าทึ่งและความสามารถในการดำเนินการโจมตีแบบไม่ระบุชื่อแจกจ่ายการโจมตีแบบอะซิงโครนัสเพื่อจุดประสงค์ที่เลือกเช่นการโจมตีใบรับรองกองกำลังที่โหดร้ายการโจมตีบริการกระจายการสแกนช่องโหว่ความพยายามที่จะใช้และอื่น ๆ อีกมากมาย”
บอทที่เป็นอันตรายสามารถกำกับโดยพอร์ทัลเข้าสู่ระบบจุดสิ้นสุด API และระบบสาธารณะที่สร้างความเสี่ยงให้กับองค์กรในฐานะนักแสดงที่ไม่ดีในการตรวจสอบจุดอ่อนเพื่อหาวิธีในการเข้าถึงโครงสร้างพื้นฐานและข้อมูลภายใน McQuiggan กล่าวเสริม
“ หากไม่มีกลยุทธ์ในการบรรเทาบอท บริษัท อาจมีความอ่อนไหวต่อภัยคุกคามอัตโนมัติ” เขากล่าว
เพื่อบรรเทาภัยคุกคามจากบอทที่ไม่ดีเขาแนะนำให้ใช้การตรวจสอบความถูกต้องแบบหลายองค์ประกอบ, โซลูชันการตรวจจับบอทเทคโนโลยีและการตรวจสอบการเคลื่อนไหวสำหรับความผิดปกติ
นอกจากนี้เขายังแนะนำให้บล็อกตัวแทนผู้ใช้เก่าการใช้ CAPTCHAS และการ จำกัด การโต้ตอบถ้าเป็นไปได้เพื่อลดตัวชี้วัดความสำเร็จ
“ต้องขอบคุณการศึกษาในด้านการรับรู้ด้านความปลอดภัยและการบริหารความเสี่ยงของมนุษย์ความรู้ของพนักงานเกี่ยวกับการฉ้อโกงและการฉ้อโกงสามารถให้วัฒนธรรมความปลอดภัยที่ดีและลดความเสี่ยงของการโจมตีบอทที่ประสบความสำเร็จ” เขาได้รับแจ้ง