ซิสโก้กำลังใช้วิธีการที่รุนแรงในการรักษาความปลอดภัย AI ในโซลูชันการป้องกัน AI ใหม่
ในการสัมภาษณ์พิเศษวันอาทิตย์กับ Rowan Cheung of ai rundownรองประธานบริหารของซิสโก้และ CPO Jeetu Patel กล่าวว่าการป้องกัน AI คือ“ การใช้วิธีการที่รุนแรงเพื่อจัดการกับความท้าทายที่โซลูชั่นความปลอดภัยที่มีอยู่ไม่พร้อมที่จะจัดการ”
AI Defense ประกาศเมื่อสัปดาห์ที่แล้วโดยมีจุดมุ่งหมายเพื่อจัดการกับความเสี่ยงในการพัฒนาและปรับใช้แอปพลิเคชัน AI รวมถึงการระบุว่า AI ถูกใช้ในองค์กร
การป้องกัน AI สามารถปกป้องระบบ AI จากการโจมตีและการป้องกันพฤติกรรมของโมเดลในแพลตฟอร์มที่มีคุณสมบัติเช่น:
- การตรวจหาเงาและแอปพลิเคชั่น AI ที่ถูกลงโทษในเมฆสาธารณะและส่วนตัว
- การทดสอบโมเดล AI อัตโนมัติสำหรับปัญหาด้านความปลอดภัยและความปลอดภัยที่อาจเกิดขึ้นหลายร้อย และ
- ป้องกันการตรวจสอบอย่างต่อเนื่องเพื่อป้องกันความปลอดภัยและภัยคุกคามความปลอดภัยที่อาจเกิดขึ้นเช่นการฉีดอย่างรวดเร็วการปฏิเสธการบริการและการรั่วไหลของข้อมูลที่ละเอียดอ่อน
โซลูชันยังช่วยให้ทีมรักษาความปลอดภัยสามารถปกป้องข้อมูลขององค์กรได้ดีขึ้นโดยให้มุมมองที่ครอบคลุมของแอพ AI ที่ใช้โดยพนักงานสร้างนโยบายที่ จำกัด การเข้าถึงเครื่องมือ AI ที่ไม่ได้รับอนุญาตและดำเนินการป้องกันภัยคุกคามและการสูญเสียข้อมูลที่เป็นความลับ
“ การยอมรับของ AI ทำให้ บริษัท ต่างๆมีความเสี่ยงใหม่ ๆ ที่โซลูชั่นความปลอดภัยทางไซเบอร์แบบดั้งเดิมไม่ได้กล่าวถึง” Kent Noyes หัวหน้าฝ่าย AI และนวัตกรรมไซเบอร์ที่ บริษัท บริการเทคโนโลยี เทคโนโลยีทั่วโลก ในเซนต์หลุยส์กล่าวในแถลงการณ์ “ การป้องกัน Cisco AI แสดงให้เห็นถึงการก้าวกระโดดอย่างมีนัยสำคัญในการรักษาความปลอดภัย AI ให้การมองเห็นอย่างเต็มที่ของสินทรัพย์ AI ขององค์กรและการปกป้องจากภัยคุกคามที่พัฒนาขึ้น”
ขั้นตอนที่เป็นบวกสำหรับการรักษาความปลอดภัย AI
MJ Kaufmann ผู้เขียนและผู้สอนที่ O'Reilly Mediaผู้ประกอบการแพลตฟอร์มการเรียนรู้สำหรับผู้เชี่ยวชาญด้านเทคโนโลยีในบอสตันยืนยันการวิเคราะห์ของซิสโก้เกี่ยวกับโซลูชั่นความปลอดภัยทางไซเบอร์ที่มีอยู่ “ ซิสโก้พูดถูก” เธอบอกกับ Techneworld “ เครื่องมือที่มีอยู่ล้มเหลวในการจัดการกับการโจมตีที่ขับเคลื่อนด้วยระบบ AI จำนวนมากเช่นการโจมตีแบบฉีดทันทีการรั่วไหลของข้อมูลและการกระทำของแบบจำลองที่ไม่ได้รับอนุญาต”
“ ผู้ดำเนินการจะต้องดำเนินการและใช้โซลูชั่นเป้าหมายเพื่อแก้ไขปัญหา” เธอกล่าวเสริม
ซิสโก้อยู่ในตำแหน่งที่ไม่ซ้ำกันในการจัดหาวิธีแก้ปัญหาประเภทนี้แจ็คอีโกลด์ผู้ก่อตั้งและนักวิเคราะห์หลักที่กล่าว J.Gold Associatesบริษัท ที่ปรึกษาด้านไอทีใน Northborough, Mass“ นั่นเป็นเพราะพวกเขามีข้อมูลจำนวนมากจาก telemetry เครือข่ายของพวกเขาที่สามารถใช้เพื่อเสริมความสามารถของ AI ที่พวกเขาต้องการปกป้อง” เขากล่าวกับ Techneworld
ซิสโก้ยังต้องการให้ความปลอดภัยผ่านแพลตฟอร์ม-ในสถานที่คลาวด์และหลายคลาวด์-และข้ามโมเดลเขากล่าวเสริม
“ มันน่าสนใจที่จะเห็นว่ามีกี่ บริษัท ที่นำสิ่งนี้มาใช้” เขากล่าว “ ซิสโก้กำลังเคลื่อนไหวไปในทิศทางที่ถูกต้องด้วยความสามารถแบบนี้เพราะ บริษัท ที่พูดโดยทั่วไปไม่ได้มองอย่างมีประสิทธิภาพ”
การให้การป้องกันแบบหลายรูปแบบและหลายคลาวด์เป็นสิ่งสำคัญสำหรับความปลอดภัยของ AI
“ โซลูชั่น AI แบบหลายรูปแบบหลายแบบขยายพื้นผิวการโจมตีขององค์กรโดยการแนะนำความซับซ้อนในสภาพแวดล้อมที่แตกต่างกันด้วยโปรโตคอลความปลอดภัยที่ไม่สอดคล้องกันจุดถ่ายโอนข้อมูลหลายจุดและความท้าทายในการประสานงานการติดตามและการตอบสนองของเหตุการณ์ Patricia Thaine ซีอีโอและผู้ร่วมก่อตั้งของ AI ส่วนตัวบริษัท รักษาความปลอดภัยข้อมูลและความเป็นส่วนตัวในโตรอนโตกล่าวกับ Technewsworld
เกี่ยวกับข้อ จำกัด
แม้ว่าวิธีการของ Cisco ในการฝังตัวควบคุมความปลอดภัยที่เลเยอร์เครือข่ายผ่านตาข่ายโครงสร้างพื้นฐานที่มีอยู่แสดงให้เห็นถึงสัญญา แต่ก็ยังเผยให้เห็นถึงข้อ จำกัด Querypalผู้สนับสนุนลูกค้า chatbot ที่อยู่ในซานฟรานซิสโก
“ ในขณะที่การมองเห็นระดับเครือข่ายให้ telemetry ที่มีค่าการโจมตีเฉพาะ AI จำนวนมากเกิดขึ้นที่แอปพลิเคชันและเลเยอร์โมเดลที่การตรวจสอบเครือข่ายเพียงอย่างเดียวไม่สามารถตรวจจับได้” เขากล่าวกับ Technewsworld
“ การได้มาซึ่งสติปัญญาที่แข็งแกร่งเมื่อปีที่แล้วให้ความสามารถที่สำคัญของซิสโก้เกี่ยวกับการตรวจสอบความถูกต้องของแบบจำลองและการป้องกันรันไทม์ แต่การมุ่งเน้นไปที่การรวมเครือข่ายอาจนำไปสู่ช่องว่างในการรักษาวงจรชีวิตการพัฒนา AI ที่แท้จริง” เขากล่าว “ พื้นที่สำคัญเช่นความปลอดภัยของการฝึกอบรมการตรวจสอบห่วงโซ่อุปทานแบบจำลองและการปรับแต่งอย่างละเอียดจำเป็นต้องมีการรวมเข้ากับเครื่องมือ MLOPS ที่นอกเหนือไปจากกระบวนทัศน์เครือข่ายแบบดั้งเดิมของซิสโก้”
“ ลองนึกถึงอาการปวดหัวที่เราเห็นด้วยการโจมตีซัพพลายเชนโอเพนซอร์สที่มีการมองเห็นรหัสที่กระทำผิดอย่างเปิดเผย” เขากล่าวเสริม “ การโจมตีห่วงโซ่อุปทานแบบจำลองแทบจะเป็นไปไม่ได้ที่จะตรวจจับโดยการเปรียบเทียบ”
NAG ตั้งข้อสังเกตว่าจากมุมมองการใช้งาน Cisco AI Defense ดูเหมือนจะเป็นส่วนใหญ่ของผลิตภัณฑ์รักษาความปลอดภัยที่มีอยู่ใหม่ด้วยความสามารถในการตรวจสอบเฉพาะ AI ที่อยู่ด้านบน
“ ในขณะที่รอยเท้าการปรับใช้ที่กว้างขวางของพวกเขาให้ข้อได้เปรียบสำหรับการมองเห็นทั่วทั้งองค์กรโซลูชันรู้สึกตอบสนองมากกว่าการเปลี่ยนแปลงในตอนนี้” เขากล่าว “ สำหรับบางองค์กรที่เริ่มต้นการเดินทาง AI ของพวกเขาที่ทำงานกับผลิตภัณฑ์รักษาความปลอดภัยของซิสโก้แล้วการป้องกัน Cisco AI อาจให้การควบคุมที่เป็นประโยชน์ แต่ผู้ที่ติดตามความสามารถของ AI ขั้นสูงจะต้องใช้สถาปัตยกรรมความปลอดภัยที่ซับซ้อนมากขึ้น
สำหรับหลาย ๆ องค์กรการบรรเทาความเสี่ยงของ AI นั้นต้องการผู้ทดสอบการเจาะมนุษย์ที่เข้าใจวิธีการถามคำถามแบบจำลองที่ทำให้ข้อมูลที่ละเอียดอ่อน, Karen Walsh, ซีอีโอของ โซลูชั่น Allegroบริษัท ที่ปรึกษาด้านความปลอดภัยทางไซเบอร์ใน West Hartford, Conn
“ การเปิดตัวของซิสโก้ชี้ให้เห็นว่าความสามารถในการสร้าง guardrails เฉพาะรุ่นจะลดความเสี่ยงเหล่านี้เพื่อป้องกันไม่ให้ AI เรียนรู้ข้อมูลที่ไม่ดีตอบสนองต่อคำขอที่เป็นอันตรายและแบ่งปันข้อมูลที่ไม่ได้ตั้งใจ” เธอกล่าวกับ Techneworld “ อย่างน้อยที่สุดเราก็หวังว่าสิ่งนี้จะระบุและบรรเทาปัญหาพื้นฐานเพื่อให้ผู้ทดสอบปากกาสามารถมุ่งเน้นไปที่กลยุทธ์การประนีประนอม AI ที่ซับซ้อนยิ่งขึ้น”
ความต้องการที่สำคัญในเส้นทางสู่ AGI
Kevin Okemwa เขียนเพื่อ Windows Centralบันทึกว่าการเปิดตัวการป้องกัน AI ไม่สามารถมาได้ในเวลาที่ดีกว่าเนื่องจากห้องปฏิบัติการ AI หลักกำลังปิดการผลิต Intelligence General Intelligence (AGI) ที่แท้จริงซึ่งควรจะทำซ้ำสติปัญญาของมนุษย์
“ เมื่อ Agi เข้าใกล้ในแต่ละปีที่ผ่านมาเงินเดิมพันไม่สามารถสูงขึ้นได้” James McQuiggan ผู้สนับสนุนการให้ความรู้ด้านความปลอดภัยที่ รู้ 4ผู้ให้บริการฝึกอบรมการให้ความรู้ด้านความปลอดภัยใน Clearwater, Fla
“ ความสามารถของ AGI ในการคิดเหมือนมนุษย์ที่มีสัญชาติญาณและการปฐมนิเทศสามารถปฏิวัติอุตสาหกรรมได้ แต่มันก็แนะนำความเสี่ยงที่อาจมีผลกระทบที่กว้างขวาง” เขากล่าวกับ Techneworld “ โซลูชันความปลอดภัย AI ที่แข็งแกร่งทำให้มั่นใจได้ว่า AGI จะพัฒนาอย่างมีความรับผิดชอบลดความเสี่ยงเช่นการตัดสินใจโกงหรือผลที่ไม่ได้ตั้งใจ”
“ การรักษาความปลอดภัย AI ไม่ได้เป็นเพียงแค่ 'ดีที่มี' หรืออะไรบางอย่างที่จะคิดเกี่ยวกับในอีกไม่กี่ปีข้างหน้า” เขากล่าวเสริม “ มันสำคัญมากเมื่อเราก้าวไปสู่ AGI”
DOOM มีอยู่?
Okemwa ยังเขียนว่า:“ ในขณะที่การป้องกัน AI เป็นขั้นตอนในทิศทางที่ถูกต้องการยอมรับข้ามองค์กรและห้องปฏิบัติการ AI ที่สำคัญยังคงต้องเห็น ที่น่าสนใจคือ CEO Openai [Sam Altman] รับทราบถึงการคุกคามของเทคโนโลยีต่อมนุษยชาติ แต่เชื่อว่า AI จะฉลาดพอที่จะป้องกันไม่ให้ AI ก่อให้เกิดการลงโทษที่มีอยู่”
“ ฉันเห็นการมองโลกในแง่ดีเกี่ยวกับความสามารถของ AI ในการควบคุมตนเองและป้องกันผลลัพธ์ที่หายนะ แต่ฉันก็สังเกตเห็นในการยอมรับว่าการจัดระบบ AI ขั้นสูงให้เข้ากับค่านิยมของมนุษย์ยังคงเป็นสิ่งที่เกิดขึ้นในภายหลัง ที่ธนาคารทั่วไปของแคนาดาบอกกับ Techneworld
“ ความคิดที่ว่า AI จะแก้ปัญหาความเสี่ยงที่มีอยู่ของตัวเองนั้นเป็นสิ่งที่มองโลกในแง่ดีอย่างอันตรายดังที่แสดงให้เห็นโดยระบบ AI ปัจจุบันที่สามารถจัดการได้แล้วเพื่อสร้างเนื้อหาที่เป็นอันตราย slashnextบริษัท คอมพิวเตอร์และเครือข่ายความปลอดภัยใน Pleasanton รัฐแคลิฟอร์เนีย
“ การป้องกันทางเทคนิคและการกำกับดูแลของมนุษย์ยังคงเป็นสิ่งจำเป็นเนื่องจากระบบ AI ได้รับแรงผลักดันจากข้อมูลการฝึกอบรมและวัตถุประสงค์ที่ตั้งโปรแกรมไว้ไม่ใช่ความปรารถนาโดยธรรมชาติสำหรับความเป็นอยู่ที่ดีของมนุษย์” เขากล่าวกับ Techneworld
“ มนุษย์มีความคิดสร้างสรรค์ค่อนข้างมาก” โกลด์กล่าวเสริม “ ฉันไม่ได้ซื้อเรื่องไร้สาระทั้งหมดนี้ เราจะหาวิธีที่จะทำให้ AI ทำงานให้เราและทำอย่างปลอดภัย ไม่ได้หมายความว่าจะไม่มีปัญหาไปพร้อมกัน แต่เราทุกคนจะไม่ได้ลงเอยด้วย 'เมทริกซ์' “