อาชญากรไซเบอร์กำลังใช้ปัญญาประดิษฐ์เพื่อดำเนินการแผนการที่ซับซ้อนมากขึ้น พวกเขากำลังกำหนดเป้าหมายทุกอย่างตั้งแต่เงินออมเกษียณไปจนถึงความลับขององค์กรด้วยวิธีการที่ยากต่อการตรวจจับมากขึ้นเรื่อยๆ
เทคโนโลยีเดียวกันที่ปรับแต่งโฆษณาให้กับนักช้อปออนไลน์ตอนนี้ถูกใช้โดยผู้กระทำผิดเพื่อรวบรวมรายละเอียดส่วนบุคคลและเปิดตัวการหลอกลวงที่กำหนดเองอย่างรวดเร็ว รวดเร็วมาก
บริษัท AI รายใหญ่อย่าง Anthropic, OpenAI และ Google รายงานว่าอาชญากรกำลังเข้าถึงแพลตฟอร์มของพวกเขาเพื่อจัดการปฏิบัติการฟิชชิ่งที่ซับซ้อน พัฒนาซอฟต์แวร์ที่เป็นอันตราย และดำเนินการโจมตีทางดิจิทัลต่างๆ ผู้เชี่ยวชาญด้านความปลอดภัยเตือนว่าอาชญากรยังกำลังผลิตคลิปเสียงและวิดีโอปลอมของผู้นำบริษัทเพื่อหลอกลวงพนักงานให้เปิดเผยข้อมูลที่ละเอียดอ่อน
ธุรกิจและสำนักงานภาครัฐอาจเร็วๆ นี้เผชิญกับฝูงระบบที่ขับเคลื่อนด้วย AI ที่สามารถตรวจจุดอ่อนในเครือข่ายคอมพิวเตอร์ แล้วจากนั้นวางแผนและดำเนินการโจมตีโดยแทบไม่ต้องมีความช่วยเหลือจากมนุษย์
เทคโนโลยีกำลังเปลี่ยนแปลงวิธีที่อาชญากรดำเนินการออนไลน์ Alice Marwick หัวหน้าการวิจัยที่ Data & Society องค์กรวิจัยเทคโนโลยีที่เป็นอิสระ เธอบอกกับ Wall Street Journal ว่าการเปลี่ยนแปลงที่ใหญ่ที่สุดเกี่ยวข้องกับขนาดและการเข้าถึง "การเปลี่ยนแปลงที่แท้จริงคือขอบเขตและขนาด การหลอกลวงมีขนาดใหญ่ขึ้น มีเป้าหมายมากขึ้น น่าเชื่อถือมากขึ้น"
Brian Singer เป็นนักศึกษาปริญญาเอกที่มหาวิทยาลัย Carnegie Mellon เขาศึกษาว่าโมเดลภาษาขนาดใหญ่ถูกใช้ในการโจมตีทางไซเบอร์และการป้องกันอย่างไร การประเมินของเขา? ครึ่งหนึ่งถึงสามในสี่ของข้อความสแปมและฟิชชิ่งทั่วโลกตอนนี้มาจากระบบ AI
การโจมตีเองก็น่าเชื่อถือมากขึ้น ระบบ AI ที่ได้รับการฝึกอบรมจากการสื่อสารของบริษัทสามารถผลิตข้อความหลายพันข้อความที่ฟังดูเป็นธรรมชาติและตรงกับสไตล์ของบริษัท พวกเขาคัดลอกวิธีที่ผู้บริหารเขียน พวกเขากล่าวถึงข่าวล่าสุดที่พบในบันทึกสาธารณะ
เทคโนโลยีนี้ยังช่วยนักต้มตุ๋นต่างประเทศซ่อนความผิดพลาดทางภาษาที่เคยทำให้ความพยายามของพวกเขาชัดเจน อาชญากรสามารถปลอมแปลงเป็นเหยื่อผ่านวิดีโอปลอมและเสียงที่คัดลอกมา พวกเขาใช้ตัวตนปลอมเดียวกันเพื่อกำหนดเป้าหมายหลายคนพร้อมกัน
John Hultquist เป็นนักวิเคราะห์หัวหน้าที่ Google Threat Intelligence Group เขาอธิบายการเปลี่ยนแปลงหลักว่า "ความน่าเชื่อถือในระดับขนาดใหญ่"
ผู้กระทำผิดกำลังเก่งขึ้นในการเลือกเป้าหมาย พวกเขาใช้ AI เพื่อดูโซเชียลมีเดียและค้นหาผู้คนที่กำลังเผชิญกับความยากลำบากในชีวิตที่สำคัญ การหย่าร้าง การเสียชีวิตของครอบครัว การสูญเสียงาน และสถานการณ์ที่อาจทำให้คนมีความเสี่ยงมากขึ้นต่อกลลวงโรแมนติก การฉ้อโกงการลงทุน หรือข้อเสนองานปลอม
อุปสรรคในการเข้าสู่อาชญากรรมไซเบอร์ได้ลดลง ตลาดใต้ดินตอนนี้ขายหรือให้เช่าเครื่องมือ AI สำหรับงานอาชญากรรมในราคาเพียง 90 ดอลลาร์ต่อเดือน Nicolas Christin นำภาควิชาซอฟต์แวร์และระบบสังคมของ Carnegie Mellon
เขากล่าวว่าแพลตฟอร์มเหล่านี้มาพร้อมกับระดับราคาและการช่วยเหลือลูกค้าที่แตกต่างกัน "นักพัฒนาขายการสมัครสมาชิกแพลตฟอร์มโจมตีที่มีราคาแบบขั้นบันไดและการสนับสนุนลูกค้า"
บริการเหล่านี้มีชื่อเช่น WormGPT, FraudGPT และ DarkGPT พวกเขาสามารถสร้างซอฟต์แวร์ที่เป็นอันตรายและแคมเปญฟิชชิ่ง บางส่วนยังรวมถึงเอกสารการสอนเกี่ยวกับเทคนิคการแฮ็ก
Margaret Cunningham เป็นรองประธานด้านความปลอดภัยและกลยุทธ์ AI ที่ Darktrace บริษัทด้านความปลอดภัย เธอบอกว่ามันง่าย "คุณไม่จำเป็นต้องรู้วิธีเขียนโค้ด เพียงแค่รู้ว่าจะหาเครื่องมือได้ที่ไหน"
มีการพัฒนาล่าสุดที่เรียกว่า vibe-coding หรือ vibe-hacking มันอาจให้อาชญากรที่มีความทะเยอทะยานใช้ AI เพื่อสร้างโปรแกรมที่เป็นอันตรายของตนเองแทนที่จะซื้อจากแหล่งใต้ดิน Anthropic เปิดเผยก่อนหน้าปีนี้ว่าได้หยุดความพยายามหลายครั้งในการใช้ Claude AI ของตนเพื่อสร้างแรนซัมแวร์โดย "อาชญากรที่มีทักษะทางเทคนิคน้อย"
การปฏิบัติการอาชญากรรมเองกำลังเปลี่ยนแปลง อาชญากรรมไซเบอร์ได้ทำงานเหมือนตลาดธุรกิจมาหลายปีแล้ว ตามที่ผู้เชี่ยวชาญกล่าว การดำเนินการแรนซัมแวร์ทั่วไปเกี่ยวข้องกับกลุ่มต่างๆ โบรกเกอร์การเข้าถึงที่บุกเข้าสู่เครือข่ายบริษัทและขายทางเข้า ทีมบุกรุกที่เคลื่อนผ่านระบบขโมยข้อมูล และผู้ให้บริการแรนซัมแวร์-เป็น-บริการที่ปล่อยมัลแวร์ จัดการเจรจาต่อรอง และแบ่งเงิน
AI ได้เพิ่มความเร็ว ขนาด และความพร้อมใช้งานของระบบนี้ งานที่ก่อนหน้านี้ทำโดยคนที่มีความรู้ทางเทคนิคตอนนี้สามารถทำงานอัตโนมัติ สิ่งนี้ให้กลุ่มเหล่านี้ดำเนินการด้วยคนน้อยลง ความเสี่ยงน้อยลง และกำไรที่สูงขึ้น "คิดว่ามันเป็นชั้นถัดไปของอุตสาหกรรม AI เพิ่มผลผลิตโดยไม่ต้องการแรงงานที่มีทักษะมากขึ้น" Christin อธิบาย
AI สามารถเปิดการโจมตีได้อย่างสมบูรณ์ด้วยตัวเองหรือไม่? ยังไม่ทันเลย ผู้เชี่ยวชาญเปรียบเทียบสถานการณ์กับการผลักดันยานพาหนะขับขี่อัตโนมัติอย่างสมบูรณ์ 95% แรกได้ทำสำเร็จแล้ว แต่ส่วนสุดท้ายที่จะให้รถขับได้ทุกที่ ทุกเวลาด้วยตัวเองยังคงอยู่นอกเหนือการเข้าถึง
นักวิจัยกำลังทดสอบความสามารถในการแฮ็กของ AI ในสภาพแวดล้อมห้องปฏิบัติการ ทีมที่ Carnegie Mellon ซึ่งได้รับการสนับสนุนจาก Anthropic ได้สร้างการละเมิดข้อมูลที่มีชื่อเสียงของ Equifax ใหม่โดยใช้ AI ก่อนหน้าปีนี้ Singer นำงานที่ CyLab Security and Privacy Institute ของ Carnegie Mellon เขาเรียกมันว่า "ก้าวกระโดดครั้งใหญ่"
อาชญากรใช้ประโยชน์จาก AI เพื่อวัตถุประสงค์ที่เป็นอันตราย แต่บริษัท AI กล่าวว่าเครื่องมือเดียวกันสามารถช่วยองค์กรเสริมสร้างการป้องกันทางดิจิทัล
Anthropic และ OpenAI กำลังสร้างระบบ AI ที่สามารถตรวจสอบโค้ดซอฟต์แวร์อย่างต่อเนื่องเพื่อระบุจุดอ่อนที่อาชญากรอาจใช้ประโยชน์ อย่างไรก็ตามคนยังคงต้องอนุมัติการแก้ไขใดๆ โปรแกรม AI ล่าสุดที่พัฒนาโดยนักวิจัยของ Stanford ทำได้ดีกว่าผู้ทดสอบมนุษย์บางคนเมื่อค้นหาปัญหาความปลอดภัยในเครือข่าย
แม้แต่ AI ก็ไม่สามารถหยุดการละเมิดทั้งหมดได้ นั่นคือเหตุผลที่องค์กรต้องมุ่งเน้นไปที่การสร้างเครือข่ายที่แข็งแกร่งที่ยังคงทำงานระหว่างการโจมตี Hultquist กล่าว
หากคุณกำลังอ่านสิ่งนี้ คุณอยู่ข้างหน้าแล้ว อยู่ที่นั่นกับจดหมายข่าวของเรา



