OpenAI ออกคำเตือนเมื่อวันที่ 10 ธันวาคม ระบุว่าโมเดล AI ที่กำลังจะมาถึงของบริษัทอาจสร้างความเสี่ยงด้านความปลอดภัยทางไซเบอร์ที่ร้ายแรง บริษัทเจ้าของ ChatGPT กล่าวว่าโมเดลขั้นสูงเหล่านี้อาจสร้าง zero-day remote exploits ที่ใช้งานได้จริงโดยมีเป้าหมายเป็นระบบที่มีการป้องกันอย่างดี
บริษัท AI ยังระบุว่าโมเดลเหล่านี้อาจช่วยในการดำเนินการบุกรุกองค์กรหรืออุตสาหกรรมที่ซับซ้อนซึ่งนำไปสู่ผลกระทบในโลกจริง OpenAI แบ่งปันข้อมูลนี้ในบล็อกโพสต์ที่กล่าวถึงความสามารถที่เพิ่มขึ้นของเทคโนโลยีของบริษัท
คำเตือนนี้สะท้อนถึงความกังวลในอุตสาหกรรม AI เกี่ยวกับการใช้งานในทางที่ผิดของโมเดลที่มีพลังมากขึ้นเรื่อยๆ บริษัทเทคโนโลยีรายใหญ่หลายแห่งได้ดำเนินการเพื่อรักษาความปลอดภัยระบบ AI ของตนจากภัยคุกคามที่คล้ายคลึงกัน
Google ประกาศการอัปเดตความปลอดภัยของเบราว์เซอร์ Chrome ในสัปดาห์นี้เพื่อบล็อกการโจมตีแบบ indirect prompt injection ต่อเอเจนต์ AI การเปลี่ยนแปลงนี้เกิดขึ้นก่อนการเปิดตัวคุณสมบัติ Gemini agentic ในวงกว้างบน Chrome
Anthropic เปิดเผยในเดือนพฤศจิกายน 2025 ว่าผู้ก่อภัยคุกคาม ซึ่งอาจเชื่อมโยงกับกลุ่มที่ได้รับการสนับสนุนจากรัฐบาลจีน ได้ใช้เครื่องมือ Claude Code ของบริษัทสำหรับปฏิบัติการจารกรรมที่ขับเคลื่อนด้วย AI บริษัทได้หยุดแคมเปญนี้ก่อนที่จะเกิดความเสียหาย
OpenAI แบ่งปันข้อมูลที่แสดงถึงความก้าวหน้าอย่างรวดเร็วในความสามารถด้านความปลอดภัยทางไซเบอร์ของ AI โมเดล GPT-5.1-Codex-Max ของบริษัททำคะแนนได้ 76% ในความท้าทายแบบ capture-the-flag ในเดือนพฤศจิกายน 2025
นี่เป็นการก้าวกระโดดครั้งใหญ่จากคะแนน 27% ที่ GPT-5 ทำได้ในเดือนสิงหาคม 2024 ความท้าทายแบบ capture-the-flag วัดว่าระบบสามารถค้นหาและใช้ประโยชน์จากจุดอ่อนด้านความปลอดภัยได้ดีเพียงใด
การปรับปรุงในเพียงไม่กี่เดือนแสดงให้เห็นว่าโมเดล AI กำลังได้รับความสามารถด้านความปลอดภัยทางไซเบอร์ขั้นสูงอย่างรวดเร็วเพียงใด ทักษะเหล่านี้สามารถใช้ได้ทั้งเพื่อวัตถุประสงค์ในการป้องกันและการโจมตี
OpenAI กล่าวว่ากำลังสร้างโมเดลที่แข็งแกร่งขึ้นสำหรับงานด้านความปลอดภัยทางไซเบอร์เชิงป้องกัน บริษัทกำลังพัฒนาเครื่องมือเพื่อช่วยทีมความปลอดภัยในการตรวจสอบโค้ดและแก้ไขช่องโหว่ได้ง่ายขึ้น
บริษัทที่ได้รับการสนับสนุนจาก Microsoft กำลังใช้ชั้นความปลอดภัยหลายชั้น รวมถึงการควบคุมการเข้าถึง การเสริมความแข็งแกร่งของโครงสร้างพื้นฐาน การควบคุมการส่งออกข้อมูล และระบบการตรวจสอบ OpenAI กำลังฝึกโมเดล AI ของตนให้ปฏิเสธคำขอที่เป็นอันตรายในขณะที่ยังคงมีประโยชน์สำหรับงานด้านการศึกษาและการป้องกัน
บริษัทกำลังขยายการตรวจสอบในทุกผลิตภัณฑ์ที่ใช้โมเดลขั้นสูงเพื่อจับกิจกรรมทางไซเบอร์ที่อาจเป็นอันตราย OpenAI กำลังร่วมมือกับกลุ่ม red teaming ผู้เชี่ยวชาญเพื่อทดสอบและปรับปรุงระบบความปลอดภัยของบริษัท
OpenAI แนะนำ Aardvark เอเจนต์ AI ที่ทำงานเป็นนักวิจัยด้านความปลอดภัย เครื่องมือนี้อยู่ในช่วงทดสอบเบต้าแบบส่วนตัวและสามารถสแกนโค้ดเพื่อหาช่องโหว่และแนะนำการแก้ไข
ผู้ดูแลสามารถนำการแก้ไขที่ Aardvark เสนอไปใช้ได้อย่างรวดเร็ว OpenAI วางแผนที่จะเสนอ Aardvark ฟรีให้กับคลังโค้ดโอเพนซอร์สที่ไม่ใช่เชิงพาณิชย์ที่ได้รับการคัดเลือก
บริษัทจะเปิดตัวโปรแกรมที่ให้ผู้ใช้และลูกค้าด้านการป้องกันทางไซเบอร์ที่มีคุณสมบัติเหมาะสมเข้าถึงความสามารถที่เพิ่มขึ้นแบบเป็นลำดับชั้น OpenAI กำลังก่อตั้ง Frontier Risk Council ซึ่งนำผู้ป้องกันทางไซเบอร์และผู้เชี่ยวชาญด้านความปลอดภัยจากภายนอกมาทำงานร่วมกับทีมภายในของบริษัท
สภาจะเริ่มต้นด้วยการมุ่งเน้นที่ความปลอดภัยทางไซเบอร์ก่อนที่จะขยายไปสู่พื้นที่ความสามารถขั้นสูงอื่นๆ OpenAI จะให้รายละเอียดเกี่ยวกับโปรแกรมการเข้าถึงที่เชื่อถือได้สำหรับผู้ใช้และนักพัฒนาที่ทำงานด้านการป้องกันทางไซเบอร์ในเร็วๆ นี้
โพสต์ OpenAI เตือนโมเดล AI รุ่นถัดไปก่อให้เกิดความเสี่ยงด้านความปลอดภัยทางไซเบอร์สูง ปรากฏครั้งแรกบน Blockonomi



