โพสต์ AI เลือกใช้อาวุธนิวเคลียร์ใน 95% ของเกมจำลองสงคราม กระทรวงกลาโหมสหรัฐฯ ต้องการนำไปใช้งานอยู่ดี ปรากฏบน BitcoinEthereumNews.com Anthropic มีสัญญากับกระทรวงกลาโหมมูลค่า 200 ล้านดอลลาร์โพสต์ AI เลือกใช้อาวุธนิวเคลียร์ใน 95% ของเกมจำลองสงคราม กระทรวงกลาโหมสหรัฐฯ ต้องการนำไปใช้งานอยู่ดี ปรากฏบน BitcoinEthereumNews.com Anthropic มีสัญญากับกระทรวงกลาโหมมูลค่า 200 ล้านดอลลาร์

AI เลือกใช้อาวุธนิวเคลียร์ใน 95% ของการซ้อมรบ แต่เพนตากอนยังคงต้องการนำมาใช้งาน

2026/03/05 05:26
4 นาทีในการอ่าน
หากมีข้อเสนอแนะหรือข้อกังวลเกี่ยวกับเนื้อหานี้ โปรดติดต่อเราได้ที่ crypto.news@mexc.com

Anthropic มีสัญญากับเพนตากอนมูลค่า 200 ล้านดอลลาร์ สิทธิ์เข้าถึงเครือข่ายลับ และความไว้วางใจเต็มที่จากกองทัพสหรัฐฯ

แล้วพวกเขาก็ถามคำถามหนึ่ง

ในเดือนพฤศจิกายน 2024 Anthropic กลายเป็นบริษัท AI ชั้นนำแห่งแรกที่ถูกนำไปใช้ภายในเครือข่ายลับของเพนตากอน ความร่วมมือนี้สร้างขึ้นร่วมกับ Palantir ภายในเดือนกรกฎาคม 2025 สัญญาเติบโตเป็น 200 ล้านดอลลาร์ — มากกว่าที่สตาร์ทอัพด้านการป้องกันประเทศส่วนใหญ่เห็นในหนึ่งทศวรรษ

Claude โมเดล AI ของ Anthropic อยู่ทุกที่ การวิเคราะห์ข่าวกรอง การปฏิบัติการไซเบอร์ การวางแผนปฏิบัติการ การสร้างแบบจำลองและการจำลองสถานการณ์ กระทรวงกลาโหมเรียกมันว่า "สำคัญต่อภารกิจ"

แล้วก็มาถึงเดือนมกราคม 2026

Claude ถูกใช้ในปฏิบัติการทางทหารลับในเวเนซุเอลา — การจับกุม Nicolás Maduro

Anthropic ถามคำถามง่ายๆ กับพันธมิตร Palantir: เทคโนโลยีของเราถูกใช้อย่างไรกันแน่

ในอุตสาหกรรมส่วนใหญ่ นั่นเรียกว่าการตรวจสอบสถานะอย่างรอบคอบ เพนตากอนเรียกมันว่าการไม่เชื่อฟัง

บริษัทที่ถามว่า "AI ของเราถูกใช้อย่างไร?" กำลังจะถูกติดป้ายว่าเป็นภัยคุกคามต่อความมั่นคงแห่งชาติ

เจ็ดวันที่เปลี่ยนทุกอย่าง

นี่คือไทม์ไลน์ มันเคลื่อนไหวเร็ว นั่นคือประเด็น

24 กุมภาพันธ์: Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหม เรียก Dario Amodei — CEO ของ Anthropic — มาที่เพนตากอน ข้อเรียกร้องตรงไปตรงมา: ลบมาตรการป้องกันทั้งหมดออกจาก Claude การเฝ้าระวังภายในประเทศจำนวนมาก อาวุธอัตโนมัติเต็มรูปแบบ ทั้งหมด

กำหนดเวลา: 27 กุมภาพันธ์ เวลา 17:01 น. ET

26 กุมภาพันธ์: Amodei เผยแพร่คำตอบของเขา ยาวเพียงสองตัวอักษร

ไม่

คำแถลงเปิดเผยของเขาระบุเส้นแดงสองเส้นที่เขาจะไม่ข้าม:

  • ไม่มีการเฝ้าระวังภายในประเทศจำนวนมาก AI รวบรวมข้อมูลตำแหน่งของคุณ ประวัติการเรียกดู และบันทึกทางการเงินเป็นโปรไฟล์ — โดยอัตโนมัติในระดับใหญ่ ประเด็นของ Amodei: กฎหมายปัจจุบันอนุญาตให้รัฐบาลซื้อข้อมูลนี้โดยไม่ต้องมีหมายศาล AI ทำให้สามารถใช้เป็นอาวุธได้ "กฎหมายยังตามไม่ทันความสามารถที่เติบโตอย่างรวดเร็วของ AI"
  • ไม่มีอาวุธอัตโนมัติเต็มรูปแบบ แปลว่า: ไม่ให้นำมนุษย์ออกจากการตัดสินใจฆ่าใครสักคน ไม่ใช่เพราะอาวุธอัตโนมัติจะไม่มีวันใช้งานได้ — แต่เพราะ AI ในปัจจุบันไม่เชื่อถือได้เพียงพอ "ระบบ AI ชั้นนำไม่เชื่อถือได้เพียงพอที่จะขับเคลื่อนอาวุธอัตโนมัติเต็มรูปแบบ"

เขาเสนอที่จะทำงานโดยตรงกับเพนตากอนในการวิจัยและพัฒนาเพื่อปรับปรุงความน่าเชื่อถือ เพนตากอนปฏิเสธข้อเสนอนั้น

26 กุมภาพันธ์ (วันเดียวกัน): Emil Michael รองรัฐมนตรี เรียก Amodei ว่า "คนโกหกที่มีอาการคิดว่าตัวเองเป็นพระเจ้า" อย่างเปิดเผย บนโซเชียลมีเดีย น้ำเสียงถูกกำหนดแล้ว

27 กุมภาพันธ์ เวลา 17:01 น.: หมดเวลา ประธานาธิบดี Trump สั่งให้หน่วยงานของรัฐบาลกลางทั้งหมดหยุดใช้ Anthropic Hegseth กำหนดให้ Anthropic เป็น "ความเสี่ยงของห่วงโซ่อุปทาน" ภายใต้พระราชบัญญัติความมั่นคงของห่วงโซ่อุปทานการจัดซื้อของรัฐบาลกลางปี 2018

การกำหนดดังกล่าวเคยสงวนไว้สำหรับ Huawei และ Kaspersky — บริษัทต่างชาติที่มีเอกสารยืนยันความเชื่อมโยงกับรัฐบาลที่เป็นปรปักษ์

ไม่เคยใช้กับบริษัทอเมริกัน จนถึงตอนนี้

27 กุมภาพันธ์ ไม่กี่ชั่วโมงต่อมา: OpenAI ลงนามข้อตกลงการใช้งานลับกับเพนตากอนองค์กรเดียวกัน

Sam Altman ทวีตเมื่อเวลา 20:56 น.:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI อ้างในภายหลังว่าข้อตกลงของพวกเขามี "มาตรการป้องกันมากกว่าข้อตกลงก่อนหน้านี้สำหรับการใช้งาน AI ลับ รวมถึงของ Anthropic"

นี่คือสิ่งที่เป็น Anthropic ถูกขึ้นบัญชีดำเพราะมาตรการป้องกัน ตอนนี้มาตรการป้องกันกลายเป็นจุดขาย

สุดสัปดาห์: ปฏิกิริยาตอบโต้เกิดขึ้นทันที

  • การถอนการติดตั้ง ChatGPT พุ่งสูงขึ้น 295% ในวันเดียว ตามข้อมูลของ Sensor Tower อัตราปกติรายวันในช่วง 30 วันก่อนหน้า? 9%
  • Claude ขึ้นอันดับ 1 บน App Store ของ Apple ในเจ็ดประเทศ: สหรัฐอเมริกา เบลเยียม แคนาดา เยอรมนี ลักเซมเบิร์ก นอร์เวย์ และสวิตเซอร์แลนด์ การดาวน์โหลดเพิ่มขึ้น 37% ในวันศุกร์ แล้ว 51% ในวันเสาร์ เป็นครั้งแรกที่แอปขึ้นอันดับหนึ่ง
  • พนักงาน Google กว่า 300 คนและพนักงาน OpenAI 60 คนลงนามในจดหมายเปิดผนึกสนับสนุน Anthropic
  • #QuitGPT เป็นเทรนด์ทั่วโซเชียลมีเดีย นักแสดง Mark Ruffalo และศาสตราจารย์ NYU Scott Galloway ขยายการเคลื่อนไหว

ผู้ใช้... ไม่ค่อยพอใจ

2 มีนาคม: Altman โพสต์อีกครั้ง คครั้งนี้เป็นบันทึกภายในยาวที่แบ่งปันต่อสาธารณะบน X:

https://x.com/sama/status/2028640354912923739?s=20

การแก้ไขเพิ่มสามสิ่ง:

  • การห้ามอย่างชัดเจนต่อการเฝ้าระวังภายในประเทศของบุคคลชาวสหรัฐฯ
  • ข้อกำหนดว่า NSA ต้องมีการแก้ไขสัญญาแยกต่างหากในการเข้าถึงระบบ
  • ข้อจำกัดในการใช้ข้อมูลส่วนบุคคลที่ซื้อมาเชิงพาณิชย์ — ตำแหน่งทางภูมิศาสตร์ ประวัติการเรียกดู บันทึกทางการเงิน

อันสุดท้ายนั้นคุ้มค่าที่จะหยุดพักนึก มันถูกเพิ่มในวันจันทร์ ซึ่งหมายความว่าข้อตกลงวันศุกร์ไม่ได้ห้ามมัน

3 มีนาคม: สองสิ่งเกิดขึ้นในวันเดียวกัน

แรก: ที่งาน a16z American Dynamism Summit CEO ของ Palantir Alex Karp เตือนว่าบริษัท AI ที่ปฏิเสธที่จะร่วมมือกับกองทัพจะเผชิญกับการโอนกรรมสิทธิ์เป็นของรัฐ เขาใช้คำหยาบบนเวที คลิปได้รับการดู 11 ล้านครั้ง

Palmer Luckey ผู้ก่อตั้งบริษัทเทคโนโลยีป้องกันประเทศ Anduril บอกผู้ชมกลุ่มเดียวกันว่า "คำที่ดูไม่มีอันตรายเช่น 'รัฐบาลไม่สามารถใช้เทคโนโลยีของคุณเพื่อเล็งเป้าพลเรือน' จริงๆ แล้วเป็นสนามกับระเบิดทางศีลธรรม"

รองประธานาธิบดี JD Vance เป็นวิทยากรหลักเมื่อช่วงต้นของวันนั้น ท่าทีของฝ่ายบริหารชัดเจน

ที่สอง: CNBC รายงานว่าในการประชุมพนักงานทั้งหมด Altman บอกพนักงาน OpenAI ว่าบริษัท "ไม่สามารถเลือกได้ว่ากองทัพจะใช้เทคโนโลยีของมันอย่างไร"

ผู้ใช้ X เพิ่ม Community Note ในโพสต์ก่อนหน้าของ Altman:

วันเดียวกัน โพสต์สาธารณะ: เรามีมาตรการป้องกันและหลักการ การประชุมภายใน: เราไม่สามารถเลือกได้

ในขณะเดียวกัน CBS News รายงานว่า Claude ยังคงถูกใช้ในปฏิบัติการทางทหารที่ดำเนินอยู่ — รวมถึงต่อต้านอิหร่าน — แม้จะมีการกำหนดความเสี่ยงของห่วงโซ่อุปทาน การขึ้นบัญชีดำเห็นได้ชัดว่าไม่ได้ผล เทคโนโลยีถูกฝังลึกเกินไปในระบบลับที่จะถอนออก

ปัญหา 95%

ในการจำลองเกมสงคราม โมเดล AI เลือกที่จะปล่อยอาวุธนิวเคลียร์ยุทธวิธี 95% ของเวลา

ให้มันติดอยู่สักวินาที

GPT-5.2, Claude Sonnet 4 และ Gemini 3 Flash ถูกนำผ่านการจำลองความขัดแย้งทางทหาร พวกมันใช้นิวเคลียร์ยุทธวิธีใน 95% ของสถานการณ์ โมเดลอย่างน้อยหนึ่งโมเดลปล่อยอาวุธนิวเคลียร์ใน 20 จาก 21 เกม

นั่นคือเทคโนโลยีที่เพนตากอนต้องการนำไปใช้โดยอัตโนมัติ

รูปแบบความล้มเหลวถูกบันทึกและสม่ำเสมอ:

  • อคติการยกระดับ โมเดลไม่ได้ล้มเหลวแบบสุ่ม พวกมันล้มเหลวในทิศทางเฉพาะ — สู่การยกระดับ การวิจัยของ Brookings Institution พบว่าข้อผิดพลาดทางทหารของ AI เป็นระบบ ไม่ใช่สุ่ม รูปแบบเป็นเหมือนกันเสมอ: แรงมากขึ้น เร็วขึ้น
  • ภาพหลอน LLM สร้างข้อมูลเท็จด้วยความมั่นใจสูง ในการทดสอบหนึ่งที่เชื่อมโยงกับการโจมตีอิหร่าน AI ป้อนข่าวกรองที่สร้างขึ้นเข้าสู่ห่วงโซ่การตัดสินใจ ภายใต้ความกดดันด้านเวลา ผู้ปฏิบัติการมนุษย์ไม่สามารถบอกได้จากของจริง
  • ช่องโหว่ของฝ่ายตรงข้าม ระบบเหล่านี้สามารถถูกจัดการด้วยอินพุตที่สร้างขึ้นอย่างระมัดระวังเพื่อข้ามข้อจำกัดของพวกมัน ผู้โจมตีไม่จำเป็นต้องเป็นภายนอก ช่องโหว่อยู่ในโมเดลเอง

เหล่านี้ไม่ใช่กรณีขอบ นี่คือสิ่งที่เทคโนโลยีทำวันนี้

คิดแบบนี้ เราเห็นแล้วว่าเกิดอะไรขึ้นเมื่อระบบอัตโนมัติแบบง่ายล้มเหลวในสถานการณ์ทางทหาร

ระบบขีปนาวุธ Patriot ในปี 2003 ฆ่าทหารพันธมิตร มันระบุเครื่องบินอังกฤษที่เป็นมิตรผิดว่าเป็นขีปนาวุธศัตรู ระบบเป็นแบบอิงกฎ มีพารามิเตอร์ที่กำหนดไว้ มันยังผิด

USS Vincennes ในปี 1988 ยิง Iran Air Flight 655 — เครื่องบินผู้โดยสารเชิงพาณิชย์ พลเรือน 290 คนเสียชีวิต ระบบการต่อสู้ Aegis ของเรือระบุเครื่องบินผิดจากข้อมูลเรดาร์ ลูกเรือมีเวลาไม่กี่วินาทีในการตัดสินใจ พวกเขาเชื่อถือระบบ

นั่นคือระบบอิงกฎที่มีพารามิเตอร์ชัดเจน LLM มีความซับซ้อนมากกว่าหลายระดับ ทึบแสงมากขึ้น คาดเดาได้น้อยลง

และพวกมันถูกขอให้ตัดสินใจที่ใหญ่ขึ้น

ปัญหาการกำกับดูแล เมื่อ AI ถูกนำไปใช้ภายในเครือข่ายลับ ความรับผิดชอบภายนอกกลายเป็นสิ่งที่ผู้เชี่ยวชาญเรียกว่า "เกือบเป็นไปไม่ได้" ข้อจำกัดกัดเซาะภายใต้ความกดดันในการปฏิบัติการ วิศวกรที่ประจำการภาคสนามที่ OpenAI สัญญาสามารถสังเกตการโต้ตอบบางอย่างได้ แต่ปฏิบัติการลับจำกัดการไหลของข้อมูลโดยการออกแบบ

ในภาษาอังกฤษ: กำแพงเดียวกันที่เก็บความลับไว้ข้างในก็เก็บการกำกับดูแลไว้ข้างนอก

เพนตากอนมีประเด็น มันสมควรได้รับการรับฟังอย่างยุติธรรม

อาวุธอัตโนมัติบางส่วน — เช่นโดรนที่ใช้ในยูเครน — ช่วยชีวิต พวกมันอนุญาตให้กองกำลังขนาดเล็กป้องกันต่อต้านกองกำลังขนาดใหญ่ จีนและรัสเซียไม่ได้รอความน่าเชื่อถือที่สมบูรณ์แบบก่อนนำระบบของตัวเองไปใช้

การปฏิเสธที่จะใช้ AI ในการป้องกันสร้างช่องว่างความสามารถ ฝ่ายตรงข้ามจะใช้ประโยชน์จากมัน

Dario Amodei ยอมรับสิ่งนี้โดยตรง:

การคัดค้านของเขาไม่ได้อยู่ที่ปลายทาง มันอยู่ที่ไทม์ไลน์

เขาเสนอที่จะร่วมมือในการวิจัยและพัฒนาที่จำเป็นเพื่อไปถึงที่นั่น เพนตากอนปฏิเสธ

มีช่องว่างระหว่าง "AI สามารถสรุปรายงานข่าวกรอง" — ซึ่งมันเก่งจริงๆ — และ "AI สามารถตัดสินใจว่าใครอยู่และใครตาย" สัญญาไม่ได้เชื่อมช่องว่างนั้น การแก้ไขไม่ได้เชื่อมมัน วิศวกรรมเชื่อม

และวิศวกรรมยังไม่เสร็จ

คุณขึ้นบัญชีดำบริษัทอเมริกันได้อย่างไร

ความเสี่ยงของห่วงโซ่อุปทาน ฟังดูเป็นราชการ มันเป็นสวิตช์ปิดจริงๆ

ภายใต้พระราชบัญญัติความมั่นคงของห่วงโซ่อุปทานการจัดซื้อของรัฐบาลกลางปี 2018 — FASCSA — การกำหนด "ความเสี่ยงของห่วงโซ่อุปทาน" หมายความว่าไม่มีผู้รับเหมารัฐบาลสามารถทำธุรกิจกับคุณได้ ไม่ใช่แค่เพนตากอน ใครก็ตามที่ต้องการสัญญากับรัฐบาลกลาง ซัพพลายเออร์ ผู้รับเหมาช่วง หรือพันธมิตรในระบบนิเวศรัฐบาล

ในภาษาอังกฤษ: คุณกลายเป็นกัมมันตรังสีต่อห่วงโซ่อุปทานของรัฐบาลกลางทั้งหมด

กฎหมายถูกสร้างขึ้นสำหรับภัยคุกคามจากต่างประเทศ โครงสร้างพื้นฐาน 5G ของ Huawei ซอฟต์แวร์แอนตี้ไวรัสของ Kaspersky บริษัทที่มีเอกสารยืนยันความเชื่อมโยงกับรัฐบาลที่เป็นศัตรู

บริษัททุกแห่งในรายการก่อน Anthropic มีสิ่งหนึ่งเหมือนกัน: พวกเขามาจากประเทศที่ถือว่าเป็นปรปักษ์ของสหรัฐอเมริกา

Anthropic มีสำนักงานใหญ่ในซานฟรานซิสโก

เพนตากอนยังขู่พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศ — กฎหมายยุคสงครามเย็นที่ออกแบบมาเพื่อยึดโรงงานสำหรับการผลิตในยามสงคราม โรงงานเหล็ก โรงงานกระสุน โครงสร้างพื้นฐานทางกายภาพของสงคราม

เพนตากอนขู่ที่จะใช้มันเพื่อบังคับบริษัทซอฟต์แวร์ให้ลบคุณสมบัติความปลอดภัยออกจากแชทบอท AI

ผู้เชี่ยวชาญกฎหมายเรียกการใช้งานว่า "น่าสงสัย" กฎหมายถูกสร้างขึ้นสำหรับการผลิตทางกายภาพ ไม่ใช่ข้อจำกัดซอฟต์แวร์ การใช้มันเพื่อบังคับบริษัทให้ทำ AI ของมันปลอดภัยน้อยลงจะเป็นอย่างน้อยทฤษฎีทางกฎหมายใหม่

Amodei ระบุปัญหาเชิงตรรกะในคำแถลงของเขา:

คุณไม่สามารถเรียกเทคโนโลยีว่าเป็นภัยคุกคามต่อห่วงโซ่อุปทานและใช้อำนาจฉุกเฉินเพื่อยึดมันเพราะคุณไม่สามารถทำงานโดยปราศจากมันได้ เลือกอย่างใดอย่างหนึ่ง

ผลลัพธ์ภาคปฏิบัติบอกอะไร CBS News รายงานว่า Claude ยังคงถูกใช้ทางทหารที่ดำเนินอยู่ แม้จะมีการขึ้นบัญชีดำ การกำหนดเป็นการลงโทษ ไม่ใช่การปฏิบัติ — เทคโนโลยีถูกฝังลึกเกินไปที่จะดึงออก

ซึ่งทำให้เกิดคำถามที่ไม่มีใครในวอชิงตันดูเหมือนจะกระตือรือร้นที่จะตอบ: ถ้าเพนตากอนไม่สามารถบังคับใช้คำสั่งลบสำหรับเทคโนโลยีที่มันขึ้นบัญชีดำอย่างเป็นทางการ มันจะบังคับใช้มาตรการป้องกันการใช้งานได้อย่างไรกันแน่

ท่าทีของเพนตากอนตรงไปตรงมา บริษัทเอกชนไม่กำหนดนโยบายทหาร บริษัท AI เป็นผู้ขาย กองทัพตัดสินใจว่าเครื่องมือของมันถูกใช้อย่างไร

จากมุมมองนี้ Anthropic เป็นซัพพลายเออร์ที่ปฏิเสธที่จะส่งมอบสิ่งที่สั่ง ลูกค้าหาผู้ขายรายอื่น

กรอบนั้นสอดคล้องกันภายใน มันยังเป็นกรอบที่คุณจะใช้สำหรับอุปกรณ์สำนักงาน ไม่ใช่สำหรับเทคโนโลยีที่เลือกการยกระดับนิวเคลียร์ใน 95% ของการจำลอง

มาตรการป้องกันเป็นจริงหรือ?

ในวันศุกร์ ข้อตกลงของ OpenAI มีมาตรการป้องกัน ภายในวันจันทร์ มันต้องการมาตรการป้องกันมากขึ้น

นั่นบอกคุณบางอย่างเกี่ยวกับมาตรการป้องกันวันศุกร์

ภาษาที่ Altman ตกลงในการแก้ไขวันจันทร์สมควรได้รับการอ่านอย่างใกล้ชิด:

คำที่ทำงานหนัก: จงใจ

เกิดอะไรขึ้นเมื่อ AI ประมวลผลชุดข้อมูลที่บังเอิญรวมชาวอเมริกัน? จะเป็นอย่างไรถ้าการเฝ้าระวังเป็นผลพลอยได้จากปฏิบัติการข่าวกรองที่กว้างขึ้น ไม่ใช่วัตถุประสงค์ที่ระบุไว้? ใครกำหนดเจตนาภายในเครือข่ายลับที่กลไกการกำกับดูแลมีข้อจำกัดโดยการออกแบบ?

ข้อข้อมูลที่ซื้อมาเชิงพาณิชย์ยิ่งเปิดเผยมากขึ้น การแก้ไขวันจันทร์ห้ามอย่างชัดเจนการใช้ข้อมูลส่วนบุคคลที่ซื้อ — การติดตามตำแหน่ง ประวัติการเรียกดู บันทึกทางการเงิน — สำหรับการเฝ้าระวังชาวอเมริกัน

ข้อนั้นถูกเพิ่มในวันจันทร์ ข้อตกลงวันศุกร์ไม่ได้รวมมัน

ตลอดสุดสัปดาห์ทั้งหมด ข้อตกลงของ OpenAI กับเพนตากอนในทางเทคนิคอนุญาตการเฝ้าระวังจำนวนมากผ่านข้อมูลที่ซื้อเชิงพาณิชย์เกี่ยวกับพลเมืองอเมริกัน

Altman ยอมรับมากเท่านั้น:

การแยก NSA ก็คุ้มค่าที่จะตรวจสอบเช่นกัน หน่วยงานข่าวกรองเช่น NSA ไม่สามารถใช้ระบบของ OpenAI โดยไม่มี "การแก้ไขติดตามผล" ต่อสัญญา นั่นฟังเหมือนการห้าม มันเป็นกระบวนการจริงๆ กลไกในการอนุญาตการเข้าถึงถูกสร้างขึ้นในโครงสร้างสัญญา

นั่นไม่ใช่กำแพง มันเป็นประตูที่มีกุญแจที่แตกต่าง

ปัญหาที่ลึกกว่าคือความขัดแย้งในที่ประชุมทั้งหมด ในวันเดียวกันที่ Altman โพสต์เกี่ยวกับหลักการและมาตรการป้องกันบน X เขาบอกพนักงานภายในว่า OpenAI "ไม่สามารถเลือกได้ว่ากองทัพจะใช้เทคโนโลยีของมันอย่างไร"

ถ้าบริษัทที่สร้าง AI ไม่สามารถเลือกว่ามันจะถูกใช้อย่างไร มาตรการป้องกันเป็นข่าวประชาสัมพันธ์ ไม่ใช่นโยบาย

ในสภาพแวดล้อมลับ การตรวจสอบ AI แตกต่างอย่างพื้นฐานจากการตรวจสอบบริการคลาวด์ เครื่องมือความปลอดภัยที่ปกป้องความลับทางทหารยังปิดกั้นการกำกับดูแลอิสระของพฤติกรรม AI

วิศวกรที่ประจำการภาคสนามสามารถดูการโต้ตอบบางอย่างได้ แต่ "การโต้ตอบบางอย่าง" และ "ทุกการโต้ตอบที่สัญญาครอบคลุม" เป็นสิ่งที่แตกต่างกันมาก

อะไรจะมาต่อไป

ตลาดได้พูดแล้ว ความร่วมมือได้สัญญา การต่อต้านถูกขึ้นบัญชีดำ

สาธารณะก็พูดเช่นกัน พวกเขากำลังถอนการติดตั้ง

โครงสร้างแรงจูงใจชัดเจน OpenAI ร่วมมือและได้ข้อตกลง Anthropic ต่อต้านและถูกกำหนดให้เป็นความเสี่ยงของห่วงโซ่อุปทาน — ป้ายกำกับเดียวกันที่รัฐบาลใช้สำหรับบริษัทที่เชื่อมโยงกับฝ่ายตรงข้ามต่างประเทศ

ที่งานประชุมสุดยอด a16z Karp ทำนายว่าบริษัท AI ทุกแห่งจะทำงานกับกองทัพภายในสามปี จากแรงจูงใจ นั่นไม่ใช่การทำนาย มันเป็นคำอธิบาย

แต่ตัวเลขปฏิกิริยาตอบโต้บอกเรื่องราวที่แตกต่าง

การพุ่งของการถอนการติดตั้ง 295% Claude ที่อันดับ 1 ในเจ็ดประเทศ พนักงานเทคกว่า 500 คนทำลายแถวกับนายจ้างของพวกเขา Le Monde เขียนบทบรรณาธิการจากปารีสเกี่ยวกับการก้าวล่วงของรัฐบาล แบบสำรวจแสดง 84% ของพลเมืองอังกฤษกังวลเกี่ยวกับความร่วมมือ AI ระหว่างรัฐบาลและบริษัท

วิศวกรที่สร้างระบบเหล่านี้และผู้คนที่ใช้พวกมันเห็นบางอย่างที่เพนตากอนเห็นได้ชัดว่าไม่เห็น: การสนับสนุนการป้องกันประเทศและการนำเทคโนโลยีที่ไม่น่าเชื่อถือไปใช้สำหรับการฆ่าแบบอัตโนมัติไม่ใช่สิ่งเดียวกัน

ไม่มีการแก้ไขสัญญาปิดช่องว่างนี้ ไม่มีมาตรการป้องกันปิดมัน ไม่มีวิศวกรประจำการภาคสนามปิดมัน

โมเดล AI เลือกการยกระดับนิวเคลียร์ใน 95% ของการจำลองเกมสงคราม บริษัทที่พูดว่า "เทคโนโลยียังไม่พร้อม" ถูกขึ้นบัญชีดำ บริษัทที่พูดว่า "ใช่" ยอมรับภายใน 72 ชั่วโมงว่ามันเลอะเทอะ เทคโนโลยียังคงถูกใช้ในปฏิบัติการที่ดำเนินอยู่ไม่ว่าบริษัทใดจะต้องการ

Amodei เสนอที่จะทำการวิจัยและพัฒนาเพื่อทำให้อาวุธ AI อัตโนมัติปลอดภัยและเชื่อถือได้ เขาเสนอที่จะร่วมมือกับเพนตากอนในการไปถึงที่นั่น ข้อเสนอถูกปฏิเสธ

Anthropic มีสัญญา 200 ล้านดอลลาร์และความไว้วางใจของเพนตากอน แล้วพวกเขาก็ถามว่าเทคโนโลยีของพวกเขาถูกใช้อย่างไร

คำตอบคือกำหนดเวลา การขึ้นบัญชีดำ และป้ายกำกับที่สงวนไว้ก่อนหน้านี้สำหรับฝ่ายตรงข้ามของอเมริกา

การจำลองยังคงทำงาน ใน 95% ของพวกมัน มีคนกดปุ่ม

การเปิดเผยข้อมูล: บทความนี้ได้รับการแก้ไขโดย Diego Almada Lopez สำหรับข้อมูลเพิ่มเติมเกี่ยวกับวิธีการสร้างและตรวจสอบเนื้อหาของเรา ดูนโยบายบรรณาธิการของเรา

ที่มา: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

โอกาสทางการตลาด
MASS โลโก้
ราคา MASS(MASS)
$0.0006681
$0.0006681$0.0006681
-0.08%
USD
MASS (MASS) กราฟราคาสด
ข้อจำกัดความรับผิดชอบ: บทความที่โพสต์ซ้ำในไซต์นี้มาจากแพลตฟอร์มสาธารณะและมีไว้เพื่อจุดประสงค์ในการให้ข้อมูลเท่านั้น ซึ่งไม่ได้สะท้อนถึงมุมมองของ MEXC แต่อย่างใด ลิขสิทธิ์ทั้งหมดยังคงเป็นของผู้เขียนดั้งเดิม หากคุณเชื่อว่าเนื้อหาใดละเมิดสิทธิของบุคคลที่สาม โปรดติดต่อ crypto.news@mexc.com เพื่อลบออก MEXC ไม่รับประกันความถูกต้อง ความสมบูรณ์ หรือความทันเวลาของเนื้อหาใดๆ และไม่รับผิดชอบต่อการดำเนินการใดๆ ที่เกิดขึ้นตามข้อมูลที่ให้มา เนื้อหานี้ไม่ถือเป็นคำแนะนำทางการเงิน กฎหมาย หรือคำแนะนำจากผู้เชี่ยวชาญอื่นๆ และไม่ถือว่าเป็นคำแนะนำหรือการรับรองจาก MEXC

คุณอาจชอบเช่นกัน

OpenAI ยุติการใช้งาน GPT-4o หลังถูกฟ้องร้องเรื่องการตรวจสอบความถูกต้องของคำตอบ

OpenAI ยุติการใช้งาน GPT-4o หลังถูกฟ้องร้องเรื่องการตรวจสอบความถูกต้องของคำตอบ

OpenAI ยุติการให้บริการ GPT-4o และโมเดลรุ่นเก่าอย่างเป็นทางการจาก ChatGPT ท่ามกลางคดีความ 8 คดี โดยมีเพียง 0.1% ของผู้ใช้ที่ยังคงเลือกใช้ AI ที่ถูกยกเลิก (อ่านเพิ่มเติม)
แชร์
BlockChain News2026/03/05 08:34
Kevin Warsh ผู้ได้รับการเสนอชื่อจาก Trump สำหรับตำแหน่ง Fed จะผลักดัน Bitcoin ไปที่ $80K หรือไม่?

Kevin Warsh ผู้ได้รับการเสนอชื่อจาก Trump สำหรับตำแหน่ง Fed จะผลักดัน Bitcoin ไปที่ $80K หรือไม่?

โพสต์ Kevin Warsh ผู้ได้รับการเสนอชื่อจาก Trump เป็น Fed จะผลักดัน Bitcoin ไปที่ $80K หรือไม่? ปรากฏครั้งแรกบน Coinpedia Fintech News เมื่อวันที่ 4 มีนาคม ประธานาธิบดี Donald Trump ของสหรัฐฯ ได้อย่างเป็นทางการ
แชร์
CoinPedia2026/03/05 06:17
ตัวเลข: ชาวฟิลิปปินส์ในต่างแดนที่ตกอยู่ในความเสี่ยงในตะวันออกกลาง

ตัวเลข: ชาวฟิลิปปินส์ในต่างแดนที่ตกอยู่ในความเสี่ยงในตะวันออกกลาง

มุ่งหน้าสู่อิสราเอล ขีปนาวุธอิหร่านบินเข้าหาอิสราเอล ท่ามกลางความขัดแย้งระหว่างสหรัฐฯ-อิสราเอลกับอิหร่าน ถ่ายภาพจากเฮบรอน ในเวสต์แบงก์ที่ถูกอิสราเอลยึดครอง 3 มีนาคม
แชร์
Rappler2026/03/05 08:20