Anthropic มีสัญญากับเพนตากอนมูลค่า 200 ล้านดอลลาร์ สิทธิ์เข้าถึงเครือข่ายลับ และความไว้วางใจเต็มที่จากกองทัพสหรัฐฯ
แล้วพวกเขาก็ถามคำถามหนึ่ง
ในเดือนพฤศจิกายน 2024 Anthropic กลายเป็นบริษัท AI ชั้นนำแห่งแรกที่ถูกนำไปใช้ภายในเครือข่ายลับของเพนตากอน ความร่วมมือนี้สร้างขึ้นร่วมกับ Palantir ภายในเดือนกรกฎาคม 2025 สัญญาเติบโตเป็น 200 ล้านดอลลาร์ — มากกว่าที่สตาร์ทอัพด้านการป้องกันประเทศส่วนใหญ่เห็นในหนึ่งทศวรรษ
Claude โมเดล AI ของ Anthropic อยู่ทุกที่ การวิเคราะห์ข่าวกรอง การปฏิบัติการไซเบอร์ การวางแผนปฏิบัติการ การสร้างแบบจำลองและการจำลองสถานการณ์ กระทรวงกลาโหมเรียกมันว่า "สำคัญต่อภารกิจ"
แล้วก็มาถึงเดือนมกราคม 2026
Claude ถูกใช้ในปฏิบัติการทางทหารลับในเวเนซุเอลา — การจับกุม Nicolás Maduro
Anthropic ถามคำถามง่ายๆ กับพันธมิตร Palantir: เทคโนโลยีของเราถูกใช้อย่างไรกันแน่
ในอุตสาหกรรมส่วนใหญ่ นั่นเรียกว่าการตรวจสอบสถานะอย่างรอบคอบ เพนตากอนเรียกมันว่าการไม่เชื่อฟัง
บริษัทที่ถามว่า "AI ของเราถูกใช้อย่างไร?" กำลังจะถูกติดป้ายว่าเป็นภัยคุกคามต่อความมั่นคงแห่งชาติ
เจ็ดวันที่เปลี่ยนทุกอย่าง
นี่คือไทม์ไลน์ มันเคลื่อนไหวเร็ว นั่นคือประเด็น
24 กุมภาพันธ์: Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหม เรียก Dario Amodei — CEO ของ Anthropic — มาที่เพนตากอน ข้อเรียกร้องตรงไปตรงมา: ลบมาตรการป้องกันทั้งหมดออกจาก Claude การเฝ้าระวังภายในประเทศจำนวนมาก อาวุธอัตโนมัติเต็มรูปแบบ ทั้งหมด
กำหนดเวลา: 27 กุมภาพันธ์ เวลา 17:01 น. ET
26 กุมภาพันธ์: Amodei เผยแพร่คำตอบของเขา ยาวเพียงสองตัวอักษร
ไม่
คำแถลงเปิดเผยของเขาระบุเส้นแดงสองเส้นที่เขาจะไม่ข้าม:
- ไม่มีการเฝ้าระวังภายในประเทศจำนวนมาก AI รวบรวมข้อมูลตำแหน่งของคุณ ประวัติการเรียกดู และบันทึกทางการเงินเป็นโปรไฟล์ — โดยอัตโนมัติในระดับใหญ่ ประเด็นของ Amodei: กฎหมายปัจจุบันอนุญาตให้รัฐบาลซื้อข้อมูลนี้โดยไม่ต้องมีหมายศาล AI ทำให้สามารถใช้เป็นอาวุธได้ "กฎหมายยังตามไม่ทันความสามารถที่เติบโตอย่างรวดเร็วของ AI"
- ไม่มีอาวุธอัตโนมัติเต็มรูปแบบ แปลว่า: ไม่ให้นำมนุษย์ออกจากการตัดสินใจฆ่าใครสักคน ไม่ใช่เพราะอาวุธอัตโนมัติจะไม่มีวันใช้งานได้ — แต่เพราะ AI ในปัจจุบันไม่เชื่อถือได้เพียงพอ "ระบบ AI ชั้นนำไม่เชื่อถือได้เพียงพอที่จะขับเคลื่อนอาวุธอัตโนมัติเต็มรูปแบบ"
เขาเสนอที่จะทำงานโดยตรงกับเพนตากอนในการวิจัยและพัฒนาเพื่อปรับปรุงความน่าเชื่อถือ เพนตากอนปฏิเสธข้อเสนอนั้น
26 กุมภาพันธ์ (วันเดียวกัน): Emil Michael รองรัฐมนตรี เรียก Amodei ว่า "คนโกหกที่มีอาการคิดว่าตัวเองเป็นพระเจ้า" อย่างเปิดเผย บนโซเชียลมีเดีย น้ำเสียงถูกกำหนดแล้ว
27 กุมภาพันธ์ เวลา 17:01 น.: หมดเวลา ประธานาธิบดี Trump สั่งให้หน่วยงานของรัฐบาลกลางทั้งหมดหยุดใช้ Anthropic Hegseth กำหนดให้ Anthropic เป็น "ความเสี่ยงของห่วงโซ่อุปทาน" ภายใต้พระราชบัญญัติความมั่นคงของห่วงโซ่อุปทานการจัดซื้อของรัฐบาลกลางปี 2018
การกำหนดดังกล่าวเคยสงวนไว้สำหรับ Huawei และ Kaspersky — บริษัทต่างชาติที่มีเอกสารยืนยันความเชื่อมโยงกับรัฐบาลที่เป็นปรปักษ์
ไม่เคยใช้กับบริษัทอเมริกัน จนถึงตอนนี้
27 กุมภาพันธ์ ไม่กี่ชั่วโมงต่อมา: OpenAI ลงนามข้อตกลงการใช้งานลับกับเพนตากอนองค์กรเดียวกัน
Sam Altman ทวีตเมื่อเวลา 20:56 น.:
https://x.com/sama/status/2027578652477821175?s=20OpenAI อ้างในภายหลังว่าข้อตกลงของพวกเขามี "มาตรการป้องกันมากกว่าข้อตกลงก่อนหน้านี้สำหรับการใช้งาน AI ลับ รวมถึงของ Anthropic"
นี่คือสิ่งที่เป็น Anthropic ถูกขึ้นบัญชีดำเพราะมาตรการป้องกัน ตอนนี้มาตรการป้องกันกลายเป็นจุดขาย
สุดสัปดาห์: ปฏิกิริยาตอบโต้เกิดขึ้นทันที
- การถอนการติดตั้ง ChatGPT พุ่งสูงขึ้น 295% ในวันเดียว ตามข้อมูลของ Sensor Tower อัตราปกติรายวันในช่วง 30 วันก่อนหน้า? 9%
- Claude ขึ้นอันดับ 1 บน App Store ของ Apple ในเจ็ดประเทศ: สหรัฐอเมริกา เบลเยียม แคนาดา เยอรมนี ลักเซมเบิร์ก นอร์เวย์ และสวิตเซอร์แลนด์ การดาวน์โหลดเพิ่มขึ้น 37% ในวันศุกร์ แล้ว 51% ในวันเสาร์ เป็นครั้งแรกที่แอปขึ้นอันดับหนึ่ง
- พนักงาน Google กว่า 300 คนและพนักงาน OpenAI 60 คนลงนามในจดหมายเปิดผนึกสนับสนุน Anthropic
- #QuitGPT เป็นเทรนด์ทั่วโซเชียลมีเดีย นักแสดง Mark Ruffalo และศาสตราจารย์ NYU Scott Galloway ขยายการเคลื่อนไหว
ผู้ใช้... ไม่ค่อยพอใจ
2 มีนาคม: Altman โพสต์อีกครั้ง คครั้งนี้เป็นบันทึกภายในยาวที่แบ่งปันต่อสาธารณะบน X:
https://x.com/sama/status/2028640354912923739?s=20การแก้ไขเพิ่มสามสิ่ง:
- การห้ามอย่างชัดเจนต่อการเฝ้าระวังภายในประเทศของบุคคลชาวสหรัฐฯ
- ข้อกำหนดว่า NSA ต้องมีการแก้ไขสัญญาแยกต่างหากในการเข้าถึงระบบ
- ข้อจำกัดในการใช้ข้อมูลส่วนบุคคลที่ซื้อมาเชิงพาณิชย์ — ตำแหน่งทางภูมิศาสตร์ ประวัติการเรียกดู บันทึกทางการเงิน
อันสุดท้ายนั้นคุ้มค่าที่จะหยุดพักนึก มันถูกเพิ่มในวันจันทร์ ซึ่งหมายความว่าข้อตกลงวันศุกร์ไม่ได้ห้ามมัน
3 มีนาคม: สองสิ่งเกิดขึ้นในวันเดียวกัน
แรก: ที่งาน a16z American Dynamism Summit CEO ของ Palantir Alex Karp เตือนว่าบริษัท AI ที่ปฏิเสธที่จะร่วมมือกับกองทัพจะเผชิญกับการโอนกรรมสิทธิ์เป็นของรัฐ เขาใช้คำหยาบบนเวที คลิปได้รับการดู 11 ล้านครั้ง
Palmer Luckey ผู้ก่อตั้งบริษัทเทคโนโลยีป้องกันประเทศ Anduril บอกผู้ชมกลุ่มเดียวกันว่า "คำที่ดูไม่มีอันตรายเช่น 'รัฐบาลไม่สามารถใช้เทคโนโลยีของคุณเพื่อเล็งเป้าพลเรือน' จริงๆ แล้วเป็นสนามกับระเบิดทางศีลธรรม"
รองประธานาธิบดี JD Vance เป็นวิทยากรหลักเมื่อช่วงต้นของวันนั้น ท่าทีของฝ่ายบริหารชัดเจน
ที่สอง: CNBC รายงานว่าในการประชุมพนักงานทั้งหมด Altman บอกพนักงาน OpenAI ว่าบริษัท "ไม่สามารถเลือกได้ว่ากองทัพจะใช้เทคโนโลยีของมันอย่างไร"
ผู้ใช้ X เพิ่ม Community Note ในโพสต์ก่อนหน้าของ Altman:
วันเดียวกัน โพสต์สาธารณะ: เรามีมาตรการป้องกันและหลักการ การประชุมภายใน: เราไม่สามารถเลือกได้
ในขณะเดียวกัน CBS News รายงานว่า Claude ยังคงถูกใช้ในปฏิบัติการทางทหารที่ดำเนินอยู่ — รวมถึงต่อต้านอิหร่าน — แม้จะมีการกำหนดความเสี่ยงของห่วงโซ่อุปทาน การขึ้นบัญชีดำเห็นได้ชัดว่าไม่ได้ผล เทคโนโลยีถูกฝังลึกเกินไปในระบบลับที่จะถอนออก
ปัญหา 95%
ในการจำลองเกมสงคราม โมเดล AI เลือกที่จะปล่อยอาวุธนิวเคลียร์ยุทธวิธี 95% ของเวลา
ให้มันติดอยู่สักวินาที
GPT-5.2, Claude Sonnet 4 และ Gemini 3 Flash ถูกนำผ่านการจำลองความขัดแย้งทางทหาร พวกมันใช้นิวเคลียร์ยุทธวิธีใน 95% ของสถานการณ์ โมเดลอย่างน้อยหนึ่งโมเดลปล่อยอาวุธนิวเคลียร์ใน 20 จาก 21 เกม
นั่นคือเทคโนโลยีที่เพนตากอนต้องการนำไปใช้โดยอัตโนมัติ
รูปแบบความล้มเหลวถูกบันทึกและสม่ำเสมอ:
- อคติการยกระดับ โมเดลไม่ได้ล้มเหลวแบบสุ่ม พวกมันล้มเหลวในทิศทางเฉพาะ — สู่การยกระดับ การวิจัยของ Brookings Institution พบว่าข้อผิดพลาดทางทหารของ AI เป็นระบบ ไม่ใช่สุ่ม รูปแบบเป็นเหมือนกันเสมอ: แรงมากขึ้น เร็วขึ้น
- ภาพหลอน LLM สร้างข้อมูลเท็จด้วยความมั่นใจสูง ในการทดสอบหนึ่งที่เชื่อมโยงกับการโจมตีอิหร่าน AI ป้อนข่าวกรองที่สร้างขึ้นเข้าสู่ห่วงโซ่การตัดสินใจ ภายใต้ความกดดันด้านเวลา ผู้ปฏิบัติการมนุษย์ไม่สามารถบอกได้จากของจริง
- ช่องโหว่ของฝ่ายตรงข้าม ระบบเหล่านี้สามารถถูกจัดการด้วยอินพุตที่สร้างขึ้นอย่างระมัดระวังเพื่อข้ามข้อจำกัดของพวกมัน ผู้โจมตีไม่จำเป็นต้องเป็นภายนอก ช่องโหว่อยู่ในโมเดลเอง
เหล่านี้ไม่ใช่กรณีขอบ นี่คือสิ่งที่เทคโนโลยีทำวันนี้
คิดแบบนี้ เราเห็นแล้วว่าเกิดอะไรขึ้นเมื่อระบบอัตโนมัติแบบง่ายล้มเหลวในสถานการณ์ทางทหาร
ระบบขีปนาวุธ Patriot ในปี 2003 ฆ่าทหารพันธมิตร มันระบุเครื่องบินอังกฤษที่เป็นมิตรผิดว่าเป็นขีปนาวุธศัตรู ระบบเป็นแบบอิงกฎ มีพารามิเตอร์ที่กำหนดไว้ มันยังผิด
USS Vincennes ในปี 1988 ยิง Iran Air Flight 655 — เครื่องบินผู้โดยสารเชิงพาณิชย์ พลเรือน 290 คนเสียชีวิต ระบบการต่อสู้ Aegis ของเรือระบุเครื่องบินผิดจากข้อมูลเรดาร์ ลูกเรือมีเวลาไม่กี่วินาทีในการตัดสินใจ พวกเขาเชื่อถือระบบ
นั่นคือระบบอิงกฎที่มีพารามิเตอร์ชัดเจน LLM มีความซับซ้อนมากกว่าหลายระดับ ทึบแสงมากขึ้น คาดเดาได้น้อยลง
และพวกมันถูกขอให้ตัดสินใจที่ใหญ่ขึ้น
ปัญหาการกำกับดูแล เมื่อ AI ถูกนำไปใช้ภายในเครือข่ายลับ ความรับผิดชอบภายนอกกลายเป็นสิ่งที่ผู้เชี่ยวชาญเรียกว่า "เกือบเป็นไปไม่ได้" ข้อจำกัดกัดเซาะภายใต้ความกดดันในการปฏิบัติการ วิศวกรที่ประจำการภาคสนามที่ OpenAI สัญญาสามารถสังเกตการโต้ตอบบางอย่างได้ แต่ปฏิบัติการลับจำกัดการไหลของข้อมูลโดยการออกแบบ
ในภาษาอังกฤษ: กำแพงเดียวกันที่เก็บความลับไว้ข้างในก็เก็บการกำกับดูแลไว้ข้างนอก
เพนตากอนมีประเด็น มันสมควรได้รับการรับฟังอย่างยุติธรรม
อาวุธอัตโนมัติบางส่วน — เช่นโดรนที่ใช้ในยูเครน — ช่วยชีวิต พวกมันอนุญาตให้กองกำลังขนาดเล็กป้องกันต่อต้านกองกำลังขนาดใหญ่ จีนและรัสเซียไม่ได้รอความน่าเชื่อถือที่สมบูรณ์แบบก่อนนำระบบของตัวเองไปใช้
การปฏิเสธที่จะใช้ AI ในการป้องกันสร้างช่องว่างความสามารถ ฝ่ายตรงข้ามจะใช้ประโยชน์จากมัน
Dario Amodei ยอมรับสิ่งนี้โดยตรง:
การคัดค้านของเขาไม่ได้อยู่ที่ปลายทาง มันอยู่ที่ไทม์ไลน์
เขาเสนอที่จะร่วมมือในการวิจัยและพัฒนาที่จำเป็นเพื่อไปถึงที่นั่น เพนตากอนปฏิเสธ
มีช่องว่างระหว่าง "AI สามารถสรุปรายงานข่าวกรอง" — ซึ่งมันเก่งจริงๆ — และ "AI สามารถตัดสินใจว่าใครอยู่และใครตาย" สัญญาไม่ได้เชื่อมช่องว่างนั้น การแก้ไขไม่ได้เชื่อมมัน วิศวกรรมเชื่อม
และวิศวกรรมยังไม่เสร็จ
คุณขึ้นบัญชีดำบริษัทอเมริกันได้อย่างไร
ความเสี่ยงของห่วงโซ่อุปทาน ฟังดูเป็นราชการ มันเป็นสวิตช์ปิดจริงๆ
ภายใต้พระราชบัญญัติความมั่นคงของห่วงโซ่อุปทานการจัดซื้อของรัฐบาลกลางปี 2018 — FASCSA — การกำหนด "ความเสี่ยงของห่วงโซ่อุปทาน" หมายความว่าไม่มีผู้รับเหมารัฐบาลสามารถทำธุรกิจกับคุณได้ ไม่ใช่แค่เพนตากอน ใครก็ตามที่ต้องการสัญญากับรัฐบาลกลาง ซัพพลายเออร์ ผู้รับเหมาช่วง หรือพันธมิตรในระบบนิเวศรัฐบาล
ในภาษาอังกฤษ: คุณกลายเป็นกัมมันตรังสีต่อห่วงโซ่อุปทานของรัฐบาลกลางทั้งหมด
กฎหมายถูกสร้างขึ้นสำหรับภัยคุกคามจากต่างประเทศ โครงสร้างพื้นฐาน 5G ของ Huawei ซอฟต์แวร์แอนตี้ไวรัสของ Kaspersky บริษัทที่มีเอกสารยืนยันความเชื่อมโยงกับรัฐบาลที่เป็นศัตรู
บริษัททุกแห่งในรายการก่อน Anthropic มีสิ่งหนึ่งเหมือนกัน: พวกเขามาจากประเทศที่ถือว่าเป็นปรปักษ์ของสหรัฐอเมริกา
Anthropic มีสำนักงานใหญ่ในซานฟรานซิสโก
เพนตากอนยังขู่พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศ — กฎหมายยุคสงครามเย็นที่ออกแบบมาเพื่อยึดโรงงานสำหรับการผลิตในยามสงคราม โรงงานเหล็ก โรงงานกระสุน โครงสร้างพื้นฐานทางกายภาพของสงคราม
เพนตากอนขู่ที่จะใช้มันเพื่อบังคับบริษัทซอฟต์แวร์ให้ลบคุณสมบัติความปลอดภัยออกจากแชทบอท AI
ผู้เชี่ยวชาญกฎหมายเรียกการใช้งานว่า "น่าสงสัย" กฎหมายถูกสร้างขึ้นสำหรับการผลิตทางกายภาพ ไม่ใช่ข้อจำกัดซอฟต์แวร์ การใช้มันเพื่อบังคับบริษัทให้ทำ AI ของมันปลอดภัยน้อยลงจะเป็นอย่างน้อยทฤษฎีทางกฎหมายใหม่
Amodei ระบุปัญหาเชิงตรรกะในคำแถลงของเขา:
คุณไม่สามารถเรียกเทคโนโลยีว่าเป็นภัยคุกคามต่อห่วงโซ่อุปทานและใช้อำนาจฉุกเฉินเพื่อยึดมันเพราะคุณไม่สามารถทำงานโดยปราศจากมันได้ เลือกอย่างใดอย่างหนึ่ง
ผลลัพธ์ภาคปฏิบัติบอกอะไร CBS News รายงานว่า Claude ยังคงถูกใช้ทางทหารที่ดำเนินอยู่ แม้จะมีการขึ้นบัญชีดำ การกำหนดเป็นการลงโทษ ไม่ใช่การปฏิบัติ — เทคโนโลยีถูกฝังลึกเกินไปที่จะดึงออก
ซึ่งทำให้เกิดคำถามที่ไม่มีใครในวอชิงตันดูเหมือนจะกระตือรือร้นที่จะตอบ: ถ้าเพนตากอนไม่สามารถบังคับใช้คำสั่งลบสำหรับเทคโนโลยีที่มันขึ้นบัญชีดำอย่างเป็นทางการ มันจะบังคับใช้มาตรการป้องกันการใช้งานได้อย่างไรกันแน่
ท่าทีของเพนตากอนตรงไปตรงมา บริษัทเอกชนไม่กำหนดนโยบายทหาร บริษัท AI เป็นผู้ขาย กองทัพตัดสินใจว่าเครื่องมือของมันถูกใช้อย่างไร
จากมุมมองนี้ Anthropic เป็นซัพพลายเออร์ที่ปฏิเสธที่จะส่งมอบสิ่งที่สั่ง ลูกค้าหาผู้ขายรายอื่น
กรอบนั้นสอดคล้องกันภายใน มันยังเป็นกรอบที่คุณจะใช้สำหรับอุปกรณ์สำนักงาน ไม่ใช่สำหรับเทคโนโลยีที่เลือกการยกระดับนิวเคลียร์ใน 95% ของการจำลอง
มาตรการป้องกันเป็นจริงหรือ?
ในวันศุกร์ ข้อตกลงของ OpenAI มีมาตรการป้องกัน ภายในวันจันทร์ มันต้องการมาตรการป้องกันมากขึ้น
นั่นบอกคุณบางอย่างเกี่ยวกับมาตรการป้องกันวันศุกร์
ภาษาที่ Altman ตกลงในการแก้ไขวันจันทร์สมควรได้รับการอ่านอย่างใกล้ชิด:
คำที่ทำงานหนัก: จงใจ
เกิดอะไรขึ้นเมื่อ AI ประมวลผลชุดข้อมูลที่บังเอิญรวมชาวอเมริกัน? จะเป็นอย่างไรถ้าการเฝ้าระวังเป็นผลพลอยได้จากปฏิบัติการข่าวกรองที่กว้างขึ้น ไม่ใช่วัตถุประสงค์ที่ระบุไว้? ใครกำหนดเจตนาภายในเครือข่ายลับที่กลไกการกำกับดูแลมีข้อจำกัดโดยการออกแบบ?
ข้อข้อมูลที่ซื้อมาเชิงพาณิชย์ยิ่งเปิดเผยมากขึ้น การแก้ไขวันจันทร์ห้ามอย่างชัดเจนการใช้ข้อมูลส่วนบุคคลที่ซื้อ — การติดตามตำแหน่ง ประวัติการเรียกดู บันทึกทางการเงิน — สำหรับการเฝ้าระวังชาวอเมริกัน
ข้อนั้นถูกเพิ่มในวันจันทร์ ข้อตกลงวันศุกร์ไม่ได้รวมมัน
ตลอดสุดสัปดาห์ทั้งหมด ข้อตกลงของ OpenAI กับเพนตากอนในทางเทคนิคอนุญาตการเฝ้าระวังจำนวนมากผ่านข้อมูลที่ซื้อเชิงพาณิชย์เกี่ยวกับพลเมืองอเมริกัน
Altman ยอมรับมากเท่านั้น:
การแยก NSA ก็คุ้มค่าที่จะตรวจสอบเช่นกัน หน่วยงานข่าวกรองเช่น NSA ไม่สามารถใช้ระบบของ OpenAI โดยไม่มี "การแก้ไขติดตามผล" ต่อสัญญา นั่นฟังเหมือนการห้าม มันเป็นกระบวนการจริงๆ กลไกในการอนุญาตการเข้าถึงถูกสร้างขึ้นในโครงสร้างสัญญา
นั่นไม่ใช่กำแพง มันเป็นประตูที่มีกุญแจที่แตกต่าง
ปัญหาที่ลึกกว่าคือความขัดแย้งในที่ประชุมทั้งหมด ในวันเดียวกันที่ Altman โพสต์เกี่ยวกับหลักการและมาตรการป้องกันบน X เขาบอกพนักงานภายในว่า OpenAI "ไม่สามารถเลือกได้ว่ากองทัพจะใช้เทคโนโลยีของมันอย่างไร"
ถ้าบริษัทที่สร้าง AI ไม่สามารถเลือกว่ามันจะถูกใช้อย่างไร มาตรการป้องกันเป็นข่าวประชาสัมพันธ์ ไม่ใช่นโยบาย
ในสภาพแวดล้อมลับ การตรวจสอบ AI แตกต่างอย่างพื้นฐานจากการตรวจสอบบริการคลาวด์ เครื่องมือความปลอดภัยที่ปกป้องความลับทางทหารยังปิดกั้นการกำกับดูแลอิสระของพฤติกรรม AI
วิศวกรที่ประจำการภาคสนามสามารถดูการโต้ตอบบางอย่างได้ แต่ "การโต้ตอบบางอย่าง" และ "ทุกการโต้ตอบที่สัญญาครอบคลุม" เป็นสิ่งที่แตกต่างกันมาก
อะไรจะมาต่อไป
ตลาดได้พูดแล้ว ความร่วมมือได้สัญญา การต่อต้านถูกขึ้นบัญชีดำ
สาธารณะก็พูดเช่นกัน พวกเขากำลังถอนการติดตั้ง
โครงสร้างแรงจูงใจชัดเจน OpenAI ร่วมมือและได้ข้อตกลง Anthropic ต่อต้านและถูกกำหนดให้เป็นความเสี่ยงของห่วงโซ่อุปทาน — ป้ายกำกับเดียวกันที่รัฐบาลใช้สำหรับบริษัทที่เชื่อมโยงกับฝ่ายตรงข้ามต่างประเทศ
ที่งานประชุมสุดยอด a16z Karp ทำนายว่าบริษัท AI ทุกแห่งจะทำงานกับกองทัพภายในสามปี จากแรงจูงใจ นั่นไม่ใช่การทำนาย มันเป็นคำอธิบาย
แต่ตัวเลขปฏิกิริยาตอบโต้บอกเรื่องราวที่แตกต่าง
การพุ่งของการถอนการติดตั้ง 295% Claude ที่อันดับ 1 ในเจ็ดประเทศ พนักงานเทคกว่า 500 คนทำลายแถวกับนายจ้างของพวกเขา Le Monde เขียนบทบรรณาธิการจากปารีสเกี่ยวกับการก้าวล่วงของรัฐบาล แบบสำรวจแสดง 84% ของพลเมืองอังกฤษกังวลเกี่ยวกับความร่วมมือ AI ระหว่างรัฐบาลและบริษัท
วิศวกรที่สร้างระบบเหล่านี้และผู้คนที่ใช้พวกมันเห็นบางอย่างที่เพนตากอนเห็นได้ชัดว่าไม่เห็น: การสนับสนุนการป้องกันประเทศและการนำเทคโนโลยีที่ไม่น่าเชื่อถือไปใช้สำหรับการฆ่าแบบอัตโนมัติไม่ใช่สิ่งเดียวกัน
ไม่มีการแก้ไขสัญญาปิดช่องว่างนี้ ไม่มีมาตรการป้องกันปิดมัน ไม่มีวิศวกรประจำการภาคสนามปิดมัน
โมเดล AI เลือกการยกระดับนิวเคลียร์ใน 95% ของการจำลองเกมสงคราม บริษัทที่พูดว่า "เทคโนโลยียังไม่พร้อม" ถูกขึ้นบัญชีดำ บริษัทที่พูดว่า "ใช่" ยอมรับภายใน 72 ชั่วโมงว่ามันเลอะเทอะ เทคโนโลยียังคงถูกใช้ในปฏิบัติการที่ดำเนินอยู่ไม่ว่าบริษัทใดจะต้องการ
Amodei เสนอที่จะทำการวิจัยและพัฒนาเพื่อทำให้อาวุธ AI อัตโนมัติปลอดภัยและเชื่อถือได้ เขาเสนอที่จะร่วมมือกับเพนตากอนในการไปถึงที่นั่น ข้อเสนอถูกปฏิเสธ
Anthropic มีสัญญา 200 ล้านดอลลาร์และความไว้วางใจของเพนตากอน แล้วพวกเขาก็ถามว่าเทคโนโลยีของพวกเขาถูกใช้อย่างไร
คำตอบคือกำหนดเวลา การขึ้นบัญชีดำ และป้ายกำกับที่สงวนไว้ก่อนหน้านี้สำหรับฝ่ายตรงข้ามของอเมริกา
การจำลองยังคงทำงาน ใน 95% ของพวกมัน มีคนกดปุ่ม
ที่มา: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

