ความตึงเครียดที่เพิ่มขึ้นระหว่างห้องปฏิบัติการปัญญาประดิษฐ์ชั้นนำกับสถาบันกลาโหมสหรัฐฯ ได้บานปลายเป็นการปะทะกันอย่างรุนแรงเกี่ยวกับ anthropic ai และการใช้งานในสนามรบ
Anthropic ได้ปฏิเสธข้อเรียกร้องของกระทรวงกลาโหมสหรัฐฯ ให้ยกเลิกข้อจำกัดด้านความปลอดภัย AI ที่สำคัญออกจากระบบของตน แม้ว่าสัญญามูลค่า $200 ล้าน จะตกอยู่ในภาวะเสี่ยงแล้วก็ตาม บริษัทได้ชี้แจงอย่างชัดเจนว่าจะไม่ยอมถอยในข้อพิพาทกับ DoD เกี่ยวกับวิธีการนำโมเดลขั้นสูงของตนไปใช้ในเครือข่ายทางทหาร
คู่แข่งของสตาร์ทอัพนี้ ได้แก่ OpenAI, Google และ xAI ได้รับรางวัลจาก DoD ที่คล้ายคลึงกันมูลค่าสูงถึง $200 ล้านในปี 2023 อย่างไรก็ตาม บริษัทเหล่านั้นตกลงให้เพนตากอนใช้ระบบของพวกเขาสำหรับภารกิจที่ถูกกฎหมายทั้งหมดภายในสภาพแวดล้อมที่ไม่ได้จัดเป็นความลับของกองทัพ ทำให้รัฐบาลมีความยืดหยุ่นในการปฏิบัติการมากขึ้น
ในทางตรงกันข้าม Anthropic ได้ลงนามข้อตกลงมูลค่า $200 ล้านของตนเองกับ DoD ในเดือนกรกฎาคม และกลายเป็นห้องปฏิบัติการ AI แห่งแรกที่ฝังโมเดลของตนเข้าไปโดยตรงในขั้นตอนการทำงานของภารกิจบนเครือข่ายที่เป็นความลับ นอกจากนี้ เครื่องมือของบริษัทยังถูกรวมเข้ากับการปฏิบัติการด้านการป้องกันที่ละเอียดอ่อน ทำให้บริษัทอยู่ในศูนย์กลางของการพัฒนา AI ด้านความมั่นคงแห่งชาติของสหรัฐฯ
การเจรจากับเจ้าหน้าที่เพนตากอนมีความตึงเครียดเพิ่มมากขึ้นในช่วงหลายสัปดาห์ที่ผ่านมา บุคคลที่คุ้นเคยกับการเจรจากล่าวว่าความขัดแย้ง "ย้อนกลับไปหลายเดือน" ก่อนที่จะเปิดเผยต่อสาธารณะว่า Claude ถูกใช้ในปฏิบัติการของสหรัฐฯ ที่เกี่ยวข้องกับการยึดประธานาธิบดีเวเนซุเอลา Nicolás Maduro
แก่นของการปะทะคือระยะที่หน่วยงานทางทหารสามารถผลักดันโมเดล AI ที่ทรงพลังไปสู่การเฝ้าระวังและความเป็นอิสระ Anthropic กำลังแสวงหาการรับประกันที่มีผลผูกพันว่าเทคโนโลยีของตนจะไม่ถูกใช้สำหรับอาวุธอัตโนมัติอย่างสมบูรณ์หรือสำหรับการเฝ้าระวังประชาชนอเมริกันในประเทศจำนวนมาก ในขณะที่ DoD ต้องการหลีกเลี่ยงข้อจำกัดดังกล่าว
กล่าวได้ว่า นี่ไม่ใช่ความขัดแย้งทางการค้าที่แคบ แต่เป็นข้อพิพาทเกี่ยวกับมาตรการป้องกัน AI ที่โดดเด่นซึ่งมีผลกระทบโดยตรงต่อระบบอัตโนมัติในสนามรบในอนาคต เพนตากอนยืนยันในความเสรีทางกฎหมายสูงสุด ในขณะที่ Anthropic โต้แย้งว่าระบบปัจจุบันยังไม่สามารถไว้วางใจได้กับการตัดสินใจเรื่องชีวิตและความตายในระดับใหญ่
ในแถลงการณ์โดยละเอียด CEO Dario Amodei เตือนว่าใน "กรณีที่จำกัด" ปัญญาประดิษฐ์สามารถ "บ่อนทำลายมากกว่าปกป้องค่านิยมประชาธิปไตย" เขาเน้นย้ำว่าการประยุกต์ใช้บางอย่าง "อยู่นอกขอบเขตของสิ่งที่เทคโนโลยีในปัจจุบันสามารถทำได้อย่างปลอดภัยและเชื่อถือได้" โดยเน้นถึงความเสี่ยงของการใช้ในทางที่ผิดระหว่างปฏิบัติการทางทหารที่ซับซ้อน
ในการขยายความกังวลเกี่ยวกับการเฝ้าระวัง Amodei โต้แย้งว่าระบบที่ทรงพลังในปัจจุบันทำให้สามารถ "รวบรวมข้อมูลที่กระจัดกระจายและไม่เป็นอันตรายแต่ละรายการเป็นภาพรวมที่ครอบคลุมของชีวิตของบุคคลใดๆ โดยอัตโนมัติและในระดับใหญ่" นอกจากนี้ เขายังเตือนว่าความสามารถดังกล่าว หากมุ่งเข้าสู่ภายใน อาจเปลี่ยนแปลงความสัมพันธ์ระหว่างพลเมืองและรัฐอย่างมีนัยสำคัญ
Amodei กล่าวย้ำว่า Anthropic สนับสนุนการใช้ AI สำหรับการรวบรวมข้อมูลข่าวกรองต่างประเทศที่ถูกกฎหมาย อย่างไรก็ตาม เขากล่าวเสริมว่า "การใช้ระบบเหล่านี้สำหรับการเฝ้าระวังในประเทศจำนวนมากไม่สอดคล้องกับค่านิยมประชาธิปไตย" โดยลากเส้นจริยธรรมที่ชัดเจนระหว่างข่าวกรองในต่างประเทศและการติดตามภายในของบุคคลในสหรัฐฯ
การต่อสู้แย่งอำนาจทวีความรุนแรงขึ้นระหว่างการประชุมที่เพนตากอนในวันอังคารระหว่าง Amodei และรัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth Hegseth ได้คุกคามว่าจะตราหน้า Anthropic เป็น "ความเสี่ยงของห่วงโซ่อุปทาน" หรือใช้พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศเพื่อบังคับให้ปฏิบัติตาม ในคืนวันพุธ DoD ได้ส่งสิ่งที่เรียกว่า "ข้อเสนอสุดท้ายและขั้นสุดท้าย" โดยให้บริษัทตอบกลับภายใน 17:01 น. ET ในวันศุกร์
โฆษกหญิงของ Anthropic ยอมรับว่าได้รับภาษาสัญญาที่แก้ไขแล้วในวันพุธ แต่กล่าวว่ามัน "แทบไม่มีความคืบหน้าเลย" ตามที่เธอกล่าว ถ้อยคำใหม่ที่นำเสนอเป็นการประนีประนอมถูกจับคู่กับวลีทางกฎหมายที่จะอนุญาตให้มาตรการป้องกันที่สำคัญ "ถูกเพิกเฉยได้ตามใจชอบ" อย่างมีประสิทธิผล ซึ่งบ่อนทำลายการปกป้องที่ระบุไว้
ในการตอบสนองต่อแรงกดดันที่เพิ่มขึ้น Amodei กล่าวว่า "กระทรวงสงครามได้ระบุว่าพวกเขาจะทำสัญญาเฉพาะกับบริษัท AI ที่ยอมรับ 'การใช้งานที่ถูกกฎหมายใดๆ' และยกเลิกมาตรการป้องกันในกรณีที่กล่าวถึงข้างต้น" เขากล่าวเสริมว่าเจ้าหน้าที่ได้คุกคามที่จะตัด Anthropic ออกจากระบบของพวกเขาและกำหนดให้บริษัทเป็น "ความเสี่ยงของห่วงโซ่อุปทาน" หากปฏิเสธ อย่างไรก็ตาม เขายืนยันว่า "เราไม่สามารถยอมรับคำขอของพวกเขาได้ด้วยความสำนึกที่ดี"
สำหรับเพนตากอน ประเด็นนี้ถูกกำหนดกรอบแตกต่างออกไป โฆษกหัวหน้า Sean Parnell กล่าวในวันพระหัสบดีว่า DoD "ไม่มีความสนใจ" ในการใช้ระบบของ Anthropic สำหรับอาวุธอัตโนมัติอย่างสมบูรณ์หรือดำเนินการเฝ้าระวังชาวอเมริกันจำนวนมาก โดยสังเกตว่าการปฏิบัติดังกล่าวจะผิดกฎหมาย แทนที่จะเป็นเช่นนั้น เขายืนยันว่ากรมเพียงแค่ต้องการให้บริษัทอนุญาตให้ใช้เทคโนโลยีของตนเพื่อ "วัตถุประสงค์ที่ถูกกฎหมายทั้งหมด" โดยอธิบายว่านี่เป็น "คำขอที่เรียบง่ายและมีสามัญสำนึก"
ข้อพิพาทยังกลายเป็นเรื่องส่วนตัวในระดับอาวุโส ในคืนวันพฤหัสบดี รองปลัดกระทรวงกลาโหมสหรัฐฯ Emil Michael โจมตี Amodei บน X โดยอ้างว่าผู้บริหารรายนี้ "ไม่ต้องการอะไรมากไปกว่าการพยายามควบคุมกองทัพสหรัฐฯ ด้วยตัวเอง" Michael ไปไกลกว่านั้นโดยเขียนว่า "น่าเสียดายที่ Dario Amodei เป็นคนโกหกและมีความคิดว่าตัวเองเป็นพระเจ้า"
อย่างไรก็ตาม Anthropic ได้รับการสนับสนุนอย่างมากจากบางส่วนของภาคเทคโนโลยี ในจดหมายเปิดผนึก พนักงานมากกว่า 200 คนจาก Google และ OpenAI สนับสนุนท่าทีของบริษัทต่อสาธารณะ นอกจากนี้ เจ้าหน้าที่ DoD เก่าบอกกับ BBC ว่าการพิสูจน์ของ Hegseth ในการใช้ป้ายกำกับ "ความเสี่ยงของห่วงโซ่อุปทาน" ดูเหมือน "บอบบางอย่างยิ่ง" ทำให้เกิดคำถามเกี่ยวกับความแข็งแกร่งของคดีของเพนตากอน
การเผชิญหน้ายังกลายเป็นจุดสำคัญในการอภิปรายที่กว้างขึ้นเกี่ยวกับนโยบายจริยธรรม AI ทางทหาร นักวิจัย AI และผู้สนับสนุนเสรีภาพพลเมืองกำลังเฝ้าดูอย่างใกล้ชิด โดยมองว่าคดีนี้เป็นการทดสอบเบื้องต้นว่าหน่วยงานด้านการป้องกันสามารถผลักดันห้องปฏิบัติการเอกชนให้ผ่อนคลายข้อจำกัดที่ฝังอยู่ในระบบขั้นสูงได้มากแค่ไหน
แม้จะมีวาทศิลป์ที่บานปลาย Amodei ได้เน้นว่าเขา "เชื่อมั่นอย่างลึกซึ้งในความสำคัญที่มีอยู่ของการใช้ AI เพื่อปกป้องสหรัฐอเมริกา" เขากำหนดกรอบประเด็นนี้เป็นเรื่องของการใช้งานอย่างรับผิดชอบ ไม่ใช่การต่อต้านการป้องกันประเทศ โดยโต้แย้งว่าความน่าเชื่อถือระยะยาวของความสามารถ AI ของสหรัฐฯ ขึ้นอยู่กับการรักษาบรรทัดฐานประชาธิปไตย
ตัวแทนของ Anthropic กล่าวว่าองค์กรยังคง "พร้อมที่จะเจรจาต่อไปและมุ่งมั่นต่อความต่อเนื่องในการปฏิบัติการสำหรับกรมและนักรบของอเมริกา" อย่างไรก็ตาม เมื่อนาฬิกากำหนดเวลาของเพนตากอนกำลังนับถอยหลังและภัยคุกคามของการกำหนดห่วงโซ่อุปทานยังคงอยู่บนโต๊ะ ทั้งสองฝ่ายต้องเผชิญกับแรงกดดันในการแก้ไขสถานการณ์ตึงเครียดโดยไม่ทำให้นวัตกรรมที่สำคัญตกรางไป
ในที่สุด การปะทะระหว่าง Anthropic และเพนตากอนเกี่ยวกับมาตรการป้องกัน การเฝ้าระวัง และความเป็นอิสระ ได้กลายเป็นกรณีแรกที่กำหนดทิศทางในการกำกับดูแล AI ทางทหาร ผลลัพธ์ของมันจะมีแนวโน้มที่จะกำหนดรูปแบบว่าโมเดล anthropic ai ในอนาคตและระบบคู่แข่งจะถูกทำสัญญา ถูกจำกัด และถูกนำไปใช้ในการปฏิบัติการด้านการป้องกันของสหรัฐฯ อย่างไร

![[Vantage Point] ฟิลิปปินส์รวยลงทุนอย่างไรในปี 2026](https://www.rappler.com/tachyon/2025/10/gold-silver-oct-17-2025_.jpg?resize=75%2C75&crop=489px%2C0px%2C1080px%2C1080px)