ทหารสหรัฐฯ รายงานว่าใช้ Claude AI ของ Anthropic ในการโจมตีทางอากาศครั้งใหญ่ในอิหร่าน ซึ่งเหตุการณ์นี้เกิดขึ้นเพียงไม่กี่ชั่วโมงหลังจากประธานาธิบดีโดนัลด์ ทรัมป์สั่งให้หน่วยงานของรัฐบาลกลางหยุดใช้โมเดลนี้ หน่วยบัญชาการในภูมิภาค รวมถึง CENTCOM รายงานว่าใช้ Claude เพื่อสนับสนุนการวิเคราะห์ข่าวกรอง การตรวจสอบเป้าหมาย และการจำลองสถานการณ์สนามรบ เหตุการณ์นี้เน้นให้เห็นว่าเครื่องมือ AI ได้ถูกบูรณาการเข้ากับการปฏิบัติการด้านการป้องกันประเทศอย่างลึกซึ้งเพียงใด แม้ว่าผู้กำหนดนโยบายจะพยายามตัดความสัมพันธ์กับผู้ให้บริการบางราย เหตุการณ์นี้เน้นย้ำความตึงเครียดระหว่างคำสั่งของฝ่ายบริหารกับระบบอัตโนมัติในพื้นที่ปฏิบัติการ ซึ่งอาจส่งผลต่อการจัดซื้อจัดจ้างและการจัดการความเสี่ยงในโครงการด้านการป้องกันประเทศ
<li Anthropic เคยได้รับสัญญาหลายปีจากเพนตากอนมูลค่าสูงถึง 200 ล้านดอลลาร์ โดยมีความร่วมมือกับ Palantir และ Amazon Web Services เพื่อเปิดใช้งานเวิร์กโฟลว์ที่เป็นความลับสำหรับ Claude
<li รัฐบาลทรัมป์สั่งให้หน่วยงานต่างๆ หยุดทำงานกับ Anthropic และสั่งให้กระทรวงกลาโหมถือว่าบริษัทเป็นความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้น หลังจากการเจรจาสัญญาล้มเหลวเรื่องการใช้งานทางทหารแบบไม่จำกัด
<li เพนตากอนเริ่มระบุผู้ให้บริการทดแทนและเคลื่อนไหวเพื่อนำโมเดล AI อื่นๆ ไปใช้บนเครือข่ายที่เป็นความลับ รวมถึงความร่วมมือกับ OpenAI สำหรับการใช้งานดังกล่าว
<li CEO ของ Anthropic ดาริโอ อาโมเดอี คัดค้านการห้ามอย่างเปิดเผย โดยโต้แย้งว่าการใช้งานทางทหารบางประเภทข้ามขอบเขตจริยธรรมและควรอยู่ภายใต้การควบคุมของมนุษย์มากกว่าระบบอัตโนมัติ การเฝ้าระวังจำนวนมาก หรืออาวุธอัตโนมัติ
ความเห็น: เป็นกลาง
บริบทตลาด: เหตุการณ์นี้อยู่ที่จุดตัดระหว่างการจัดซื้อจัดจ้างด้านการป้องกันประเทศ จริยธรรม AI และการจัดการความเสี่ยงด้านความมั่นคงแห่งชาติ ขณะที่หน่วยงานต่างๆ ประเมินการพึ่งพาผู้ให้บริการและการจำแนกประเภทของเครื่องมือ AI สำหรับการปฏิบัติการที่ละเอียดอ่อนใหม่
เหตุการณ์นี้ให้ภาพที่หาได้ยากว่าโมเดล AI เชิงพาณิชย์ถูกบูรณาการเข้ากับเวิร์กโฟลว์ทางทหารที่มีความเสี่ยงสูงอย่างไร Claude ซึ่งออกแบบมาเพื่องานด้านความรู้ความเข้าใจในวงกว้างตั้งแต่แรก รายงานว่าสนับสนุนการวิเคราะห์ข่าวกรองและการจำลองสถานการณ์สนามรบ ซึ่งแสดงให้เห็นระดับความไว้วางใจในการปฏิบัติงานที่ขยายไปไกลกว่าสภาพแวดล้อมในห้องปฏิบัติการสู่ภารกิจในโลกแห่งความเป็นจริง สิ่งนี้ทำให้เกิดคำถามสำคัญเกี่ยวกับความน่าเชื่อถือ การตรวจสอบ และความสามารถในการควบคุม AI ในการวางแผนการต่อสู้ โดยเฉพาะเมื่อสัญญาณนโยบายของรัฐบาลเปลี่ยนแปลงอย่างรวดเร็วเกี่ยวกับการใช้ผู้ให้บริการ
ในระดับนโยบาย ความขัดแย้งระหว่างความสัมพันธ์ตามสัญญากับคำสั่งของประธานาธิบดีเน้นให้เห็นถึงการถกเถียงที่กว้างขึ้นเกี่ยวกับวิธีที่ควรปฏิบัติต่อผู้ให้บริการ AI ในสภาพแวดล้อมที่ปลอดภัย การปฏิเสธของ Anthropic ที่จะอนุญาตการใช้งานทางทหารแบบไม่จำกัดสอดคล้องกับขอบเขตจริยธรรมที่ระบุไว้ เป็นสัญญาณว่าผู้ให้บริการภาคเอกชนอาจต่อต้านการกำหนดค่าที่พวกเขาเห็นว่ามีปัญหาทางจริยธรรมมากขึ้น การตอบสนองของเพนตากอน—หันไปหาซัพพลายเออร์ทางเลือกสำหรับงานที่เป็นความลับ—แสดงให้เห็นว่ากระทรวงกลาโหมอาจทำให้ระบบนิเวศ AI หลากหลายเพื่อลดการเปิดรับความเสี่ยง ขณะเดียวกันก็รักษาความสามารถในการปฏิบัติการที่ละเอียดอ่อน
ความตึงเครียดยังสัมผัสถึงพลวัตการแข่งขันของตลาด AI-as-a-service ด้วย เมื่อ OpenAI รายงานว่าเข้ามาให้บริการโมเดลสำหรับเครือข่ายที่เป็นความลับ ภาคส่วนนี้น่าจะเห็นการทดลองและการเจรจาข้อตกลงใหม่อย่างต่อเนื่องเกี่ยวกับการจำแนกความปลอดภัย การกำกับดูแลข้อมูล และความเสี่ยงของห่วงโซ่อุปทาน สถานการณ์นี้เน้นย้ำความจำเป็นในกรอบการกำกับดูแลที่เข้มงวดซึ่งสามารถปรับตัวต่อการเปลี่ยนแปลงทางเทคโนโลยีที่รวดเร็วโดยไม่กระทบต่อความปลอดภัยในการปฏิบัติงานหรือมาตรฐานจริยธรรม
เจ้าหน้าที่อธิบายว่า Claude มีบทบาทในการวิเคราะห์ข่าวกรองและการวางแผนปฏิบัติการระหว่างการโจมตีทางอากาศครั้งใหญ่ในอิหร่าน ซึ่งเป็นการอ้างที่แสดงให้เห็นว่าเครื่องมือ AI เข้าใกล้การตัดสินใจในสนามรบมากเพียงใด ในขณะที่รัฐบาลทรัมป์เคลื่อนไหวเพื่อตัดความสัมพันธ์กับ Anthropic การใช้งาน Claude ในการปฏิบัติการรายงานว่ายังคงดำเนินต่อไปในหน่วยบัญชาการบางแห่ง เน้นย้ำความไม่สอดคล้องกันระหว่างแถลงการณ์นโยบายกับเวิร์กโฟลว์การป้องกันประเทศในแต่ละวัน ความเป็นจริงเชิงปฏิบัติคือการวิเคราะห์ การจำลอง และการประเมินความเสี่ยงที่ขับเคลื่อนด้วย AI สามารถแทรกเข้าสู่การวางแผนภารกิจได้ แม้ในขณะที่หน่วยงานกำลังประเมินความเสี่ยงของผู้ให้บริการและข้อกำหนดการปฏิบัติตามข้ามแผนกใหม่
การมีส่วนร่วมก่อนหน้านี้ของเพนตากอนกับ Anthropic มีความสำคัญมาก: สัญญาหลายปีมูลค่าสูงถึง 200 ล้านดอลลาร์และเครือข่ายความร่วมมือ รวมถึง Palantir และ Amazon Web Services ที่เปิดใช้งานการใช้ Claude ในการจัดการข้อมูลที่เป็นความลับและการประมวลผลข่าวกรอง การจัดการนี้เน้นให้เห็นถึงกลยุทธ์ที่กว้างขึ้น: ทำให้ความสามารถ AI หลากหลายในระบบนิเวศที่เชื่อถือได้เพื่อให้แน่ใจว่ามีความยืดหยุ่นในสถานการณ์ที่ละเอียดอ่อน แต่เมื่อทิศทางนโยบายเปลี่ยนแปลง รัฐบาลเคลื่อนไหวเพื่อกำหนดกรอบความสัมพันธ์กับผู้ให้บริการใหม่ ส่งสัญญาณการปรับเทียบที่อิงความเสี่ยงมากกว่าการถอนตัวอย่างสมบูรณ์จากการปฏิบัติการป้องกันประเทศที่เปิดใช้งาน AI
เบื้องหลัง ความตึงเครียดระหว่างนโยบายสาธารณะกับจริยธรรมภาคเอกชนปรากฏขึ้นอย่างชัดเจน รัฐมนตรีว่าการกระทรวงกลาโหม พีท เฮกเซธ รายงานว่ากดดัน Anthropic ให้อนุญาตการใช้งานทางทหารแบบไม่จำกัดของโมเดล ซึ่งเป็นคำขอที่ผู้นำของ Anthropic ปฏิเสธว่าข้ามเส้นจริยธรรมที่บริษัทจะไม่ข้าม จุดยืนของบริษัทมุ่งเน้นไปที่ความเชื่อที่ว่าการใช้งานบางประเภท—การเฝ้าระวังในประเทศจำนวนมากและอาวุธอัตโนมัติอย่างสมบูรณ์—ทำให้เกิดข้อกังวลทางจริยธรรมและกฎหมายอย่างลึกซึ้ง และการกำกับดูแลโดยมนุษย์ที่มีความหมายควรอยู่รอดในช่วงเปลี่ยนผ่านจากแนวคิดสู่การปฏิบัติ ตำแหน่งนี้สอดคล้องกับการถกเถียงที่กำลังดำเนินอยู่เกี่ยวกับวิธีสร้างสมดุลระหว่างการนำ AI มาใช้อย่างรวดเร็วกับมาตรการป้องกันการใช้ในทางที่ผิดและผลที่ตามมาที่ไม่ได้ตั้งใจ
ในส่วนของเพนตากอน ไม่ได้นิ่งนอนใจ เมื่อเผชิญกับช่องว่างของซัพพลายเออร์ที่อาจเกิดขึ้น จึงเริ่มจัดหาตัวทดแทนและรายงานว่าบรรลุข้อตกลงกับ OpenAI เพื่อนำโมเดลไปใช้บนเครือข่ายที่เป็นความลับ การเปลี่ยนแปลงนี้เน้นย้ำการเคลื่อนไหวเชิงกลยุทธ์ที่กว้างขึ้นเพื่อให้แน่ใจว่ามีความต่อเนื่องของความสามารถ แม้ในขณะที่ผู้ให้บริการประเมินข้อกำหนดใหม่สำหรับการใช้งานที่ละเอียดอ่อน ความแตกต่างระหว่างขอบเขตจริยธรรมของ Anthropic กับความต้องการในการปฏิบัติงานของกระทรวงเผยให้เห็นความตึงเครียดด้านนโยบายที่กว้างขึ้น: จะควบคุมเทคโนโลยีการเปลี่ยนแปลงอย่างรับผิดชอบได้อย่างไรในขณะที่รักษาความจำเป็นด้านความมั่นคงแห่งชาติ
ผู้สังเกตการณ์อุตสาหกรรมยังสังเกตผลกระทบต่อระบบนิเวศของการเปลี่ยนแปลงดังกล่าว ตลาด AI กำลังพัฒนาไปสู่การกำหนดค่าที่เป็นโมดูลาร์และผ่านการตรวจสอบความปลอดภัยมากขึ้น ซึ่งสามารถสลับหรืออัปเกรดได้เมื่อนโยบายและการประเมินความเสี่ยงเปลี่ยนแปลง ข้อตกลงของ OpenAI โดยเฉพาะ ส่งสัญญาณถึงความต้องการอย่างต่อเนื่องในการบูรณาการโมเดลชั้นนำเข้ากับเครือข่ายการป้องกันประเทศ แม้จะอยู่ภายใต้การกำกับดูแลและการควบคุมที่เข้มงวด ในขณะที่เส้นทางนี้สัญญาว่าจะมีความสามารถที่เพิ่มขึ้นสำหรับนักวิเคราะห์และผู้วางแผนทางทหาร แต่ก็ยังเพิ่มการตรวจสอบเกี่ยวกับการจัดการข้อมูล ความสามารถในการตีความโมเดล และความเสี่ยงของการพึ่งพาระบบอัตโนมัติมากเกินไปสำหรับการตัดสินใจที่สำคัญ
CEO ของ Anthropic ดาริโอ อาโมเดอี โต้แย้งว่าในขณะที่ AI สามารถเสริมการตัดสินของมนุษย์ แต่ไม่สามารถแทนที่ในการตัดสินใจด้านการป้องกันประเทศที่เป็นแกนหลัก ในความคิดเห็นสาธารณะ เขายืนยันความมุ่งมั่นของบริษัทต่อขอบเขตจริยธรรมและการรักษาการควบคุมโดยมนุษย์ในช่วงเวลาสำคัญ ความตึงเครียดระหว่างการรักษาการเข้าถึงเครื่องมือที่ทันสมัยและการรักษามาตรฐานจริยธรรมน่าจะกำหนดรูปแบบการเจรจาในอนาคตกับหน่วยงานของรัฐบาลกลาง โดยเฉพาะเมื่อผู้ออกกฎหมายและหน่วยงานกำกับดูแลตรวจสอบบทบาทของ AI ในบริบทพลเรือนและความมั่นคงแห่งชาติ
เมื่อภูมิทัศน์พัฒนาไป ชุมชนคริปโตและเทคโนโลยีที่กว้างขึ้นจะจับตาดูว่าพลวัตด้านนโยบายและการจัดซื้อจัดจ้างเหล่านี้มีอิทธิพลต่อการพัฒนาและการนำระบบ AI ขั้นสูงไปใช้ในสภาพแวดล้อมที่มีความเสี่ยงสูงอย่างไร เหตุการณ์นี้เป็นกรณีศึกษาในการสร้างสมดุลระหว่างความก้าวหน้าทางเทคโนโลยีที่รวดเร็วกับการกำกับดูแล การควบคุม และคำถามที่ยั่งยืนว่าความรับผิดชอบของมนุษย์สิ้นสุดที่ไหนและการตัดสินใจอัตโนมัติเริ่มต้นที่ไหน
บทความนี้เผยแพร่ครั้งแรกในชื่อ US military used Anthropic for Iran strike despite Trump's ban: WSJ บน Crypto Breaking News – แหล่งข้อมูลที่เชื่อถือได้ของคุณสำหรับข่าวคริปโต ข่าว Bitcoin และอัปเดตบล็อกเชน


