BitcoinWorld Anthropic Pentagon AI Standoff: CEO's Defiant Ethical Stance Against Military Demands วอชิงตัน ดี.ซี. — 13 ตุลาคม 2025 — ในการบานปลายอย่างรุนแรงBitcoinWorld Anthropic Pentagon AI Standoff: CEO's Defiant Ethical Stance Against Military Demands วอชิงตัน ดี.ซี. — 13 ตุลาคม 2025 — ในการบานปลายอย่างรุนแรง

Anthropic Pentagon AI Standoff: ท่าทีท้าทายด้านจริยธรรมของ CEO ต่อข้อเรียกร้องของกองทัพ

2026/02/27 07:40
2 นาทีในการอ่าน

BitcoinWorld

การเผชิญหน้า AI ระหว่าง Anthropic กับ Pentagon: จุดยืนด้านจริยธรรมอันแข็งกร้าวของ CEO ต่อความต้องการทางทหาร

วอชิงตัน ดี.ซี. — 13 ตุลาคม 2025 — ในการบานปลายของความตึงเครียดอย่างมากระหว่าง Silicon Valley และ Pentagon CEO ของ Anthropic Dario Amodei ได้ปฏิเสธคำขาดจากกระทรวงกลาโหมอย่างเปิดเผย ซึ่งเรียกร้องการเข้าถึงระบบปัญญาประดิษฐ์ขั้นสูงของบริษัทอย่างไร้ข้อจำกัด เมื่อเหลือเวลาน้อยกว่า 24 ชั่วโมงก่อนถึงกำหนดเวลาสำคัญ Amodei ประกาศว่าเขา "ไม่สามารถยอมรับได้ด้วยมโนธรรม" ต่อคำขอทางทหารที่จะเปิดใช้งานการเฝ้าระวังชาวอเมริกันในวงกว้างและการใช้งานอาวุธอัตโนมัติเต็มรูปแบบ การเผชิญหน้าที่ไม่เคยเกิดขึ้นมาก่อนนี้แสดงถึงช่วงเวลาสำคัญสำหรับการกำกับดูแล AI โดยตั้งความจำเป็นด้านความมั่นคงแห่งชาติตรงข้ามกับหลักการจริยธรรมพื้นฐานในการพัฒนาปัญญาประดิษฐ์

ความขัดแย้ง AI ระหว่าง Anthropic กับ Pentagon ถึงกำหนดเวลาวิกฤต

การเผชิญหน้ามุ่งเน้นที่กำหนดเวลาวันศุกร์ เวลา 17:01 น. ของรัฐมนตรีกลาโหม Pete Hegseth ที่กำหนดให้ Anthropic ปฏิบัติตามความต้องการทางทหารหรือเผชิญกับผลที่ตามมาอย่างรุนแรง ตามเอกสารภายในที่แหล่งข่าวหลายแหล่งได้ตรวจสอบแล้ว Pentagon ต้องการควบคุมการดำเนินงานอย่างสมบูรณ์เหนือระบบ Claude AI ของ Anthropic เพื่อ "วัตถุประสงค์ที่ถูกกฎหมายทั้งหมด" อย่างไรก็ตาม คำแถลงของ Amodei ในวันพระหฤดีได้ระบุข้อจำกัดสองประการที่ไม่สามารถเจรจาได้: ห้ามการเฝ้าระวังประชาชนสหรัฐฯ ในวงกว้างและห้ามระบบอาวุธอัตโนมัติเต็มรูปแบบที่ไม่มีการกำกับดูแลจากมนุษย์

ปัจจุบัน Anthropic รักษาตำแหน่งพิเศษในฐานะห้องปฏิบัติการ AI ชั้นนำเพียงแห่งเดียวที่มีระบบพร้อมใช้สำหรับข้อมูลลับที่ได้รับการรับรองสำหรับการใช้งานทางทหาร ความได้เปรียบทางเทคโนโลยีนี้ให้อำนาจต่อรองที่สำคัญแก่บริษัท แต่ก็ทำให้บริษัทเป็นเป้าหมายของแรงกดดันจากกระทรวงกลาโหม Pentagon ได้ขู่ว่าจะใช้มาตรการสองประการที่ขัดแย้งกันเพื่อบังคับให้ปฏิบัติตาม:

  • การกำหนดความเสี่ยงของห่วงโซ่อุปทาน: ติดป้ายให้ Anthropic เป็นภัยคุกคามด้านความมั่นคงแห่งชาติที่มักสงวนไว้สำหรับคู่แข่งต่างประเทศ
  • การใช้พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศ: ใช้อำนาจประธานาธิบดีเพื่อบังคับให้บริษัทให้ความสำคัญกับการผลิตทางทหาร

Amodei เน้นย้ำความขัดแย้งนี้ในคำแถลงของเขา โดยระบุว่า: "อันหนึ่งติดป้ายเราว่าเป็นความเสี่ยงด้านความปลอดภัย อีกอันติดป้าย Claude ว่าเป็นสิ่งจำเป็นต่อความมั่นคงแห่งชาติ" ความคลุมเครือเชิงกลยุทธ์นี้สะท้อนความสัมพันธ์ที่ซับซ้อนของ Pentagon กับนักพัฒนา AI เอกชนที่ควบคุมเทคโนโลยีสำคัญ

ขอบเขตจริยธรรมในปัญญาประดิษฐ์ทางทหาร

ความไม่ลงรอยกันหลักขยายเกินกว่าข้อกำหนดสัญญาไปสู่ความแตกต่างทางปรัชญาพื้นฐานเกี่ยวกับบทบาทของ AI ในการป้องกันประเทศ ตำแหน่งของ Amodei สะท้อนแนวทาง Constitutional AI ของ Anthropic ซึ่งฝังการพิจารณาด้านจริยธรรมไว้โดยตรงในสถาปัตยกรรมระบบ การปฏิเสธของบริษัทมุ่งเน้นไปที่การใช้งานเฉพาะสองประการที่บริษัทพิจารณาว่าเกินขอบเขตที่ยอมรับได้:

การใช้งานที่ถูกจำกัดเหตุผลของ Anthropicตำแหน่งของ Pentagon
การเฝ้าระวังชาวอเมริกันในวงกว้างบ่อนทำลายค่านิยมประชาธิปไตยและการคุ้มครองความเป็นส่วนตัวจำเป็นสำหรับการตรวจจับภัยคุกคามความมั่นคงแห่งชาติ
อาวุธอัตโนมัติเต็มรูปแบบเทคโนโลยีปัจจุบันไม่สามารถรับประกันการใช้งานที่เชื่อถือได้และมีจริยธรรมรักษาความได้เปรียบทางเทคโนโลยีทางทหาร

กรอบจริยธรรมนี้เกิดขึ้นจากโครงสร้างองค์กรที่เป็นเอกลักษณ์ของ Anthropic ในฐานะบริษัทเพื่อประโยชน์สาธารณะ ซึ่งบังคับบริษัทตามกฎหมายให้พิจารณาผลกระทบต่อสังคมควบคู่ไปกับผลประโยชน์ของผู้ถือหุ้น ในขณะเดียวกัน เจ้าหน้าที่กระทรวงกลาโหมโต้แย้งว่าบริษัทเอกชนไม่ควรกำหนดกลยุทธ์ทางทหารหรือการพัฒนาขีดความสามารถ พวกเขายืนยันว่าการใช้ AI ที่ถูกกฎหมายควรอยู่ภายใต้ดุลยพินิจของรัฐบาลทั้งหมด

บริบททางประวัติศาสตร์ของความร่วมมือระหว่างทหารและเทคโนโลยี

การเผชิญหน้าในปัจจุบันเป็นผลมาจากความสัมพันธ์ที่พัฒนามานานหลายทศวรรษระหว่างสถาบันกลาโหมและนักนวัตกรรมเทคโนโลยี ในช่วงสงครามโลกครั้งที่สอง บริษัทเช่น Bell Labs และ IBM ทำงานอย่างใกล้ชิดกับหน่วยงานทางทหารโดยไม่มีข้อจำกัดด้านจริยธรรมที่สำคัญ สงครามเย็นเห็นความร่วมมือที่คล้ายคลึงกันกับบริษัทด้านการบินอวกาศและคอมพิวเตอร์ อย่างไรก็ตาม ศตวรรษที่ 21 นำเสนอความซับซ้อนใหม่เมื่อบริษัทเทคโนโลยีสำหรับผู้บริโภคพัฒนาขีดความสามารถที่เหนือกว่าระบบทางทหารเฉพาะทาง

ในช่วงหลายปีที่ผ่านมามีความตึงเครียดที่เพิ่มขึ้นระหว่างพนักงานเทคและสัญญาทางทหาร ในปี 2018 พนักงาน Google ได้กดดันผู้นำให้ละทิ้ง Project Maven ซึ่งเป็นโครงการ AI ของ Pentagon สำหรับการวิเคราะห์ภาพจากโดรน Microsoft และ Amazon เผชิญกับการประท้วงภายในที่คล้ายคลึงกันเกี่ยวกับสัญญากลาโหม ตำแหน่งปัจจุบันของ Anthropic แสดงถึงการต่อต้านที่เป็นทางการและเปิดเผยมากที่สุดจากบริษัท AI ที่เผชิญกับแรงกดดันจากรัฐบาลโดยตรง

ผลกระทบต่อความมั่นคงแห่งชาติและทางเลือกอื่น

กำหนดเวลาเร่งด่วนของ Pentagon สะท้อนความกังวลด้านความมั่นคงแห่งชาติที่แท้จริง ผู้วางแผนทางทหารมองว่า AI ขั้นสูงเป็นสิ่งจำเป็นสำหรับการรักษาความได้เปรียบเชิงกลยุทธ์ต่อคู่แข่งที่มีระดับใกล้เคียงกันมากขึ้น ระบบอัตโนมัติสามารถปรับปรุงทุกอย่างตั้งแต่การเพิ่มประสิทธิภาพด้านโลจิสติกส์ไปจนถึงการป้องกันไซเบอร์ อย่างไรก็ตาม Amodei เสนอเส้นทางกลางที่รักษาความร่วมมือในขณะที่เคารพขอบเขตจริยธรรม

ในคำแถลงของเขา CEO เน้นย้ำว่า: "ความต้องการที่แข็งแกร่งของเราคือการดำเนินการให้บริการกระทรวงและนักรบของเรา—โดยมีมาตรการป้องกันสองประการที่เราขอไว้" เขายังมุ่งมั่นที่จะอำนวยความสะดวกในการเปลี่ยนแปลงอย่างราบรื่นหาก Pentagon เลือกผู้ให้บริการทางเลือก โดยเฉพาะการกล่าวถึงว่ากระทรวง "รายงานว่ากำลังเตรียม xAI ให้พร้อมสำหรับงาน" การอ้างอิงถึงบริษัทของ Elon Musk นี้ชี้ให้เห็นว่ากระทรวงกลาโหมได้เตรียมแผนสำรอง

ผลที่ตามมาที่อาจเกิดขึ้นจากการแยกทางอย่างสมบูรณ์นั้นมีนัยสำคัญ ระบบของ Anthropic ปัจจุบันสนับสนุนโครงการทางทหารที่เป็นความลับหลายโครงการ และช่วงเวลาการเปลี่ยนผ่านอาจสร้างช่องว่างด้านขีดความสามารถ อย่างไรก็ตาม แนวทางการส่งมอบงานอย่างร่วมมือของ Amodei แสดงให้เห็นความเข้าใจอย่างเป็นจริงเกี่ยวกับลำดับความสำคัญด้านความมั่นคงแห่งชาติแม้ในขณะที่รักษาขอบเขตจริยธรรม

ภูมิทัศน์ด้านกฎหมายและการกำกับดูแลสำหรับการกำกับดูแล AI

การเผชิญหน้านี้เกิดขึ้นท่ามกลางกรอบการกำกับดูแลที่พัฒนาขึ้นสำหรับปัญญาประดิษฐ์ พระราชบัญญัติ AI ของสหภาพยุโรปกำหนดข้อจำกัดที่เข้มงวดเกี่ยวกับการใช้งานทางทหารบางประเภท ในขณะที่สหรัฐอเมริกาติดตามแนวทางที่ยืดหยุ่นมากขึ้นผ่านคำสั่งบริหารและแนวทางของหน่วยงาน พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศซึ่งได้รับการปรับปรุงล่าสุดในปี 2020 เป็นพื้นฐานทางกฎหมายสำหรับการกระทำที่ Pentagon ขู่จะใช้

ผู้เชี่ยวชาญด้านกฎหมายสังเกตประเด็นที่ไม่เคยเกิดขึ้นมาก่อนหลายประการของสถานการณ์นี้ ไม่เคยมีบริษัทเทคโนโลยีปฏิเสธการใช้พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศอย่างเปิดเผยก่อนที่มันจะเกิดขึ้น นอกจากนี้ การกำหนดความเสี่ยงของห่วงโซ่อุปทานมักใช้กับหน่วยงานต่างประเทศ ไม่ใช่บริษัทในประเทศ สถานการณ์ใหม่เหล่านี้อาจสร้างแบบอย่างที่สำคัญสำหรับความสัมพันธ์ระหว่างรัฐบาลและเทคโนโลยีในอนาคต

คณะกรรมาธิการของรัฐสภาได้ประกาศการรับฟังแล้วเพื่อตรวจสอบผลกระทบที่กว้างขึ้น สมาชิกสภานิติบัญญัติจากทั้งสองพรรคได้แสดงความกังวลเกี่ยวกับการประนีประนอมความมั่นคงแห่งชาติหรือการกัดกร่อนมาตรฐานจริยธรรมในการพัฒนา AI ผลลัพธ์อาจมีอิทธิพลต่อกฎหมายที่รอดำเนินการเกี่ยวกับความปลอดภัยของ AI และการใช้งานทางทหาร

ปฏิกิริยาของอุตสาหกรรมและพลวัตการแข่งขัน

การตอบสนองจากบริษัท AI อื่น ๆ มีการชั่งน้ำหนักแต่เปิดเผย OpenAI ปฏิเสธที่จะแสดงความคิดเห็นโดยเฉพาะ แต่อ้างถึงนโยบายที่มีอยู่ที่จำกัดการใช้งานทางทหารบางประเภท Google เน้นย้ำงานป้องกันประเทศที่กำลังดำเนินการในขณะที่สังเกตว่าหลักการ AI ของตนห้ามการพัฒนาอาวุธ xAI ไม่ได้กล่าวถึงรายงานการเตรียมการของ Pentagon อย่างเปิดเผย แต่เคยแสดงความเต็มใจที่จะทำงานกับหน่วยงานกลาโหมมาก่อน

ผลกระทบทางการแข่งขันมีนัยสำคัญ หาก Anthropic สูญเสียสัญญาทางทหาร รายได้ของบริษัทอาจลดลงอย่างมาก ซึ่งอาจส่งผลต่องบประมาณการวิจัยและพัฒนา ในทางกลับกัน บริษัทที่เต็มใจยอมรับข้อจำกัดน้อยลงอาจได้รับความได้เปรียบในการแข่งขันในตลาดกลาโหม พลวัตนี้สร้างแรงกดดันต่อมาตรฐานจริยธรรมทั่วทั้งอุตสาหกรรม

ข้อพิจารณาทางเทคนิคในการใช้งาน AI ทางทหาร

นอกเหนือจากความกังวลด้านจริยธรรม คำแถลงของ Amodei อ้างถึงข้อจำกัดทางเทคนิค ระบบ AI ปัจจุบัน แม้แต่โมเดลขั้นสูงเช่น Claude แสดงช่องโหว่รวมถึง:

  • การโจมตีแบบปรปักษ์: ความเสี่ยงต่อข้อมูลนำเข้าที่ถูกจัดการทำให้เกิดผลลัพธ์ที่ไม่ถูกต้อง
  • ความท้าทายด้านการตีความ: ความยากลำบากในการเข้าใจว่าระบบเข้าถึงการตัดสินใจเฉพาะได้อย่างไร
  • การพึ่งพาข้อมูล: ความต้องการข้อมูลการฝึกอบรมจำนวนมากและมีคุณภาพสูง
  • ข้อจำกัดด้านบริบท: ความไม่สามารถในการเข้าใจสถานการณ์ในโลกแห่งความจริงที่ซับซ้อนอย่างเต็มที่

ข้อจำกัดทางเทคนิคเหล่านี้ทำให้การใช้งานทางทหารบางอย่างมีความเสี่ยงเป็นพิเศษ ระบบอาวุธอัตโนมัติที่ทำงานในสภาพแวดล้อมที่มีพลวัตอาจตีความสถานการณ์ผิดโดยมีผลที่ตามมาอย่างหายนะ ระบบการเฝ้าระวังในวงกว้างอาจสร้างผลบวกลวงที่มีผลกระทบร้ายแรงต่อเสรีภาพพลเมือง ตำแหน่งของ Anthropic ยอมรับทั้งข้อจำกัดด้านจริยธรรมและข้อจำกัดเชิงปฏิบัติของเทคโนโลยีปัจจุบัน

สรุป

การเผชิญหน้า AI ระหว่าง Anthropic กับ Pentagon แสดงถึงช่วงเวลาสำคัญสำหรับจริยธรรมเทคโนโลยีและความมั่นคงแห่งชาติ การปฏิเสธตามหลักการของ Dario Amodei ที่จะให้การเข้าถึงทางทหารอย่างไม่จำกัดสร้างขอบเขตใหม่สำหรับความรับผิดชอบขององค์กรในการพัฒนาปัญญาประดิษฐ์ เมื่อกำหนดเวลาวันศุกร์ใกล้เข้ามา ผลลัพธ์จะมีอิทธิพลไม่เพียงแต่ความสัมพันธ์ระหว่างรัฐบาลและผู้รับเหมา แต่ยังรวมถึงบรรทัดฐานทางสังคมที่กว้างขึ้นสำหรับการใช้งาน AI ไม่ว่าจะผ่านการประนีประนอมหรือการแยกทาง การเผชิญหน้านี้จะกำหนดรูปแบบว่าสังคมประชาธิปไตยจะสมดุลความต้องการด้านความปลอดภัยกับหลักการจริยธรรมในโลกที่ขับเคลื่อนด้วย AI มากขึ้นอย่างไร การแก้ไขอาจกำหนดว่าบริษัทเอกชนสามารถรักษาการป้องกันด้านจริยธรรมได้หรือไม่เมื่อเทคโนโลยีของพวกเขาตัดกับลำดับความสำคัญด้านการป้องกันประเทศ

คำถามที่พบบ่อย

คำถามที่ 1: Anthropic ปฏิเสธที่จะให้การใช้งาน AI เฉพาะใดแก่ Pentagon?
Anthropic จะไม่เปิดใช้งานการเฝ้าระวังประชาชนอเมริกันในวงกว้างหรือระบบอาวุธอัตโนมัติเต็มรูปแบบโดยไม่มีการกำกับดูแลจากมนุษย์ บริษัทอ้างถึงทั้งความกังวลด้านจริยธรรมและข้อจำกัดทางเทคนิคของเทคโนโลยี AI ปัจจุบัน

คำถามที่ 2: Pentagon มีอำนาจตามกฎหมายอะไรในการบังคับให้ Anthropic ร่วมมือ?
กระทรวงกลาโหมได้ขู่ว่าจะใช้พระราชบัญญัติการผลิตเพื่อการป้องกันประเทศ ซึ่งให้อำนาจประธานาธิบดีในการให้ความสำคัญกับการผลิตทางทหาร หรือกำหนดให้ Anthropic เป็นความเสี่ยงของห่วงโซ่อุปทานซึ่งมักสงวนไว้สำหรับคู่แข่งต่างประเทศ

คำถามที่ 3: ตำแหน่งของ Anthropic เปรียบเทียบกับนโยบายทางทหารของบริษัท AI อื่น ๆ อย่างไร?
Anthropic มีจุดยืนสาธารณะที่เข้มงวดที่สุด โดยมีการปฏิเสธการใช้งานเฉพาะอย่างเป็นทางการ Google ห้ามการพัฒนาอาวุธแต่อนุญาตงานป้องกันอื่น ๆ OpenAI จำกัดการใช้งาน "ทางทหารและสงคราม" แต่คำจำกัดความยังคงมีความยืดหยุ่น

คำถามที่ 4: จะเกิดอะไรขึ้นหาก Anthropic และ Pentagon ไม่สามารถบรรลุข้อตกลงได้?
Anthropic มุ่งมั่นที่จะอำนวยความสะดวกในการเปลี่ยนแปลงอย่างราบรื่นไปยังผู้ให้บริการทางเลือก โดยกล่าวถึงว่า Pentagon กำลังเตรียมระบบ xAI สิ่งนี้อาจสร้างช่องว่างด้านขีดความสามารถชั่วคราว แต่น่าจะไม่ทำลายการเข้าถึง AI ทางทหารอย่างถาวร

คำถามที่ 5: โครงสร้างองค์กรของ Anthropic มีอิทธิพลต่อจุดยืนด้านจริยธรรมอย่างไร?
ในฐานะบริษัทเพื่อประโยชน์สาธารณะ Anthropic มีภาระผูกพันทางกฎหมายในการพิจารณาผลกระทบต่อสังคมควบคู่ไปกับผลประโยชน์ทางการเงิน โครงสร้างนี้เป็นพื้นฐานอย่างเป็นทางการสำหรับการตัดสินใจด้านจริยธรรมที่อาจขัดแย้งกับโอกาสทางธุรกิจระยะสั้น

โพสต์นี้ การเผชิญหน้า AI ระหว่าง Anthropic กับ Pentagon: จุดยืนด้านจริยธรรมอันแข็งกร้าวของ CEO ต่อความต้องการทางทหาร ปรากฏครั้งแรกบน BitcoinWorld

โอกาสทางการตลาด
Chainbase โลโก้
ราคา Chainbase(C)
$0,05192
$0,05192$0,05192
+%1,56
USD
Chainbase (C) กราฟราคาสด
ข้อจำกัดความรับผิดชอบ: บทความที่โพสต์ซ้ำในไซต์นี้มาจากแพลตฟอร์มสาธารณะและมีไว้เพื่อจุดประสงค์ในการให้ข้อมูลเท่านั้น ซึ่งไม่ได้สะท้อนถึงมุมมองของ MEXC แต่อย่างใด ลิขสิทธิ์ทั้งหมดยังคงเป็นของผู้เขียนดั้งเดิม หากคุณเชื่อว่าเนื้อหาใดละเมิดสิทธิของบุคคลที่สาม โปรดติดต่อ crypto.news@mexc.com เพื่อลบออก MEXC ไม่รับประกันความถูกต้อง ความสมบูรณ์ หรือความทันเวลาของเนื้อหาใดๆ และไม่รับผิดชอบต่อการดำเนินการใดๆ ที่เกิดขึ้นตามข้อมูลที่ให้มา เนื้อหานี้ไม่ถือเป็นคำแนะนำทางการเงิน กฎหมาย หรือคำแนะนำจากผู้เชี่ยวชาญอื่นๆ และไม่ถือว่าเป็นคำแนะนำหรือการรับรองจาก MEXC

คุณอาจชอบเช่นกัน

วิทาลิก บูเทริน เปิดเผยแผนงานการป้องกันภัยคุกคามควอนตัมของอีเธอเรียม

วิทาลิก บูเทริน เปิดเผยแผนงานการป้องกันภัยคุกคามควอนตัมของอีเธอเรียม

Vitalik Buterin ได้วางแผนสี่ด้านเพื่อเสริมความแข็งแกร่งให้ Ethereum ต่อภัยคุกคามควอนตัม โดยระบุสี่ด้านที่เปราะบางที่สุด: ลายเซ็นของผู้ตรวจสอบ, ข้อมูล
แชร์
Crypto Breaking News2026/02/27 11:19
เทรดเดอร์ Michaël Van De Poppe กล่าวว่า Bitcoin กำลังนำเสนอ 'โอกาสครั้งชีวิต' ในการสะสม – นี่คือเหตุผล

เทรดเดอร์ Michaël Van De Poppe กล่าวว่า Bitcoin กำลังนำเสนอ 'โอกาสครั้งชีวิต' ในการสะสม – นี่คือเหตุผล

เทรดเดอร์คริปโต Michaël van de Poppe กล่าวว่าเขาเชื่อว่า Bitcoin (BTC) กำลังเสนอ "โอกาสแห่งชีวิต" สำหรับนักลงทุนที่ยินดีสะสมในช่วงตลาดขาลงในปัจจุบัน
แชร์
The Daily Hodl2026/02/27 11:01
Pete Hegseth ถูกเตือนว่าความพยายามของเขาในการบังคับบริษัท AI ให้เชื่อฟังคำสั่งจะส่งผลย้อนกลับ

Pete Hegseth ถูกเตือนว่าความพยายามของเขาในการบังคับบริษัท AI ให้เชื่อฟังคำสั่งจะส่งผลย้อนกลับ

รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth พยายามกดดัน Anthropic บริษัทปัญญาประดิษฐ์ชั้นนำ ให้ระงับกฎของตนเองเกี่ยวกับการจำกัดการใช้งานทางทหาร
แชร์
Rawstory2026/02/27 10:49