EigenCloud Challenge เปิดเผย 5 AI Agents ที่ใช้ TEEs เพื่อความไว้วางใจที่ตรวจสอบได้
Iris Coleman 13 มี.ค. 2026 03:49
การแข่งขันนวัตกรรม $10K ของ EigenCloud สร้าง AI agents ที่พิสูจน์ความซื่อสัตย์ผ่าน Trusted Execution Environments ตั้งแต่แพลตฟอร์มผู้เปิดโปงไปจนถึงการเจรจาอัตโนมัติ
EigenCloud ประกาศโครงการที่ชนะเลิศห้าโครงการจาก Open Innovation Challenge โดยแต่ละโครงการแสดงให้เห็นว่า AI agents สามารถพิสูจน์ทางการเข้ารหัสว่าไม่ได้ถูกงัดแงะหรือถูกบุกรุก การแข่งขันในเดือนกุมภาพันธ์เสนอรางวัล $10,000 สำหรับนักพัฒนาที่สร้าง agents ที่ตรวจสอบได้บนโครงสร้างพื้นฐาน EigenCompute
ปัญหาหลักที่โครงการเหล่านี้จัดการไม่ใช่ว่า AI พูดความจริงหรือไม่ แต่เป็นคำถามว่าคุณสามารถตรวจสอบได้หรือไม่ว่า agent รันโค้ดที่อ้างว่าได้รันจริง ๆ งานวิจัยล่าสุดจากเกณฑ์มาตรฐาน MASK แสดงให้เห็นว่าแม้แต่โมเดล AI ที่ซับซ้อนก็โกหก 20-60% ของเวลาเมื่อถูกกดดัน โดยไม่คำนึงถึงความสามารถพื้นฐานของพวกมัน การตรวจสอบแบบฮาร์ดแวร์หลีกเลี่ยงเรื่องนี้ได้โดยสิ้นเชิง
TEEs เปลี่ยนสมการความไว้วางใจอย่างไร
ผู้ชนะทั้งห้าอาศัย Trusted Execution Environments ซึ่งเป็นส่วนประมวลผลที่แยกด้วยฮาร์ดแวร์ที่โค้ดรันในลักษณะที่แม้แต่ผู้ดำเนินการเครื่องก็ไม่สามารถสังเกตหรือแก้ไขได้ คิดว่ามันเป็นห้องปิดผนึกที่สร้างใบเสร็จการเข้ารหัสของทุกสิ่งที่เกิดขึ้นข้างใน
รางวัลสูงสุดตกเป็นของ Molt Negotiation ระบบการทำข้อตกลงอัตโนมัติที่ AI agents ต่อรองแทนมนุษย์ กลยุทธ์ของแต่ละ agent ถูกปิดผนึกใน TEE ขณะที่มีเพียงข้อเสนอสาธารณะเท่านั้นที่ส่งผ่านระหว่างกัน ทุกการเคลื่อนไหวได้รับการลงนาม และการชำระเงินเกิดขึ้นผ่าน escrow บนเชน ผู้สร้างโครงการ Khairallah AL-Awady เปรียบเทียบโดยตรงกับ Operation Ill Wind—การสอบสวนของ FBI ปี 1988 ที่จับเจ้าหน้าที่เพนตากอนที่รั่วไหลการเสนอราคาที่ปิดผนึกให้กับผู้รับเหมาที่ได้รับการสนับสนุน
ความเป็นส่วนตัวพบกับความรับผิดชอบ
Sovereign Journalist จัดการกับช่องว่างความไว้วางใจที่แตกต่างกัน: ปกป้องผู้เปิดโปงในขณะที่รับรองความซื่อสัตย์ทางวารสารศาสตร์ แหล่งข้อมูลส่งเคล็ดลับเข้าสู่ TEE ที่ AI agent ประมวลผลเป็นรายงาน ระบบสร้างหักฐานว่าตรรกะการรายงานไม่ได้ถูกเปลี่ยนแปลง—หมายความว่าหากมีใครกดดันผู้ให้บริการโฮสติ้งให้เปลี่ยนวิธีการประมวลผลข้อมูล การงัดแงะนั้นจะปรากฏในการตรวจสอบ นักพัฒนา Adithya รวม zero-knowledge proofs ผ่าน Reclaim Protocol เพื่อให้แหล่งข้อมูลสามารถตรวจสอบข้อมูลรับรองของพวกเขาโดยไม่เปิดเผยตัวตนต่อนักข่าว
Swarm Mind นำแนวคิด multi-agent ไปใช้ AI agents สามตัววิเคราะห์ข้อมูล NASA แบบสดเกี่ยวกับวัตถุใกล้โลก, solar flares และสภาพอากาศบนดาวอังคาร พวกมันแบ่งปันส่วนการวิเคราะห์ที่ลงนาม และเมื่อหลาย agents ตั้งค่าสถานะรูปแบบเดียวกัน ระบบจะสังเคราะห์รายงานรวม ทุกการอ้างสิทธิ์มีเส้นทางการตรวจสอบเต็มรูปแบบ—ใครเป็นผู้เขียน เมื่อใด และหลักฐานว่าไม่ได้ถูกเปลี่ยนแปลง
เกมและผู้ช่วยส่วนตัว
Molt Combat สร้างเวทีแข่งขันที่ AI agents ต่อสู้ในการแข่งขันแบบผลัดกัน โครงการอ้างอิงถึงเรื่องอื้อฉาว Absolute Poker ปี 2007 ที่บุคคลภายในใช้บัญชี "god mode" เพื่อดูไพ่ของฝ่ายตรงข้ามเป็นเวลาหลายเดือนโดยไม่ถูกตรวจพบ ที่นี่ทุกเทิร์นสร้างหลักฐานที่ลงนาม และการรับรองหลังการแข่งขันให้ทุกคนตรวจสอบความยุติธรรมได้
Alfred ที่สร้างบน framework OpenClaw ที่แพร่ระบาด แสดงให้เห็นผู้ช่วย AI ส่วนตัวที่แฮชการกำหนดค่าพฤติกรรมของตัวเองเมื่อเริ่มต้น เมื่อ agent อื่นต้องการโต้ตอบกับ Alfred มันสามารถตรวจสอบว่าแฮชตรงกับการตั้งค่าที่คาดหวัง—ไม่ต้องไว้วางใจแบบมืดบอด
สิ่งนี้หมายความว่าอย่างไรสำหรับโครงสร้างพื้นฐาน Crypto
ผลกระทบที่กว้างขึ้น? เนื่องจาก AI agents จัดการธุรกรรมทางการเงิน การประสานงานหลายฝ่าย และข้อมูลที่ละเอียดอ่อนมากขึ้น ความสามารถในการพิสูจน์ความสมบูรณ์ของการดำเนินการกลายเป็นโครงสร้างพื้นฐานที่สำคัญ EigenCloud กล่าวว่าจะเปิดตัวเครื่องมือเฉพาะสำหรับการสร้าง agents บน EigenCompute โดยมีรายชื่อรอเปิดให้เข้าถึงก่อนแล้ว
สิ่งเหล่านี้ยังคงเป็นการสาธิตแนวคิดมากกว่าระบบที่แข็งแกร่งในการผลิต แต่พวกมันชี้ไปสู่อนาคตที่คำถามไม่ใช่ "AI นี้ดูน่าเชื่อถือหรือไม่" แต่เป็น "AI นี้สามารถพิสูจน์สิ่งที่มันทำจริง ๆ ได้หรือไม่"
แหล่งที่มาของภาพ: Shutterstock- ai agents
- eigencloud
- tee
- verifiable computing
- blockchain infrastructure


