Vitalik Buterin ผู้ร่วมก่อตั้ง Ethereum แสดงความเห็นว่าปัญญาประดิษฐ์สามารถปรับเปลี่ยนการกำกับดูแลแบบกระจายอำนาจได้โดยการแก้ไขข้อจำกัดหลัก นั่นคือความสนใจของมนุษย์ ในโพสต์วันอาทิตย์บน X เขาเตือนว่าแม้จะมีแนวโน้มที่ดีของโมเดลประชาธิปไตยเช่น DAO แต่การตัดสินใจก็ถูกขัดขวางเมื่อสมาชิกต้องรับมือกับปัญหามากมายด้วยเวลาและความเชี่ยวชาญที่จำกัด อัตราการมีส่วนร่วมใน DAO มักถูกอ้างว่าต่ำ โดยทั่วไปอยู่ระหว่าง 15% ถึง 25% ซึ่งเป็นพลวัตที่สามารถรวมศูนย์อิทธิพลและเชิญชวนการหลบหลีกที่ก่อกวนเมื่อผู้โจมตีพยายามผ่านข้อเสนอโดยไม่มีการตรวจสอบอย่างกว้างขวาง ระบบนิเวศคริปโตที่กว้างขึ้นกำลังจับตาดูว่าเครื่องมือ AI จะเปลี่ยนแปลงการกำกับดูแล ความเป็นส่วนตัว และการมีส่วนร่วมอย่างไร
บริบทของตลาด: การสนทนาเกี่ยวกับการกำกับดูแลดำเนินไปท่ามกลางการอภิปรายที่กว้างขึ้นเกี่ยวกับความปลอดภัยของ AI ความโปร่งใสบนเชน และการตรวจสอบด้านกฎระเบียบของกลไกการลงคะแนนที่ถ่วงน้ำหนักด้วยโทเค็น เมื่อเครือข่ายขยายขนาด การทดลองกับการตัดสินใจที่ช่วยเหลือด้วย AI สามารถมีอิทธิพลต่อความรวดเร็วในการตรวจสอบและดำเนินการข้อเสนอใหม่ ซึ่งส่งผลกระทบต่อสภาพคล่อง ความรู้สึกความเสี่ยง และการมีส่วนร่วมของผู้ใช้ทั่วทั้งระบบนิเวศคริปโต
แนวคิดของการกำกับดูแลที่ช่วยเหลือด้วย AI เข้าสู่การกำกับดูแลคริปโตในช่วงเวลาที่สำคัญ หาก DAO จะขยายขนาดอย่างมีความหมายเกินกว่าชุมชนเฉพาะกลุ่ม พวกเขาต้องแก้ไข "ปัญหาความสนใจ" ที่จำกัดว่าใครสามารถมีส่วนร่วมได้และบ่อยแค่ไหน ข้อโต้แย้งของ Buterin มุ่งเน้นไปที่อันตรายที่ว่าหากปราศจากการมีส่วนร่วมที่กว้างขวางและมีข้อมูล การกำกับดูแลอาจเอนเอียงไปสู่ความชอบของชนกลุ่มน้อยที่มีเสียง หรือแย่กว่านั้น กลายเป็นเปราะบางต่อการโจมตีที่ประสานกัน ช่วงการมีส่วนร่วมที่อ้างถึง ซึ่งมักอ้างว่าเป็น 15–25% เน้นย้ำถึงความเปราะบางของฉันทามติในชุมชนที่หลากหลายและกระจายไปทั่วโลก เมื่อเฉพาะส่วนหนึ่งของสมาชิกที่มีส่วนร่วม นักแสดงที่ประสานกันด้วยการถือครองโทเค็นที่กระจุกตัวสามารถนำผลลัพธ์ที่ไม่สะท้อนถึงฐานที่กว้างขึ้น
ผู้ช่วยที่ขับเคลื่อนด้วย AI นำเสนอเส้นทางที่มีศักยภาพไปข้างหน้าโดยการแปลตัวเลือกนโยบายที่หนาแน่นเป็นคะแนนที่สามารถดำเนินการได้ ซึ่งปรับให้เหมาะกับความชอบที่ระบุของแต่ละบุคคล แนวคิดนี้อยู่บนตัวแทนส่วนบุคคลที่สามารถสังเกตการป้อนข้อมูลของผู้ใช้ — การเขียน การสนทนา และคำแถลงที่ชัดเจน — เพื่ออนุมานพฤติกรรมการลงคะแนน หากผู้ใช้ไม่แน่ใจเกี่ยวกับประเด็นเฉพาะ ตัวแทนจะขอข้อมูลและนำเสนอบริบทที่เกี่ยวข้องเพื่อแจ้งการตัดสินใจ แนวทางนี้สามารถเพิ่มการมีส่วนร่วมที่มีประสิทธิภาพอย่างมากโดยไม่ต้องให้แต่ละสมาชิกศึกษาทุกข้อเสนออย่างลึกซึ้ง แนวคิดนี้ยึดหลักในการวิจัยปัจจุบันเข้าสู่โมเดลภาษาขนาดใหญ่ (LLM) ซึ่งสามารถรวบรวมข้อมูลจากแหล่งที่หลากหลายและนำเสนอตัวเลือกที่กระชับสำหรับการพิจารณาของผู้ลงคะแนน
อย่างไรก็ตาม มิติความเป็นส่วนตัวยังคงมีขนาดใหญ่ Buterin ได้เน้นย้ำว่าระบบใดก็ตามที่เปิดใช้งานการป้อนข้อมูลที่ละเอียดยิ่งขึ้นต้องปกป้องข้อมูลที่ละเอียดอ่อน ความท้าทายของการกำกับดูแลบางอย่างเกิดขึ้นเพราะการเจรจา ข้อพิพาทภายใน หรือการพิจารณาเงินทุนมักเกี่ยวข้องกับสื่อที่ผู้เข้าร่วมต้องการไม่เปิดเผยต่อสาธารณะ ข้อเสนอสำหรับสถาปัตยกรรมที่รักษาความเป็นส่วนตัว ได้แก่ LLM ส่วนตัวที่ประมวลผลข้อมูลในท้องถิ่นหรือวิธีการเข้ารหัสที่แสดงผลเฉพาะการตัดสินการลงคะแนน โดยไม่เปิดเผยข้อมูลส่วนตัวที่อยู่ภายใต้ เป้าหมายคือการสร้างความสมดุลระหว่างการเสริมอำนาจผู้ลงคะแนนและการปกป้องข้อมูลส่วนบุคคลของพวกเขา
เสียงของอุตสาหกรรมนอกเหนือจาก Buterin สะท้อนความตึงเครียดนี้ Lane Rettig นักวิจัยที่ Near Foundation ได้เน้นความพยายามแบบขนานในการใช้ฝาแฝดดิจิทัลที่ขับเคลื่อนด้วย AI ที่ลงคะแนนในนามของสมาชิก DAO เพื่อต่อต้านการมาลงคะแนนที่ต่ำ การสำรวจของ Near Foundation ที่อธิบายไว้ในรายงานที่เชื่อมโยงกับการมอบหมาย AI บ่งชี้ถึงแรงผลักดันที่กว้างขึ้นเพื่อทดสอบเครื่องมือมอบหมายที่เปิดใช้งาน AI ภายในกรอบการกำกับดูแลที่ยังคงรับผิดชอบต่อชุมชน สำหรับผู้ที่ติดตามพื้นที่ ความเป็นผู้นำในโดเมนนี้กำลังย้ายจากการอภิปรายเชิงแนวคิดไปสู่ต้นแบบที่เป็นรูปธรรมที่สามารถสังเกตและทดสอบบนเครือข่ายจริง
แง่มุมอื่นเกี่ยวข้องกับความเสี่ยงเชิงกลยุทธ์ ศักยภาพสำหรับ "การโจมตีการกำกับดูแล" ยังคงเป็นความกังวลที่แท้จริงในระบบที่ถ่วงน้ำหนักด้วยโทเค็น ซึ่งนักแสดงที่เป็นอันตรายสามารถสะสมอิทธิพลเพียงพอที่จะผลักดันข้อเสนอที่เป็นอันตราย นักวิจัยและผู้สร้างกระตือรือร้นที่จะให้แน่ใจว่าแนวทางที่ช่วยเหลือด้วย AI ใดๆ ประกอบด้วยการตรวจสอบและการถ่วงดุล เช่น เส้นทางการตรวจสอบที่โปร่งใส ความสามารถในการแทนที่ของผู้ใช้ และข้อจำกัดอัตราการกำกับดูแลเพื่อป้องกันการเปลี่ยนแปลงที่รวดเร็วและฝ่ายเดียวในนโยบาย วรรณกรรมและกรณีศึกษาที่อ้างถึงในรายงานของอุตสาหกรรมเน้นย้ำว่าในขณะที่เทคโนโลยีสามารถเพิ่มการมีส่วนร่วม แต่ต้องไม่ข้ามความต้องการสำหรับการกำกับดูแลของมนุษย์ที่กว้างขวางและการปกป้องที่แข็งแกร่งต่อการบุกรุกความเป็นส่วนตัวหรือการจัดการ สำหรับบริบท การอภิปรายก่อนหน้านี้ในสื่อคริปโตได้สำรวจธุรกรรมที่จำลองและโมเดลความปลอดภัยอื่นๆ เป็นวิธีการเสริมความแข็งแกร่งของการกำกับดูแลต่อการละเมิด
เมื่อสาขาพัฒนา ความร่วมมือและการทดลองในการลงคะแนนที่ช่วยเหลือด้วย AI จะยังคงปรากฏต่อไป แนวคิดของ "ผู้รับมอบสิทธิ์ AI" สะท้อนการสนทนาที่กว้างขึ้นเกี่ยวกับความรับผิดชอบและความยินยอมในการตัดสินใจอัตโนมัติ โครงการหลายโครงการได้เน้นศักยภาพสำหรับ AI ในการย่อยตัวเลือกนโยบายที่กว้างขวาง นำเสนออย่างกระชับ และเปิดใช้งานสมาชิกเพื่ออนุมัติหรือปรับแต่งวิธีการใช้โทเค็นของพวกเขา ฉันทามติที่เกิดขึ้นใหม่แนะนำว่าเส้นทางใดก็ตามที่ไปข้างหน้าจะต้องการแนวทางแบบแบ่งชั้น: ข้อมูลที่เข้าถึงได้สำหรับผู้เข้าร่วมทั้งหมด กลไกที่รักษาความเป็นส่วนตัวสำหรับข้อมูลที่ละเอียดอ่อน และการป้องกันทั้งช่องโหว่ด้านเทคนิคและสังคม
ผู้อ่านสามารถติดตามด้ายของแนวคิดเหล่านี้ผ่านการอภิปรายที่เกี่ยวข้องเกี่ยวกับวิธีที่โมเดลการกำกับดูแลปรับตัวเข้ากับ AI ตัวอย่างเช่น บทความที่สำรวจบทบาทของ LLM ในการตัดสินใจแบบกระจายอำนาจและผลกระทบต่อความเป็นส่วนตัวและความปลอดภัยให้กรอบสำหรับการประเมินข้อเสนอใหม่ที่เกิดขึ้น การอภิปรายยังตัดกับการสนทนาการกำกับดูแล AI ที่กว้างขึ้น รวมถึงวิธีการให้แน่ใจว่าตัวแทนอัตโนมัติสอดคล้องกับเจตนาของผู้ใช้โดยไม่ข้ามขอบเขตความเป็นส่วนตัวหรือเปิดใช้งานการจัดการที่ไม่ได้รับอนุญาต บทสนทนาที่พัฒนารับรู้ว่าในขณะที่ AI สามารถขยายการมีส่วนร่วม มันควรทำเช่นนั้นโดยไม่กัดกร่อนความไว้วางใจหรือทำลายจิตวิญญาณประชาธิปไตยที่เป็นหัวใจของเครือข่ายแบบกระจายอำนาจ
ในระบบนิเวศ Ethereum (CRYPTO: ETH) นักวิจัยและผู้สร้างกำลังชั่งน้ำหนักว่าปัญญาประดิษฐ์สามารถแก้ไขปัญหาความสนใจที่ Buterin เน้นย้ำ ในการไตร่ตรองเมื่อเร็วๆ นี้เกี่ยวกับการกำกับดูแล เขาโต้แย้งว่าประสิทธิผลของโมเดลประชาธิปไตยและแบบกระจายอำนาจขึ้นอยู่กับการมีส่วนร่วมที่กว้างขวางและการป้อนข้อมูลจากผู้เชี่ยวชาญทันท่วงที อัตราการมีส่วนร่วมในปัจจุบันสำหรับ DAO หลายแห่งอยู่ที่ประมาณ 15–25% ซึ่งเป็นระดับที่สามารถรวมศูนย์อำนาจในหมู่ผู้รับมอบสิทธิ์หรือสมาชิกหลักกลุ่มเล็กๆ เมื่อผู้มีสิทธิเลือกตั้งส่วนใหญ่เงียบ ข้อเสนอที่ไม่สอดคล้องกับกลยุทธ์สามารถลอดผ่านไป หรือแย่กว่านั้น การโจมตีการกำกับดูแลสามารถครอบงำเครือข่ายโดยใช้ประโยชน์จากอำนาจการลงคะแนนที่ถ่วงน้ำหนักด้วยโทเค็น
เพื่อต่อต้านพลวัตเหล่านี้ แนวคิดของผู้ช่วยที่ขับเคลื่อนด้วย AI ที่ลงคะแนนในนามของสมาชิกได้รับความนิยม เขาแนะนำว่าโมเดลภาษาขนาดใหญ่สามารถนำเสนอข้อมูลที่เกี่ยวข้องและกลั่นตัวเลือกนโยบายสำหรับการตัดสินใจแต่ละครั้ง ทำให้ผู้ใช้สามารถยินยอมต่อการลงคะแนนหรือมอบหมายงานให้กับตัวแทนที่สะท้อนถึงความชอบของพวกเขา แนวคิดนี้ขึ้นอยู่กับตัวแทนส่วนบุคคลที่สังเกตการเขียนและประวัติการสนทนาของคุณเพื่ออนุมานท่าทีการลงคะแนนของคุณ จากนั้นส่งกระแสคะแนนตามนั้น หากตัวแทนไม่แน่ใจ ตัวแทนควรแจ้งคุณโดยตรงและนำเสนอบริบทที่เกี่ยวข้องทั้งหมดเพื่อแจ้งการตัดสินใจของคุณ วิสัยทัศน์ไม่ได้เป็นการแทนที่การตัดสินของมนุษย์ แต่เพื่อเพิ่มเติมด้วยข้อมูลเชิงลึกส่วนบุคคลที่ปรับขนาดได้
การอภิปรายสะท้อนการทดลองที่กำลังดำเนินการอย่างใกล้ชิดนอกเหนือจาก Ethereum Lane Rettig จาก Near Foundation ได้อธิบายฝาแฝดดิจิทัลที่ขับเคลื่อนด้วย AI ที่ลงคะแนนในนามของสมาชิก DAO เป็นการตอบสนองต่อการมาลงคะแนนที่ต่ำ ซึ่งเป็นแนวคิดที่มูลนิธิได้สำรวจในวาทกรรมสาธารณะและรายงานการวิจัย ต้นแบบดังกล่าวมีเป้าหมายเพื่อรักษาความถูกต้องตามกฎหมายของการกำกับดูแลในขณะที่ลดอุปสรรคแรงเสียดทานสำหรับการมีส่วนร่วม วาทกรรมสะท้อนฉันทามติของอุตสาหกรรมที่กว้างขึ้นว่าการกำกับดูแลที่ขับเคลื่อนด้วย AI ต้องโปร่งใส ตรวจสอบได้ และรักษาความเป็นส่วนตัวเพื่อให้ได้รับความไว้วางใจในวงกว้างทั่วทั้งชุมชนที่หลากหลาย
การพิจารณาความเป็นส่วนตัวไม่ใช่แค่ความกังวลรอง พวกเขาเป็นศูนย์กลางของการเพิ่มการกำกับดูแลที่ทำงานได้ Buterin ได้เน้นย้ำความเป็นไปได้ของสถาปัตยกรรมที่มุ่งเน้นความเป็นส่วนตัวซึ่งข้อมูลส่วนตัวของผู้ใช้สามารถประมวลผลโดย LLM ส่วนบุคคลโดยไม่เปิดเผยข้อมูลให้ผู้อื่น ในสถานการณ์นี้ ตัวแทนจะแสดงผลเฉพาะการตัดสินขั้นสุดท้าย โดยรักษาเอกสารส่วนตัว การสนทนา และการพิจารณาให้เป็นความลับ ความท้าทายคือการออกแบบระบบที่ปรับขนาดการมีส่วนร่วมโดยไม่กระทบต่อข้อมูลที่ละเอียดอ่อนหรือเปิดเวกเตอร์ใหม่สำหรับการเฝ้าระวังหรือการใช้ประโยชน์ ความสมดุลระหว่างความเปิดกว้างและความเป็นส่วนตัวจะมีแนวโน้มที่จะกำหนดจังหวะและลักษณะของการทดลองการกำกับดูแลที่ช่วยเหลือด้วย AI ทั่วทั้งเครือข่ายและระบบนิเวศ
เมื่อสาขาพัฒนา เส้นใยหลายเส้นสมควรได้รับความสนใจอย่างใกล้ชิด ประการแรก โปรแกรมนำร่องที่เป็นรูปธรรมจะเปิดเผยว่าผู้รับมอบสิทธิ์ AI สามารถปรับปรุงการมาลงคะแนนและคุณภาพการตัดสินใจอย่างมีความหมายโดยไม่กัดกร่อนความรับผิดชอบหรือไม่ ประการที่สอง โมเดลการกำกับดูแลจะต้องการราวนิรภัยที่แข็งแกร่งเพื่อป้องกันการลงคะแนนอัตโนมัติจากการแทนที่เจตจำนงของส่วนรวมผ่านการจัดการหรือการรั่วไหลของข้อมูลแบบลับ ประการที่สาม เทคโนโลยีที่รักษาความเป็นส่วนตัวจะจำเป็นต่อการรักษาความไว้วางใจของผู้ใช้ โดยเฉพาะอย่างยิ่งในการเจรจาหรือการตัดสินใจด้านการระดมทุนที่อาจส่งผลกระทบต่อวิถีของโครงการ ในที่สุด ระบบนิเวศจะจับตาดูผลกระทบจริงต่อความปลอดภัยและความยืดหยุ่น รวมถึงศักยภาพสำหรับรูปแบบใหม่ของการโจมตีการกำกับดูแลและมาตรการป้องกันต่อพวกเขา
บทความนี้ได้รับการเผยแพร่ครั้งแรกในชื่อ Vitalik Buterin: AI to Strengthen DAO Governance บน Crypto Breaking News – แหล่งข้อมูลข่าวคริปโต ข่าว Bitcoin และการอัปเดตบล็อกเชนที่เชื่อถือได้ของคุณ


