สรุปโดยย่อ
- แผงสนทนาออนไลน์แสดงให้เห็นความแตกแยกอย่างลึกซึ้งระหว่างนักทรานส์ฮิวแมนนิสต์และนักเทคโนโลยีเกี่ยวกับ AGI
- ผู้เขียน Eliezer Yudkowsky เตือนว่าระบบ AI แบบ "กล่องดำ" ในปัจจุบันทำให้การสูญพันธุ์เป็นผลลัพธ์ที่หลีกเลี่ยงไม่ได้
- Max More โต้แย้งว่าการชะลอ AGI อาจทำให้มানวชาติเสียโอกาสที่ดีที่สุดในการเอาชนะความชราและป้องกันภัยพิบัติในระยะยาว
ความแตกแยกอย่างรุนแรงเกี่ยวกับอนาคตของปัญญาประดิษฐ์เกิดขึ้นในสัปดาห์นี้ เมื่อนักเทคโนโลยีและนักทรานส์ฮิวแมนนิสต์ชั้นนำสี่คนถกเถียงกันว่าการสร้างปัญญาประดิษฐ์ทั่วไป หรือ AGI จะช่วยกอบกู้มานวชาติหรือทำลายมัน
แผงสนทนาที่จัดโดยองค์กรไม่แสวงหากำไร Humanity+ ได้รวบรวม "Doomers" ด้าน AI ที่มีเสียงดังที่สุดคนหนึ่ง คือ Eliezer Yudkowsky ซึ่งเรียกร้องให้ยุติการพัฒนา AI ขั้นสูง ร่วมกับนักปรัชญาและนักอนาคตนิยม Max More นักประสาทวิทยาเชิงคำนวณ Anders Sandberg และประธานกิตติมศักดิ์ของ Humanity+ Natasha Vita-More
การอภิปรายของพวกเขาเปิดเผยความขัดแย้งพื้นฐานเกี่ยวกับว่า AGI สามารถสอดคล้องกับการอยู่รอดของมนุษย์ได้หรือไม่ หรือการสร้างมันจะทำให้การสูญพันธุ์หลีกเลี่ยงไม่ได้
ปัญหา "กล่องดำ"
Yudkowsky เตือนว่าระบบ AI สมัยใหม่ไม่ปลอดภัยโดยพื้นฐาน เพราะกระบวนการตัดสินใจภายในไม่สามารถเข้าใจหรือควบคุมได้อย่างสมบูรณ์
"สิ่งใดก็ตามที่เป็นกล่องดำมีแนวโน้มที่จะจบลงด้วยปัญหาที่คล้ายคลึงกันอย่างน่าทึ่งกับเทคโนโลยีปัจจุบัน" Yudkowsky เตือน เขาโต้แย้งว่ามนุษยชาติจะต้อง "ออกห่างไกลมาก ๆ จากกระบวนทัศน์ปัจจุบัน" ก่อนที่ AI ขั้นสูงจะสามารถพัฒนาได้อย่างปลอดภัย
ปัญญาประดิษฐ์ทั่วไปหมายถึงรูปแบบของ AI ที่สามารถให้เหตุผลและเรียนรู้ในงานที่หลากหลาย แทนที่จะถูกสร้างขึ้นสำหรับงานเดียวเช่นการสร้างข้อความ ภาพ หรือวิดีโอ AGI มักเกี่ยวข้องกับแนวคิดเรื่องความเป็นเอกฐานทางเทคโนโลยี เพราะการบรรลุระดับความฉลาดนั้นอาจทำให้เครื่องจักรปรับปรุงตัวเองได้เร็วกว่าที่มนุษย์จะตามทัน
Yudkowsky ชี้ไปที่การเปรียบเทียบ "paperclip maximizer" ที่ได้รับความนิยมจากนักปรัชญา Nick Bostrom เพื่อแสดงความเสี่ยง การทดลองทางความคิดนี้มี AI สมมติที่แปลงสสารที่มีอยู่ทั้งหมดเป็นคลิปหนีบกระดาษ ส่งเสริมความหมกมุ่นในวัตถุประสงค์เดียวโดยเสียสละมนุษยชาติ การเพิ่มวัตถุประสงค์มากขึ้น Yudkowsky กล่าว จะไม่ปรับปรุงความปลอดภัยอย่างมีความหมาย
อ้างอิงถึงชื่อหนังสือเกี่ยวกับ AI ล่าสุดของเขา "If Anyone Builds It, Everyone Dies" เขากล่าวว่า "ชื่อของเราไม่ได้เหมือนกับว่ามันอาจจะฆ่าคุณได้" Yudkowsky กล่าว "ชื่อของเราคือ ถ้าใครก็ตามสร้างมัน ทุกคนตาย"
แต่ More ท้าทายสมมติฐานที่ว่าความระมัดระวังอย่างมากให้ผลลัพธ์ที่ปลอดภัยที่สุด เขาโต้แย้งว่า AGI อาจให้โอกาสที่ดีที่สุดแก่มนุษยชาติในการเอาชนะความชราและโรคภัยไข้เจ็บ
"สิ่งที่สำคัญที่สุดสำหรับฉันคือ AGI สามารถช่วยเราป้องกันการสูญพันธุ์ของทุกคนที่มีชีวิตอยู่เนื่องจากความชรา" More กล่าว "เราทุกคนกำลังจะตาย เรากำลังมุ่งหน้าสู่ภัยพิบัติทีละคน" เขาเตือนว่าการยับยั้งมากเกินไปอาจผลักดันรัฐบาลไปสู่การควบคุมแบบเผด็จการเป็นวิธีเดียวที่จะหยุดการพัฒนา AI ทั่วโลก
Sandberg วางตำแหน่งตัวเองระหว่างสองค่าย โดยอธิบายตัวเองว่า "มองโลกในแง่ดีกว่า" ในขณะที่ยังคงระมัดระวังมากกว่านักทรานส์ฮิวแมนนิสต์ที่มองโลกในแง่ดี เขาเล่าประสบการณ์ส่วนตัวที่เขาเกือบใช้โมเดลภาษาขนาดใหญ่เพื่อช่วยในการออกแบบอาวุธชีวภาพ เหตุการณ์ที่เขาอธิบายว่า "น่ากลัว"
"เรากำลังมาถึงจุดที่การขยายผู้ทำร้ายจะทำให้เกิดความยุ่งเหยิงอย่างมาก" Sandberg กล่าว อย่างไรก็ตาม เขาโต้แย้งว่า "ความปลอดภัยบางส่วน" หรือ "ความปลอดภัยโดยประมาณ" สามารถทำได้ เขาปฏิเสธแนวคิดที่ว่าความปลอดภัยต้องสมบูรณ์แบบจึงจะมีความหมาย โดยแนะนำว่ามนุษย์อย่างน้อยสามารถบรรจบกันในค่านิยมร่วมกันขั้นต่ำเช่นการอยู่รอด
"ดังนั้นหากคุณต้องการความปลอดภัยที่สมบูรณ์แบบ คุณจะไม่ได้รับมัน และฟังดูแย่มากจากมุมมองนั้น" เขากล่าว "ในทางกลับกัน ฉันคิดว่าเราสามารถมีความปลอดภัยโดยประมาณได้จริง ๆ นั่นก็เพียงพอแล้ว"
ความสงสัยเกี่ยวกับการจัดตำแหน่ง
Vita-More วิพากษ์วิจารณ์การถกเถียงเรื่องการจัดตำแหน่งโดยรวม โดยโต้แย้งว่าแนวคิดนี้สันนิษฐานว่ามีระดับของฉันทามติที่ไม่มีอยู่แม้แต่ในหมู่ผู้ร่วมงานมายาวนาน
"แนวคิดเรื่องการจัดตำแหน่งเป็นแผนการแบบ Pollyanna" เธอกล่าว "มันจะไม่สอดคล้องกันเลย หมายความว่า แม้แต่ที่นี่ เราทุกคนเป็นคนดี เรารู้จักกันมานานหลายสิบปี และเราก็ไม่สอดคล้องกัน"
เธออธิบายคำกล่าวอ้างของ Yudkowsky ที่ว่า AGI จะฆ่าทุกคนอย่างหลีกเลี่ยงไม่ได้ว่าเป็น "การคิดแบบเด็ดขาด" ที่ไม่มีที่ว่างสำหรับผลลัพธ์อื่น
"ฉันมีปัญหากับคำกล่าวที่กว้าง ๆ ว่าทุกคนตาย" เธอกล่าว "การเข้าถึงสิ่งนี้ในฐานะนักอนาคตนิยมและนักคิดเชิงปฏิบัติ มันไม่มีผลที่ตามมา ไม่มีทางเลือก ไม่มีสถานการณ์อื่น มันเป็นเพียงการยืนยันอย่างทื่อ ๆ และฉันสงสัยว่ามันสะท้อนถึงการคิดแบบเด็ดขาดหรือไม่"
การอภิปรายรวมถึงการถกเถียงเกี่ยวกับว่าการบูรณาการที่ใกล้ชิดยิ่งขึ้นระหว่างมนุษย์และเครื่องจักรสามารถลดความเสี่ยงที่เกิดจาก AGI ได้หรือไม่—สิ่งที่ CEO ของ Tesla Elon Musk เสนอในอดีต Yudkowsky ปฏิเสธแนวคิดเรื่องการรวมเข้ากับ AI โดยเปรียบเทียบว่าเหมือน "พยายามรวมเข้ากับเตาอบของคุณ"
Sandberg และ Vita-More โต้แย้งว่า เมื่อระบบ AI มีความสามารถมากขึ้น มนุษย์จะต้องบูรณาการหรือรวมเข้ากับพวกมันอย่างใกล้ชิดยิ่งขึ้นเพื่อรับมือกับโลกหลัง-AGI ได้ดีขึ้น
"การอภิปรายทั้งหมดนี้เป็นการตรวจสอบความเป็นจริงว่าเราเป็นใครในฐานะมนุษย์" Vita-More กล่าว
จดหมายข่าว Daily Debrief
เริ่มต้นทุกวันด้วยข่าวสำคัญตอนนี้ พร้อมคุณสมบัติพิเศษ พอดคาสต์ วิดีโอ และอื่น ๆ อีกมากมาย
แหล่งที่มา: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end



