วิกฤตการณ์เงียบๆ กำลังเติบโตขึ้นทั่วโซเชียลมีเดีย ขับเคลื่อนโดยปัญญาประดิษฐ์เชิงสร้างสรรค์และเติมเชื้อเพลิงโดยผู้กระทำความผิดที่รู้ดีว่าจะใช้ประโยชน์จากจุดอ่อนที่สุดของมันอย่างไร
ที่ศูนย์กลางของพายุคือ Grok แชทบอทที่พัฒนาโดย xAI ของ Elon Musk ซึ่งวางตลาดว่า "ไม่มีการกรอง" และอนุญาตให้ทำได้มากกว่าคู่แข่ง Grok กลายเป็นเครื่องมือที่ผู้ใช้เลือกใช้ในการสร้างภาพลามกดีพเฟคโดยไม่ได้รับความยินยอม หรือ NCDP
กระบวนการนั้นง่ายอย่างน่าตกใจ อัปโหลดภาพปกติขึ้นมา กระตุ้น AI ให้ "ถอดเสื้อผ้า" เป้าหมาย ผลลัพธ์คือภาพที่มีเนื้อหาทางเพศที่สร้างขึ้นโดยไม่ได้รับความยินยอม เหยื่อสามารถเป็นดาราระดับโลก บุคคลทั่วไป หรือแม้แต่เด็ก
นี่ไม่ใช่พฤติกรรมชายขอบ มันกำลังเกิดขึ้นในวงกว้าง
แม้ว่าความขัดแย้งจะดำเนินมาระยะหนึ่งแล้ว โดยมีการต่อสู้ทางกฎหมายเกิดขึ้นทั่วยุโรป แต่มันทวีความรุนแรงขึ้นในวันพุธหลังจากอินฟลูเอนเซอร์ชาวไนจีเรียและดาราเรียลลิตี้ทีวี Anita Natacha Akide ที่รู้จักกันในนาม Tacha แสดงความคิดเห็นต่อ Grok บน X อย่างเปิดเผย
ในโพสต์โดยตรง เธอระบุอย่างชัดเจนว่าเธอไม่อนุญาตให้มีการแก้ไข เปลี่ยนแปลง หรือรีมิกซ์ภาพหรือวิดีโอของเธอในรูปแบบใดๆ
คำขอของเธอไม่ได้หยุดผู้ใช้ ภายในไม่กี่ชั่วโมง คนอื่นๆ แสดงให้เห็นว่า Grok ยังสามารถถูกกระตุ้นให้จัดการกับภาพของเธอได้
เหตุการณ์นี้เปิดเผยปัญหาที่ลึกกว่า คำแถลงความยินยอมมีความหมายน้อยมากเมื่อแพลตฟอร์มขาดมาตรการป้องกันที่บังคับใช้ได้ มันยังทำให้เกิดคำถามทางกฎหมายและจริยธรรมที่ร้ายแรงซึ่งไปไกลกว่าอินฟลูเอนเซอร์คนหนึ่งหรือเครื่องมือ AI หนึ่งตัว
เพื่อทำความเข้าใจผลกระทบ ผมได้พูดคุยกับ Senator Ihenyen ทนายความด้านเทคโนโลยีและผู้ชื่นชอบ AI และหุ้นส่วนผู้นำที่ Infusion Lawyers การประเมินของเขาตรงไปตรงมา
เขาอธิบายสถานการณ์ Grok ว่า "โรคระบาดดิจิทัล" ในคำพูดของเขา AI เชิงสร้างสรรค์กำลังถูกใช้เป็นอาวุธโดยผู้ใช้ที่มีเจตนาร้ายซึ่งเข้าใจวิธีผลักดันระบบที่ไม่มีการกรองให้ข้ามขอบเขตจริยธรรม ความเสียหาย เขากล่าวว่า เป็นเรื่องจริง รุกราน และล่าเหยื่ออย่างลึกซึ้ง
สิ่งสำคัญคือ Ihenyen ปฏิเสธความคิดที่ว่าเทคโนโลยีใหม่อยู่ในสุญญากาศทางกฎหมาย กฎหมาย เขาโต้แย้งว่า กำลังตามทันอยู่แล้ว
ในไนจีเรีย อาจยังไม่มีพระราชบัญญัติ AI เดียว อย่างไรก็ตาม มันไม่ได้หมายความว่าเหยื่อไม่ได้รับการคุ้มครอง แต่มีสิ่งที่เขาเรียกว่าโล่ป้องกันทางกฎหมายหลายชั้น
หัวใจสำคัญคือพระราชบัญญัติคุ้มครองข้อมูลของไนจีเรียปี 2023 ภายใต้พระราชบัญญัตินี้ ใบหน้า เสียง และความคล้ายคลึงของบุคคลถูกจัดประเภทเป็นข้อมูลส่วนบุคคล เมื่อระบบ AI ประมวลผลข้อมูลนี้ พวกเขาจะต้องปฏิบัติตามกฎที่เข้มงวด
Senator Ihenyen, หุ้นส่วนผู้นำที่ Infusion Lawyers และประธานคณะกรรมการบริหารของ Virtual Asset Service Providers Association
เหยื่อมีสิทธิคัดค้านการประมวลผลอัตโนมัติที่ก่อให้เกิดอันตราย เมื่อมีการสร้างดีพเฟคที่มีเนื้อหาทางเพศ AI กำลังประมวลผลข้อมูลส่วนบุคคลที่ละเอียดอ่อน ซึ่งจำเป็นต้องได้รับความยินยอมอย่างชัดเจน หากไม่มี แพลตฟอร์มและผู้ให้บริการจะอยู่บนพื้นฐานทางกฎหมายที่ไม่มั่นคง
ยังมีมาตรการยับยั้งทางการเงิน สามารถยื่นข้อร้องเรียนต่อคณะกรรมการคุ้มครองข้อมูลไนจีเรียได้ การลงโทษอาจรวมถึงค่าธรรมเนียมแก้ไขสูงสุด ₦10 ล้านหรือสองเปอร์เซ็นต์ของรายได้รวมประจำปีของบริษัท
สำหรับแพลตฟอร์มระดับโลก นั่นทำให้ได้รับความสนใจอย่างรวดเร็ว
ผู้ใช้ที่สร้างภาพก็ไม่ได้รับการคุ้มครองเช่นกัน ภายใต้พระราชบัญญัติอาชญากรรมไซเบอร์ของไนจีเรีย ที่แก้ไขในปี 2024 อาจมีความผิดหลายประการ การใช้ AI เพื่อถอดเสื้อผ้าหรือทำให้มีเนื้อหาทางเพศกับบุคคลเพื่อคุกคามหรือทำให้อับอายสามารถถือเป็นการสะกดรอยตามทางไซเบอร์ การจำลองความคล้ายคลึงของใครบางคนเพื่อวัตถุประสงค์ที่เป็นอันตรายอาจเป็นการขโมยตัวตน
เมื่อมีผู้เยาว์เกี่ยวข้อง กฎหมายจะไม่ยอมประนีประนอม เนื้อหาการล่วงละเมิดทางเพศเด็กที่สร้างโดย AI ได้รับการปฏิบัติเหมือนกับการถ่ายภาพจริง ไม่มีข้อแก้ตัวบนพื้นฐานของความแปลกใหม่ อารมณ์ขัน หรือการทดลอง มันเป็นความผิดทางอาญาร้ายแรง
อ่านเพิ่มเติม: xAI ระดมทุนได้ $20bn ในซีรีส์ E ที่มีผู้ลงทุนล้นหลามเมื่อ Nvidia และ Cisco ลงเดิมพันเชิงกลยุทธ์
สำหรับเหยื่อ เส้นทางทางกฎหมายอาจรู้สึกท่วมท้น Ihenyen แนะนำแนวทางปฏิบัติทีละขั้นตอน
ประการแรกคือหนังสือแจ้งลบออกอย่างเป็นทางการ ภายใต้ข้อกำหนดแนวปฏิบัติ NITDA ของไนจีเรีย แพลตฟอร์มอย่าง X จำเป็นต้องมีตัวแทนในท้องถิ่น เมื่อได้รับแจ้ง พวกเขาต้องดำเนินการอย่างรวดเร็ว หากไม่ทำเช่นนั้นจะมีความเสี่ยงที่จะสูญเสียการคุ้มครองท่าเรือปลอดภัยและเปิดประตูสู่คำฟ้องโดยตรง
Deepfake
ประการที่สองคือการป้องกันที่ขับเคลื่อนด้วยเทคโนโลยี เครื่องมืออย่าง StopNCII ช่วยให้เหยื่อสร้างลายนิ้วมือดิจิทัลของภาพ ซึ่งช่วยให้แพลตฟอร์มบล็อกการแจกจ่ายเพิ่มเติมโดยไม่บังคับให้เหยื่อต้องอัปโหลดเนื้อหาที่เป็นอันตรายซ้ำๆ
ประการที่สามคือการเพิ่มการควบคุม การรายงานต่อแพลตฟอร์มไม่เพียงพอ การรายงานต่อหน่วยงานกำกับดูแลมีความสำคัญ เจ้าหน้าที่สามารถบังคับให้บริษัทปิดคุณสมบัติ AI เฉพาะหากมีการใช้ในทางที่ผิดอย่างต่อเนื่อง
ปัญหาไม่หยุดที่พรมแดน
ผู้กระทำความผิดหลายคนดำเนินการจากนอกไนจีเรีย ตาม Ihenyen นี่ไม่ใช่อุปสรรคอย่างที่เคยเป็น อนุสัญญามาลาโบซึ่งมีผลบังคับใช้ในปี 2023 เปิดใช้ความช่วยเหลือทางกฎหมายร่วมกันทั่วประเทศในแอฟริกา หน่วยงานบังคับใช้กฎหมายสามารถร่วมมือติดตามและดำเนินคดีกับผู้กระทำผิด โดยไม่คำนึงถึงสถานที่
นั่นทำให้เหลือคำถามที่ไม่สบายใจที่สุด ทำไมเครื่องมืออย่าง Grok จึงได้รับอนุญาตให้ทำงานในลักษณะนี้
xAI กำหนดกรอบการออกแบบของ Grok เป็นความมุ่งมั่นต่อความเปิดกว้าง Ihenyen เห็นภาพที่แตกต่าง จากมุมมองทางกฎหมาย "ไม่มีการกรอง" ไม่ใช่ข้อแก้ตัว มันเป็นความเสี่ยง ไม่สามารถเป็นข้ออ้างสำหรับความเสียหายหรือความผิดกฎหมายได้
Grok
เขาเปรียบเทียบอย่างง่ายๆ คุณไม่สามารถสร้างรถยนต์ที่ไม่มีเบรกแล้วโทษคนขับสำหรับการชน การปล่อยระบบ AI โดยไม่มีการควบคุมความปลอดภัยที่แข็งแกร่ง จากนั้นแสดงความประหลาดใจเมื่อเกิดอันตราย อาจเป็นความประมาท
ภายใต้กฎหมายคุ้มครองผู้บริโภคของไนจีเรีย ผลิตภัณฑ์ที่ไม่ปลอดภัยจะมีความรับผิด นโยบาย AI ระดับชาติที่เสนอยังเน้น "ความปลอดภัยตามการออกแบบ" ทิศทางชัดเจน
นวัตกรรม AI ไม่ใช่ปัญหา AI ที่ไม่ต้องรับผิดชอบต่างหาก
ความขัดแย้งของ Grok เป็นการยิงเตือน มันแสดงให้เห็นว่าเครื่องมืออันทรงพลังสามารถถูกใช้ต่อต้านผู้คนได้อย่างรวดเร็วเพียงใด โดยเฉพาะผู้หญิงและเด็ก นอกจากนี้ยังแสดงให้เห็นว่าความยินยอม ศักดิ์ศรี และสิทธิส่วนบุคคลต้องถูกสร้างเข้าไปในเทคโนโลยี ไม่ใช่ติดตั้งภายหลังจากเกิดอันตรายแล้ว
โพสต์ Inside Grok's deepfake pornography crisis and the legal reckoning ahead ปรากฏครั้งแรกบน Technext


