สวัสดีครับผู้อ่านทุกท่าน!
\ เมื่อพูดถึงพัฒนาการของปัญญาประดิษฐ์ สิ่งต่างๆ กำลังเคลื่อนไหวอย่างรวดเร็ว ยังไม่ถึงสองปีนับตั้งแต่การเปิดตัวเครื่องมือ AI สู่สาธารณะอย่าง ChatGPT, Midjourney, Stable Diffusion และ LLaMA ของ Meta หน่วยงานกำกับดูแล ฝ่ายนิติบัญญัติ และธุรกิจต่างๆ ต่างเริ่มทำความเข้าใจกับผลกระทบของการใช้เครื่องมือ AI เชิงสร้างสรรค์
\ ซึ่งรวมถึงองค์กรข่าวและนักข่าวที่เริ่มทดลองใช้แล้ว Nieman Journalism Lab รายงานว่า 5 ใน 45 ผู้เข้ารอบสุดท้ายที่ยังไม่ประกาศของรางวัล Pulitzer ในปีนี้ใช้ AI เพื่อ "วิจัย รายงาน หรือบรรยายผลงานที่ส่งเข้าประกวด" ในการประชุมข้อมูลข่าว NICAR ประจำปีของ Investigative Reporters & Editors ที่บัลติมอร์เมื่อสัปดาห์ที่แล้ว มี 14 จาก 200 กว่าเซสชันที่เกี่ยวข้องกับ AI โดยพูดถึงว่าเทคโนโลยีนี้สามารถช่วยนักข่าวในการทำงาน สรุปเอกสารหนาแน่น และแก้ไขโค้ดได้อย่างไร
\ ผมมีเซสชันของตัวเอง ชื่อว่า "การใช้เครื่องมือ AI สำหรับข้อมูลข่าว" ซึ่งผมเริ่มต้นด้วยการทบทวนเครื่องมือต่างๆ ที่มีอยู่ และเน้นย้ำถึงข้อกังวลด้านจริยธรรมมากมายเกี่ยวกับเครื่องมือเหล่านี้
\ จากนั้นผมแสดงผลลัพธ์จากการทดลองที่ใช้เวลานานในการใช้ ChatGPT 4 เป็นผู้ช่วยในการรายงานข่าว คำเตือน: มันไม่ได้ผลดีเท่าไหร่!
\ ตัวอย่างเรื่องที่ผมใช้สำหรับการฝึกครั้งนี้คือเหตุรถไฟตกราง ใน East Palestine, OH ในเดือนกุมภาพันธ์ 2023 เป็นข่าวใหญ่ที่เกี่ยวข้องกับข้อมูลหลายประเภทที่ผมสามารถขอให้ ChatGPT ช่วยวิเคราะห์ได้ ขอชี้แจงว่า นี่ไม่ใช่ข่าวที่ผมรายงาน แต่ผมอยากลองใช้ ChatGPT ในแบบที่นักข่าวข้อมูลอาจใช้เมื่อรายงานข่าวนี้ ผมใช้เวลามากมายในการสนทนากับ ChatGPT เป็นส่วนหนึ่งของการฝึกนี้ และตามตรง บางครั้งมันช่างน่าเหนื่อย คุณสามารถอ่านหนึ่งในเซสชันการสนทนาของผมได้ที่นี่ ความมั่นใจที่ ChatGPT แสดงออกเมื่อให้ข้อมูลที่มีแหล่งที่มาไม่ดี (เช่น Wikipedia) หรือตำแหน่งที่ไม่แม่นยำอาจทำให้เข้าใจผิดได้ บางครั้งผมสามารถทำให้ตัวแชทให้สิ่งที่ผมต้องการได้ แต่ผมต้องเจาะจงมาก และผมมักต้องตำหนิมัน
\ ตัวอย่างเช่น เมื่อ ChatGPT ตอบสนองคำขอของผมให้ "สร้างแผนที่ง่ายๆ ที่มีศูนย์กลางอยู่ที่ตำแหน่งเกิดเหตุ" ผมสังเกตทันทีว่าหมุดบนแผนที่อยู่ห่างไกลจากทางรถไฟ เมื่อผมถามว่าได้พิกัดตำแหน่งเกิดเหตุมาจากไหน มันตอบว่าพิกัดเหล่านี้ "อนุมานจากความรู้ทั่วไปเกี่ยวกับตำแหน่งของเหตุการณ์" เมื่อผมเร่งให้อ้างอิงที่เฉพาะเจาะจงกว่า มันไม่สามารถให้ได้ และพูดซ้ำว่ามันอาศัย "ความรู้ทั่วไป" ผมต้องเตือนเครื่องมือว่าผมบอกมันตั้งแต่เริ่มต้นการสนทนาว่า "สิ่งสำคัญคือคุณต้องอ้างอิงแหล่งที่มา และใช้แหล่งที่มาที่น่าเชื่อถือที่สุดเสมอ" ก่อนที่มันจะสามารถทำเครื่องหมายตำแหน่งที่ถูกต้องได้ในที่สุด ผมต้องเตือนว่ามันสามารถหาพิกัดตำแหน่งได้จากเอกสารที่น่าเชื่อถือที่ผมอัปโหลดไว้ก่อนหน้าในการสนทนา คือ PDF ของรายงานเหตุการณ์จาก Federal Railroad Administration
\ การดึงข้อมูลและสรุปเอกสารยาวมักถูกอ้างว่าเป็นจุดแข็งที่ใหญ่ที่สุดของเครื่องมืออย่าง ChatGPT ผลลัพธ์ของผมเป็นแบบผสมผสาน หลังจากไปมาบ้าง ผมชักชวนให้ตัวแอเจนต์ดึงรายละเอียดและปริมาณของสารเคมีอันตรายที่ถูกปล่อยออกมาในอุบัติเหตุ และจัดรูปแบบข้อมูลในตารางที่แสดงชื่อสารเคมี ปริมาณที่ปล่อย สิ่งที่ใช้โดยทั่วไป และผลกระทบต่อสุขภาพมนุษย์ แต่ต้องพยายามหลายครั้ง ที่มันช่วยประหยัดเวลาได้คือการอธิบายข้อมูลเฉพาะทางที่อาจต้องใช้เวลานานในการค้นหาใน Google เพื่อหาคำตอบ—เช่น การถอดรหัสหมายเลขตู้รถไฟ
\ บางครั้ง เครื่องมือนี้กระตือรือร้นที่จะเอาใจมากเกินไป ผมจึงขอให้มันลดความกระตือรือร้นลงหน่อย: "คุณสามารถข้ามการพูดคุยสั้นๆ และความสุภาพได้" ผู้ใช้สามารถสั่งให้บอทเปลี่ยนน้ำเสียงหรือสไตล์ของการตอบกลับได้ แต่การบอกมันว่าเป็นทนายความไม่ได้ทำให้มันแม่นยำขึ้น
\ โดยรวม เซสชันเหล่านี้ต้องใช้ความพยายามมากในการพยายามคิดว่าตัวแอเจนต์ได้ข้อมูลมาจากไหน และนำทางมันด้วยคำสั่งที่ชัดเจน มันใช้เวลานาน
\ บริษัทที่สร้าง ChatGPT คือ OpenAI ไม่ได้ตอบกลับคำขอให้แสดงความคิดเห็น
\ จากการโต้ตอบของผม ความสามารถที่มีประโยชน์ที่สุดของ ChatGPT คือความสามารถในการสร้างและแก้ไขโค้ดโปรแกรม (ในช่วงหนึ่งของการฝึกเรื่อง East Palestine มันสร้างโค้ด Python ง่ายๆ สำหรับการสร้างแผนที่การตกราง) เมื่อตอบสนองคำขอในการเขียนโค้ด มันมักอธิบายแนวทางของมัน (แม้ว่าอาจไม่ใช่แนวทางที่ดีที่สุด) และแสดงงานของมัน และคุณสามารถนำทางมันให้ทำตามแนวทางอื่นได้หากคุณคิดว่าแผนของมันไม่ใช่สิ่งที่คุณต้องการ ความสามารถในการเพิ่มคุณสมบัติของโค้ดของคุณอย่างต่อเนื่องในขณะที่ตัวแอเจนต์ AI เก็บบริบทและประวัติของสิ่งที่คุณพูดคุยกันไว้ สามารถประหยัดเวลาของคุณได้มาก หลีกเลี่ยงการค้นหาโพสต์เกี่ยวกับปัญหาคล้ายกันบน StackOverflow (หนึ่งในชุมชนเขียนโค้ดออนไลน์ที่ใหญ่ที่สุด) อย่างทุกข์ทรมาน
\ การฝึก NICAR ทำให้ผมมีข้อกังวลเกี่ยวกับการใช้เครื่องมือ AI เชิงสร้างสรรค์สำหรับงานข้อมูลข่าวที่แม่นยำ ความจริงที่ว่าเครื่องมือที่ทรงพลังอย่าง ChatGPT ไม่สามารถสร้าง "ใบเสร็จรับเงิน" ของว่ามันรู้อะไรได้อย่างไร ขัดกับทุกอย่างที่เราได้รับการฝึกฝนให้ทำในฐานะนักข่าว นอกจากนี้ผมยังกังวลเกี่ยวกับห้องข่าวขนาดเล็กที่ขาดแคลนบุคลากรที่พึ่งพาเครื่องมือเหล่านี้มากเกินไป ในขณะที่อุตสาหกรรมข่าวกำลังต่อสู้กับการเลิกจ้างและการปิดตัว และเมื่อขาดคำแนะนำจากผู้นำห้องข่าวเกี่ยวกับการใช้เครื่องมือเหล่านี้ อาจนำไปสู่ข้อผิดพลาดและความไม่แม่นยำได้
\ โชคดีที่ห้องข่าวจำนวนมากเริ่มจัดการกับข้อกังวลบางส่วนเหล่านี้โดยการร่างนโยบาย AI เพื่อช่วยให้นักข่าวและผู้อ่านของพวกเขาเข้าใจว่าพวกเขาวางแผนจะใช้ AI ในงานของพวกเขาอย่างไร
\ The Markup ได้ทำตามแนวทางขององค์กรข่าวอื่นๆ และเมื่อสัปดาห์ที่แล้วเราได้อัปเดตนโยบายจริยธรรมของเราด้วยส่วนที่ระบุรายละเอียดกฎของเราสำหรับการใช้ AI ในงานของเรา สรุปคือ:
\ ขอบคุณสำหรับการอ่าน และตรวจสอบทุกสิ่งที่แชทบอทบอกคุณเป็นสองครั้งเสมอ!
\ Jon Keegan
นักข่าวข้อมูลสืบสวน
The Markup
\ เผยแพร่ที่นี่ด้วย
\ ภาพถ่ายโดย Valery Tenevoy บน Unsplash
\



