OpenAI ส่งเสริม ChatGPT สำหรับการตัดสินใจด้านสุขภาพท่ามกลางความกังวลเรื่องความแม่นยำ
Terrill Dicki 05 มี.ค. 2026 01:21
OpenAI เน้นย้ำครอบครัวที่ใช้ ChatGPT เพื่อการตัดสินใจรักษามะเร็ง แต่การศึกษาล่าสุดแสดงให้เห็นว่าเครื่องมือ AI ด้านสุขภาพมีปัญหาด้านความแม่นยำและความปลอดภัยอย่างมีนัยสำคัญ
OpenAI เผยแพร่กรณีศึกษาในสัปดาห์นี้ที่นำเสนอครอบครัวหนึ่งที่ใช้ ChatGPT เพื่อเตรียมตัวสำหรับการตัดสินใจรักษามะเร็งของลูกชาย โดยวางตำแหน่งแชทบอท AI เป็นเครื่องมือเสริมคำแนะนำของแพทย์ ช่วงเวลานี้ทำให้เกิดความสงสัยเนื่องจากมีหลักฐานที่เพิ่มขึ้นว่าเครื่องมือ AI ด้านสุขภาพมีปัญหาด้านความน่าเชื่อถืออย่างมีนัยสำคัญ
เนื้อหาส่งเสริมการขายที่เผยแพร่เมื่อวันที่ 4 มีนาคม อธิบายว่าพ่อแม่ใช้ประโยชน์จาก ChatGPT ควบคู่ไปกับทีมมะเร็งวิทยาของเด็ก OpenAI กำหนดกรอบเรื่องนี้ว่าเป็นการใช้ AI อย่างรับผิดชอบ—เสริมมากกว่าแทนที่ความเชี่ยวชาญทางการแพทย์
แต่การเล่าเรื่องในแง่ดีชนกับผลการวิจัยที่ไม่สบายใจ การศึกษาที่เผยแพร่ใน Nature Medicine ซึ่งตรวจสอบผลิตภัณฑ์ "ChatGPT Health" ของ OpenAI เอง พบปัญหาที่สำคัญเกี่ยวกับความแม่นยำ โปรโตคอลความปลอดภัย และอคติทางเชื้อชาติในคำแนะนำทางการแพทย์ นั่นไม่ใช่ข้อจำกัดเล็กน้อยสำหรับเครื่องมือที่ผู้คนอาจใช้เมื่อตัดสินใจเรื่องชีวิตและความตายเกี่ยวกับการรักษามะเร็ง
ปัญหาความแม่นยำ
การวิจัยอิสระวาดภาพที่หลากหลายในแง่ดีที่สุด การศึกษาของ Mass General Brigham พบว่า ChatGPT มีความแม่นยำประมาณ 72% ในสาขาการแพทย์ต่างๆ เพิ่มขึ้นเป็น 77% สำหรับการวินิจฉัยขั้นสุดท้าย ฟังดูดีจนกว่าคุณจะพิจารณาว่าเดิมพันคืออะไร—คุณจะขึ้นเครื่องบินที่มีโอกาส 23% ที่นักบินจะทำความผิดพลาดร้ายแรงหรือไม่?
บริษัท AI ด้านการดูแลสุขภาพ Atropos ให้ตัวเลขที่น่าหดหู่ยิ่งกว่า: โมเดลภาษาขนาดใหญ่ที่มีวัตถุประสงค์ทั่วไปให้ข้อมูลที่เกี่ยวข้องทางคลินิกเพียง 2% ถึง 10% ของเวลาสำหรับแพทย์ ช่องว่างระหว่าง "บางครั้งเป็นประโยชน์" และ "เชื่อถือได้เพียงพอสำหรับการตัดสินใจเรื่องมะเร็ง" ยังคงกว้างมาก
American Medical Association ไม่ได้พูดอ้อมค้อม องค์กรแนะนำไม่ให้แพทย์ใช้เครื่องมือที่ใช้ LLM สำหรับการช่วยตัดสินใจทางคลินิก โดยอ้างถึงความกังวลเรื่องความแม่นยำและการขาดแนวทางที่เป็นมาตรฐาน เมื่อ AMA บอกให้แพทย์หลีกเลี่ยง ผู้ป่วยน่าจะสังเกตด้วย
สิ่งที่ ChatGPT ทำไม่ได้
แชทบอท AI ไม่สามารถทำการตรวจร่างกายได้ พวกมันไม่สามารถอ่านภาษากายของผู้ป่วยหรือถามคำถามติดตามที่ใช้สัญชาตญาณที่นักมะเร็งวิทยาที่มีประสบการณ์พัฒนาขึ้นมานานหลายทศวรรษ พวกมันสามารถหลอน—สร้างข้อมูลที่ฟังดูมั่นใจแต่สร้างขึ้นอย่างสมบูรณ์
ความกังวลด้านความเป็นส่วนตัวเพิ่มอีกชั้นหนึ่ง อาการทุกอย่าง ความกลัวทุกอย่าง รายละเอียดทุกอย่างเกี่ยวกับมะเร็งของเด็กที่พิมพ์เข้าไปใน ChatGPT กลายเป็นข้อมูลที่ผู้ใช้มีการควบคุมที่จำกัด
กรณีศึกษาของ OpenAI เน้นย้ำว่าครอบครัวทำงาน "ควบคู่ไปกับคำแนะนำผู้เชี่ยวชาญจากแพทย์" คุณสมบัตินั้นสำคัญ อันตรายไม่ใช่ผู้ป่วยที่มีข้อมูลถามคำถามที่ดีขึ้น—แต่เป็นคนที่เปราะบางในภาวะวิกฤตที่อาจพึ่งพาเครื่องมือที่ผิดพลาดบ่อยกว่าที่การตลาดแนะนำมากเกินไป
สำหรับนักลงทุนคริปโตที่จับตาดูความทะเยอทะยานด้านองค์กรของ OpenAI การผลักดันด้านการดูแลสุขภาพส่งสัญญาณการขยายตัวอย่างก้าวร้าวเข้าสู่สาขาที่มีเดิมพันสูง ว่าหน่วยงานกำกับดูแลจะยอมรับบริษัท AI ที่ส่งเสริมเครื่องมือการตัดสินใจทางการแพทย์ที่มีปัญหาความแม่นยำที่บันทึกไว้หรือไม่ ยังคงเป็นคำถามเปิดเมื่อจะก้าวเข้าสู่ปี 2026
แหล่งที่มาของภาพ: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech


