OpenAI Promovează ChatGPT pentru Decizii de Sănătate pe Fondul Îngrijorărilor privind Acuratețea
Terrill Dicki 05 Mar 2026 01:21
OpenAI evidențiază o familie care folosește ChatGPT pentru decizii de tratament al cancerului, dar studiile recente arată că instrumentele AI pentru sănătate au probleme semnificative de acuratețe și siguranță.
OpenAI a publicat săptămâna aceasta un studiu de caz prezentând o familie care a folosit ChatGPT pentru a se pregăti în vederea deciziilor de tratament al cancerului fiului lor, pozițonând chatbot-ul AI ca un complement la îndrumarea medicului. Momentul ridică semne de întrebare, având în vedere dovezile tot mai mari că instrumentele AI pentru sănătate au probleme semnificative de fiabilitate.
Materialul promoțional, lansat pe 4 martie, descrie cum părinții au folosit ChatGPT alături de echipa de oncologie a copilului lor. OpenAI prezintă aceasta ca o utilizare responsabilă a AI—completând, nu înlocuind expertiza medicală.
Dar narațiunea optimistă se ciocnește de descoperiri de cercetare incomode. Un studiu publicat în Nature Medicine care examinează propriul produs „ChatGPT Health" al OpenAI a găsit probleme substanțiale cu acuratețea, protocoalele de siguranță și prejudecata rasială în recomandările medicale. Aceasta nu este o reservă minoră pentru un instrument pe care oamenii ar putea să-l folosească atunci când iau decizii de viață sau moarte despre tratamentul cancerului.
Problema Acurateței
Cercetările independente prezintă în cel mai bun caz o imagine mixtă. Un studiu Mass General Brigham a constatat că ChatGPT a obținut aproximativ 72% acuratețe în specialitățile medicale, urcând la 77% pentru diagnosticele finale. Sună decent până când iei în considerare ce este în joc—ai urca într-un avion cu o șansă de 23% ca pilotul să facă o eroare critică?
Compania AI pentru îngrijirea sănătății Atropos a furnizat cifre și mai sumbri: modelele lingvistice mari cu scop general oferă informații relevante clinic doar 2% până la 10% din timp pentru medici. Diferența dintre „uneori util" și „suficient de fiabil pentru decizii privind cancerul" rămâne vastă.
Asociația Medicală Americană nu și-a ascuns cuvintele. Organizația recomandă împotriva utilizării de către medici a instrumentelor bazate pe LLM pentru asistență în deciziile clinice, invocând îngrijorări legate de acuratețe și absența liniilor directoare standardizate. Când AMA le spune medicilor să stea departe, pacienții ar trebui probabil să ia notă.
Ce Nu Poate Face ChatGPT
Chatbot-urile AI nu pot efectua examinări fizice. Nu pot citi limbajul corporal al unui pacient sau pune întrebări intuitive de urmărire pe care oncologii experimentați le dezvoltă de-a lungul deceniilor. Pot halucinați—generând informații care sună încrezătoare, dar sunt complet fabricate.
Preocupările legate de confidențialitate adaugă un alt nivel. Fiecare simptom, fiecare teamă, fiecare detaliu despre cancerul unui copil introdus în ChatGPT devine date asupra cărora utilizatorii au control limitat.
Studiul de caz al OpenAI subliniază că familia a lucrat „alături de îndrumarea experților din partea medicilor". Acea calificare contează. Pericolul nu îl reprezintă pacienții informați care pun întrebări mai bune—ci persoanele vulnerabile în criză care se bazează potențial excesiv pe un instrument care greșește mai des decât sugerează marketingul.
Pentru investitorii cripto care urmăresc ambițiile de enterprise ale OpenAI, impulsul în sănătate semnalează o expansiune agresivă în verticale cu miză mare. Dacă autoritățile de reglementare vor tolera companiile AI care promovează instrumente de luare a deciziilor medicale cu probleme de acuratețe documentate rămâne o întrebare deschisă pe măsură ce intrăm în 2026.
Sursa imaginii: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech


