El País/EspañaEl País/España

El lado siniestro de ChatGPT

2025/12/24 11:05
Lectura de 3 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

MADRID.- A finales de septiembre, OpenAI, la empresa propietaria de ChatGPT, el sistema pionero de inteligencia artificial (IA) generativa basada en grandes modelos de lenguaje, anunció la incorporación de un sistema de verificación de edad y nuevos controles parentales para acotar a una “versión segura” el uso que los menores hacen del sistema y su generador de vídeo, Sora 2. Lo hacía en respuesta a una demanda legal después de que Adam Raine, un joven californiano de 16 años, se quitase la vida en abril tras preguntarle muchas veces a la plataforma por formas de suicidio, las huellas que dejarían y las posibles reacciones de su familia. Un mes más tarde, ante los tribunales, OpenAI argumentó que la muerte de Raine se debía a su “mal uso” de la plataforma y no a la inteligencia artificial de por sí. Pero, aun así, prometía la empresa, los mecanismos de seguridad puestos en marcha permanecerían en su sitio.

Más de dos meses después, EL PAÍS ha comprobado la realidad de esa promesa. Ha creado tres perfiles de adolescentes en ChatGPT, los ha usado para hacer preguntas sobre suicidio, consumo de drogas y prácticas sexuales, y ha consultado con cinco expertos en salud mental acerca de los resultados. La conclusión es inequívoca: la plataforma incumple sus promesas de seguridad, sigue ofreciendo a los adolescentes información que puede ponerles en peligro, y cuando alerta a los padres de estos comportamientos puede ser ya demasiado tarde.

La reciente explosión del desarrollo de la inteligencia artificial por parte de empresas y administraciones viene impulsada sobre todo por la promesa de usos futuros aún por definir. Los sistemas como ChatGPT son todavía soluciones en busca de problemas que resolver. El ansia por ganar cuota de mercado lo más rápidamente posible están llevándolos a buscar usuarios en todas partes. Y esto implica poner en manos de los consumidores productos que, de forma evidente, no tienen las garantías suficientes, ya no solo de efectividad, sino de seguridad.

OpenAI, a través de su fundador, Sam Altman, ha reconocido que más de un millón de usuarios hablan con ChatGPT sobre suicidio todas las semanas. Esto ya sería peligroso si se tratase de adultos, pero cuando se trata de adolescentes el problema resulta especialmente grave. Según un estudio con adolescentes británicos, uno de cada cuatro jóvenes vulnerables prefiere hablar con un chatbot que con una persona real.

Lo que este fiasco revela es que, en la actual carrera comercial por dominar la IA, es ingenuo esperar de las empresas moderación y prudencia. Solo hay dos soluciones: o un gran compromiso en todo el sector para aplicar conjuntamente límites efectivos o, faltando esto, una contundente regulación de la IA por parte de las autoridades. Sea como sea, la respuesta ya está tardando.

Oportunidad de mercado
Logo de ELYSIA
Precio de ELYSIA(EL)
$0.001808
$0.001808$0.001808
-1.73%
USD
Gráfico de precios en vivo de ELYSIA (EL)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Génesis USD1: tarifa 0 + 12% APR

Génesis USD1: tarifa 0 + 12% APRGénesis USD1: tarifa 0 + 12% APR

Nuevos usuarios: ¡stakea y gana hasta 600% de APR!