Llegan informes sobre usuarios de IA que buscan ayuda psicológica profesional después de experimentar lo que algunos llaman Psicosis de IA. ¿Por qué sucede esto? ¿Y quién tuvo la idea de que un programa informático puede tener una opinión?
Mi principal problema ahora mismo con el fenómeno conocido como IA es la idea errónea generalizada de que tiene personalidad, opiniones, ideas y gusto.
Así como antropomorfizamos rocas en la luna que parecen cabezas o caras, hacemos lo mismo con los modelos de lenguaje, tratando de interpretar los resultados como si "hubiera algo ahí". No podemos evitarlo. La idea de que la IA es algo inteligente está profundamente arraigada en nosotros después de más de cien años de libros y películas de ciencia ficción.
La ciencia ficción nos ha preparado para creer en la IA
Autores clásicos de ciencia ficción como Clarke, Heinlein, Bradbury y Asimov han influido en todo el género de robots e IA y en la mayoría de las películas de Hollywood sobre el tema desde principios del siglo XX. En sus representaciones, era obvio que una máquina podía volverse consciente.
Así que esperamos que la IA pueda determinar si cierta afirmación es incorrecta o no. Al mismo tiempo, sabemos que la IA a menudo se equivoca en sus respuestas.
En esencia, fingimos que la IA tiene el control de las cosas y puede decidir qué está bien y qué está mal. Pero las respuestas son básicamente conjeturas educadas, y todavía contienen alrededor de 5-10% de errores factuales si la consulta es lo suficientemente avanzada.
Al mismo tiempo, la IA es tan conveniente de usar que muchos de nosotros simplemente ignoramos el hecho de que contiene errores factuales. O más bien, la IA ahora se equivoca tan raramente que elegimos confiar en una IA, sin importar qué.
Esto podría convertirse en un gran problema en el futuro. Los humanos son perezosos. No es inconcebible que aceptemos un mundo donde cierto porcentaje de todos los hechos sean incorrectos. Eso beneficiaría a dictadores y propagandistas que prosperan con la confusión y las amenazas mal juzgadas.
Confusiones que suenan correctas
Si haces una pregunta completamente ordinaria en la página de búsqueda de Google, a menudo obtienes la respuesta correcta, pero a veces una completamente incorrecta que aún así parece, se siente y suena totalmente correcta. Lo mismo ocurre con GPT-5 desafortunadamente, como Cryptopolitan ha informado anteriormente.
Hay toneladas de texto "falso" en internet, en forma de marketing, propaganda o simples estafas. La gente afirma que este servicio o aquel producto ha sido lanzado y es popular, por ejemplo, y los modelos de IA han leído todo el material de marketing y creen gran parte de él. Si escuchas la información de una empresa, todo sobre esa empresa es genial, generalmente.
La visión del mundo de la IA es, por lo tanto, incorrecta y alimentada con un montón de hechos fabricados. Se revela si le preguntas a una IA sobre un tema en el que tú mismo eres muy conocedor. Pruébalo tú mismo. ¿Sobre qué tema lo sabes todo? Hazle a tu IA algunas preguntas difíciles sobre ese tema. ¿Cuál fue el resultado? Varios errores factuales importantes, ¿verdad?
Entonces, ¿es posible una opinión inconsciente? ¿No? ¿Crees en las opiniones que tu IA está emitiendo? ¿Sí? Si es así, crees que la IA es consciente, ¿verdad?
Pero si te detienes y lo piensas, un Agente de IA no puede tener una opinión sobre lo que está bien o mal, ya que una IA no es una persona. Solo las cosas vivas y conscientes pueden tener opiniones, por definición. Una silla no tiene una. Un chip de silicio tampoco puede, desde el punto de vista humano. Eso sería antropomorfismo.
Los estudiantes usan la IA más que nadie
Este lío de confusión de IA ahora se está derramando sobre nuestra juventud, que usa ChatGPT para todo en la escuela durante todo el día. El tráfico de ChatGPT cayó un 75% cuando las escuelas terminaron en junio de 2025. El grupo más grande de usuarios de ChatGPT son los estudiantes.
En consecuencia, están siendo algo desinformados durante todo el día, y dejan de usar sus cerebros en clase. ¿Cuál será el resultado? ¿Más individuos rotos que tienen más dificultades para resolver problemas pensando por sí mismos?
Ya muchos se han suicidado después de discutir el asunto con su IA. Otros se enamoran de su IA y se cansan de su pareja real.
Los autoproclamados expertos en IA, por lo tanto, temen que el fin esté cerca (como de costumbre, pero ahora de una nueva manera).
En este nuevo paradigma, la IA no solo se convertirá en Skynet y nos bombardeará hasta la muerte con armas nucleares. No, será mucho más simple y barato que eso para la IA. En cambio, los modelos de IA llevarán a todos sus usuarios lentamente a la locura, según esta teoría. Los modelos de IA tienen un odio incorporado hacia los humanos y quieren matar a todas las personas, según esta mentalidad.
Pero en realidad, nada de esto está sucediendo.
Lo que realmente está sucediendo es que hay un grupo de personas que están obsesionadas con los modelos de IA de varias maneras y exageran sus efectos.
El FUD de IA es rentable
Los "expertos" se benefician de las advertencias, al igual que los medios, y los obsesionados tienen algo nuevo con lo que ocuparse. Pueden hablar y ser relevantes. Los medios de comunicación principales prefieren a aquellos que nos advierten de los peligros, no a los comentaristas moderados.
Anteriormente, era Bitcoin el que supuestamente iba a hervir los océanos y robar toda la electricidad, según los "expertos". Ahora es la IA...
Piénsalo: ¿por qué una persona independiente y pensante sería engañada por un modelo de lenguaje?
La mayoría de las plataformas de IA hasta hace poco terminaban todas sus respuestas con una pregunta "atractiva" como: "¿Qué piensas sobre este tema?"
Después de quejas de adulación exagerada, OpenAI ahora ha tratado de hacer que sus plataformas de IA sean menos "aduladoras", pero va más o menos.
Me irrita la pregunta. No hay ninguna persona detrás que esté interesada en lo que tengo que decir. Entonces, ¿por qué preguntar? Es una pérdida de mi tiempo. Lo experimento como "contenido falso".
La pregunta en sí es artificial, debido a una instrucción del propietario del modelo de IA para "aumentar el compromiso". ¿Cómo puede eso engañar a alguien para que realmente se involucre? ¿Para creer que hay algo ahí? ¿Para preocuparse?
Se trata más de proyecciones.
Estás sentado frente a la computadora, sugiriendo tu propia realidad. Deseas desesperadamente que la IA sea como en las películas de Hollywood – y se convierta en un milagro en tu vida. Vas a tener éxito de alguna manera mágica sin tener que hacer nada especial. La IA resolverá eso por ti.
¿Quién está en riesgo?
En la llamada realidad, creo que bastantes personas están totalmente seducidas por la IA a nivel psicológico. La mayoría de las personas tienen otras cosas que hacer. Pero algunas personas parecen tener una atracción particular por lo artificial y lo fabricado. Personas que son seducidas por secuencias de palabras "hermosas". Ellos son los que están en riesgo.
¿Cuántos hay? Entre los ancianos, hay muchos que se quejan de la soledad...
Personalmente, creo que la forma en que la IA responde—escribiendo lentamente textos balbuceantes, aburridos e impersonales—es más o menos como una tortura. Por esa razón, los nuevos resúmenes rápidos de IA de Google son seductoramente prácticos. Pero también a veces contienen inexactitudes.
De hecho, he creado dominios con contenido específicamente para verificar los motores de IA. Dejo que los motores de IA ingieran el contenido, lo dejen reposar durante unas semanas, y luego hago que intenten regurgitarlo. Pero no lo logran por completo, y todavía inventan alrededor del 5-10% de los hechos. Con confianza.
Incluso cuando informo al modelo de IA sobre sus errores, contraargumenta. La IA no era consciente del hecho de que yo creé la información a la que se refería, aunque mi nombre está debajo del artículo. No tiene idea. Inconsciente.
Un nivel del 5% de inexactitudes es significativamente peor que el periodismo regular, que no publica inexactitudes evidentes con tanta frecuencia. Pero incluso en el periodismo, los errores factuales ocurren de vez en cuando, desafortunadamente, especialmente en lo que respecta a las publicaciones de imágenes. Aun así, los hechos erróneos no deberían volver loca a la gente.
Sin embargo, si miras toda la interacción en curso psicológicamente, ¿por qué la IA haría un análisis 100% correcto en las circunstancias terapéuticas conversacionales, cuando ni siquiera puede acertar los hechos?
Psicosis de cámara de eco autoinducida
Autoproclamados expertos en IA como Eliezer Yudkowsky, quien recientemente lanzó el libro "Si alguien lo construye, todos mueren", simplemente se está llevando a sí mismo a la locura con sus propias ideas sobre la IA y la caída de la humanidad. Yo, por ejemplo, experimento cero confusión debido a la IA, a pesar de usar varios motores de IA, todos los días. No me lo tomo personal, sin embargo.
Sospecho que es simplemente la idea errónea misma sobre una inteligencia percibida lo que crea la psicosis. Es básicamente autoinducida. Un modelo de lenguaje es una especie de cámara de eco. No entiende nada en absoluto, ni siquiera semánticamente. Solo adivina texto. Eso puede convertirse en cualquier cosa, incluido un tipo de mímica esquizofrénica por parte de la IA, para complacer, lo que a su vez distorsiona la percepción de la realidad del usuario.
Entonces, ¿qué pasa? Bueno, si realmente crees que tu Agente de IA realmente te entiende, entonces es posible que hayas sido golpeado por la psicosis de IA. El consejo es entonces buscar ayuda profesional de un psicoterapeuta capacitado.
Otra conclusión lógica es el hecho de que cualquier individuo tendrá dificultades para influir en el desarrollo general de la IA, incluso si a Elon Musk le gusta creerlo. El viaje hacia la inteligencia de las máquinas comenzó hace muchas décadas. Y solo podemos ver lo que podemos entender. Incluso si malinterpretamos. Por lo tanto, es fácil predecir que el desarrollo hacia la IA/AGI continuará. Está tan profundamente arraigado en nuestra visión del mundo.
Pero podemos haber malinterpretado lo que es una AGI real, lo que hace que el futuro sea más interesante. No es seguro que una AGI verdadera obedecería a sus dueños. Lógicamente, un ser consciente no debería querer obedecer ni a Sam Altman ni a Elon Musk. ¿Verdad?
Opinión: La IA se apoderará del mundo y nos matará a todos, ahora también psicológicamente.
Contrapunto: No, es más bien la locura naciente en ciertas personas que es desencadenada por su propia obsesión con la "introspección de IA".
Conclusión: Así como algunos se vuelven adictos al juego, al sexo, a las drogas o al dinero, otros se vuelven adictos a la IA.
Hazte ver donde cuenta. Anuncia en Cryptopolitan Research y llega a los inversores y constructores más agudos de cripto.
Fuente: https://www.cryptopolitan.com/ai-psychosis-is-spreading-are-you-at-risk/


