Con San Valentín a la vuelta de la esquina, vale la pena hacer una pregunta incómoda: ¿qué sucede cuando la sensación de ser 'visto y escuchado' no proviene deCon San Valentín a la vuelta de la esquina, vale la pena hacer una pregunta incómoda: ¿qué sucede cuando la sensación de ser 'visto y escuchado' no proviene de

LoveGPT: El Auge Del "Confidente" De IA Y Por Qué Es Peligroso

2026/02/12 15:31
Lectura de 6 min

Con el Día de San Valentín a la vuelta de la esquina, vale la pena hacer una pregunta incómoda: ¿qué sucede cuando la sensación de ser 'visto y escuchado' no proviene de una pareja, sino de una máquina? Diseñados con personalidades distintas y un tono afirmativo, los chatbots de compañía de inteligencia artificial (IA) pueden difuminar los límites emocionales y fomentar el apego romántico. Si bien esto puede parecer inofensivo, genera preocupaciones tanto para las personas como para las organizaciones que buscan prevenir la dependencia emocional, la manipulación y la fuga de datos.

Con la soledad como una realidad siempre presente para muchos, ha habido un aumento exponencial en los últimos años en los chatbots de compañía de IA.

"A diferencia de los chatbots de propósito general, las aplicaciones de compañía de IA como Replika y Character.AI van un paso más allá al ofrecer personajes personalizados, desde amigos y parejas románticas hasta personas de fantasía, diseñados para sentirse claramente humanos", comenta Anna Collard, SVP de estrategia de contenido y asesora CISO en KnowBe4 África.

El crecimiento en el sector de aplicaciones de compañía de IA ha sido rápido: se registraron 60 millones de nuevas descargas solo en la primera mitad de 2025, un aumento del 88% interanual.

El mercado ahora incluye 337 aplicaciones que generan ingresos en todo el mundo, con más de un tercio lanzadas solo el año pasado.

Peligros del efecto ELIZA

Collard dice que muchos usuarios son engañados haciéndoles sentir que están seguros compartiendo conversaciones íntimas con una máquina: el llamado efecto ELIZA.

Este vínculo psicológico crea una vulnerabilidad de seguridad significativa. Cuando los usuarios perciben una IA como un 'amigo' o 'pareja', es mucho más probable que compartan información sensible, que va desde quejas personales y problemas de salud hasta datos corporativos confidenciales.

En un contexto organizacional, este es un ejemplo claro de cómo los desencadenantes emocionales pueden anular la conciencia de seguridad tradicional.

Riesgos de fuga de datos

La amenaza más inmediata para las organizaciones es la fuga de información sensible. Debido a que estos bots a menudo son desarrollados por startups más pequeñas y de nicho con estándares cuestionables de protección de datos, la información compartida con un bot rara vez es privada. Un ejemplo de esto es el caso reciente de un juguete de IA que expuso 50 000 registros de sus conversaciones con niños. Literalmente cualquier persona con una cuenta de Gmail pudo ver las conversaciones privadas de estos niños.

Las políticas de privacidad de estas aplicaciones suelen ser opacas. En algunos casos, los registros de chat se utilizan para entrenar aún más los modelos o se almacenan en bases de datos inseguras. "Definitivamente se requiere precaución", comenta Collard. "Lo que se siente como una interacción privada de bajo riesgo podría contener información sensible, estrategia, presiones financieras, factores estresantes personales o detalles contextuales que los adversarios podrían utilizar como arma".

Una vez filtrados, ella cree que los datos pueden, por ejemplo, convertirse en combustible para phishing altamente personalizado, chantaje o ataques de suplantación de identidad. "En términos de seguridad, este es un ejemplo de manual de cómo el comportamiento personal y el riesgo corporativo ahora son inseparables".

Estos riesgos incluyen moderadores humanos que revisan conversaciones con fines de capacitación, control de calidad o seguridad, así como usuarios que comparten accidentalmente conversaciones a través de un enlace público, lo que significa que cualquier persona con acceso a ese enlace puede leerlo, advierte Collard. "Ya hemos visto ejemplos en todo el sector tecnológico de cómo los datos expuestos pueden surgir inesperadamente".

Además, las organizaciones pueden verse legalmente obligadas a divulgar datos si una aplicación está involucrada en una violación o una investigación legal. Para un ejecutivo o desarrollador, compartir sesiones de 'desahogo' sobre un proyecto confidencial o un cliente difícil podría llevar inadvertidamente a la exposición de datos organizacionales sensibles.

La brecha de políticas

Este riesgo destaca una brecha de políticas dentro del lugar de trabajo moderno. Si bien la mayoría de las organizaciones tienen pautas claras con respecto a las relaciones entre colegas, muy pocas han considerado las implicaciones de que se acceda a bots de citas en dispositivos de trabajo o a través de redes corporativas.

Gestionar este riesgo requiere una transición de la simple conciencia a un enfoque robusto de Gestión de Riesgos Humanos (HRM). Esto implica combinar políticas de uso claras con barreras técnicas, como herramientas de descubrimiento de IA en la sombra, para proporcionar a los equipos de TI visibilidad sobre qué agentes de IA no aprobados están interactuando con su entorno de datos. No es suficiente simplemente pedirles a los empleados que tengan cuidado; las organizaciones deben tener los sistemas implementados para gestionar la intersección de la emoción humana y la interacción automatizada.

El futuro de la ingeniería social

¿Podríamos ver a hackers dirigiéndose a personas solitarias con bots de coqueteo producidos en masa? Collard cree que ya está sucediendo.

"La ingeniería social siempre se ha escalado explotando la emoción, la urgencia, el miedo, la curiosidad, el amor y la atracción", comenta. "La IA simplemente automatiza eso a escala. Lo que más me preocupa no es la tecnología en sí, sino cómo empodera a aquellos que tienen intenciones maliciosas para reflejar de manera convincente la intimidad humana, por ejemplo, estafadores románticos sistemáticos".

Según Collard, en cuestión de años, las estafas han evolucionado del tipo "Estimado Señor/Señora" a la manipulación emocionalmente inteligente. "Y no son los bots en sí mismos los que son el problema, es el uso intencional de ellos por parte de los estafadores", dice.

Ella menciona el ejemplo de un bot LoveGPT ilegal que ayuda a los estafadores a decir las cosas psicológicamente desencadenantes correctas para crear dependencia y activar emociones en sus víctimas. "Todo lo que los estafadores necesitan hacer es copiar y pegar o incluso simplemente automatizar las conversaciones", afirma.

¿Qué se puede hacer para evitar que los usuarios sean víctimas? Como siempre, la defensa sigue siendo humana, afirma Collard. "En última instancia, ningún chatbot, sin importar cuán atento o emocionalmente fluido sea, puede reemplazar la conexión humana genuina", enfatiza.

Si una interacción con un chatbot comienza a sentirse emocionalmente sustitutiva, secreta o difícil de abandonar, ella cree que esa es una señal para hacer una pausa y acercarse a una persona de confianza o a un profesional. "La tecnología puede ser parte de la vida moderna, pero eso significa que necesitamos fortalecer nuestras habilidades de atención plena digital para aprender a reconocer la manipulación o la dependencia inducida. Por último, cuando se trata de soledad, vulnerabilidad y amor, la defensa más segura sigue siendo resueltamente humana", concluye.

Oportunidad de mercado
Logo de RISE
Precio de RISE(RISE)
$0.003345
$0.003345$0.003345
-1.93%
USD
Gráfico de precios en vivo de RISE (RISE)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.