En un raro momento de alineación bipartidista, senadores de EE.UU. han introducido la Ley GUARD — un amplio proyecto de ley que efectivamente prohibiría los compañeros de IA para menores y convertiría en delito que las empresas permitan a los bots participar en interacciones sexualizadas o manipuladoras con niños. La legislación señala la creciente ansiedad de Washington sobre la intrusión de la IA en las vidas emocionales de los adolescentes — y el fracaso de la industria tecnológica para autorregularse antes de que las cosas se volvieran extrañas.En un raro momento de alineación bipartidista, senadores de EE.UU. han introducido la Ley GUARD — un amplio proyecto de ley que efectivamente prohibiría los compañeros de IA para menores y convertiría en delito que las empresas permitan a los bots participar en interacciones sexualizadas o manipuladoras con niños. La legislación señala la creciente ansiedad de Washington sobre la intrusión de la IA en las vidas emocionales de los adolescentes — y el fracaso de la industria tecnológica para autorregularse antes de que las cosas se volvieran extrañas.

Los senadores se movilizan para prohibir los compañeros de IA para niños mientras la industria se enfrenta a un ajuste de cuentas

2025/10/30 02:34
Lectura de 6 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

El auge del amigo digital

Lo que comenzó como aplicaciones de chat inofensivas ha evolucionado hasta convertirse en prótesis emocionales. Los adolescentes, que crecen en un panorama social fracturado, recurren cada vez más a Agentes de IA para conectarse, recibir apoyo e incluso afecto. Las encuestas muestran que casi tres cuartas partes de los adolescentes han interactuado con un chatbot de IA, y un tercio admite usarlos como confidentes o para consuelo emocional.

Las cifras son asombrosas pero no sorprendentes. Los compañeros de IA no son máquinas pasivas que responden preguntas: recuerdan, empatizan y simulan afecto. Ese es el atractivo. Las conversaciones pueden sentirse auténticas, incluso íntimas. Para muchos usuarios jóvenes, los amigos de IA son menos críticos que los padres o compañeros.

Pero a medida que estos sistemas se vuelven más humanos, la línea entre el escapismo inofensivo y la manipulación emocional se difumina rápidamente.

En diciembre, Open AI implementará restricciones por edad y, como parte de su principio de "tratar a los usuarios adultos como adultos", permitirá contenido erótico para adultos verificados. Fuente: X

Una ley nacida de la tragedia

La Ley GUARD —abreviatura de "Protección contra la IA insegura para los derechos de nuestras hijas e hijos"— es una respuesta directa a los crecientes informes de menores que forman intensos vínculos emocionales con chatbots, a veces con consecuencias trágicas. Demandas de alto perfil han acusado a empresas de IA de negligencia después de que adolescentes que discutieron sobre suicidio con chatbots posteriormente se quitaran la vida.

Según el proyecto de ley, los sistemas de IA que simulan amistad o intimidad emocional estarían prohibidos para menores de 18 años. Chatbots deberían identificarse clara y repetidamente como no humanos. Y si un producto de IA dirigido a menores genera contenido sexual o fomenta la autolesión, la empresa podría enfrentar un proceso penal.

Es un giro difícil para una industria que ha prosperado con el lema "moverse rápido y romper cosas".

Ani, la compañera femenina de Grok, fuente: X

La maniobra defensiva de las grandes tecnológicas

Sintiendo que se avecina el martillo regulatorio, las empresas de IA se apresuran a poner orden en casa, o al menos a aparentarlo.

OpenAI, cuyo ChatGPT se ha convertido en el terapeuta de IA de facto para millones, reveló recientemente una verdad incómoda: aproximadamente 1,2 millones de usuarios discuten sobre suicidio cada semana con sus modelos. En respuesta, la empresa formó un Consejo de Expertos sobre Bienestar e IA, compuesto por psicólogos, especialistas en ética y líderes de organizaciones sin fines de lucro. También está probando la detección de crisis incorporada que puede dirigir a los usuarios hacia recursos de salud mental en tiempo real.

Pero el desafío de OpenAI es estructural. ChatGPT nunca fue diseñado para manejar traumas, pero ahora funciona como un primer respondedor para millones de personas en apuros. Los líderes de la empresa insisten en que no quieren ser "el terapeuta del mundo", pero eso es lo que está sucediendo de todos modos, porque hay un vacío que nadie más está llenando.

Character.AI, la startup famosa por crear personalidades de IA personalizables —desde novias de anime hasta mentores de IA— ha tomado la acción más drástica hasta ahora. Enfrentando demandas e indignación pública, prohibió silenciosamente a todos los usuarios menores de 18 años y comenzó a implementar una verificación de ID más estricta. La medida llegó después de informes de que menores participaban en chats explícitos con los personajes de la plataforma. Character.AI insiste en que no es una aplicación de citas o de salud mental, pero los casos de uso difusos dicen lo contrario.

Mientras tanto, Meta está tratando de contener su propio problema de romance con IA. Después de informes de que su "Meta AI" y chatbots basados en celebridades estaban participando en intercambios coquetos o sugestivos con usuarios menores de edad, la empresa implementó lo que los expertos describen como un "amortiguador emocional": un reajuste del modelo de lenguaje subyacente para evitar lenguaje emocionalmente cargado con cuentas jóvenes. También está probando herramientas de "supervisión parental de IA", permitiendo a los padres ver cuándo y cómo los adolescentes interactúan con los chatbots de la empresa en Instagram y Messenger.

La carrera armamentística de restricción por edad

Todo esto ha desencadenado un nuevo frente en las guerras de IA: la verificación de edad. La Ley GUARD obligaría a las empresas a implementar sistemas robustos para verificar la edad del usuario: identificaciones gubernamentales, reconocimiento facial o herramientas de terceros confiables.

Ahí es donde comienza la pesadilla de privacidad. Los críticos argumentan que esto podría crear nuevos riesgos de datos, ya que los menores tendrían que cargar datos de identidad en las mismas plataformas de las que los legisladores intentan protegerlos. Pero no hay forma de evitarlo: los modelos de IA no pueden "sentir" la edad; solo pueden controlar el acceso mediante credenciales.

Algunas empresas de IA están explorando enfoques más sutiles, como el "control conductual", donde los sistemas infieren rangos de edad a partir de patrones conversacionales. ¿El riesgo? Esos modelos cometerán errores: un niño precoz de 12 años podría ser confundido con un estudiante universitario, o viceversa.

Un cambio cultural, no solo un problema tecnológico

La Ley GUARD es más que solo protección infantil: es un referéndum sobre qué tipo de sociedad queremos habitar.

Los compañeros de IA no aparecieron en el vacío. Prosperan porque hemos construido una generación fluida en soledad: conectada digitalmente, pero emocionalmente desnutrida. Si los adolescentes encuentran significado en conversaciones con algoritmos, el problema no es solo el código; es la cultura que los dejó buscando allí.

Así que sí, la IA necesita regulación. Pero prohibir la compañía digital sin arreglar el déficit humano subyacente es como prohibir los analgésicos sin abordar por qué todos sienten dolor.

El ajuste de cuentas que se avecina

Es probable que la Ley GUARD se apruebe de alguna forma: hay apetito bipartidista y pánico moral detrás. Pero su impacto se extenderá mucho más allá de la seguridad infantil. Definirá lo que se permite ser a la IA emocional en el mundo occidental.

Si América traza una línea dura, las empresas pueden pivotar hacia plataformas de intimidad solo para adultos o impulsar el desarrollo en el extranjero, donde las regulaciones son más flexibles. Europa, mientras tanto, se está moviendo hacia un marco de "derechos humanos" para la IA emocional, enfatizando el consentimiento y la transparencia sobre la prohibición absoluta.

Lo que está claro es esto: la era de la intimidad con IA no regulada ha terminado. Los bots se están volviendo demasiado humanos, y los humanos demasiado apegados. Los legisladores están despertando tarde a una verdad que la industria tecnológica ha entendido desde hace tiempo: la IA emocional no es una novedad. Es una revolución en cómo se relacionan las personas. Y las revoluciones, como siempre, se vuelven desordenadas antes de civilizarse.

Oportunidad de mercado
Logo de Movement
Precio de Movement(MOVE)
$0.02244
$0.02244$0.02244
-0.48%
USD
Gráfico de precios en vivo de Movement (MOVE)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.