La inteligencia artificial agéntica (IA) promete transformar cómo operan las organizaciones. A diferencia de las herramientas de IA anteriores diseñadas para resumir documentos o generar contenidoLa inteligencia artificial agéntica (IA) promete transformar cómo operan las organizaciones. A diferencia de las herramientas de IA anteriores diseñadas para resumir documentos o generar contenido

Laura I. Harder: Cómo preparar a las juntas directivas para los riesgos de seguridad de la IA agéntica

2026/03/19 13:28
Lectura de 7 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com
```html

La inteligencia artificial agéntica (IA) promete transformar cómo operan las organizaciones. A diferencia de herramientas de IA anteriores diseñadas para resumir documentos o generar contenido, estos sistemas pueden actuar de manera autónoma, ejecutar tareas e interactuar con sistemas empresariales. Para las juntas directivas que supervisan el riesgo tecnológico, ese cambio introduce una categoría fundamentalmente diferente de preocupación de seguridad. Laura I. Harder, Vicepresidenta de la Asociación Internacional de Seguridad de Sistemas de Información (ISSA) y oficial cibernética ofensiva en la Reserva de la Fuerza Aérea de EE. UU., cree que muchos líderes subestiman la rapidez con la que esos riesgos pueden materializarse. "El riesgo para las organizaciones realmente se reduce a tener demasiada agencia", dice Harder. "Los agentes pueden cambiar permisos, cambiar funcionalidades y crear acciones que tal vez no esperabas". A medida que las organizaciones pasan de experimentar con IA a operacionalizar agentes autónomos, las juntas directivas deben moverse con la misma rapidez para establecer estructuras de gobernanza, barreras de protección y mecanismos de supervisión capaces de gestionar sistemas que pueden tomar decisiones y actuar sin intervención humana.

La IA Agéntica Cambia la Ecuación de Seguridad

Durante los últimos años, la mayoría de las implementaciones corporativas de IA se han centrado en herramientas que analizan información o generan resultados. Esas capacidades introdujeron preocupaciones sobre privacidad e integridad de datos, pero los sistemas en sí raramente ejecutaban acciones dentro de entornos empresariales. La IA agéntica cambia esa dinámica. En lugar de simplemente ofrecer recomendaciones o filtrar currículums, los agentes pueden activar flujos de trabajo, acceder a bases de datos e interactuar con sistemas de software en toda una organización. "Ahora no solo nos da consejos. Toma acción y actúa por sí misma", dice Harder.

Laura I. Harder: Cómo Preparar a las Juntas Directivas para los Riesgos de Seguridad de la IA Agéntica

Esa autonomía crea nuevos desafíos de seguridad porque los sistemas pueden ser manipulados. Así como los humanos pueden caer en ingeniería social, los Agentes de IA pueden ser engañados para ejecutar tareas no deseadas mediante técnicas como la inyección de prompts. Harder señala ejemplos del mundo real donde instrucciones ocultas incrustadas en entradas alteran cómo se comporta la IA. "La IA va a comportarse según las instrucciones que se le den", dice. Estas amenazas se ven agravadas por la naturaleza opaca de muchos modelos de IA. Las organizaciones a menudo dependen de herramientas de terceros sin visibilidad completa de cómo se toman las decisiones. El resultado es un sistema capaz de ejecutar acciones mientras opera de formas difíciles de predecir.

El Riesgo Oculto que las Juntas Directivas Suelen Pasar por Alto

Cuando las juntas directivas comienzan a evaluar la IA agéntica, Harder dice que la vulnerabilidad más subestimada son los permisos. Cada Agente de IA opera dentro de una red de sistemas, fuentes de datos y aplicaciones. El nivel de acceso otorgado a esos sistemas determina el daño potencial si algo sale mal. Harder describe esto como el "radio de explosión" del sistema. Un agente al que se le otorgan permisos amplios puede ser capaz de interactuar con muchos más datos e infraestructura de lo que los líderes se dan cuenta.

Un ejemplo común ocurre cuando los sistemas de IA están conectados a herramientas de colaboración internas o repositorios de documentos. Si una carpeta ampliamente compartida contiene información sensible, un agente que opera en ese entorno podrá acceder y usar esos datos dentro de los permisos otorgados al usuario, cuenta de servicio o integración bajo la cual se ejecuta. En la práctica, eso significa que el agente puede exponer o actuar sobre información que puede haber sido ampliamente accesible pero no monitoreada activamente.

Los servicios de IA de terceros introducen una capa adicional de riesgo. "Si estás usando un modelo, ¿a qué información tiene acceso ese modelo y puede tu información usarse para entrenar ese modelo?", pregunta Harder. Sin controles claros, información propietaria, propiedad intelectual o datos sensibles de clientes podrían salir involuntariamente de la organización a través de interacciones de IA.

Construir Gobernanza que Pueda Mantenerse al Ritmo de la IA

La gobernanza de IA debe tratarse como un programa estructurado en lugar de un complemento tecnológico. Las organizaciones deben comenzar estableciendo una junta de gobernanza de IA dedicada, a menudo modelada según comités existentes de privacidad o gobernanza de riesgos. Ese grupo debe adoptar marcos establecidos como el Marco de Gestión de Riesgos de IA del NIST o estándares internacionales como ISO 42001. "Tener gobernanza de IA y protecciones de IA no es solo un producto que puedes comprar", dice.

Estos marcos proporcionan orientación sobre políticas, evaluaciones de riesgo y controles operativos. Pero aún requieren que las organizaciones definan cómo funcionará la IA dentro de su entorno y a qué datos se le permitirá acceder. "Necesitas políticas, procedimientos e inventarios", dice Harder. "Esas piezas ayudarán a construir la infraestructura desde la cual tus equipos pueden trabajar". Una práctica emergente es la creación de una "lista de materiales de IA" que inventaría cada herramienta de IA utilizada dentro de la organización, a qué sistemas se conecta y a qué datos puede acceder. Sin esa visibilidad, las organizaciones no pueden comprender completamente la exposición creada por sistemas autónomos que interactúan con la infraestructura empresarial.

Barreras de Protección que Evitan que la IA se Descontrole

Incluso con estructuras de gobernanza implementadas, los sistemas agénticos requieren salvaguardas técnicas que limiten cómo operan. La estrategia más efectiva es diseñar controles de seguridad desde el principio. Los sistemas deben desarrollarse inicialmente dentro de entornos sandbox cerrados y controlados utilizando datos de prueba (no datos de producción) y privilegios limitados. "Mientras construyes tu sistema agéntico, debes hacerlo en un sandbox", dice. "Es un entorno controlado donde los sistemas sintéticos pueden operar con bajo riesgo y sin privilegios".

Las pruebas también deben incluir equipos rojos, donde profesionales de seguridad intentan romper el sistema o manipular su comportamiento. Estos ejercicios exponen vulnerabilidades antes de que los sistemas se implementen en entornos de producción. "Tener un humano en el circuito asegura que si y cuando tu herramienta de IA decide tomar una decisión que tal vez no querías, haya algún tipo de restricción", dice Harder. Las técnicas de aislamiento también pueden limitar el riesgo. En algunas arquitecturas, los agentes están contenidos dentro de máquinas virtuales donde las políticas restringen qué comandos pueden ejecutar y a qué sistemas pueden acceder.

La Supervisión de la Junta Directiva Finalmente Importa

Para las juntas directivas, el auge de la IA agéntica es un desafío de gobernanza y rendición de cuentas y Harder enfatiza que las organizaciones siguen siendo responsables de las acciones que toman sus sistemas de IA. "No puedes retroceder y decir: 'No sabía que podía hacer esto'", dice. "Tienes que hacer tu debida diligencia". Esa responsabilidad conlleva implicaciones tanto legales como fiduciarias. Las juntas directivas deben asegurar que las tecnologías autónomas se implementen con supervisión clara, autoridad restringida y monitoreo continuo. "No conectes agentes a herramientas privilegiadas hasta que puedas demostrar que tiene autoridad restringida, puntos de control humanos y monitoreo", dice Harder. A medida que la IA agéntica continúa pasando de la experimentación a las operaciones centrales, las organizaciones que tengan éxito serán aquellas que traten la gobernanza y la seguridad como requisitos fundamentales en lugar de reflexiones posteriores.

Sigue a Laura I. Harder en LinkedIn para más información.

Comentarios
```
Oportunidad de mercado
Logo de The AI Prophecy
Precio de The AI Prophecy(ACT)
$0.01366
$0.01366$0.01366
+1.18%
USD
Gráfico de precios en vivo de The AI Prophecy (ACT)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.