El boom de la IA Agente: Un mercado de 200.000 millones con vulnerabilidad pendiente

Los líderes empresariales se están apresurando a adoptar la Inteligencia Artificial (IA) agente, y es fácil entender por qué. Los sistemas de IA agente, autónomos y orientados a objetivos, son capaces de razonar, planificar, actuar y adaptarse sin supervisión humana—nuevas capacidades poderosas que podrían ayudar a las organizaciones a aprovechar el potencial desatado por la IA generativa reinventando radicalmente su forma de operar.

La industria de los agentes de IA está experimentando una expansión sin precedentes, pasando de 5.250 millones de dólares en 2024 a 199.050 millones de dólares proyectados para el 2034, lo que representa un aumento de 38 veces, de acuerdo con estimaciones publicadas por Globe Newswire. Este crecimiento explosivo refleja la capacidad de la tecnología para ejecutar de forma autónoma flujos de trabajo complejos que antes requerían una supervisión humana extensa.

La empresa de investigación de mercados con sede en Nueva York, Market US, refleja un dato más sorporendente: La integración de software empresariales se acelera de forma espectacular, con la presencia de IA agente que pasa de menos del 1% en 2024 al 33% en 2028. Este aumento de 33 veces en solo cuatro años significa que las organizaciones deben preparar la infraestructura y los flujos de trabajo ahora para un futuro autónomo.

En medio de este crecimiento del mercado de los agentes de IA en velocidad crucero, McKinsey & Company consultora estratégica global, considerada la más prestigiosa del mundo en el ámbito de la consultoría de gestión advierte los agentes al operar de forma autónoma y automatizar tareas tradicionalmente realizadas por empleados humanos, añade una dimensión adicional al panorama de riesgo.

El cambio clave es pasar de sistemas que permiten interacciones a sistemas que impulsan transacciones que afectan directamente a los procesos y resultados empresariales. Este cambio intensifica los desafíos en torno a los principios fundamentales de «seguridad de confidencialidad, integridad y disponibilidad en el contexto agente, debido al potencial adicional de amplificar riesgos fundamentales, como la privacidad de datos, la denegación de servicios y la integridad del sistema».

Los riesgos

Los siguientes nuevos factores de riesgo trascienden la taxonomía tradicional de riesgos asociada a la IA, de acuerdo con McKinsey: Vulnerabilidades encadenadas, donde un defecto menor en un agente se traslada en cascada hacia otros amplificando el error, tal como sucede cuando un fallo en el procesamiento de datos crediticios deriva en aprobaciones financieras indebidas.

Esta estructura interdependiente también facilita la escalada de tareas y el riesgo de identidad sintética, escenarios donde actores maliciosos explotan la confianza del sistema o suplantan identidades digitales para obtener privilegios no autorizados; esto permite, por ejemplo, que un agente comprometido acceda a historiales médicos sensibles o reclamos de seguros burlando las barreras de seguridad convencionales.

Paralelamente, dice un análisis de McKinsey, «la autonomía operativa de estos sistemas genera puntos ciegos en la gestión de la información, propiciando una fuga de datos no rastreable cuando los agentes intercambian información sin la debida supervisión, exponiendo datos bancarios o personales que escapan a las auditorías». A este peligro silencioso se suma la propagación de corrupción de datos, un fenómeno donde la información de baja calidad —como un etiquetado erróneo en ensayos clínicos— fluye inadvertidamente entre los agentes, distorsionando análisis críticos y conduciendo a decisiones finales peligrosas, como la aprobación insegura de medicamentos o productos.

Asunto de confianza

Para la firma consultora McKinsey, la confianza no puede considerarse una característica opcional, sino el cimiento indispensable sobre el cual se construye la adopción de la inteligencia artificial, por lo que sugieren una estrategia integral que inicia mucho antes del despliegue tecnológico.

En esta fase preparatoria, recomiendan actualizar las políticas de Gestión de Identidad y Acceso (IAM) para reconocer formalmente a los agentes como «usuarios no humanos», al tiempo que se alinean los desarrollos con marcos regulatorios estrictos como la Ley de IA de la Unión Europea o el RGPD. Además, instan a las organizaciones a superar los enfoques genéricos diseñando una taxonomía de riesgos específica para estos agentes autónomos, diferenciándola claramente de la seguridad informática tradicional.

Durante la etapa crítica de diseño y control, el objetivo central es mitigar la aparición de la llamada «Shadow AI», evitando la proliferación de proyectos piloto sin supervisión mediante la creación de un inventario centralizado que garantice visibilidad total sobre los desarrollos. Para fortalecer esta gobernanza, McKinsey subraya la necesidad de capacitar a los equipos técnicos en ingeniería de seguridad de IA y modelado de amenazas, asegurando que los mecanismos de protección se integren desde la concepción del sistema y no como un parche posterior.

Finalmente, en la fase operativa de despliegue, la seguridad se centra en blindar las interacciones en tiempo real mediante protocolos «agente a agente» que aseguren comunicaciones autenticadas y registradas. La consultora hace hincapié en una trazabilidad profunda que no solo audite la acción final, sino que registre el «razonamiento» intermedio de la IA para entender sus decisiones.

Como última línea de defensa, proponen la implementación obligatoria de planes de contingencia con interruptores de apagado y entornos aislados o sandboxes, herramientas críticas para neutralizar de inmediato a cualquier agente que opere fuera de los parámetros de control establecidos.