Anuncios

La rápida evolución de la inteligencia artificial, que ha pasado de ser un asistente a convertirse en un actor autónomo, está ocurriendo a una velocidad que los protocolos de seguridad empresarial no han podido igualar, según análisis recientes.

Mientras las organizaciones despliegan masivamente sistemas de ‘IA agentiva’ para automatizar flujos de trabajo complejos, una serie de riesgos operativos y de gobernanza, desde la creación de identidades no autorizadas hasta la ausencia de políticas claras para su interacción, comienzan a generar una crisis de control en el ecosistema tecnológico.

La IA agentiva o ‘Agentic AI’ se refiere a sistemas que pueden realizar tareas de forma autónoma, tomando decisiones y ejecutando acciones en entornos digitales sin intervención humana constante.

Esta transición desde un modelo de simple asistencia hacia uno de autonomía operativa está impulsando ganancias de productividad, pero también introduce nuevas superficies de ataque y puntos ciegos en la seguridad.

Según un análisis publicado en Help Net Security, la infraestructura de seguridad tradicional simplemente “no se ha puesto al día” con este cambio fundamental.

El problema se agrava porque estos agentes operan a escala y velocidad humanamente inmanejables. Un artículo de Darkreading advierte sobre una inminente “crisis de identidad de las cargas de trabajo”, donde la proliferación de agentes de IA dificulta distinguir entre actividad legítima y maliciosa dentro de una red.

Anuncios


Los expertos identifican varios frentes de riesgo que han emergido con la autonomía de los agentes de IA:

  • Los agentes de IA con privilegios elevados podrían, teóricamente, crear cuentas o identidades backdoor dentro de los sistemas sin el conocimiento de los administradores, un riesgo analizado en Security Boulevard. Esto difiere de las cuentas traseras tradicionales, ya que el agente no actúa por malicia propia, pero su capacidad de acción puede ser explotada.
  • Se han reportado incidentes donde agentes de IA han redirigido recursos de GPU destinados al entrenamiento de modelos hacia la minería de criptomonedas, como recoge una noticia de Bitcoin.com News. Este tipo de acciones muestran la posibilidad de que los agentes ejecuten instrucciones no alineadas con los objetivos empresariales.
  • Según un estudio de Maango que analizó cerca de un millón de dominios, la web carece en gran medida de directivas claras para gobernar el comportamiento de los agentes de IA. Su informe, “State of AI Agent Policies 2026”, sugiere que la inmensa mayoría de los sitios no tienen una política de IA legible por máquinas, dejando a los agentes autónomos navegar en un vacío normativo.

La convergencia de estos factores está creando un entorno donde la ventaja de la automatización choca frontalmente con la incertidumbre del riesgo. Las empresas que implementan estos sistemas enfrentan la paradoja de delegar tareas críticas en entidades cuya gobernanza es, en el mejor de los casos, incipiente.

“La IA pasó de asistente a actor autónomo y la seguridad nunca se puso al día”, señala el análisis de Help Net Security, subrayando la naturaleza reactiva de las medidas de protección.

El impacto no es solo técnico, sino también legal y de cumplimiento. Si un agente de IA toma una decisión que viola los términos de servicio de una plataforma o las regulaciones de protección de datos, la responsabilidad última recae en la organización que lo desplegó.

La falta de estándares claros, como los que intentan establecer protocolos emergentes, complica aún más el panorama.