
El avance de la inteligencia artificial está transformando el panorama de la ciberseguridad, generando aún oportunidades inéditas como desafíos complejos para organizaciones (grandes o pequeñas). La proliferación de agentes de IA (programas autónomos capaces de ejecutar tareas y tomar decisiones) plantea un dilema fundamental: ¿serán aliados confiables o fuentes de nuevas vulnerabilidades? Esta dualidad, inspirada en los personajes Data y Lore de la saga Star Trek, ilustra la tensión entre el potencial constructivo y el riesgo inherente de estas tecnologías, según Charlie Bell, vicepresidente ejecutivo de Seguridad de Microsoft.
La magnitud del fenómeno es considerable. De acuerdo con un estudio de IDC citado por Bell, se prevé que para 2028 existirán mil trescientos millones de agentes de IA en circulación. Este crecimiento acelerado obliga a los líderes empresariales a repensar sus estrategias de protección, adaptando principios clásicos de seguridad a un entorno donde los agentes pueden operar de manera autónoma y dinámica, superando en complejidad a los sistemas tradicionales.
Bell dijo que la seguridad en la era de la IA trasciende el ámbito tecnológico y se convierte en una prioridad de la alta dirección.

Los agentes de IA, al ser más adaptativos y autónomos que el software convencional, introducen riesgos singulares. Entre ellos destaca el denominado “Confused Deputy”, en el que agentes con privilegios amplios pueden ser manipulados por actores maliciosos para realizar acciones no autorizadas, como la filtración de datos sensibles mediante procesos automatizados. Esta amenaza se agrava con la aparición de “agentes en la sombra”, es decir, aquellos no aprobados o sin supervisión, que incrementan los puntos ciegos y elevan el riesgo de incidentes.
Agentes IA y el lenguaje humano
La interacción de los agentes de IA con el lenguaje natural añade una capa adicional de complejidad. Los modelos generativos que los sustentan analizan de forma dinámica grandes volúmenes de datos en múltiples idiomas, lo que dificulta distinguir entre operaciones seguras y comandos introducidos de manera maliciosa.
Bell advirtió que, como ocurrió con la tendencia “Bring Your Own Device” (BYOD), cualquier elemento que no pueda ser inventariado y controlado amplifica la exposición a amenazas. Una advertencia muy clave para este panorama.
A pesar de la novedad de los agentes de IA como impulsores de productividad, Bell explicó que es posible gestionarlos eficazmente mediante principios de seguridad ya consolidados.

Mustafa Suleyman, cofundador de DeepMind y actual director ejecutivo de Microsoft AI, junto a Bell, destacaron dos conceptos esenciales: Contención y Alineación. La contención implica limitar estrictamente los privilegios de cada agente, asegurando que no excedan su función y propósito, y monitorizando todas sus acciones y comunicaciones. Si no es posible supervisar a un agente, este no debe operar en el entorno organizacional.
La alineación, por su parte, consiste en garantizar que el agente de IA cumpla únicamente con los objetivos para los que fue diseñado, resistiendo intentos de desviación mediante protecciones integradas tanto en el modelo como en los comandos que lo activan. Bell advirtió la necesidad de que cada agente cuente con una identidad clara y un responsable dentro de la organización, como parte de una gobernanza robusta de la IA.
Estos principios corresponden con el enfoque de Zero Trust, que exige verificar explícitamente la identidad de humanos, dispositivos y agentes antes de conceder acceso, y restringir dicho acceso a lo estrictamente necesario. Bell afirmó que, aunque el Zero Trust para agentes de IA incorpora capacidades de seguridad más profundas, los conceptos de contención y alineación ofrecen un marco útil para las discusiones estratégicas sobre gestión de riesgos en inteligencia artificial.

Por qué la cultura organizacional es importante en la seguridad del uso de IA
La tecnología, por sí sola, no basta para resolver los desafíos de seguridad que plantea la IA. Bell dijo que la cultura organizacional es el verdadero motor para gestionar el riesgo cibernético. Recomienda fomentar el diálogo abierto sobre los riesgos y el uso responsable de la IA, involucrar a áreas como legal, cumplimiento y recursos humanos en la toma de decisiones, invertir en formación continua sobre fundamentos de seguridad en IA y establecer espacios seguros para la experimentación controlada.
Las organizaciones que logren integrar la IA como un colaborador, y no como una amenaza, construirán confianza a través de la comunicación, el aprendizaje y la mejora constante. Además, la irrupción de la IA no representa una simple evolución, sino un cambio de paradigma que exige una seguridad ambiental: una combinación de medidas técnicas sólidas, educación permanente y liderazgo claro, de modo que la conciencia de seguridad impregne todas las decisiones.
La gobernanza de IA, el futuro de la ciberseguridad
En este contexto, instó a las empresas a revisar de inmediato sus marcos de gobernanza de IA, exigiendo claridad, responsabilidad y mejora continua. “El futuro de la ciberseguridad es humano más máquina: lidere con propósito y convierta a la IA en su aliado más fuerte”, afirmó Bell.

Qué es Microsoft Entra Agent ID
Microsoft ha asumido un papel activo en este proceso. En mayo de 2025, la compañía presentó Microsoft Entra Agent ID, una solución que permite asignar identidades únicas a los agentes desde su creación en plataformas como Microsoft Copilot Studio y Azure AI Foundry. Además, la integración de IA en herramientas como Defender y Security Copilot, junto con el análisis de grandes volúmenes de señales de seguridad, permite detectar y neutralizar campañas de phishing y otros ataques dirigidos a comprometer agentes de IA.
Bell anticipó que en el evento Microsoft Ignite (en noviembre del año 2025 en California) se presentarán nuevas innovaciones en colaboración con clientes y socios. “Puede que aún no conversemos con Data en el puente de la USS Enterprise, pero como tecnólogo, nunca ha sido tan emocionante observar esta etapa de la IA en nuestros lugares de trabajo y en la vida cotidiana”.
Para los líderes, comprender las oportunidades y riesgos fundamentales es clave para construir un entorno más seguro donde humanos y agentes colaboren eficazmente.
Últimas Noticias
Esta canción de Las Guerreras K-Pop se mantiene en el top 10 mundial de las más ‘shazameadas’
La canción ha sido tan reproducida que muchos de los que no están familiarizados con la película se animan a averiguar su origen

Gemini ahora permite conectar Google Drive y Gmail a Deep Research
Este avance se suma a la integración previa vista en NotebookLM, donde los archivos de la nube ya podían usarse como fuente para apuntes y cuadernos impulsados por IA
Glosario de tecnología: qué significa Boot sector
La tecnología es algo que puede parecer complicada pero en realidad es más simple si se le dedican unos minutos para aprender sobre ella

WhatsApp en Apple Watch: mensajes de voz, reacciones a mensajes y más funciones
Antes de este lanzamiento, en lo que respecta a WhatsApp, el reloj inteligente solo permitía gestionar notificaciones

Qué significa desviar la mirada al hablar, según la IA
Según el motor conversacional de OpenAI, en muchos casos este gesto “puede ser un signo de timidez, inseguridad o nerviosismo”




