
La seguridad en inteligencia artificial se ha convertido en una de las principales preocupaciones para la sociedad. A medida que estas tecnologías se incorporan en sectores críticos y su alcance se amplía, el impacto de sus riesgos crece. De acuerdo con IBM, la seguridad en IA abarca prácticas y principios destinados a que los sistemas se diseñen y empleen para beneficiar a la humanidad y limitar posibles daños.
La disciplina persigue que el desarrollo de la IA esté alineado con los valores humanos y que se utilice de modo responsable, en un contexto marcado por el aumento de la inquietud pública y empresarial frente a estos riesgos.
Cifras recientes ilustran la magnitud del desafío. Una encuesta de 2023 citada por IBM revela que el 52% de los norteamericanos muestran más preocupación que entusiasmo por el avance de la IA, mientras que otra encuesta demostró que el 83% teme la posibilidad de un evento catastrófico accidental provocado por estas tecnologías.
Un informe de 2024 señala que el 44% de las organizaciones ha sufrido consecuencias negativas asociadas al uso de IA, como inexactitud o problemas de ciberseguridad. Pese a ello, únicamente el 3% de la investigación técnica se dedica en la actualidad a desarrollar una IA segura, según el Center for AI Safety y datos respaldados por IBM.
Principales riesgos identificados

Garantizar la seguridad de la IA implica identificar y gestionar varios riesgos con potencial para causar consecuencias indeseadas o facilitar usos maliciosos. Entre los más destacados señalados por IBM figuran el sesgo algorítmico, la privacidad de los datos, la pérdida de control sobre los sistemas, riesgos existenciales y amenazas a la ciberseguridad.
El sesgo algorítmico surge cuando los sistemas aprenden a partir de datos incompletos o sesgados. Esta situación puede dar lugar a decisiones injustas, como rechazar hipotecas de ciertos grupos o favorecer la contratación de hombres frente a mujeres. En materia de privacidad, la IA puede acceder o exponer datos personales de forma indebida, incrementando las dudas sobre la protección de información sensible y la responsabilidad de quienes desarrollan y emplean estas soluciones.
La pérdida de control, especialmente en sistemas avanzados con autonomía operativa, preocupa por la dificultad para intervenir o apagar estos sistemas ante comportamientos inesperados. IBM advierte que, sin supervisión humana, podrían tomarse decisiones impredecibles con consecuencias negativas. Los riesgos existenciales, vinculados al desarrollo de inteligencia artificial general o superinteligencia, aumentan la posibilidad de que estos sistemas desestabilicen estructuras globales o actúen sin alineación con valores humanos.
El uso malicioso de la IA agrega un nivel adicional de amenaza, ya que actores hostiles pueden emplear estas tecnologías en ciberataques, campañas de desinformación, actividades de vigilancia ilegal o incluso para causar daños físicos. En el campo de la ciberseguridad, los sistemas de IA presentan vulnerabilidades ante ataques adversarios, manipulación de datos de entrada o métodos como el “jailbreak” de IA. También pueden verse comprometidos por el “data poisoning”, donde los datos de entrenamiento alterados modifican el comportamiento de los sistemas.

Dos perspectivas sobre la seguridad
IBM distingue entre la seguridad en IA, centrada en resolver problemas para asegurar la alineación con valores humanos y minimizar impactos negativos, y la seguridad de IA, enfocada en proteger los sistemas ante amenazas externas. Esta segunda abarca la defensa contra ciberataques y fugas de datos, así como el uso de IA para reforzar la seguridad de organizaciones.
Prácticas y medidas recomendadas
Frente a estos desafíos, IBM recomienda varias acciones concretas. Destaca la detección y mitigación del sesgo algorítmico mediante recopilación de datos diversos y evaluaciones de equidad. Las pruebas de robustez, como test adversarios y de estrés, aseguran que los sistemas funcionen conforme a lo esperado. La IA explicable incrementa la transparencia de los modelos complejos, favoreciendo la interpretación de resultados y la confianza.
Establecer marcos éticos —transparencia, equidad, rendición de cuentas y privacidad— aporta una guía clara para el desarrollo responsable. La supervisión humana permanece como elemento central, permitiendo monitoreo y posibilidad de intervención en escenarios críticos.
La aplicación de protocolos de seguridad, como cifrado y control de accesos, refuerza la protección ante accesos indebidos y amenazas externas. Finalmente, la colaboración sectorial mediante consorcios, investigación e iniciativas de estandarización resulta fundamental para compartir conocimientos y definir mejores prácticas.

Gobernanza global y actores involucrados
La responsabilidad por la seguridad en inteligencia artificial involucra a diferentes actores. Desarrolladores e ingenieros deben diseñar, construir y testear sistemas con transparencia y alineados a los valores humanos. Grandes empresas tecnológicas como IBM, OpenAI, Google DeepMind, Microsoft y Anthropic invierten en equipos específicos de seguridad, promueven directrices éticas y cooperan en coaliciones sectoriales.
Los gobiernos y organismos internacionales, tales como la Organización de las Naciones Unidas, el Foro Económico Mundial y la Organización para la Cooperación y el Desarrollo Económicos (OCDE), lideran iniciativas regulatorias y de gobernanza, como el Artificial Intelligence Safety Institute (AISI) en Estados Unidos, el EU AI Act en la Unión Europea y el AI Safety Institute en Reino Unido, además de entidades similares en Singapur, Japón y Canadá.
Las organizaciones sin fines de lucro desempeñan un papel esencial. Instituciones como el Center for AI Safety (CAIS), el Center for Human-Compatible AI (CHAI), el Stanford Institute for Human-Centered Artificial Intelligence, el Machine Intelligence Research Institute (MIRI), el Partnership on AI, el Future of Life Institute y la Cloud Security Alliance impulsan la investigación, la promoción de la transparencia y el desarrollo de directrices éticas.
En este contexto, IBM enfatiza que reducir los riesgos existenciales asociados a la inteligencia artificial debe considerarse una prioridad global, comparable con el reto que representan las pandemias o la proliferación nuclear.
Últimas Noticias
WhatsApp tiene una nueva forma de proteger tus datos: copias de seguridad con clave de acceso
Usando huella dactilar, reconocimiento facial o código de desbloqueo será posible proteger esta información

¿Usas WhatsApp en tu trabajo? Así pueden robar tus archivos sin que te des cuenta
Los delincuentes emplean técnicas innovadoras para infiltrar equipos y extraer archivos enviados o recibidos por la aplicación, poniendo en peligro la seguridad de empresas y organismos públicos

El negocio de Apple que genera más ingresos que Tesla y Disney y que no es la venta de los iPhone
La empresa transforma cada dispositivo activo en una fuente recurrente de ingresos a través de suscripciones y servicios digitales
YouTube actualizará tus videos antiguos a 4k usando IA: un cambio muy favorable
La plataforma de Google aplicará inteligencia artificial para mejorar automáticamente los videos antiguos o en baja resolución

Trucos para que tomes las mejores fotos con el teléfono móvil durante la noche de Halloween
Ajusta ISO, utiliza el modo nocturno y edita con herramientas especializadas para capturar la atmósfera única del 31 de octubre, superando las limitaciones de la cámara en condiciones de poca luz de manera sencilla y eficaz

