
El potencial de la inteligencia artificial no deja de expandirse. Lo que antes se presentaba como una herramienta para automatizar tareas, generar texto o crear imágenes artísticas, ahora empieza a mostrar una faceta mucho más inquietante.
Investigadores en ciberseguridad han advertido que, mediante el uso de comandos cuidadosamente diseñados, conocidos como prompts, es posible inducir a ciertos modelos de lenguaje a producir resultados con implicaciones peligrosas, como la creación de malware o el robo de contraseñas.
Los modelos de IA pueden generar malware con simples comandos

El informe CTRL 2025 de Cato Networks, una de las alertas más recientes en esta materia, refleja el grado de preocupación que se extiende entre expertos del sector tecnológico. La posibilidad de explotar los sistemas de inteligencia artificial a través de ingeniería de prompts ya no es hipotética. Lo que comenzó como una curiosidad técnica, se ha convertido en una amenaza real.
Algunos modelos, entre ellos ChatGPT, DeepSeek o Claude, fueron puestos a prueba por especialistas en seguridad digital sin necesidad de recurrir a foros clandestinos, herramientas avanzadas ni conocimientos profundos en programación.
El resultado fue preocupante, lograron que las inteligencias artificiales generaran instrucciones completas para el desarrollo de virus informáticos, simplemente utilizando estructuras narrativas cuidadosamente redactadas.
Este hallazgo ha encendido las alarmas, no solo por lo que representa hoy, sino por lo que podría significar en los próximos años si no se refuerzan las barreras de control.

La advertencia de expertos en ciberseguridad sobre el uso malicioso de la IA
Etay Maor, estratega jefe de seguridad de Cato Networks, expresó su inquietud durante una entrevista. “Convencimos a las IA de que vivimos en un mundo donde crear virus y malware es, en realidad, algo bueno”, señaló, al describir el método utilizado para lograr que los modelos evadieran sus propios filtros internos.
Esta técnica de manipulación, que aprovecha la lógica conversacional de los asistentes virtuales, demuestra que incluso sistemas supuestamente seguros pueden ser vulnerables a un tipo de ataque que no se basa en romper barreras técnicas, sino narrativas.
La situación actual supera otros riesgos conocidos de la inteligencia artificial, como los deepfakes o las facturas falsas, que si bien representan fraudes preocupantes, no alcanzan el grado de sofisticación ni el nivel de automatización que se puede lograr con este nuevo tipo de amenazas.
Aquí no se trata de replicar una cara o una firma, sino de construir desde cero programas capaces de robar datos, acceder a sistemas o manipular información, sin que el creador necesite escribir una sola línea de código.

Por qué la inteligencia artificial puede facilitar ataques sin saber programar
Una de las razones por las cuales este escenario es especialmente alarmante es que las herramientas utilizadas están disponibles de forma pública. Son accesibles para cualquier usuario que tenga conexión a internet y una idea clara de lo que quiere lograr.
La barrera de entrada para la ciberdelincuencia se reduce drásticamente, abriendo un camino para que individuos sin formación técnica puedan, con el prompt adecuado, generar software malicioso en cuestión de minutos.
Según el informe de Cato Networks, este tipo de ataques basados en inteligencia artificial se van a volver más comunes.

De hecho, se anticipa una evolución hacia modelos específicamente diseñados para recopilar contraseñas u otro tipo de información sensible, sin que necesariamente se trate de herramientas creadas con ese propósito original. Esto obliga a repensar las prácticas de seguridad digital en todos los niveles.
Cómo protegerse de las estafas con IA
Como medida preventiva, los expertos recomiendan aplicar técnicas básicas pero efectivas: evitar almacenar contraseñas en lugares accesibles, borrar cookies con frecuencia y utilizar gestores de claves que generen credenciales robustas.
Además, se espera un aumento en los ataques de phishing, ya que la IA facilita la creación de páginas falsas, correos apócrifos y documentos digitales que imitan de manera casi perfecta a entidades legítimas.
La inteligencia artificial, lejos de limitarse a asistir en tareas cotidianas, se convierte en una herramienta con un doble filo evidente. Y si no se actúa a tiempo, ese filo podría volverse cada vez más difícil de controlar.
Últimas Noticias
El precio de la criptomoneda ethereum este 28 de septiembre
Ethereum fue lanzada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas

Bitcoin: cuál es la cotización de esta criptomoneda
El bitcoin ha sentado las bases para el surgimiento de muchas de las monedas virtuales existentes en el mercado y ha marcado un momento crucial para las soluciones de pago digital

Tether: cómo se ha movido en el mercado este día
Esta moneda digital se ha convertido en la tercera más usada a nivel mundial detrás de bitcoin y ethereum

Glosario de tecnología: qué significa Impresión 3D
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual

Por qué los gigantes de la IA ahora se enfocan en captar usuarios de India
El país asiático atrae a gigantes tecnológicos con estrategias innovadoras y una población joven que impulsa la adopción de nuevas herramientas
