
El potencial de la inteligencia artificial no deja de expandirse. Lo que antes se presentaba como una herramienta para automatizar tareas, generar texto o crear imágenes artísticas, ahora empieza a mostrar una faceta mucho más inquietante.
Investigadores en ciberseguridad han advertido que, mediante el uso de comandos cuidadosamente diseñados, conocidos como prompts, es posible inducir a ciertos modelos de lenguaje a producir resultados con implicaciones peligrosas, como la creación de malware o el robo de contraseñas.
Los modelos de IA pueden generar malware con simples comandos

El informe CTRL 2025 de Cato Networks, una de las alertas más recientes en esta materia, refleja el grado de preocupación que se extiende entre expertos del sector tecnológico. La posibilidad de explotar los sistemas de inteligencia artificial a través de ingeniería de prompts ya no es hipotética. Lo que comenzó como una curiosidad técnica, se ha convertido en una amenaza real.
Algunos modelos, entre ellos ChatGPT, DeepSeek o Claude, fueron puestos a prueba por especialistas en seguridad digital sin necesidad de recurrir a foros clandestinos, herramientas avanzadas ni conocimientos profundos en programación.
El resultado fue preocupante, lograron que las inteligencias artificiales generaran instrucciones completas para el desarrollo de virus informáticos, simplemente utilizando estructuras narrativas cuidadosamente redactadas.
Este hallazgo ha encendido las alarmas, no solo por lo que representa hoy, sino por lo que podría significar en los próximos años si no se refuerzan las barreras de control.

La advertencia de expertos en ciberseguridad sobre el uso malicioso de la IA
Etay Maor, estratega jefe de seguridad de Cato Networks, expresó su inquietud durante una entrevista. “Convencimos a las IA de que vivimos en un mundo donde crear virus y malware es, en realidad, algo bueno”, señaló, al describir el método utilizado para lograr que los modelos evadieran sus propios filtros internos.
Esta técnica de manipulación, que aprovecha la lógica conversacional de los asistentes virtuales, demuestra que incluso sistemas supuestamente seguros pueden ser vulnerables a un tipo de ataque que no se basa en romper barreras técnicas, sino narrativas.
La situación actual supera otros riesgos conocidos de la inteligencia artificial, como los deepfakes o las facturas falsas, que si bien representan fraudes preocupantes, no alcanzan el grado de sofisticación ni el nivel de automatización que se puede lograr con este nuevo tipo de amenazas.
Aquí no se trata de replicar una cara o una firma, sino de construir desde cero programas capaces de robar datos, acceder a sistemas o manipular información, sin que el creador necesite escribir una sola línea de código.

Por qué la inteligencia artificial puede facilitar ataques sin saber programar
Una de las razones por las cuales este escenario es especialmente alarmante es que las herramientas utilizadas están disponibles de forma pública. Son accesibles para cualquier usuario que tenga conexión a internet y una idea clara de lo que quiere lograr.
La barrera de entrada para la ciberdelincuencia se reduce drásticamente, abriendo un camino para que individuos sin formación técnica puedan, con el prompt adecuado, generar software malicioso en cuestión de minutos.
Según el informe de Cato Networks, este tipo de ataques basados en inteligencia artificial se van a volver más comunes.

De hecho, se anticipa una evolución hacia modelos específicamente diseñados para recopilar contraseñas u otro tipo de información sensible, sin que necesariamente se trate de herramientas creadas con ese propósito original. Esto obliga a repensar las prácticas de seguridad digital en todos los niveles.
Cómo protegerse de las estafas con IA
Como medida preventiva, los expertos recomiendan aplicar técnicas básicas pero efectivas: evitar almacenar contraseñas en lugares accesibles, borrar cookies con frecuencia y utilizar gestores de claves que generen credenciales robustas.
Además, se espera un aumento en los ataques de phishing, ya que la IA facilita la creación de páginas falsas, correos apócrifos y documentos digitales que imitan de manera casi perfecta a entidades legítimas.
La inteligencia artificial, lejos de limitarse a asistir en tareas cotidianas, se convierte en una herramienta con un doble filo evidente. Y si no se actúa a tiempo, ese filo podría volverse cada vez más difícil de controlar.
Últimas Noticias
Glosario de tecnología: qué significa Software beta
La tecnología se volvió en un elemento básico de la vida, por lo que es necesario conocer más sobre ella

Qué significa recibir en WhatsApp el número 9080 y cómo responder
Este código suele utilizarse entre parejas, ya que tiene una connotación muy romántica

Cómo descubrir en segundos cuál es la aplicación móvil que más consume batería del celular
Las redes sociales suelen gastar mucho más la batería en comparación a otras plataformas que no requieren ejecutar funciones como la cámara, el micrófono o los datos móviles

Cómo usar Roku en un TV Hyundai con comandos de voz para ver películas y series
Otra de las funciones permite escuchar el sonido del televisor a través de auriculares conectados al celular

Cómo agrupar tus stickers favoritos de WhatsApp en carpetas
Esta herramienta está disponible para usuarios de Android y iPhone, y es ideal para ahorrar tiempo
