
OpenAI ha desglosado los casos de redes que han abusado de sus herramientas de inteligencia artificial, como ChatGPT, para impulsar campañas maliciosas, generar contenido con información sesgada o monitorizar las conversaciones en redes sociales.
La firma tecnológica ha interrumpido la actividad de 40 redes por violar los términos de uso de sus herramientas de inteligencia artificial desde febrero de 2024. Estas acciones siguen su visión de crear una IA que beneficie a todos y que ayude a resolver problemas realmente difíciles.
En un nuevo informe, que ha publicado este martes, OpenAI desglosa varios casos de uso por parte de actores maliciosos ubicado principalmente en Camboya, Corea, Rusia y China, que han abusado de sus herramientas para desplegar ciberataques, estafas y operaciones de influencia encubierta, entre otros.
Una de esas herramientas es ChatGPT. Una red de Coreana empleó este 'chatbot' para que le ayudara en el desarrollo de 'malware' y de una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó utilizar ChatGPT para engañara a personas en una campaña fraudulenta.
También se ha detectado su uso en regímenes autoritarios, como China, con el fin de desarrollar herramientas que habiliten la monitorización a gran escala en las redes sociales. Y el empleo de los modelos de OpenAI para generar contenido para YouTube y TikTok con el que difundir desinformación e información sesgada.
Este 'chatbot' también se ha empleado para buscar información que ayude a identificar correctamente las estafadas, lo que ha llevado a la compañía a estimar que "ChatGPT se utiliza para identificar estafas hasta tres veces más a menudo que para estafas".
Últimas Noticias
Trump propone expulsar a España de la OTAN por las discrepancias sobre el gasto en defensa

Netanyahu se reúne con los dos enviados de Trump antes del comienzo de la reunión para aprobar el plan de Gaza

Cari Lapique asegura, con una sonrisa, que sus nietos "son lo más importante"
