OpenAI revela cómo se está usando ChatGPT para cometer estafas: conoce las más comunes

La empresa asegura que su chatbot es utilizado con mayor frecuencia para descubrir intentos de fraude, pese a las preocupaciones sobre su potencial para facilitar ciberataques y campañas de desinformación

Guardar
Esta plataforma cuenta con medidas
Esta plataforma cuenta con medidas que limitan varias acciones peligrosas. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

La popularidad de ChatGPT a nivel global ha crecido de gran forma, porque muchos usuarios recurren a esta herramienta para redactar correos, programar, crear imágenes, automatizar tareas, responder preguntas o corregir textos.

No obstante, un informe de OpenAI advierte que, más allá de estos usos legítimos, la plataforma ha sido empleada para impulsar campañas maliciosas, generar contenido sesgado y monitorizar conversaciones en redes sociales.

Desde febrero del año pasado, OpenAI ha interrumpido la actividad de 40 redes que infringieron los términos de uso de ChatGPT. Según la compañía dirigida por Sam Altman, estas redes, localizadas en países como China, Rusia, Corea y Camboya, utilizaron el chatbot para desplegar ciberataques, estafas y operaciones de influencia encubiertas.

OpenAI interrumpió 40 redes que
OpenAI interrumpió 40 redes que empleaban ChatGPT para ciberataques y campañas de desinformación en varios países. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Pese a que ChatGPT prohíbe la creación de este tipo de contenido, porque va en contra de sus políticas, el informe de OpenAI advierte que, si un usuario logra engañar al sistema, podría generar correos o anuncios con apariencia legítima.

De qué forma los ciberdelincuentes utilizan ChatGPT para cometer delitos

En el caso de Corea, los ciberdelincuentes desarrollaron malware y una infraestructura de comando y control mediante el uso de la inteligencia artificial. Por su parte, una red con operaciones en Camboya, Birmania y Nigeria intentó emplear el chatbot para ejecutar campañas fraudulentas dirigidas a engañar a personas.

También, el informe señala que en regímenes autoritarios se ha recurrido a ChatGPT para crear herramientas destinadas a la monitorización masiva de redes sociales.

En regímenes autoritarios ChatGPT se
En regímenes autoritarios ChatGPT se utilizó para monitorizar redes sociales y manipular la opinión pública. (Imagen Ilustrativa Infobae)

Además, los modelos de OpenAI han sido utilizados para generar contenido en plataformas como YouTube y TikTok, con el objetivo de difundir desinformación y manipular la opinión pública mediante información sesgada.

Los expertos en ciberseguridad insisten en que los peligros más relevantes asociados al uso inadecuado de ChatGPT son el phishing y el malvertising. El primero consiste en el envío de mensajes diseñados para engañar a los usuarios y obtener datos confidenciales, mientras que el segundo hace referencia a anuncios falsos que redirigen a sitios web maliciosos.

Cómo ChatGPT puede ayudar a identificar estafas

A pesar de estos riesgos, la propia OpenAI subraya que su chatbot se emplea con mayor frecuencia para identificar estafas que para cometerlas. La compañía estima que “ChatGPT se utiliza para identificar timos hasta tres veces más que para estafas”, según datos recogidos en su informe.

El phishing y el malvertising
El phishing y el malvertising son los principales riesgos asociados al uso de ChatGPT, por parte de ciberdelincuentes. (Imagen ilustrativa Infobae)

Al copiar textos dudosos en ChatGPT, los usuarios pueden recibir una evaluación sobre la autenticidad de correos, anuncios o comunicaciones que podrían esconder intentos de phishing, suplantación de identidad o propuestas fraudulentas.

El modelo puede destacar señales de alerta como errores de redacción, solicitudes inusuales de datos personales o enlaces a sitios no verificados. Esta capacidad facilita la identificación rápida de riesgos, sobre todo para personas sin conocimientos avanzados de ciberseguridad.

La inteligencia artificial permite automatizar la revisión de grandes volúmenes de mensajes en empresas. Al entrenar modelos como ChatGPT con casos de estafas conocidas, se fortalece la capacidad de filtrado y prevención, ayudando a los grupos de seguridad informática a identificar patrones poco habituales.

Qué precauciones se deben considerar al usar IA en la vida cotidiana

Se debe tener cuidado al
Se debe tener cuidado al momento de dar datos al sistema. (Imagen ilustrativa Infobae)

El uso de herramientas de inteligencia artificial demanda una evaluación crítica constante por parte de los usuarios. Aunque ChatGPT puede ayudar a detectar estafas digitales, su análisis no es infalible y puede cometer errores tanto en la identificación de amenazas como en la interpretación de mensajes legítimos.

Por esto, los expertos sugieren no tomar decisiones basadas únicamente en el resultado que ofrece el chatbot, sino contrastar la información con fuentes confiables y emplear software de ciberseguridad actualizado.

Asimismo, es importante no compartir datos personales sensibles, contraseñas o información financiera a través de sistemas automatizados, porque existe el riesgo de que estos datos sean interceptados o empleados por atacantes si la plataforma sufre vulneraciones.

El uso responsable de la tecnología, combinado con la educación digital, es clave para minimizar los riesgos asociados y potenciar los beneficios que la inteligencia artificial puede brindar en la detección de fraudes y la protección en línea.

Últimas Noticias

Cómo la realidad virtual y la inteligencia artificial pueden fortalecer la empatía en la infancia

Prototipos creados por equipos interdisciplinarios integran emociones en videojuegos y ajustan la experiencia en tiempo real. Por qué combinar conocimiento psicológico, diseño participativo y monitoreo afectivo promueve la inclusión, a la vez que plantea interrogantes éticos sobre el futuro de la formación humana

Cómo la realidad virtual y

CRESt, la plataforma de IA que optimiza experimentos y encuentra soluciones energéticas

Fue desarrollada en el Instituto Tecnológico de Massachusetts e integra datos científicos, observaciones visuales y sugerencias humanas para descubrir materiales innovadores

CRESt, la plataforma de IA

La millonaria apuesta familiar que convirtió a Amazon en un imperio digital: el secreto de Bezos

El primer impulso financiero de Jacklyn y Miguel Bezos fue clave para transformar el sueño de Jeff en la mayor empresa de comercio electrónico del mundo

La millonaria apuesta familiar que

Cómo la inteligencia artificial convierte la caña de azúcar en un componente que usamos todos los días

El compuesto ácido cítrico se encuentra en numerosos artículos de uso cotidiano, como bebidas, alimentos envasados, productos de limpieza y cosméticos

Cómo la inteligencia artificial convierte

Netflix estrena ‘Caramelo’ una película emotiva de los perritos inspirada en Brasil

El nuevo largometraje cuenta la historia de Pedro, un talentoso chef brasileño cuya vida cambia drásticamente tras recibir un complicado diagnóstico médico, pero que afronta este desafío acompañado siempre por su fiel perro mestizo

Netflix estrena ‘Caramelo’ una película