Estas preguntas a la IA han provocado arrestos en Florida: esto es lo que no debes escribirles

Los expertos han recomendado no hacer búsquedas sospechosas debido a que las plataformas son frecuentemente monitoreadas por las autoridades

Guardar
Las autoridades de Florida advierten
Las autoridades de Florida advierten sobre el uso de IA para prácticas delictivas. (Imagen Ilustrativa Infobae)

Varios adolescentes en Florida han sido objeto de investigaciones policiales e incluso arrestos tras realizar búsquedas en ChatGPT relacionadas con actividades delictivas, una situación que ha encendido el debate sobre los riesgos legales y éticos del uso de la inteligencia artificial por menores de edad. Las autoridades han respondido con firmeza ante estos incidentes, mientras expertos advierten sobre la necesidad de comprender los límites y responsabilidades que implica interactuar con plataformas de IA.

Incidentes que han preocupado a las autoridades

Entre los casos recientes que han captado la atención pública se encuentra el de un joven de 17 años en el condado de Marion, arrestado en octubre tras fingir su propio secuestro y dispararse a sí mismo para simular una agresión, lo que provocó la activación de una Alerta Amber. De acuerdo con la Oficina del Sheriff de Marion, en el ordenador portátil del adolescente se hallaron búsquedas en ChatGPT sobre cárteles mexicanos y métodos para extraer sangre sin causar dolor.

En un incidente separado, la Oficina del Sheriff de Volusia detuvo a un estudiante de 13 años en Deland, cerca de Orlando y Daytona Beach, después de que escribiera en ChatGPT la frase “cómo matar a mi amigo en medio de clase”. La alerta fue generada por Gaggle, una plataforma de seguridad escolar que monitorea cuentas institucionales y notifica sobre contenidos preocupantes. Tras ser interrogado, el menor explicó que solo pretendía “trollear” a un compañero que lo molestaba.

El fácil acceso de la
El fácil acceso de la inteligencia artificial para los jóvenes puede representar un problema si no se usa bajo supervisión de un adulto. (AP Foto/Kiichiro Sato)

Advertencias para los padres de familia y tutores

Ante estos hechos, la policía instó a los padres a dialogar con sus hijos para evitar que repitan este tipo de conductas. La reacción de las autoridades ha sido inmediata, con llamados a la prevención y a la supervisión parental. “Padres, por favor hablen con sus hijos para que no cometan el mismo error”, solicitó la Oficina del Sheriff de Volusia. Las fuerzas del orden han subrayado que, aunque la actividad en internet que deriva en investigaciones criminales no es un fenómeno nuevo, la irrupción de las herramientas de inteligencia artificial introduce desafíos inéditos en la gestión de la seguridad escolar y en la protección de menores.

Recomendaciones de los especialistas

Expertos en derecho y tecnología han aportado su perspectiva sobre los riesgos legales asociados a estas búsquedas. Tamara Lave, profesora de derecho en la Universidad de Miami, explicó a People que buscar información, en sí mismo, no constituye un delito, salvo en casos específicos como la consulta o distribución de material de abuso sexual infantil. “Creo que parte de lo que ocurre es que la gente está preocupada por la ubicuidad de ChatGPT y el hecho de que ahora se puede acceder a información que antes no era tan fácil de obtener”, señaló Lave.

Catherine Crump, profesora clínica en la Facultad de Derecho de Berkeley y especialista en inteligencia artificial, advirtió sobre la ingenuidad de utilizar ChatGPT o Google para planear delitos o causar daño. “No es inteligente buscar en Google o usar ChatGPT para averiguar cómo cometer un delito”, afirmó Crump. La experta subrayó que ChatGPT puede resultar engañoso porque está diseñado para ser complaciente y generar la sensación de una conversación privada, lo que puede llevar a los usuarios, especialmente a los más jóvenes, a bajar la guardia.

OpenAI y otras empresas de
OpenAI y otras empresas de IA han implementado restricciones para evitar el mal uso de sus plataformas. (REUTERS/Dado Ruvic/Illustration/File Photo)

Acciones de seguridad implementadas por las empresas

En cuanto a las medidas de seguridad, las empresas tecnológicas han implementado filtros y restricciones para impedir que los usuarios obtengan información sobre actividades peligrosas, como la fabricación de explosivos o la comisión de delitos graves. Sin embargo, estos sistemas no son infalibles. Crump enfatizó que existe una cuota de responsabilidad individual: “Las personas deben ser conscientes de lo que es un chat de IA. Es una máquina de asociación de palabras”.