Abogado advierte sobre el peligro de Meta AI en WhatsApp: “todo lo que digas puede ser analizado”

Evitar compartir información personal y eliminar el chat son medidas recomendadas para proteger la privacidad

Guardar
El abogado Eduard Blasi advierte
El abogado Eduard Blasi advierte sobre los riesgos de interactuar con el chatbot de Meta en WhatsApp. (Meta)
WhatsApp introdujo en marzo de este año Meta AI, un chatbot con el que es posible interactuar para realizar solicitudes como lo hacemos con ChatGPT o Gemini. La polémica surge sobre qué tanto acceso tiene esta inteligencia artificial a nuestras conversaciones y si se alimenta de ellas para nutrir sus conocimientos.

Un abogado, especialista en derecho digital, ha hecho una advertencia sobre esta situación, generando interrogantes acerca de la privacidad, el uso de datos personales y el control que tienen los usuarios sobre su información.

Cuál es la advertencia del abogado sobre Meta AI

Eduard Blasi, especialista en derecho digital del despacho TechandLaw, advirtió sobre el funcionamiento de Meta AI al medio El Español. “Todo lo que digas puede ser analizado y utilizado por Meta”, dijo.

Esta afirmación se basa en el anuncio oficial de la compañía de Mark Zuckerberg, que admite que toda la información que los usuarios compartan con la IA podrá formar parte del entrenamiento de sus algoritmos.

Meta AI puede analizar y
Meta AI puede analizar y utilizar la información compartida por los usuarios para entrenar sus algoritmos. (META)

En concreto, Blasi subraya el carácter engañoso del llamado “botón azul” de WhatsApp, que aparece al acceder a la aplicación como una opción destacada para “preguntar a Meta AI o buscar”.

Advierte que, a pesar de parecer una función inofensiva, su uso involucra una cesión de información que escapa al control de los usuarios. “No hay que tocar el botón azul de WhatsApp porque no es un botón cualquiera”, aseguró.

La IA de Meta, que opera de manera similar a populares sistemas como ChatGPT, puede recibir consultas sobre una amplia gama de temas, desde asuntos legales hasta búsquedas inmobiliarias, y almacenar esos datos como insumos para crear modelos de lenguaje generativo cada vez más robustos.

Uno de los puntos que Blasi resalta como especialmente problemáticos es que el chatbot se introdujo en WhatsApp sin una comunicación clara y sin la posibilidad de desactivarlo.

El botón azul de WhatsApp
El botón azul de WhatsApp activa Meta AI y puede implicar la cesión de datos sin control del usuario. (Imagen ilustrativa)

Según su análisis, “el problema es que no podemos desactivarlo y que no sabemos exactamente qué pasa cuando se activa”. El abogado refiere también la inquietud por los usuarios que, de manera involuntaria, activaron la IA en el transcurso de conversaciones privadas, sin ser conscientes de que estaban compartiendo información con el sistema de Meta.

La empresa responsable de WhatsApp explicó que Meta AI no tiene acceso al conjunto de los chats privados, sino únicamente a las conversaciones donde los usuarios interactúan deliberadamente con el asistente. Desde Meta insisten en que la inteligencia artificial almacena y procesa solo aquellos mensajes compartidos al activar la función.

Sin embargo, Blasi señala que el nivel de transparencia corporativa sigue representando un desafío: la empresa no facilita un desglose detallado sobre el uso específico de los datos recolectados ni posibilita a los usuarios comprobar qué información se integra en los entrenamientos de la IA.

Meta asegura que solo procesa
Meta asegura que solo procesa mensajes enviados al asistente, pero persisten dudas sobre la transparencia. (WhatsApp)

Opciones para reducir la visibilidad e interacción con Meta AI

A pesar de que la inteligencia artificial de Meta no puede eliminarse completamente de WhatsApp, existen formas de limitar su presencia. Estos son algunos consejos prácticos para quienes desean distanciarse del asistente:

  • Eliminar la conversación con Meta AI: es posible borrar el chat individual con el asistente manteniendo pulsado el chat y seleccionando la opción correspondiente. En iPhone, basta con deslizar hacia la izquierda el chat y pulsar eliminar o archivar. Este método no suprime la función del sistema, pero sí retira el chat de la vista principal.
  • Evitar la interacción: la única manera realmente eficaz de proteger la privacidad es abstenerse de usar Meta AI, tanto desde la barra de búsqueda, el botón azul o los chats grupales donde haya sido invitado como participante.
  • Administradores de grupos: en los grupos donde Meta AI se agregó como miembro, solo los administradores tienen la facultad de expulsarla de la conversación colectiva, con lo que se limita su intervención en las dinámicas grupales.
  • Limitar consultas voluntariamente: dado que Meta utiliza los datos de las interacciones con la IA para entrenamiento de modelos como LLaMA, es recomendable evitar, en la medida de lo posible, compartir información personal, privada o sensible a través de este canal.