Meta pone 14.000 millones en IA: compra a Scale AI y enfrenta críticas por sus métodos

La adquisición de casi la mitad de Scale AI por parte de la empresa de Mark Zuckerberg expone tensiones éticas y riesgos laborales en pleno auge de los modelos generativos

Guardar
Meta toma ventaja en la
Meta toma ventaja en la carrera por la IA con una operación de 14.000 millones de dólares - REUTERS/Francis Mascarenhas/Archivo

La última gran jugada de Meta en el sector de la inteligencia artificial ha reconfigurado el mapa competitivo de Silicon Valley. La compañía dirigida por Mark Zuckerberg confirmó una inversión de 14.000 millones de dólares para adquirir el 49% de Scale AI, una startup especializada en anotación de datos que se ha posicionado como uno de los engranajes clave para el entrenamiento de modelos generativos.

La operación, considerada la segunda más ambiciosa del fundador de Facebook tras la compra de WhatsApp, busca robustecer el desarrollo de Llama, el sistema de inteligencia artificial de código abierto de Meta.

La inversión más arriesgada de
La inversión más arriesgada de Zuckerberg pone en jaque la credibilidad de Meta - REUTERS/Manuel Orbegozo/File Photo

Polémica por el nuevo movimiento de Zuckerberg

Pero el entusiasmo inicial quedó rápidamente eclipsado por una investigación publicada por ‘Inc.’, que expone prácticas laborales opacas y deficiencias en la calidad de los datos procesados por Scale AI.

El reportaje se basa en 83 páginas de documentos internos filtrados y pone en duda la fiabilidad del trabajo de la empresa, así como su alineación con los principios de una IA responsable. Las revelaciones han encendido las alarmas en el sector, justo en un momento en que Meta intenta posicionarse como el principal rival de OpenAI.

Uno de los movimientos estratégicos clave fue la incorporación de Alexandr Wang, fundador de Scale AI, como nuevo responsable de la división de superinteligencia de Meta. El fichaje apuntaba a acelerar el desarrollo de modelos avanzados con una ventaja comparativa: el acceso a millones de datos etiquetados que podrían alimentar y perfeccionar las respuestas de Llama.

Acusaciones de explotación laboral y uso irregular de IA generativa

Una investigación reveló fallos estructurales
Una investigación reveló fallos estructurales en el funcionamiento de Scale AI, la startup elegida por la compañía para impulsar sus sistemas abiertos de inteligencia artificial - (Imagen ilustrativa Infobae)

Sin embargo, el modelo de trabajo descrito en la investigación muestra una realidad muy distinta a la proyectada por el discurso oficial.

Según la información revelada, Scale AI se apoyaba principalmente en Remotasks, una plataforma que reclutaba trabajadores en línea (conocidos como “taskers”) para ejecutar tareas de revisión de texto, imágenes y código.

Esta fuerza laboral superaba las 240.000 personas distribuidas en más de 90 países, muchas de ellas con condiciones precarias. Las acusaciones señalan jornadas de hasta 18 horas, uso masivo de ChatGPT para completar las tareas de revisión, y recurrencia al uso de cuentas robadas y VPNs para eludir prohibiciones tras reportes de mala calidad o incumplimientos contractuales.

En un sector que exige rigurosidad y transparencia en la generación de datos para evitar sesgos, errores o alucinaciones de los modelos de IA, las prácticas expuestas son especialmente preocupantes.

De hecho, la investigación sostiene que varios de los fallos observados en Gemini, el chatbot de Google, tendrían su origen en los datos procesados por Scale AI. Aunque no se establece una conexión directa, sí se describe una estructura frágil, donde la validación de los datos depende en gran medida de contratistas anónimos y mal supervisados.

Las denuncias contra Scale AI
Las denuncias contra Scale AI por uso de mano de obra precaria, automatización indebida y falta de control reavivan la discusión sobre los límites de la inteligencia artificial en la industria tecnológica - (Imagen ilustrativa de Infobae)

La respuesta de Scale AI

Desde Scale AI respondieron asegurando que la publicación contiene “numerosas inexactitudes” y defendieron la existencia de “salvaguardias sólidas” para filtrar datos de baja calidad antes de que llegaran al cliente final.

No obstante, no se ha hecho pública ninguna auditoría independiente que respalde esa versión. Además, poco después del anuncio de la entrada de Meta como accionista, Google habría cancelado un contrato anual de 200 millones de dólares con Scale AI, un movimiento interpretado por analistas como una señal de ruptura y desconfianza.

La apuesta de Meta por la inteligencia artificial ha sido progresiva pero contundente. En 2024, la empresa decidió abrir el código de Llama y competir en el segmento de los modelos fundacionales, un espacio hasta ahora dominado por OpenAI, Google y Anthropic.

La entrada de Scale AI en su ecosistema buscaba ofrecer una ventaja estructural en la calidad y cantidad de datos, pero las revelaciones recientes ponen en entredicho la solidez de esa alianza.

A medida que las grandes tecnológicas se disputan la supremacía en el desarrollo de sistemas generativos, la ética y las condiciones laborales de quienes sostienen la base del entrenamiento de estos modelos emergen como un punto crítico.