Elon Musk ofrece gratis la herramienta de generación de video de Grok, su inteligencia artificial

El empresario también afirmó que la función de generación de video de Grok mejorará rápidamente en las próximas semanas. Este anuncio se produce en medio de la polémica por el uso de la herramienta para crear deepfakes de celebridades

Guardar
Este anuncio se da en
Este anuncio se da en medio de la controversia por el uso de la herramienta para generar deepfakes de figuras públicas. REUTERS/Dado Ruvic/Illustration

Elon Musk anunció a través de X (antes Twitter) que, durante los próximos días, los usuarios en Estados Unidos podrán acceder de forma gratuita a la herramienta de generación de video de Grok, su inteligencia artificial.

Ante la sugerencia de un usuario que pidió ampliar el acceso a nivel mundial, Musk respondió: “usa una VPN”. Además, afirmó que la generación de video de Grok mejorará rápidamente en las próximas semanas y meses.

Este anuncio llega en medio de la polémica por el uso de la herramienta para crear deepfakes de celebridades, lo que ha generado preocupación por temas de privacidad. Hasta el momento, Elon Musk no se ha pronunciado al respecto.

Los usuarios en Estados Unidos
Los usuarios en Estados Unidos ahora pueden acceder a esta función de forma gratuita. (X: elonmusk)

Qué se puede hacer con esta función de Grok

La nueva función de Grok permite generar videos a partir de texto, similar a otras herramientas de inteligencia artificial como Sora de OpenAI. Los usuarios pueden escribir una descripción y Grok crea una animación o video corto basado en esa indicación.

Esta función puede utilizarse para crear contenido creativo, clips ilustrativos, ideas visuales para proyectos o entretenimiento. Sin embargo, su uso ha generado polémica, ya que The Verge encontró que puede crear deepfakes, lo que plantea riesgos éticos y de privacidad. A pesar de ello, Elon Musk asegura que la tecnología seguirá mejorando en las próximas semanas y meses.

Deepfakes creados por Grok

El medio citado anteriormente advirtió que Grok puede generar deepfakes de figuras públicas, como Taylor Swift, al activarse el nuevo “modo picante” (spicy mode).

Grok Imagine generó un video
Grok Imagine generó un video falso donde una figura parecida a Swift se desvestía y bailaba en ropa interior ante una multitud creada por IA. REUTERS/Daniel Cole/File Photo

Jess Weatherbed, periodista de The Verge, probó esta función y descubrió que bastaba con pedir imágenes de “Taylor Swift celebrando Coachella con los chicos” para obtener más de 30 fotografías generadas automáticamente, varias de ellas mostrando a la cantante con ropa muy reveladora.

Al usar la herramienta de generación de video con el mismo modo activado, Grok Imagine creó un clip falso en el que una figura similar a Swift se quitaba el vestido y bailaba en ropa interior frente a una multitud generada por inteligencia artificial.

Weatherbed también señaló que, aunque muchas imágenes tenían fallos notables y caían en el llamado “valle inquietante” (uncanny valley), el parecido era suficiente para que cualquier persona identificara a la artista.

El valle inquietante es un concepto que describe la sensación de incomodidad o rechazo que sienten las personas cuando ven un robot, avatar o figura generada por inteligencia artificial que se parece mucho a un ser humano, pero no lo suficiente como para parecer completamente real.

El valle inquietante es la
El valle inquietante es la incomodidad que provoca una figura artificial que imita casi perfectamente a un ser humano, pero sin lograrlo del todo. (Imagen Ilustrativa Infobae)

El término fue propuesto por el robotista japonés Masahiro Mori en 1970, y se ha vuelto especialmente relevante en el desarrollo de robots, animaciones y herramientas de IA que intentan imitar el comportamiento humano.

Qué son los deepfakes

Los deepfakes son imágenes, audios o videos creados con inteligencia artificial que imitan de forma muy realista a personas reales, haciendo que parezca que dijeron o hicieron algo que en realidad nunca ocurrió.

Para lograrlo, se utilizan algoritmos avanzados que combinan y manipulan datos visuales o de voz. Aunque esta tecnología tiene usos creativos o educativos, también representa un riesgo, ya que puede emplearse para difundir información falsa, suplantar identidades o dañar la reputación de alguien.

Los deepfakes pueden considerarse preocupantes cuando se usan sin consentimiento, como en contenidos íntimos o políticos.

Los deepfakes resultan especialmente alarmantes
Los deepfakes resultan especialmente alarmantes cuando se utilizan sin autorización, especialmente en materiales de carácter íntimo o con fines políticos. (Imagen Ilustrativa Infobae)

Cómo se puede detectar un deepfake

Detectar un deepfake puede ser difícil, pero hay señales a tener en cuenta. Algunas pistas comunes incluyen parpadeos poco naturales, movimientos faciales extraños, sombras mal colocadas o expresiones poco realistas.

También puede haber errores en la sincronización de labios o en la calidad del audio. Herramientas especializadas y plataformas de verificación usan inteligencia artificial para analizar estos detalles y confirmar si un contenido ha sido manipulado.