Si la IA difama a alguien, ¿quién es el responsable?

Reportajes Especiales - Business

Guardar

Los representantes de ventas de Wolf River Electric, un contratista de energía solar de Minnesota, observaron un aumento inusual de contratos cancelados a finales del año pasado. Cuando pidieron explicaciones a los antiguos clientes, las respuestas los dejaron estupefactos.

Los clientes dijeron que se habían echado atrás después de enterarse, por búsquedas en Google, de que la empresa había llegado a un acuerdo con el fiscal general del estado por prácticas de venta engañosas. Pero la empresa nunca había sido demandada por el gobierno, y mucho menos había llegado a un acuerdo en un caso relacionado con tales reclamaciones.

La confusión se convirtió en preocupación cuando los directivos de Wolf River lo comprobaron por sí mismos. Los resultados de búsqueda que Gemini, la tecnología de inteligencia artificial de Google, ofrecía en la parte superior de la página, incluían dichas falsedades. Y las menciones a un acuerdo judicial aparecían automáticamente al escribir "Wolf River Electric" en el cuadro de búsqueda.

Ante la acumulación de cancelaciones y el resultado infructuoso de sus intentos por utilizar las herramientas de Google para corregir los problemas, los directivos de Wolf River decidieron que no tenían más remedio que demandar al gigante tecnológico por difamación.

"Invertimos mucho tiempo y energía en forjarnos una buena reputación", dijo Justin Nielsen, quien fundó Wolf River con tres de sus mejores amigos en 2014 y contribuyó a que se convirtiera en el mayor contratista solar del estado. "Cuando los clientes ven una señal de alerta como esa, es casi imposible recuperarlos".

El suyo es uno de al menos seis casos de difamación presentados en Estados Unidos en los últimos dos años por contenidos producidos por herramientas de IA que generan texto e imágenes. Estos argumentan que la tecnología de vanguardia no solo creó y publicó información falsa y perjudicial sobre personas o grupos, sino que, en muchos casos, siguió difundiéndola incluso después de que las empresas que desarrollaron y se benefician de los modelos de IA fueran notificadas del problema.

A diferencia de otras demandas por difamación o calumnia, estos casos pretenden definir como difamatorio el contenido que no ha sido creado por seres humanos, un concepto novedoso que ha intrigado a algunos expertos jurídicos.

"No hay duda de que estos modelos pueden publicar afirmaciones perjudiciales", dijo Eugene Volokh, destacado estudioso de la Primera Enmienda en la Universidad de California en Los Ángeles. En 2023, Volokh dedicó un número entero de su publicación, Journal of Free Speech Law, a la cuestión de la difamación por parte de la IA.

"La pregunta", dijo Volokh, "es quién es responsable de ello".

Uno de los primeros casos de difamación por IA se presentó en Georgia en 2023. El demandante, Mark Walters, locutor de radio y defensor de la Segunda Enmienda, alegó que el chatbot ChatGPT había dañado su reputación cuando respondió a una consulta de un periodista sobre los derechos de las armas afirmando falsamente que Walters había sido acusado de malversación de fondos.

Una tarea fundamental en muchos casos de difamación en Estados Unidos es demostrar la intención. Pero como es imposible saber qué ocurre dentro de los algoritmos que impulsan a los modelos de IA como ChatGPT, la demanda --y otras similares-- intentaron culpar a la empresa que escribió el código, en este caso OpenAI.

"Frankenstein no puede crear un monstruo que vaya por ahí asesinando gente y luego afirmar que no tuvo nada que ver con eso", dijo John Monroe, abogado de Walters.

El caso de Walters fue desestimado en mayo, mucho antes de llegar a juicio. Entre otras razones, el tribunal señaló que el periodista había admitido que no se fiaba de la afirmación de ChatGPT y comprobó rápidamente que no era cierta. Esa cuestión --si es probable que terceros se convenzan de que el contenido supuestamente difamatorio es cierto-- es crucial en estos casos.

"Si la persona que lee una declaración impugnada no cree subjetivamente que sea cierta, entonces la afirmación no es difamatoria", escribió la jueza Tracie Cason en su sentencia. OpenAI no respondió a la solicitud de comentarios.

Hasta la fecha, ningún caso de difamación por IA en Estados Unidos parece haber llegado a un jurado, pero al menos uno, presentado en abril contra Meta por Robby Starbuck, un influente de derecha conocido por sus campañas contra los programas de diversidad, equidad e inclusión, ha llegado a un acuerdo.

Starbuck alegó que, mientras navegaba por X, había encontrado una imagen que contenía información falsa sobre él, generada por Llama, uno de los chatbots de IA de Meta. El texto de la imagen afirmaba que Starbuck estuvo en el Capitolio de Estados Unidos durante los disturbios del 6 de enero de 2021, y que tenía vínculos con la teoría de la conspiración QAnon. Starbuck dijo que ese día estaba en su casa de Tennessee y que no tenía nada que ver con QAnon.

Meta llegó a un acuerdo en agosto sin responder formalmente a la demanda. Como parte del acuerdo, la empresa contrató a Starbuck como asesor para controlar la IA de Meta.

"Desde que empezamos a colaborar con Robby en estos temas importantes, Meta ha logrado avances significativos para mejorar la precisión de la IA de Meta y mitigar los prejuicios ideológicos y políticos", dijo Meta en un comunicado en aquel momento. La empresa se negó a revelar otros términos del acuerdo o si Starbuck cobró por su labor de asesoramiento.

El mes pasado, Starbuck también demandó a Google por su IA. En la demanda por difamación, en la que pedía 15 millones de dólares por daños y perjuicios, afirmaba que los modelos de lenguaje de gran tamaño de Google --la tecnología que ayuda a impulsar los chatbots-- habían hecho declaraciones manifiestamente falsas sobre él. Esta vez, sin embargo, alegó que los errores eran el "resultado deliberado de la animadversión política incorporada a su algoritmo".

Google aún no ha respondido formalmente a la demanda, pero Jose Castañeda, vocero de la empresa, dijo que la mayoría de las afirmaciones de Starbuck databan de 2023 y se abordaron en su momento. Y añadió: "Como todo el mundo sabe, si eres lo bastante creativo, puedes incitar a un chatbot a decir algo engañoso".

Dave Fanning, un popular DJ y presentador de programas de entrevistas irlandés, no necesitó dar ninguna instrucción para descubrir lo que calificó de material difamatorio sobre él en internet. El contenido, que aparecía en el portal web MSN de Microsoft, era un artículo con su fotografía en la parte superior y el titular "Prominente locutor irlandés se enfrenta a juicio por presunta conducta sexual inapropiada".

Fanning, que no ha sido acusado de conducta sexual inapropiada, se enteró después de que varias personas se pusieron en contacto con él para preguntarle por las acusaciones. Finalmente, descubrió que un sitio de noticias con sede en India había utilizado un chatbot de inteligencia artificial para generar el artículo y había añadido su foto junto al texto. Luego Microsoft publicó el artículo, que fue visible brevemente para cualquier persona en Irlanda que iniciara sesión en MSN o utilizara el navegador Microsoft Edge.

A principios del año pasado, Fanning demandó a Microsoft y al medio de comunicación indio ante un tribunal irlandés, una de las pocas demandas por difamación de la IA que se han presentado fuera de Estados Unidos.

Microsoft declinó hacer comentarios sobre el caso pendiente, que Fanning dijo que quería llevar a juicio. "Lo que hizo Microsoft fue traumatizante, y el trauma se convirtió en ira", dijo.

(The New York Times ha demandado a Microsoft y OpenAI, alegando infracción de derechos de autor sobre contenido de noticias relacionadas con los sistemas de IA. Ambas compañías han negado las acusaciones de la demanda).

Nina Brown, profesora de comunicaciones de la Universidad de Siracusa y especialista en derecho de los medios de comunicación, afirmó que preveía que pocos de estos casos, si es que alguno, llegarían a juicio. Un veredicto que declarara que una empresa es responsable de los resultados de su modelo de IA, dijo, podría provocar una enorme avalancha de litigios por parte de otros que descubrieran falsedades sobre sí mismos.

"Sospecho que si hay una demanda por difamación por parte de la IA en la que el demandado sea vulnerable, desaparecerá: las empresas llegarán a un acuerdo", dijo Brown. "No quieren correr el riesgo".

Ella, Volokh y otros expertos jurídicos dijeron que el caso de Wolf River parecía especialmente sólido, en parte porque la empresa ha podido documentar pérdidas específicas provocadas por la falsedad.

En su denuncia, citaba 388.000 dólares en contratos rescindidos. Vladimir Marchenko, director ejecutivo, dijo en una entrevista que la empresa también había perdido clientes nuevos.

"Hemos descubierto que algunos competidores mencionan las falsas afirmaciones del fiscal general en las consultas con posibles clientes para convencerlos de que no recurran a nosotros", dijo. Señaló que también había descubierto publicaciones en Reddit que citaban los falsos resultados de Google. Uno calificaba a Wolf River de "posible empresa diabólica".

La empresa, en correspondencia con Google, dijo que había perdido casi 25 millones de dólares en ventas en 2024 y que solicitaba una indemnización total por daños y perjuicios de al menos 110 millones de dólares. La demanda está en suspenso mientras un juez federal decide si conserva el caso o lo devuelve al tribunal estatal, donde se presentó en marzo.

Un factor que podría jugar a favor de Wolf River es que probablemente no se le catalogue como una figura pública. Se trata de una distinción importante porque, en Estados Unidos, las figuras privadas tienen un umbral más bajo para demostrar que se ha producido difamación: solo tienen que demostrar que Google actuó con negligencia, y no con lo que se conoce como "indiferencia temeraria" hacia la verdad.

Castañeda, el portavoz de Google, reconoció en un comunicado que "con cualquier tecnología nueva, pueden producirse errores", y señaló que "en cuanto nos enteramos del problema, actuamos rápidamente para solucionarlo".

Sin embargo, todavía el lunes, una búsqueda en Google de "queja sobre wolf river electric" arrojaba un resultado que decía que "la empresa también se enfrenta a una demanda del fiscal general de Minnesota relacionada con sus prácticas de venta" y sugería a los clientes que "presentaran una queja ante la oficina del fiscal general de Minnesota, puesto que ya están implicados con la empresa".

Marchenko, quien emigró de niño a Minnesota desde Ucrania y jugó al hockey juvenil con Nielsen, dijo que le preocupaba que la empresa pudiera quebrar si los resultados de la IA no cambiaban.

"No tenemos un plan B", dijo. "Empezamos esto desde cero. Tenemos nuestra reputación, y eso es todo".

Ken Bensinger cubre a los medios de comunicación y a la política para el Times.