Sam Altman confiesa que le “aterroriza” el uso de la voz como método de autenticación: “es una locura seguir haciéndolo”

El CEO de OpenAI advirtió que la inteligencia artificial, al poder clonar voces humanas, ha dejado obsoletos estos métodos. Indicó que esto podría desencadenar una “crisis de fraude”

Guardar
Sam Altman advierte sobre el uso de la voz para autenticación lo pone "muy nervioso" que el mundo atraviese una crisis de fraude importante debido a esto. (Instagram: bloomberglinea)

Sam Altman, CEO de OpenAI, confesó durante una conferencia de la Reserva Federal en Washington que le “aterroriza” que aún haya instituciones financieras que acepten la voz como método de autenticación, incluso para mover grandes sumas de dinero u operar cuentas sensibles.

Altman advirtió que la capacidad de la inteligencia artificial para clonar voces humanas ha vuelto obsoletos los sistemas de autenticación por voz. Señaló que podría desatarse una “crisis de fraude” que afecte seriamente a bancos e instituciones financieras si no abandonan pronto este método.

Consideró “una locura” seguir usándolo y subrayó que la inteligencia artificial “ya ha derrotado completamente ese sistema”.

“Me pone muy nervioso que tengamos una crisis de fraude inminente debido a esto”, advirtió.

Altman calificó como una locura
Altman calificó como una locura continuar con ese método y enfatizó que la inteligencia artificial ya ha superado por completo ese sistema. REUTERS/Ken Cedeno

Altman reflexionó que ya existen informes sobre ataques de extorsión en los que los delincuentes usan voces clonadas de hijos, padres u otros familiares para realizar llamadas urgentes extremadamente convincentes.

“La sociedad debe abordar este problema de forma más amplia. Las personas tendrán que cambiar la manera en que se relacionan y verifican la identidad de quienes las contactan”, advirtió.

“Esa persona que me llama ahora mismo, por ejemplo... Es una llamada de voz. Pronto será una videollamada por FaceTime. Y será indistinguible de la realidad.”

Altman subrayó la necesidad urgente de educar a la población sobre cómo autenticarse en un mundo donde la IA puede imitar perfectamente a otros.

“Tenemos que enseñar a la gente a pensar en las consecuencias del fraude. Esto es un problema serio… y también un gran negocio”, concluyó.

Altman destacó la importancia inmediata
Altman destacó la importancia inmediata de enseñar a las personas cómo verificar su identidad en un entorno donde la IA puede replicar con precisión a cualquier persona. (Imagen Ilustrativa Infobae)

Michelle Bowman, vicepresidenta de Supervisión de la Reserva Federal y principal autoridad reguladora del banco central, moderó la charla con Sam Altman y expresó la disposición de la institución a colaborar en la búsqueda de soluciones conjuntas. “Eso podría ser algo en lo que podamos pensar en asociarnos”, declaró Bowman.

Según recoge KSAT, el 91% de los bancos en Estados Unidos están reconsiderando sus sistemas de verificación por voz ante el auge de la clonación mediante IA.

La apertura a una cooperación entre reguladores e industria financiera sugiere que ambas partes comienzan a reconocer la magnitud y urgencia del desafío.

La Comisión Federal de Comercio
La Comisión Federal de Comercio de EE. UU. reportó que en 2023 el país sufrió pérdidas de 2.700 millones de dólares por este tipo de fraudes. (Imagen Ilustrativa Infobae)

Cómo ocurren las estafas que menciona Altman

Los fraudes que menciona Sam Altman, en los que se utiliza voz clonada mediante inteligencia artificial, ocurren cuando los ciberdelincuentes toman pequeños fragmentos de una grabación real y, usando IA y patrones de voz, crean conversaciones falsas para engañar a sus víctimas. Estas estafas pueden tener consecuencias tanto graves como costosas.

Para dimensionar su impacto, la Comisión Federal de Comercio de Estados Unidos informó que solo en 2023, el país perdió 2.700 millones de dólares debido a este tipo de estafas.

En esa misma línea, Starling Bank, un banco británico que opera exclusivamente en línea, alertó sobre la creciente prevalencia de estas estafas en el Reino Unido. Una encuesta realizada a más de 3.000 personas reveló que más de una cuarta parte de los adultos ha sido víctima de clonación de voz mediante inteligencia artificial al menos una vez en el último año.

El informe señala que los
El informe señala que los delincuentes pueden imitar la voz de alguien utilizando apenas tres segundos de grabación, fragmentos que se pueden conseguir fácilmente en videos disponibles en internet. (Imagen Ilustrativa Infobae)

Lo más preocupante es que el 46% de los encuestados desconocía la existencia de este tipo de fraudes.

El informe también detalla que los estafadores pueden replicar la voz de una persona con solo tres segundos de audio, un fragmento que puede obtenerse fácilmente de videos publicados en línea, por ejemplo.

Cómo protegerse de las estafas de voz clonada por IA

Otra recomendación de los expertos
Otra recomendación de los expertos es crear una “frase clave” previamente pactada entre familiares y amigos. (Imagen Ilustrativa Infobae)

Para protegerse de los fraudes con voz clonada por IA, el primer paso es mantenerse alerta. Esto implica prestar especial atención a mensajes inesperados que transmitan urgencia para solicitar dinero o credenciales de cuentas.

En esos casos, lo recomendable es devolver la llamada a un número de teléfono conocido y verificado del familiar o amigo que supuestamente contactó.

Otra medida sugerida por los especialistas es establecer una “frase segura” acordada previamente entre familiares y amigos. Esta clave permite confirmar que la persona al otro lado de la línea es realmente quien dice ser, según ESET.