La voz en el teléfono parecía aterradoramente real: una madre estadounidense escuchó a su hija sollozar antes de que un hombre se hiciera cargo y exigiera un rescate. Pero la niña era un clon de IA y el secuestro fue falso. El mayor peligro de la Inteligencia Artificial, dicen los expertos, es su capacidad de derribar los límites entre la realidad y la ficción, entregando a los ciberdelincuentes una tecnología barata y eficaz para propagar desinformación.

En una nueva generación de estafas que ha inquietado a las autoridades estadounidenses, los estafadores están utilizando herramientas de clonación de voz de IA sorprendentemente convincentes (ampliamente disponibles en línea) para robar a las personas haciéndose pasar por miembros de su familia.
“Ayúdame, mamá, por favor ayúdame”, escuchó una voz que decía Jennifer DeStefano, una madre que vive en Arizona, al otro lado de la línea.
DeStefano estaba “100 por ciento” convencida de que era su hija de 15 años la que estaba profundamente angustiada mientras estaba de viaje para esquiar.
“Nunca fue una pregunta ¿quién es? Era completamente su voz... era la forma en que habría llorado”, dijo DeStefano a una estación de televisión local en abril.
“Nunca dudé ni por un segundo que era ella”.
El estafador que se hizo cargo de la llamada, que procedía de un número desconocido para DeStefano, exigió hasta 1 millón de dólares.
La artimaña impulsada por la IA terminó en cuestión de minutos cuando DeStefano estableció contacto con su hija. Pero el aterrador caso, ahora bajo investigación policial, subrayó la posibilidad de que los ciberdelincuentes hagan un mal uso de los clones de IA.

vhishing

"La clonación de voz mediante IA, ahora casi indistinguible del habla humana, permite a los actores de amenazas, como los estafadores, extraer información y fondos de las víctimas de manera más eficaz", dijo a la AFP Wasim Khaled, director ejecutivo de Blackbird.AI.
Una simple búsqueda en Internet arroja una amplia gama de aplicaciones, muchas de ellas disponibles de forma gratuita, para crear voces de IA con una pequeña muestra (a veces sólo unos segundos) de la voz real de una persona que puede robarse fácilmente del contenido publicado en línea.
“Con una pequeña muestra de audio, se puede utilizar un clon de voz de IA para dejar mensajes de voz y mensajes de texto. Incluso se puede utilizar como cambiador de voz en vivo en llamadas telefónicas”, dijo Khaled.
“Los estafadores pueden emplear diferentes acentos, géneros o incluso imitar los patrones de habla de sus seres queridos. [La tecnología] permite la creación de deepfakes convincentes”.

En una encuesta global de 7.000 personas de nueve países, incluido Estados Unidos, una de cada cuatro personas dijo que había experimentado una estafa de clonación de voz con IA o conocía a alguien que la había sufrido. El setenta por ciento de los encuestados dijeron que no estaban seguros de poder “notar la diferencia entre una voz clonada y la real”, según la encuesta, publicada el mes pasado por McAfee Labs, con sede en Estados Unidos.

vhishing2

Los funcionarios estadounidenses han advertido sobre un aumento en lo que se conoce popularmente como la “estafa de los abuelos”, donde un impostor se hace pasar por un nieto que necesita dinero urgentemente en una situación angustiosa.
“Recibes una llamada. Hay una voz aterrorizada al teléfono. Es tu nieto. Dice que está en serios problemas: destrozó el auto y aterrizó en la cárcel. Pero puedes ayudar enviando dinero”, dijo la Comisión Federal de Comercio de Estados Unidos en una advertencia en marzo.
“Suena igual que él. ¿Cómo podría ser una estafa? Clonación de voz, así es como se hace”.
En los comentarios debajo de la advertencia de la FTC había múltiples testimonios de personas mayores que habían sido engañadas de esa manera.

Eso también refleja la experiencia de Eddie, un joven de 19 años de Chicago cuyo abuelo recibió una llamada de alguien que hablaba igual que él, alegando que necesitaba dinero después de un accidente automovilístico.
La artimaña, denunciada por McAfee Labs, fue tan convincente que su abuelo empezó a juntar dinero con urgencia e incluso consideró volver a hipotecar su casa, antes de que se descubriera la mentira.
"Como ahora es fácil generar clones de voz muy realistas... casi cualquier persona con presencia en línea es vulnerable a un ataque", dijo a la AFP Hany Farid, profesor de la Escuela de Información de la Universidad de California en Berkeley.
"Estas estafas están ganando terreno y extendiéndose".

A principios de este año, la startup de inteligencia artificial ElevenLabs admitió que su herramienta de clonación de voz podría usarse indebidamente con "fines maliciosos" después de que los usuarios publicaran un audio falso que pretendía ser la actriz Emma Watson leyendo la biografía de Adolf Hitler "Mein Kampf".
"Nos estamos acercando rápidamente al punto en el que no puedes confiar en lo que ves en Internet", dijo a la AFP Gal Tal-Hochberg, director tecnológico del grupo de capital riesgo Team8.
"Vamos a necesitar nueva tecnología para saber si la persona con la que crees que estás hablando es en realidad la persona con la que estás hablando", afirmó.

A tener cuidado amigos. Solo cuelga la llamada y ya.