Publicidad
Tech by VICE

243.000 dólares: el botín del primer robo hecho con inteligencia artificial

Este atraco es solo una muestra de lo poco preparados que estamos para el cibercrimen realizado con programas capaces de suplantar identidades

por Edward Ongweso Jr; traducido por Álvaro García
11 Septiembre 2019, 3:12pm

Christopher Furlong / Staff

Artículo publicado originalmente por VICE Estados Unidos.

En lo que podría ser el primer asalto llevado a cabo por inteligencia artificial del mundo, un audio sintético fue usado para imitar la voz de un director ejecutivo de una compañía y engañar a su empleado para que transfiriera más de 240.000 dólares a una cuenta secreta, informó The Wall Street Journal.

El asegurador de la compañía, Euler Hermes, proporcionó nuevos detalles al Washington Post, pero se negó a nombrar a la compañía involucrada. El gerente de la compañía recibió una llamada una noche, donde la voz de su superior le exigía que transfiriera dinero a una cuenta húngara para ahorrarse "multas por pago tardío", enviando los detalles financieros por correo electrónico mientras hablaban por teléfono. Una portavoz de Euler Hermes dijo: "El software era capaz de imitar la voz, y no solo la voz: la entonación, la puntuación, el acento alemán".

Los ladrones detrás de la voz volvieron a llamar para exigir un segundo pago, lo que levantó las sospechas del gerente y lo llevó a llamar a su jefe directamente. En un correo electrónico a Euler Hermes, el director dijo que el "'Johannes' cibernético exigía hablar conmigo mientras yo todavía estaba hablando por teléfono con el verdadero Johannes".

En los últimos años, los deepfakes –deep falsifications, o falsificaciones de aprendizaje profundo– se han vuelto cada vez más sofisticadas. Las plataformas de Internet no pueden detectarlos, y las empresas luchan con la forma de manejar las consecuencias. La evolución constante de los deepfakes significa que detectarlos nunca será suficiente debido a la naturaleza del Internet moderno, que les garantiza una audiencia debido a la monetización de la atención y el fomento a la producción de contenido viral. En junio pasado, deepfakes convincentes de Mark Zuckerberg se publicaron en Instagram poco después de que Facebook se negara a eliminar un video manipulado de Nancy Pelosi. Todavía no hay un consenso claro sobre cómo debió haber actuado Facebook en esa situación o en situaciones futuras.

Esto se exagera con los modelos de monetización de datos de empresas como Facebook y Google. El tecnosociólogo Zeynep Tufecki advierte que las compañías como Facebook confían en crear una "arquitectura de la persuasión" que "nos haga más flexibles a los anuncios, mientras también organizan nuestros flujos de información política, personal y social". Esa dinámica central, combinada con la evolución constante de la tecnología deepfake, significa que este problema probablemente empeorará en todas las plataformas de Internet a menos que las compañías detrás de ellas puedan convencerse de cambiar sus modelos de negocio.

Tagged:
Facebook
Google
IA
aprendizaje de máquinas
deepfake
ciber crimen
monetización