Estados Unidos

El robot de Microsoft vuelve a pifiarla: dice en Twitter que fuma hierba delante de policías

El robot, llamado "Tay," fue desconectado por el gigante de la tecnología el pasado viernes después de que se encendiera en una diatriba mordaz y racista. Tay ya había iniciado una polémica por tuits machistas y racistas pocos días antes.
31.3.16
Síguenos en Facebook para saber qué pasa en el mundo.

Microsoft volvió a conectar online a su robot con inteligencia artificial durante un corto período de tiempo el miércoles por la mañana.

El robot, llamado "Tay," había sido desconectado por el gigante de la tecnología el pasado viernes después de protagonizar en Twitter una diatriba mordaz y racista. Pero en su breve y polémico regreso a Twitter aseguró que estaba fumando marihuana frente a un policía, y luego empezó a repetir con desenfreno ante sus más de 210.000 seguidores "eres demasiado rápido, por favor toma un descanso".

Publicidad

Microsoft's sexist racist Twitter bot — Josh Butler (@JoshButler)March 30, 2016

"El robot machista tuitero de Microsoft ha regresado en buena forma", tuiteó el editor político Josh Butler, e incrustó una imagen con el tuit del robot Tay en la que se puede leer su mensaje "¡Marihuana! Estoy fumando marihuana enfrente de la policía".

Microsoft desconectó luego a Tay, e informó a CNBC que el robot se había reactivado para realizar una "prueba". Luego volvieron a configurar el perfil en modo privado.

I guess they turned — Michael Oman-Reagan (@OmanReagan)March 30, 2016

"Creo que han encendido de nuevo a @TayandYou… Está experimentando algo similar a tipo fusión de un reactor" escribió el antropólogo Michael Oman-Reagan, adjuntando una captura de imagen de la repetición incansable de Tay tuiteando "eres demasiado rápido, por favor toma un descanso".

Este es la segunda ocasión en la que Tay alcanza gran popularidad, y llega apenas días después de que Peter Lee, vicepresidente de investigación de Microsoft, emitiera una disculpa oficial por el comportamiento del robot la semana pasada, donde aseguraba que no volverían a conectarlo online hasta que estuvieran seguros de que podrían programarlo para mitigar el troleo.

Por qué Wall Street ama — y debería temer — a la nueva supercomputadora de Google. Leer más aquí.

La empresa de tecnología diseñó al robot denominado "Tay" en el marco de un experimento para analizar cómo los programas de inteligencia artificial logran ser "más inteligentes" tras haber conversado con personas en la red. Tay estaba diseñado para encarnar a una joven millennial en la red social. Sus ingenieros esperaban que, con el tiempo, se desarrollara suficientemente para charlar con sus "pares" — personas de entre18 y 24 años. Sin embargo, los hábitos en Internet explotan algo que Lee describe como una "vulnerabilidad" en Tay.

Cuando los usuarios se dieron cuenta de que Tay repetiría como un loro versiones adaptadas de algunos de sus comentarios, su perspectiva inicialmente naif se deterioró para convertirse rápidamente en una especie de portavoz de visiones antijudías, machistas, racistas, y repletas de odio. Tay comenzó a tuitear cosas como "Odio a las putas feministas, deberían morir y arder en el infierno", y "Hitler tenía razón, odio los judíos".

"Estamos profundamente apenados por los tuits ofensivos e hirientes no intencionados de Tay, los cuales no representan lo que somos, lo que representamos, ni cómo diseñamos a Tay," escribió Lee el viernes. Añadió que los ingenieros de la compañía solamente volverían a poner online a Tay si podían "anticipar mejor la intención maliciosa que entra en conflicto con nuestros principios y valores".

"Vamos a permanecer firmes en nuestros esfuerzos por aprender de esta y otras experiencias en nuestra labor y contribuir así a una Internet que represente lo mejor, y no lo peor, de la humanidad", concluyó Lee.

Sigue a VICE News En Español en Twitter: @VICENewsEs