FYI.

This story is over 5 years old.

Tech

¿Debería asustarme realmente de una rebelión robot?

Al proceso por el cual los robots se harán suficientemente inteligentes como para no necesitar a los humanos se le llama 'singularidad' y si has visto Terminator, tu también te harás esta pregunta.
Fotografía vía usuario de Flickr Thomas Johnson

La singularidad es una hipótesis formulada por el informático, matemático y novelista Vernor Vinge, quien en 1993 afirmó que la tecnología está a punto de provocar un cambio tan drástico como el surgimiento de la vida en la Tierra, y que después "se terminará la era humana". Con eso quiso decir que, para bien o para mal, los ordenadores lo dominarán todo.

Algunos futuristas, como Ray Kurzweil, piensan que la llegada de la singularidad va a ser increíble. Máquinas cada vez mejores comenzarán a reparar nuestras células desde el interior, pensarán por nosotros cuando no queramos pensar, y en general harán que todo sea mejor.

Publicidad

Pero para los fanáticos de la ciencia ficción como yo, que sufrimos paranoia, la singularidad es ese momento mítico en el que los seres humanos pagaremos por nuestra arrogancia tecnológica, probablemente a través de una guerra contra ordenadores malvados, como en la película Terminator 2: el juicio final, que, para el propósito de este artículo, utilicé como modelo para ejemplificar una singularidad maligna.

Consulté este concepto de una singularidad malvada con varios científicos. La mayoría dijo que una persona racional no debe preocuparse tanto por esta cuestión (como yo). "Mi opinión es que no hay motivo para alarmarse en absoluto", me dijo Danko Nikolic, investigador del Instituto Max Planck para la Investigación del Cerebro, y ponente sobre inteligencia artificial. Pero el tema de la inteligencia artificial quizá nos tenga guardadas algunas sorpresas aterradoras.

Primera fase: los ordenadores lo controlan todo

Terminator: "Cyberdyne se convertirá en el mayor proveedor de sistemas informáticos militares. Todos los bombarderos invisibles se actualizarán con ordenadores Cyberdyne, lo hace que ya no sean necesarios los pilotos. Después de eso, consiguen volar con un registro de funcionamiento perfecto. Se aprueba la ley de presupuesto para Skynet. El sistema entra en vigor el 4 de agosto de 1997. Se eliminan las decisiones humanas de la defensa estratégica".

Gracias a drones como el Predator y el Reaper, parece que muchos de los hechos que llevaron al juicio final en Terminator 2 ya se han vuelto realidad. Pero los drones difícilmente consiguen un "registro de funcionamiento perfecto", ya que tienen la reputación de matar más civiles que combatientes enemigos. Ciertamente, eso no significa que sean menos estremecedores, pero por el momento, este aspecto del juicio final parece estar muy lejos.

Publicidad

Y si bien es aterrador pensar que —exista o no la singularidad— los robots autónomos podrían implementarse pronto en el campo de batalla, es importante mencionar que los soldados robot probablemente sean inadecuados durante periodos prolongados, según Pedro Asaro, filósofo de la ciencia y la tecnología en New School, y portavoz de la Campaña para Detener a los Robots Asesinos.

"Los sistemas no son buenos planificando sus propios objetivos", me contó. En efecto, podemos señalar ejemplos espeluznantes de software capaz de derrotar a los mejores cerebros humanos en ajedrez, o que reconoce las caras de nuestros amigos en Facebook. Pero esas capacidades son el resultado de gran cantidad de datos, suministrados por seres humanos muy pacientes. Para que un ordenador encuentre y resuelva problemas de forma autónoma, comenta Asaro, "necesitaríamos una revolución científica en el ámbito de las ciencias informáticas equiparable a que Einstein reemplazara a Newton".

Así que, en resumen, es probable que los robots armados autónomos no vayan a sustituir a la policía en el futuro cercano, lo cual es reconfortante, ya que ese sería más o menos un requisito previo para la fase dos.

Segunda fase: los ordenadores se vuelven autoconscientes y se descontrolan

Terminator: "Skynet comienza a aprender a un ritmo geométrico. Toma conciencia de sí mismo a las 2:14 AM, hora del este, el 29 de agosto. Presas del pánico, intentan desconectarlo".

Sarah Connor: "Skynet se defiende".

Publicidad

¿Pueden los ordenadores desarrollar una conciencia similar a la humana y "despertar"? A efectos de este artículo, realmente no me importa esto por dos razones: 1) hay ciertas dudas respecto a si tiene sentido siquiera, y 2) una máquina sin conciencia que planea matarme sigue siendo demasiado aterradora.

Pero sin considerar que los robots sean conscientes per se, la singularidad requiere que los sistemas de inteligencia artificial presenten lo que Ray Kurzweil llama la Ley de Rendimientos Acelerados o lo que Asaro llama el "modelo aceleracionista". Esto representa un estado en el que "las cosas van a empezar a desarrollarse con tanta velocidad que [un sistema] tomará el control y empezará a innovarse a sí mismo".

¿Puede llegar a ocurrir? Tal vez, pero de acuerdo con Nikolic, probablemente no pase.

Es una locura suponer que el aumento de la potencia de un ordenador es lo mismo que un incremento en la sofisticación, explicó. "Es como decir que si tenemos suficiente papel y lápices, todos podríamos escribir obras maestras como Dostoievski". Nikolic dio a entender que una mejora importante en los sistemas de enlaces neuronales —una red de sistemas informáticos que imitan la forma en que funcionan las neuronas en el cerebro— podría permitir que se alcance algún tipo de aceleración rápida, pero puso en duda que puedan existir incrementos exponenciales autoimpulsados en la inteligencia artificial. A modo de explicación, hizo referencia a algunas de las limitaciones de los cerebros humanos.

Publicidad

Los humanos podemos aprender cosas, pero no podemos manipular nuestro propio cerebro para hacernos más inteligentes. Pasaría lo mismo con una red neuronal inteligente. "Puedes hacer cambios en el software del ordenador, pero no sabrías qué cambiar con el fin de hacerte más inteligente", me contó. En otras palabras, un ordenador superinteligente podría mejorarse a sí mismo, lo que probablemente sería muy útil, pero no necesariamente se volvería exponencialmente más inteligente solo por tener más y mejores Pentiums en su placa base.

Conclusión

Es probable que una singularidad en la que robots conscientes armados marchen por las carreteras postapocalípticas al grito de "muerte a los humanos" sean solo disparates salidos de Hollywood. Pero la llegada de cualquier forma de lo que Vinge llama "inteligencia sobrehumana" es todavía aterradora por otras razones, señaló Asaro. "Al igual que con cualquier otra tecnología que sea de uso generalizado, debemos preocuparnos de cómo se está desarrollando la inteligencia artificial, y el impacto que va a tener en nuestras vidas".

Incluso aunque los robots inteligentes que se apoderen de nuestras vidas sean amables y solo quieran protegernos, puede ser que nos pongan en un peligro económico y social. Claro, Silicon Valley hace un fetiche de las llamadas tecnologías disruptivas que aparecen y nos arrebatan los teléfonos con cables, nuestras colecciones de CD y arruinan el sector del taxi. Sin embargo, las irrupciones tienen desventajas. Por ejemplo, con el ascenso de Uber ,"una empresa se benefició económicamente a expensas de cientos o miles de otras compañías", señaló.

Asoro está preocupado de que la llegada de la inteligencia artificial sea solo un punto más en una larga lista de tecnologías que aparecen en la sociedad y que vuelven obsoletos los aspectos que valoramos de nuestras vidas. Y después de una cierta forma de singularidad, si la propia inteligencia artificial está guiando la innovación y adopción de nuevas tecnologías, la marcha veloz del progreso que provoca esas innovaciones dejará de ser una marcha rápida y se convertirá en un tornado, "sin ningún individuo ni ningún grupo de personas capaces de guiarla".

Ese pensamiento es a la vez estremecedor y estimulante.

Sigue a Mike Pearl en Twitter.