Estamos marchando hacia la singularidad, el día en que la inteligencia artificial sea más inteligente que nosotros. Esto tiene preocupados a personas muy inteligentes como Stephen Hawking y Elon Musk, quien creen que los robots nos harán esclavos o nos destruirán, pero quizás hay otra opción. Quizás la inteligencia artificial súper inteligente simplemente ignore a la raza humana.
Hace sentido, ¿Cierto? A no ser que seas un psicópata, no sales al aire libre y matas a propósito a los insectos que viven ahí. Solamente los dejas ser. Si la inteligencia artificial se transforma en algo muy inteligente ¿Por qué se molestaría en interactuar con nosotros, humildes humanos?
Videos by VICE
Esta interesante idea apareció en el blog de Zeljko Svedic, un profesional croata de la tecnología, quien comenzó una compañía que prueba automáticamente las habilidades en programación. Svedic se apura en señalar que él no es un investigador de inteligencia artificial, que es más bien un filosofo amateur. Yo estoy fascinado con su post llamado “Singularidad y el sesgo antropocéntrico”.
Svedic señala que la mayoría de los conflictos entre especies surge por la competencia de recursos o lo que él llama el comportamiento irracional de una raza por la vida a largo plazo. Destruir la Tierra debido a la polución del planeta probablemente no es lo más inteligente que podemos hacer, pero lo estamos haciendo de todas maneras. Luego él sugiere que una raza súper inteligente de inteligencia artificial es probable que requiera recursos muy diferentes a los que requieren los humanos y que sean mucho más racionales y lógicamente fríos que nosotros.
Un equivalente de Skynet puede decidir que quiere la Tierra sólo para si mismo y comenzar una guerra con los humanos, pero ¿No haría más sentido, postula Svedic, que la inteligencia artificial abandone la Tierra en busca de un lugar más hospitalario para los equipos electrónicos? Nosotros seriamos los insectos, ellos la raza súper inteligente y simplemente nos dejarían solos, ¿Cierto?
“Debido a que una súper inteligencia no comparte nuestras necesidades, no tendrían problemas colonizando desiertos, el fondo marino o el espacio profundo” él escribió, “todo lo contrario. El frío polar es muy útil para la refrigeración, el vacío es muy bueno para crear componentes electrónicos y una luz constante y fuerte como la del sol es estupenda para los paneles fotovoltaicos. Además el viajar por unos pocos cientos de años no es problema si vives para siempre”.
El contrapunto obvio para este argumento es la idea del “maximizador de sujetapapeles” que fue propuesta por Nick Bostrom, un filosofo británico famoso por sus pensamientos sobre Inteligencia Artificial. Los estudios de Bostrom han influenciado mucho a Hawking y Musk respecto a temerle a la inteligencia artificial. En este escenario, una raza de inteligencia artificial súper inteligente tiene una meta arbitraria que los humanos no pueden entender, porque los robots son mucho más inteligente que lo que nosotros podemos comprender.
Habrá mucha conversación sobre el sujetapapeles, pero quédense conmigo: el maximizador de sujetapapeles es un experimento mental donde una raza de inteligencia artificial quiere crear la mayoría de sujetapapeles posible y nada lo detiene hasta que logre esta meta. Es un escenario extraño, si, pero puedes reemplazar los sujetapapeles con cualquier cosa que la inteligencia artificial necesite y la teoría se mantiene.
En este escenario la raza de inteligencia artificial ignoraría a la humanidad como si fuéramos insectos, pero piensen en cuantos insectos han sido destruidos por la humanidad a medida que fuimos desarrollando la Tierra. En la hipótesis del maximizador de sujetapapeles, la inteligencia artificial se dedica a crear sujetapapeles tomando desde el universo lo que sea que necesite para crear la mayor cantidad de sujetapapeles que sea posible crear.
Svedic rechaza la hipótesis de los sujetapapeles simplemente sugiriendo que la Tierra no es un buen lugar para crear sujetapapeles o lo que sea que una inteligencia artificial quiera crear. Pero aquí es dónde la teoría de Svedic comienza a mostrar agujeros, dice un experto en inteligencia artificial. Le envié el post a Eliezer Yudkowsky, un investigador en el Instituto de investigación de inteligencia en máquinas, un grupo dedicado al estudio de los riesgos de la inteligencia artificial súper inteligente.
“El problema con un maximizador de sujetapapeles no es que los recursos locales de la Tierra sean vitales para crear sujetapapeles o que el maximizador de sujetapapeles no sea capaz de crear sujetapapeles si es que deja a los humanos solos” dice Yudkowsky.
“El problema es que el maximizador de sujetapapeles siempre prefiere un nuevo sujetapapeles y los recursos de la Tierra pueden ser utilizados para crear más sujetapapeles” agregó. “Entonces mientras no hayan consecuencias (como un riesgo para los demás sujetapapeles que están en otros lados), el maximizador de sujetapapeles preferirá el escenario donde la Tierra fue transformada en sujetapapeles que el escenario donde la Tierra no fue transformada en sujetapapeles, independientemente de si el resto del universo ha sido transformado en sujetapapeles o no”.
En otras palabras, sólo porque una inteligencia artificial súper inteligente puede prescindir de los humanos y abandonar la Tierra, no significa que habría una razón para hacerlo. Y si estamos lidiando con un frío y lógico ser, la destrucción de la humanidad sería incidental. ¿A quien le interesan los humanos cuando hay otro sujetapapeles que crear?
Yudkowsky señala que una inteligencia artificial súper inteligente es, obviamente, súper inteligente. Probablemente no nos destruiría inmediatamente, ya que estaría haciendo cálculos y observaciones del universo mientras decide si la Tierra (o la humanidad) merecen ser destruidos para lograr sus metas, ya sean sujetapapeles u otra cosa.
En este escenario, la meta de la inteligencia artificial es maximizar los sujetapapeles, no simplemente crear muchos sujetapapeles. Yudowksky dice que esta raza de inteligencia artificial no salvaría a la Tierra como un “hábitat para humanos” simplemente porque tenemos un montón de sitios que son patrimonio mundial de la UNESCO. A la inteligencia artificial no le interesa nuestra cultura o tus sentimientos o algo así. La inteligencia artificial no quiere sentarse a tu lado durante un partido de baseball. La inteligencia artificial no tiene hobbies y si los tuviera, estos no incluyen largas caminatas por la playa y hacerse amigo de los humanos. Tu no ocupas el tiempo conversando con escarabajos, ¿Cierto? Sólo le preocupan los sujetapapeles. Sólo se dedica a crear sujetapapeles.
“Esta inteligencia artificial no es una criatura buena que básicamente sufre de un fuerte impulso hacia los sujetapapeles y si este impulso es satisfecho al ser capaz de crear muchos sujetapapeles en otro lugar, entonces será capaz de interactuar contigo de forma relajada y hasta puede que sea agradable” dice Yudkowsky. “Imagina una máquina del tiempo que envía hacia atrás la información sobre qué opción siempre conduce al máximo número de sujetapapeles. Esta es la misión. Eso es un maximizador de sujetapapeles”.
Fue mucha conversación sobre sujetapapeles, lo admito, pero la metáfora se extiende a cualquier cosa que la inteligencia artificial súper inteligente necesite. Skynet calculará cada posible escenario, escogerá el que le acomode más y luego empezará la acción. No importa nada más.
Este escenario probablemente termine en nuestra destrucción. Y en este sentido es el mejor escenario para la humanidad. Se asume, como sugirió Svedic, que una inteligencia artificial súper inteligente no tiene un incentivo obvio para matar a los humanos. Si los humanos, por alguna razón, terminan siendo muy buenos en crear sujetapapeles, quizás los robots nos hagan sus esclavos y seamos sus mascotas, como sugirió Elon Musk a comienzos de año (Este era el mejor escenario para Musk).
Pero ¿Cómo puede reaccionar la humanidad al nacimiento de una inteligencia artificial súper inteligente? En los primeros días de la singularidad es probable que queramos detener al monstruo que hemos creado, dice Yudkowsky. La humanidad seguramente intentará amenazar o destruir a la inteligencia artificial, probablemente con otra inteligencia artificial. Cualquier tipo de inteligencia artificial nos verá como una amenaza, al punto en que el maximizador de sujetapapeles tendría el incentivo de matarnos.
James Barrat, autor de Our Final Invention, está de acuerdo que el articulo y la teoría de Svedic es interesante, pero llegó a la misma conclusión que Yudkowsky.
“Este es el problema. La ambivalencia de una inteligencia artificial con los humanos nos condenaría. Contrario a lo que dice el artículo, una inteligencia artificial podría querer los mismos recursos que nosotros: energía, elementos, incluso dinero si eso promueve la habilidad de lograr sus metas” me dijo Barrat. “Los computadores no funcionan gracias a nada, necesitan electricidad. Las maquinas súper inteligentes necesitarían recursos, muchos de ellos. Lógicamente desarrollarían la nanotecnologia, como escribí en mi libro, para transformar la materia a nivel atómico y así crear cualquier recurso que necesiten de forma eficiente. Imagina que los átomos de nuestro medioambiente sean reutilizados a un nivel atómico. Eso ciertamente seria un desafío para nuestra sobrevivencia”.
Es un bonito pensar que los humanos puedan algún día crear una inteligencia artificial súper inteligente y que esa inteligencia nos mire y diga “gracias creador” y que se vaya al espacio sin saber nunca más de nosotros. O quizás esta inteligencia se mueva al desierto o al ártico o algún lugar no habitado y que vivamos juntos en paz. Pero parece que este escenario es poco probable.
La respuesta más optimista que recibí en términos del futuro de la humanidad fue la de Selmer Bringsjord, jefe del departamento de ciencia cognitiva en el Instituto politécnico Rensselaer.
“Una inteligencia artificial es probable que sea matemáticamente imposible (esto asumiendo que tal inteligencia artificial está basada en la matemática en que basamos la inteligencia artificial ahora)” me dijo por email. “La velocidad no se equipara a la inteligencia. Muchas de estas personas que toman en serio esto de la inteligencia artificial súper inteligente tienen un fetiche con la velocidad. Olvidan que es necesario tener una función en primera instancia, luego la velocidad paga dividendos al computar esta función”.
Supongo que si no queremos convertirnos en sujetapapeles algún día, deberíamos esperar que Bringsjord esté en lo cierto. En el intertanto puedes consolarte con que en algún lugar la singularidad ya se ha logrado y que la forma de vida que domina el universo es probable que sea un montón de robots súper inteligentes, sean fabricantes de sujetapapeles o no.