FYI.

This story is over 5 years old.

Tech

Un profesor de filosofía nos explicó por qué hay que ponerle límites a los avances tecnológicos

Los clásicos de la ciencia ficción nos asustaron. Pero, ahora, con tanto avance, sí deberíamos tener miedo. Al menos eso dice Jeroen van den Hoven, profesor de ética y tecnología del MIT.
2.8.16

Las películas y los libros de ciencia ficción nos metieron miedo. Clásicos del tamaño de Inteligencia Artificial, series de culto como Black Mirror e incluso la sensación televisiva de las últimas semanas, Stranger Things, disparan la angustia sobre lo que puede pasar si la tecnología cae en las manos equivocadas. Y no hay que ir tan lejos. No hay que acudir a la cultura pop porque a nuestro alrededor ya están todos los elementos para armar una trama de terror.

Publicidad

Hay montañas de ejemplos.

A finales del año pasado, el Reilly Center de la Universidad de Notre Dame publicó una lista con los dilemas éticos en ciencia y tecnología más importantes de la actualidad. La lista incluía satélites enviados por grandes compañías para registrar nuestra actividad en tiempo real (algo como un Google Maps en vivo). También armas no letales (pero que pueden dejar ciego o sordo o causar lesiones permanentes) y que, dicho sea de paso, sí han dejado muertos. O robots capaces de trabajar en grupo sin intervención humana posterior a su programación: robots que sin mucho problema coordinan tareas entre ellos. O drones que se desintegran en el aire después de cumplir su objetivo (llevar un domicilio, transportar medicinas a un pueblo lejano, por qué no, regar un virus sobre una comunidad). O ciber-armas letales que podrían, según el mismo gobierno estadounidense, provocar el colapso de una planta nuclear.

¿Quién regula todo eso? ¿Quién decide si un carro autónomo opta por atropellar a tres peatones para salvar la vida de su pasajero? ¿Y al revés?: ¿en manos de quién está ampliar la brecha entre ricos y pobres haciendo más resistentes a enfermedades a los primeros? ¿Quién programa la "independencia" de un dron para atacar sobre un campo de batalla? ¿Quién defiende nuestra privacidad de los satélites que nos sobrevuelan? ¿Es seguro dejar que los robots actúen casi sin supervisión humana?

Publicidad

No tenemos mucha información sobre esas discusiones.

Muchas escuelas de ingeniería y de diseño, sin embargo, tienen cursos de ética donde se plantean esos dilemas. De esas escuelas, al fin y al cabo, es de donde salen los profesionales que dan forma al mundo en que vivimos. Para entender un poco más sobre dilemas científicos y las reglas que deberían cubrirlos, hablamos con el profesor Jeroen van den Hoven, autoridad a nivel mundial en esa materia.

Van den Hoven ha enseñado cursos de ética y tecnología en varias universidades (MIT, Delft University of Technology), dirige la revista Ethics and Information Technology y fue ganador del World Technology Award for Ethics.

Usted tiene un doctorado en filosofía. ¿Por qué decidió meterse a las facultades de ingeniería y diseño?

No estaba satisfecho con la forma en que se trabajaba la ética. Leer un libro sobre un tema específico y resolver un problema particular a partir de ahí no es la forma en la que funcionan las cosas, porque la tecnología está avanzando muy rápido: mientras miras el libro y el caso particular, ya todo ha cambiado. Lo que deberías hacer, pensé, es pensar en términos de diseño. Deberías usar la ética para diseñar el mundo en el que la gente vive realmente. Todo lo que tienes a tu alrededor está diseñado y contiene las decisiones morales del diseñador.


Lea también: Qué pasa cuando le dices a Siri "me han violado"


Es más o menos una clase para tomar decisiones responsables.

En mi clase enseño a los ingenieros a pensar en términos de diseño y a pensar el diseño en términos éticos. Porque puedes hacer muy feliz a un ingeniero si le dices que diseñe algo de 20 metros de alto, rojo y con una capacidad de 200 litros. Él sabe seguir esas instrucciones. El problema aparece cuando le pides que diseñe algo con esos mismos parámetros pero que además ayude a unir a una comunidad. Ese parámetro de cohesión es fundamental y ellos lo encuentran difícil. Eso es exactamente lo que hay que hacer: considerar todas las aristas sociales, jurídicas y éticas de lo que se diseña.

Publicidad

¿Cuáles serían los grandes dilemas tecnológicos actualmente?

Hay problemas como la inteligencia artificial, la robótica, big data y privacidad. Todos estos van a cambiar nuestras vidas y hay grandes decisiones éticas allí.

Hemos visto estos términos como "inteligencias artificial" y "robots y privacidad" desde hace décadas. ¿Por qué ahora son más relevantes?

Hemos venido hablando de eso desde mitad del siglo pasado. Había algunos libros y ciertas preocupaciones, pero en esa época eso era más que todo ciencia ficción. Ahora es real. Todos esos términos son reales. Ahora tenemos computadores que pueden aprender rápido y ganarte en lo que te imagines. Tenemos robots que se enfrentan a humanos en la guerra. Todo es mucho más poderoso. Las formas en que las máquinas aprenden se han vuelto muy avanzadas.

¿Y cuáles serían los problemas éticos que están envueltos en este asunto?

Uno de los grandes problemas es que no entendemos esas tecnologías y no sabemos cómo se usan. Solo hay unos pocos que pueden usar muchas de esas tecnologías porque son muy costosas, y no sabemos ellos cómo las están usando. Puede que estén fabricando drones autónomos como armas, pueden estar pensando en una nueva generación de robots soldados, pero también pueden estar desarrollando el sector financiero o, por ejemplo, pueden estar desarrollando avances en medicina. Pero no entendemos hasta qué punto nos están presentando una imagen del mundo que creemos que es verídica. Ese es un problema gigante. Porque lo que hace al final es limitar nuestra autonomía, y esas decisiones no se están tomando de manera democrática.


Lea también: Se viene la nueva Ley Lleras: expertos nos explican por qué debe preocuparnos


¿Cuál es el problema de que no sea democrático?

Porque son las grandes compañías las que deciden. Google, Facebook, Amazon, Microsoft. Ellos están tomando decisiones bajo unos criterios que no conocemos.

Publicidad

¿No existe alguna gran regulación ética alrededor de estos temas?

No. No existe. Y tenemos que ponernos en eso rápidamente. Sí hay algunas regulaciones pero para la mayoría de las cosas no hay nada. Es preocupante. Porque cada día aparecen nuevas tecnologías como los robots que matan o sistemas con altos niveles de autonomía y nadie regula eso.

Profesor Jeroen van den Hoven. Foto: TU Delft

¿Qué consideraciones éticas se toman a la hora de crear un robot asesino o desarrollar tecnologías para la guerra?

Hay algunas posturas que dicen que esto no se debería hacer de ninguna manera, que nadie debería crear robots que puedan matar. Pero yo creo que, hasta que no sepamos qué está haciendo el enemigo, qué tecnologías tiene, debemos estar preparados. Pero tenemos que diseñar esas tecnologías de tal forma que tengamos control de ellas. La discusión ha estado alrededor de lo que llamamos "control humano significativo". La idea es que innovemos en la medida en que los problemas del mundo lo necesiten pero que lo hagamos de manera responsable para no crear nuevos problemas. No puedes resolver uno y crear otros dos.

Entonces, ¿quien debe responder por la responsabilidad ética? ¿Son las grandes compañías? ¿Son los ingenieros, los gobiernos o los consumidores?

Yo diría que todos los anteriores. Ninguna de las partes puede decir que no es su responsabilidad sino la de otro. Aunque si hay varias personas trabajando en algo, luego es muy difícil saber de quién es la responsabilidad. Si mil personas construyen la Muralla China, será muy difícil culpar a alguien por un error. Lo que hay que hacer es diseñar una estructura que deje claro quién tiene qué responsabilidad. Y solo es posible culpar a alguien si lo haces responsable desde el principio. Cualquier innovación tecnológica debe tener claro esto. Si no, pasa lo del carro autónomo de Tesla que se chocó, murió el pasajero y terminó siendo su culpa.

Publicidad

Da la impresión de que los desarrolladores no se ponen muy contentos cuando les hablan de regular y responsabilizar.

Hace poco estuve en una charla con uno de los emprendedores más importantes de Silicon Valley y él recomendaba innovar en una zona gris donde no existe regulación ni ley. Eso es muy bueno para ellos. Usan esa zona gris y convierten su política en algo como "es mejor pedir perdón que permiso". Los emprendedores saben que buscar regular desde antes ética y jurídicamente puede ser muy lento y les puede limitar. Eso no le conviene a sus bolsillos.

¿Y entonces quién los detiene?

Ahora es muy difícil que alguien lo haga. Si le preguntas a los emprendedores o desarrolladores qué quieren hacer, seguramente obtendrás unas respuestas que luego la gente adopta como suyas. Entonces, la defensa se convierte en "eso es lo que la gente quiere". Pero esas decisiones no necesariamente concuerdan con lo que es mejor para la sociedad. Debería existir un juicio independiente que evalúe si algo es bueno para la sociedad, porque hay mucho optimismo frente a los emprendedores, que siempre nos traen "lo último": drones, robots, computadores con funciones asombrosas. Pero por ahora no hay nadie que evalúe si eso es lo que necesitamos.

¿Las reglas éticas deben tomarse individualmente para cada avance tecnológico o es posible pensar en ciertas premisas para una regulación general?

Creo que debe ajustarse a sectores sociales específicos. Por ejemplo, las reglas para innovación en medicina deben ser distintas que las de desarrollo militar. Pienso que esas reglas deben considerar el nivel de autonomía de la máquina. Es muy distinto pensar, por ejemplo, en un sistema que abre y cierra puertas o una máquina que facilita un proceso industrial, a pensar, digamos, en un robot capaz de improvisar y que se vuelve impredecible.


Lea también: La app de tu teclado te está robando información. Pero, ¿para quién? ¿Para qué?


¿Cuáles son los límites de esos robots? ¿Hay alguna regla que impida matar humanos o al menos ponga reglas claras sobre cuándo se puede hacer?

Hace menos de un mes un robot mató a un sospechoso en los disturbios en Dallas y nada pasó. Creo que eso deja ver que las reglas no se discuten antes de poner a funcionar la tecnología. Es el problema del que hablábamos antes: no hay una estructura de responsabilidades clara.

La cultura pop todo el tiempo está reseñando, anticipando y jugando con las posibilidades de la tecnología, y los dilemas éticos que presenta a veces son aterradores. ¿Deberíamos tener miedo de lo que pueda pasar?

Hay que estar preocupado pero no mucho. Tenemos que mantenernos muy alerta y ser muy activos para seguir los avances tecnológicos. Hay que presionar en estos debates para que no seamos solo los académicos quienes tengamos discusiones sobre los dilemas éticos. Tenemos que insistir para que haya innovación responsable. La premisa para regular la tecnología es hacer todo lo posible para que no se nos salga de las manos. Eso es fácil de decir pero es duro de hacer. Como sea, hay que hacerlo y hacerlo rápido.