FYI.

This story is over 5 years old.

Los mejores intentos para programar nuestros cinco sentidos en un robot

Porque lo único mejor que detenerte a oler las rosas es que una máquina lo haga por ti.
Imagen: Shutterstock

Desde que los humanos pensaron a los robots, siempre hemos querido lograr que las máquinas sean como nosotros. Los robots compiten contra humanos en programas de TV y se reúnen con nosotros en el dormitorio (o al menos hacen que el sexo virtual se sienta real). Pero parte importante de un ser humano es sentir el mundo alrededor nuestro de manera particular, y sentirlo todo al mismo tiempo.

Esto es mucho más complicado de lo que parece, porque los científicos no han descifrado aun cómo es que sentimos; nuestro hardware y software tiene un código difícil de romper. De todas formas los científicos han hecho descubrimientos sobre cómo funcionan nuestros sentidos al crear versiones artificiales de estos. Estos son los intentos para que los robots sientan, huelan, toquen, escuchen y vean de la forma más humana posible.

Publicidad

Gusto

Hasta el momento, las pruebas de gusto robótico se han concentrado en una área: el alcohol. Durante el 2013 un grupo de investigadores españoles publicaron un estudio donde probaban cervezas con la "lengua electrónica" que crearon. Cada uno de los 21 sensores distinguía diferentes componentes químicos, lo que permitía a la "lengua" señalar tipos de cerveza el 82 por ciento de las veces.

Más reciente es el estudio de investigadores en la Universidad Aarhus en Dinamarca, que detectaba cambios en las proteínas más comunes de la saliva para determinar cómo diferentes compuestos del vino las afectaba. Este método es más sensible que otros y es la mejor forma para detectar la astringencia de un vino (su sequedad o acidez) y puede tener aplicaciones para prevenir enfermedades como el Alzheimer, el Parkinson y la enfermedad de Huntington.

Olfato

Los investigadores han intentado que los robots huelan desde comienzos de los 80. No es sólo porque el sentido del olfato es automático en los humanos; los robots que huelen tienen muchas aplicaciones, desde oler el cáncer o las bombas, hasta evaluar si es verdad la antigüedad de un vino.

parte de un ser humano es sentir el mundo alrededor nuestro de manera particular, y sentirlo todo al mismo tiempo.

El esfuerzo más reciente es de Blanca Lorena Villareal, una postdoctorada que creó sensores que miden la concentración de ciertos químicos en el aire. Con un algoritmo, estos sensores son capaces de oler más continuamente que otros proyectos, entonces el computador puede rápidamente identificar el origen del olor. Villareal ha modificado este algoritmo para detectar fluidos humanos y así su robot puede ser utilizado para encontrar víctimas de los desastres naturales.

Publicidad

Tacto

Sentir constantemente la temperatura, la humedad y la presión alrededor de nuestros cuerpos puede hacernos sentir incomodos algunas veces. Esto tiene a los investigadores tratando de crear una llamada "piel electrónica" que sea tan buena como la real y que beneficie a las víctimas de quemaduras y mejore las prótesis.

Esto es un desafío desde un punto de vista ingenieril: la piel debe ser de bajo voltaje (lo que significa que las baterías actuales no sirven), flexible y capaz de sentir más de un factor a la vez. El año pasado un grupo de investigadores de Israel parecen haber logrado justamente eso: un complejo organismo de moléculas, llamadas ligandos, que conectan y protegen las nanopartículas de oro que sirven como sensores. Esta capa se pone sobre una resina flexible que permite a los sensores interactuar entre si, detectando químicos, temperatura y humedad a su alrededor.

Oído

Los humanos han utilizado robots para oír desde la invención del teléfono en 1800, pero lograr que los robots realmente escuchen es distinto. El hardware estaba disponible en 1876 en forma de micrófono, el que permitía convertir los sonidos del lenguaje en señales electrónicas. Pero hasta hace poco el software no era muy sofisticado como para que un computador entendiera estos sonidos.

Cuando un computador recibe información desde un micrófono, el software compara estas señales con una gran base de datos de señales similares, llamadas léxico. Una vez que la información es decodificada, el computador puede responder de la forma en que ha sido programado, ya sea respondiendo con palabras o transformando estas palabras en lenguaje escrito.

Publicidad

Si has intentado usar las primeras versiones de Siri o un menú de voz cuando llamas al banco, sabes que puede tener bastantes errores. Pero este software está mejorando día a día y es usado en todo, desde controlar aviones hasta transcribir tu expediente médico.

Visión

Al igual que el oído, la visión humana es tan importante que rápidamente diseñamos maquinas que lo pudieran hacer. Esto funcionó en antiguas cámaras, como el daguerrotipo que apareció en 1836. A medida que mejoró la velocidad también hubo mejor calidad, el tamaño disminuyó y la cámaras se transformaron en un articulo de todos los días y todos los propósitos, desde la vigilancia hasta usar Skype, pasando por las selfies.

Pero ahora queremos que nuestros ojos robóticos interpreten los datos, específicamente los de nuestras caras. Lo último es el software de reconocimiento facial usado por el FBIFacebook. Funciona al reconocer distintas características faciales como la mandíbula y los ojos, y cualifica la distancia entre estos para crear una imagen digital de la persona que el software puede reconocer.

Pese a que Facebook asegura que su sistema pueden reconocer personas con un 97 por ciento de exactitud, aun tiene problemas detectando caras en 3 dimensiones, en el caso que alguien no esté mirando directamente a la cámara. Por el miento parece que el software se estancó, pero dada la demanda es posible que los desarrolladores soluciones el problema antes de lo que pensamos.

En estos días los robots son más humanos que nunca y experimentan el mundo en pequeños destellos de cómo lo sentimos nosotros. Algunas personas predicen que los robots van a sentir todo lo que sucede a su alrededor en poco tiempo más. Pero si nuestra experiencia actual da algún indicio, a las maquinas les queda un largo camino por recorrer.

Reporteo adicional por Jordan Pearson.