In hoeverre kunnen robots nu onze vijf zintuigen nabootsen?

Hoe goed kunnen robots onze zintuigen tegenwoordig kopiëren?

|
30 september 2014, 7:37am

Beeld: Shutterstock 

Al sinds mensen voor het eerst droomden over robots, hebben we nagedacht over hoe we ze meer op onszelf kunnen laten lijken. Robots strijden tegen ons met intelligentiespelletjes en zoeken ons op in de slaapkamer (of laten op z'n minst virtuele seks echt voelen). Maar een deel van het mens-zijn is de wereld om ons heen op een bepaalde manier voelen en dit allemaal tegelijk te doen.

Dit is veel gecompliceerder dan het lijkt, aangezien wetenschappers ook nog niet helemaal zeker weten hoe we kunnen voelen zoals we voelen – het is zowel hardware als software die beide listigheden bevatten die niet zomaar te achterhalen zijn. Maar er wordt nog steeds aan gewerkt door wetenschappers. Ze zijn hard bezig te ontdekken hoe onze eigen zintuigen werken om kunstmatige versies ervan maken. Hieronder de meest dappere pogingen van robots die zo menselijk mogelijk kunnen proeven, ruiken, aanraken, horen en zien.

Smaak

Tot op heden gaan de meeste proevende robots om het proeven van – jawel, natuurlijk – alcohol. In 2013 heeft een groep Spaanse onderzoekers een bierproeverij gehouden met de "elektronische tong" die ze zelf hadden gemaakt. Elk van de 21 sensoren was verantwoordelijk voor een bepaald chemisch component van bier, waardoor de tong in 82% van de gevallen verschillende bieren uit elkaar kon houden.

Recentelijker nog hebben onderzoekers van de Aarhus Universiteit in Denemarken veranderingen in het meest voorkomende eiwit van speeksel ontdekt. Deze veranderingen worden beïnvloed door verschillende onderdelen van wijn. Deze methode is gevoeliger dan andere methoden, en dus beter in het bepalen van de smaak van de wijn (hoe droog en zuur die is). Deze techniek kan wellicht zelfs toegepast worden in het voorkomen en opsporen van Alzheimer, Parkinson en de ziekte van Huntington.

Geur

Onderzoekers proberen robots al te laten ruiken sinds de jaren 80. En niet alleen omdat ruiken zo menselijks is, ruikrobots hebben ook heel veel verschillende toepassingen: van een ruikmethode om kanker of bommen op te sporen tot het beoordelen of een wijn echt zo oud is als op het etiket staat.

Een deel van het mens-zijn is de wereld op een bepaalde manier voelen en dit allemaal tegelijk te doen.

De meest recente poging is van Blanca Lorena Villareal, een Mexicaanse postdoc die een sensor heeft ontwikkeld die de concentratie van chemische stoffen in de lucht kan meten. Met een geraffineerd algoritme kan deze sensor over een langere periode beter ruiken dan eerdere robotneuzen, dus de computer kan sneller de bron van de lucht achterhalen. Villareal heeft het algoritme zo gemaakt dat het reageert op lichaamssappen zodat haar robot ingezet kan worden bij het zoeken naar lichamen tijdens een natuurramp.

Tast

Constant de temperatuur, vochtigheid en druk van alles om ons heen voelen hoeft niet voor iedereen prettig te zijn. Daarom proberen onderzoekers zogenaamd e-skin te maken, om mensen met brandwonden te helpen of in te bouwen bij prothesen.

Vanuit technisch oogpunt is dit een uitdaging: de huid zou onder een lage spanning moeten staan (wat betekent dat huidige batterijen niet gebruikt kunnen worden), flexibel zijn en in staat zijn om meer dan één ding tegelijk te voelen. Maar vorig jaar lijkt een groep Israëlische onderzoekers hierin geslaagd te zijn. Zij hebben een groep organische moleculen (liganden) gebruikt die als een beschermlaag om gouden nanodeeltjes zitten. De nanodeeltjes worden gebruikt als sensoren en zijn geplaatst op een laag hars, waardoor het flexibel is en de nanodeeltjes met elkaar in contact staan. Zo kan deze harslaag met nanodeeltjes chemische stoffen detecteren, de temperatuur en luchtvochtigheid meten.

Gehoor

Mensen gebruiken robots om te horen sinds de uitvinding van de telefoon eind negentiende eeuw – maar robots echt laten luisteren is een andere zaak. De hardware is er al sinds 1876 in de vorm van een microfoon die in staat is om geluiden om te zetten in elektrische signalen. Maar tot voor kort kon de software deze geluiden nog niet interpreteren.

Wanneer een computer input krijgt door een microfoon, gaat de software deze elektrische signalen vergelijken met een gigantische database van signalen die daarop lijken. Zodra het programma snapt wat er gezegd is, kan de computer antwoorden met voorgeprogrammeerde spraak of geschreven taal.

Natuurlijk heb je wel eens Siri gebruikt of ben je een computergestuurd telefoonmenu tegengekomen en weet je dat dit niet heel soepel werkt. Maar deze software wordt met de dag beter en wordt overal gebruikt – van het besturen van een vliegtuig tot het overnemen van medische gegevens.

Zicht

Net zoals gehoor is zicht zo belangrijk voor mensen dat ze snel apparaten hebben ontwikkeld die dit ook kunnen. Dit in de vorm van oude fototoestellen, zoals de fotografie met koperen platen die werd ontwikkeld in1836. Ontwikkelingen gaan sindsdien steeds sneller – de kwaliteit verbeterde drastisch en de grootte van de toestellen werd steeds kleiner. Camera's zijn permanent aanwezig in het dagelijks leven, van camerabewaking tot skype en selfies.

Maar tegenwoordig willen we dat onze robotogen ook data kunnen interpreteren – specifiek de data die onze gezichten maken. De laatste ontwikkeling is gezichtsherkenningssoftware die door zowel de FBI als Facebook wordt gebruikt. Het werkt door verschillende vaste punten in iemands gezicht te herkennen (zoals een mond en ogen) en de afstand tussen deze punten te meten zodat de software een digitaal gezicht kan maken die het kan herkennen.

Hoewel Facebook claimt dat zijn systeem gezichten met een nauwkeurigheid van 97% kan herkennen, heeft het systeem wel moeite met 3D-beelden als ze niet in de camera kijken. Op dit moment lijkt er dus geen voortgang in te zijn, maar gezien de vraag ernaar zullen ontwikkelaars sneller dan we denken voorbij het 3D-probleem zijn.

Tegenwoordig zijn robots menselijker dan ooit. Ze maken de wereld mee in kleine flitsen van hoe wij dat doen. Sommige mensen voorspellen dat robots binnenkort alles om hen heen zullen kunnen voelen. Maar als onze ervaring een indicatie is, hebben de machines nog een lange weg te gaan.