Direct naar artikelinhoud

ROBOT lijkt straks nog meer op ons

Robots en avatars die ons glazig en grijnzend aankijken? Het sociale netwerk Facebook wil van zijn mensachtige robots minder enge gesprekspartners maken door hen op gelaatsuitdrukkingen te laten oefenen.

Het was een opvallende noviteit, eerder deze maand, toen de jury van de Taylor Wessing Portretprijs het portret van ene Erica nomineerde. Erica is een robot, met een wat afwezige blik. Maar ze lijkt op een jonge vrouw, griezelig veel zelfs. Om die reden mag haar portret meedoen aan de prijs, die eigenlijk voor menselijke portretten is bedoeld. Ze werd gecreëerd door Hiroshi Ishiguro, professor robotica aan de universiteit van Osaka, Japan.

Wie langer naar robots zoals Erica kijkt, krijgt een ongemakkelijk gevoel. Het klopt net niet. Levensecht en tegelijk levenloos. Dat ongemakkelijke gebied staat bekend als de uncanny valley. Het is het gebied waar afkeer het wint van affectie, al zal Erica's maker daar anders over denken.

Facebook probeert het ongemakkelijke gevoel weg te nemen door robots natuurlijker te laten reageren. Onderzoekers van Facebooks AI-lab hebben een systeem gemaakt met reacties gedreven door algoritmen. Die algoritmen zijn getraind door de machine naar honderden Skype-video's te laten kijken. Door heel exact te bekijken hoe de ene gesprekspartner op de ander reageert met minieme veranderingen in de gezichtsuitdrukking, kan de robot leren, zo was het idee.

Zelfstudie

In het trainingsmodel werd het gezicht opgedeeld in 68 belangrijke stukjes. In een normale conversatie reageren mensen op elkaar via knikjes, kleine veranderingen bij de ogen of mondbewegingen. Al deze veranderingen geven de spreker het prettige gevoel - als het goed is - dat er naar hem wordt geluisterd. Concreet: als iemand een grap maakt, is het de bedoeling dat de ander lacht of op zijn minst zijn mond tot een glimlach vormt.

De trainingen hadden succes, claimen de onderzoekers. Een testpanel bekeek de reacties van de robot op een mens, en andersom. Het panel betitelde de animaties van de robot als ongeveer even realistisch als die van een mens.

Theo Gevers, hoogleraar computervisie aan de Universiteit van Amsterdam en gespecialiseerd in automatische gezichtsanalyse, reageert terughoudend op de claims. "Het klinkt indrukwekkend: honderden Skype-video's. Maar voor het trainen van zogenoemde periodiek terugkerende neurale netwerken voor het herkennen van dynamische expressies, is die hoeveelheid data toch heel beperkt. Daarom hebben ze gekozen voor een ander soort neurale netwerken, die getraind zijn met kleine stukjes video's. Het nadeel daarvan is dat je harde overgangen ziet tussen de verschillende uitdrukkingen."

Deze weinig vloeiende overgangen én beperkte data maken dat Gevers 'niet zo heel veel vertrouwen' in het onderzoek van Facebook heeft. Daarnaast benadrukt hij dat de tests plaatsvinden onder laboratoriumomstandigheden. "Ze hebben niet voor niets Skype-sessies gebruikt, met de juiste belichting en een gezicht netjes frontaal in beeld. In het café gaat dat niet werken, dit is echt een eerste stapje."

Zelf doet Gevers ook onderzoek naar gezichtsherkenning en expressies via zelflerende netwerken. De ontwikkelingen gaan hard: "Een paar jaar geleden waren we al heel blij als een machine zes basisemoties kon onderscheiden op basis van een video die hem werd getoond." Daarna baarde hij opzien door met zijn software de Mona Lisa te analyseren. De conclusie destijds: ze kijkt voor 83 procent vrolijk.

Het onderzoek naar het analyseren van emoties via video's loopt door, maar ondertussen werkt Gevers net als een aantal andere bedrijven aan software die het mogelijk maakt videobeelden met elkaar te mengen. Op die manier kun je bijvoorbeeld Trump iets laten zeggen wat hij nooit heeft gezegd, inclusief de juiste gezichtsuitdrukking.

Daar kun je enge dingen mee doen, geeft Gevers toe, maar voor hem is de ultieme uitdaging om de software zo goed te maken dat een 'nep-Trump' er geheel natuurlijk uitziet op video. "De leek ziet het verschil niet. Voor ons gaat het om de heilige graal als het ons lukt het gezicht zo nauwkeurig in kaart te brengen dat je er zonder zichtbare overgangen iedere emotie op kunt projecteren."

Gevers is niet de enige die met 'Photoshop voor video' bezig is. Zo ontwikkelde de Amerikaanse universiteit Stanford de software Face2Face, die eerder dit jaar groot in het nieuws kwam. The Guardian noemde het 'the future of fake news'. Video zal nooit meer hetzelfde zijn.

De software van Sightcorp (een spin-off van de Universiteit van Amsterdam waarin Theo Gevers ook actief is) analyseert de uitdrukkingen van mensen die ergens naar kijken, reclame bijvoorbeeld. Kijken ze blij, opgewonden of geïrriteerd? Een marketeer wil dat graag weten. Ook een bedrijf als Affectiva is actief op dit front.

Controversieel

Een stuk controversiëler is het Israëlische bedrijf Faception. Het bedrijf zegt via zelflerende algoritmen zo goed gezichten te kunnen analyseren dat potentiële terroristen voortijdig worden ontmaskerd. Facial Personality Profiling noemen ze dat. Het doet denken aan de futuristische facial recognition technology in de film Minority Report.

Ook controversieel: het recente onderzoek van Stanford waarbij het systeem werd getraind met duizenden foto's van homo's en hetero's. Hierna zou het bij een nieuwe foto iemands geaardheid kunnen bepalen. Het onderzoek wierp niet alleen ethische vragen op, kenners zetten ook vraagtekens bij de betrouwbaarheid.

Vorig jaar vond een modellenwedstrijd plaats waarbij de mannequins werden beoordeeld door een algoritme. Dit zou objectief naar zaken als de symmetrie van het gezicht moeten kijken, na geoefend te zijn met een grote dataset van foto's. Er bleken geen modellen met een donkere huid bij de winnaars te zijn. Het ontbreken van donkere gezichten in de trainingsdata werkte door in het uiteindelijke algoritme, bleek achteraf. Een bekende valkuil.