
Robot leert knuffelen door mensen te observeren
Wetenschappers hebben een nieuwe robot ontwikkeld die non-verbaal sociaal gedrag kan vertonen. De robot leert door mensen te observeren. Zo kunnen ze bijvoorbeeld knuffelen of handen schudden. Dat blijkt uit onderzoek van het Electronics and Telecommunications Research Institute (ETRI) in Korea.
De robots kunnen zelfstandig sociaal gedrag aanleren door interacties tussen mensen te observeren. Dat kan doordat er een speciaal kunstmatig neuraal netwerk is aangelegd. Dat netwerk is getraind door een dataset met informatie van vijfduizend menselijke interacties in tien verschillende scenario's.
Deze dataset is gebruikt om de robots te trainen met ruim 110.000 korte video's waarin mensen specifiek non-verbaal sociaal gedrag uitvoerden. De robots kunnen in ieder geval vijf non-verbale gedragingen, namelijk buigen, staren, handen schudden, knuffelen en hun eigen gezicht verstoppen.
Wat is deep learning?
Een techniek die computers in staat stelt om nieuwe dingen te leren van grote hoeveelheden informatie. Voorbeelden zijn vertaalprogramma's of gezichtsherkenningssoftware.
Deze robots kunnen worden ingezet op meerdere manieren. Bijvoorbeeld in de thuiszorg. Mensen die deze robots over de vloer hebben, kunnen zich minder alleen voelen en zelfs het idee hebben dat hun emoties worden begrepen. Ook kunnen de robots worden ingezet voor educatieve doelen.
Onderzoekers willen dat de robot nog menselijker gedrag gaan vertonen. Ze moeten sneller en vaker reageren zoals mensen dat ook doen in een sociale situatie. De onderzoekers willen het gedrag uitbreiden, zodat de robot ook complexer gedrag kan vertonen.
De robots worden nog getest in omgevingen met mensen. De wetenschappers zeggen dat het belangrijk is dat de robots ook tegen achtergrondgeluiden kunnen, bijvoorbeeld in een situatie met meerdere mensen.
NUjij: Uitgelichte reacties