Onderzoekers van het Georgia Institute of Technology (GeorgiaTech) hebben een muzikale robot ontwikkeld die reageert op de muziekbeleving en -voorkeur van de luisteraar. De robot doet aanbevelingen voor weer te geven songs, danst op de muziek en zorgt voor de beste geluidsweergave gebaseerd op feedback van de luisteraar. De onderzoekers verwachten dat de robot met de naam Shimi in de zomer van 2013 voor consumenten te koop zal zijn.

 

Shimi is in feite een interactief dockingstation voor een Android smartphone dat gebruik maakt van de apps op de telefoon en van de mogelijkheden voor omgevingsdetectie en muziekweergave ervan. Door gebruik te maken van de camera en gezichtsherkennings-software volgt de robot de luisteraar in een kamer en positioneert de luidsprekers voor de beste weergave. Als de luisteraar een rime klapt of tikt zoekt Shimi in de muziekbestanden op de telefoon naar de song die hier het beste bij past. Als de weergave start danst de robot op de muziek.

 

De onderzoekers werken op dit moment aan de ontwikkeling van apps die reageren op hoofdschudden om een volgende song te starten, of op bewegingen van de handen om het volume te wijzigen.