De opkomst van digitale camera’s die op het hoofd worden gedragen, bijvoorbeeld verwerkt in een bril, biedt kansen om automatisch handbewegingen en -gebaren te herkennen. Er zijn al goede technieken om handen automatisch te laten herkennen op die beelden, maar er was nog geen goede manier om de apparaten te laten zien wat die handen zeggen. Onderzoeker Alejandro Betancourt van de TU Eindhoven is cum laude gepromoveerd op zijn onderzoek dat dit mogelijk maakt.

Daartoe moest een aantal problemen worden opgelost. Zo heeft de camera te maken met sterk wisselende lichtintensiteit doordat de drager zich beweegt. Ook was het nog niet goed mogelijk om de linker- en rechterhand apart te identificeren en om automatisch te herkennen wat de houding en beweging van de handen zijn. Hierbij moest rekening worden gehouden met het feit dat de rekencapaciteit van een digitaal apparaat zoals een Google Glass beperkt is, maar wel direct gebaren moet herkennen. Onderzoeker Betancourt paste onder meer Machine Learning toe.

De Colombiaanse onderzoeker denkt dat er een groot scala aan toepassingen mogelijk wordt met zijn technieken, net zoals de XBox Kinect inmiddels ook voor veel meer wordt gebruikt dan alleen voor de spelcomputer. Als voorbeeld van een medische toepassing noemt hij storingen in de motoriek, die met zijn technieken automatisch gemonitord en herkend kunnen worden. Verder opent de automatische herkenning van handgebaren de mogelijkheid om het camera-apparaat of digitale toepassingen die erop draaien, contactloos aan te sturen.