Met de opkomst van (digitale) camera's die op het hoofd (of lichaam) worden gedragen, komen er ook kansen om automatisch handbewegingen en -gebaren te herkennen. Dat komt niet alleen van pas bij revalidatie, maar kan ook de aansturing van digitale toepassingen vergemakkelijken. Aan de TU Eindhoven is Alejandro Betancourt cum laude gepromoveerd op een onderzoek dat precies dit mogelijk moet maken.
In de beelden die op het hoofd of lichaam gedragen camera's produceren (denk aan de camerabril van Google, hoewel die nog niet op de markt is) zijn vaak de handen van de drager te zien. Er bestaan ook al technieken om die handen als zodanig te herkennen, maar niet om te herkennen wat de handen 'zeggen'.
Om dit überhaupt mogelijk te maken, moesten veel hindernissen worden overwonnen, zoals de sterk wisselende lichtintensiteit bij het rondlopen, of de eenduidige identificatie van de rechter- en linkerhand (dat is minder gemakkelijk dan het lijkt). Tenslotte is de rekencapaciteit van apparaatjes als de Google Glass tamelijk beperkt. Om deze problemen op te lossen heeft de promovendus onder andere zelflerende programmatuur ('machine learning') toegepast.
Het proefschrift heeft als titel 'EgoHands, A Unified Framework for Hand-Based Methods in First Person Vision Videos'. Een exemplaar in pdf-formaat kan hier worden gedownload.