Onderzoekers van de Technische Universität München hebben een kunstmatig intelligentiesysteem ontwikkeld dat tijdens het rijden interactief informatie verstrekt over de betekenis van oplichtende waarschuwingslampjes en de functie van minder bekende bedieningsorganen. Het systeem maakt gebruik van een spraakinterface die wordt ondersteund door illustraties en videobeelden en past de interactie aan het stressniveau van de automobilist aan. Het papieren instructieboekje wordt hiermee volgens de onderzoekers overbodig.

 

Het Avatar-based Virtual Co-driver System (AviCoS) maakt gebruik van een spraakinterface die volledige zinnen met behulp van kunstmatige intelligentie kan interpreteren en die een gesproken antwoord geeft dat wordt ondersteund door afbeeldingen en video’s op een beeldscherm. De multimediapresentatie wordt tijdens het rijden aangepast zodat de bestuurder niet wordt afgeleid. Als de rijsnelheid toeneemt worden eerst de video’s en vervolgens de afbeeldingen onderdrukt en blijft alleen de spraakinterface over. Ook detecteert de spraakinterface aan de hand van de toonhoogte en het ritme waarmee de bestuurder spreekt of deze zich in een stresssituatie bevindt en past de presentatie hierop aan.


Naast deze spraakinterface is er een ‘Touch & Tell-modus’ waarin de bestuurder bij het aanraken van een bedieningsorgaan gesproken uitleg krijgt over de functie ervan. Met name in een onbekende (huur-)auto kan dit nuttig zijn.