In deze tijd  van het jaar hoor je veel voorspellingen. Soms zijn die verontrustend en rakelen ze angsten op, waar je liever niet aan zou willen denken. Dat overkwam mij, toen ik een artikel las over het vastleggen van al onze gesprekken. Dat zijn dingen die alleen maar gebeuren in de boeken van George Orwell, denk je misschien. En dat dacht ik ook, totdat ik wat beter keek, of eigenlijk beter luisterde… Toen begreep ik dat we in een nieuw tijdperk leven: men legt de gesprekken niet alleen vast in massageheugens, er wordt nu ook gewerkt aan manieren om machines de inhoud van onze gesprekken te laten begrijpen. Daar worden steeds geavanceerdere zoekalgoritmes en analysemethoden voor ontwikkeld.

Iedereen die geïnteresseerd is in intelligentie (kunstmatig of niet), weet dat spraakherkenning daar een belangrijk onderdeel van is. Na een halve eeuw van kleine stapjes van verbetering op dit gebied, is deze wetenschap gegroeid; in de breedte en in de diepte. De meeste vooruitgang wordt tegenwoordig geboekt met diepe neurale netwerken, vooral de zogenaamde “recurrent neural networks”. Die zijn essentieel voor het leren van door de mens gesproken taal door machines.

Het is niet verrassend dat dit onderzoek vooral wordt gedaan door Google, Apple, Amazone en Microsoft, want de machines die ons horen praten zijn niet alleen onze telefoons en computers, maar alles wat verbonden is met het Internet of Things (Internet der Dingen), misschien moeten we het binnenkort hebben over het Internet der Oren.

Een Franse versie van het artikel van James Somers is gepubliceerd in het januarinummer van “Courier International”. Het werpt een interessante vraag op: als dit aan de gang is, hoe gaat dat wijdverbreid vastleggen van wat we zeggen de manier waarop we spreken beïnvloeden?