Waarom kunstmatige intelligentie nog altijd dom is

29 oktober 2019, 13:16
Waarom kunstmatige intelligentie nog altijd dom is
Waarom kunstmatige intelligentie nog altijd dom is

Het thema ‘kunstmatige intelligentie’ (Artificial Intelligence, AI) is een grote hype. Overal en in alle media kan men daarover lezen, horen en zien. Onderzoekers van het Instituut voor Neuro-informatica van de RUB (Ruhr-Universität Bochum) houden zich al 25 jaar met dit onderwerp bezig. Volgens hun aanpak moeten nieuwe strategieën eerst het machinaal leren efficiënter en flexibeler maken, zodat AI serieus en intelligent kan handelen.

Machinaal leren

Volgens Laurenz Wiskott van de leerstoel Theorie van Neurale Systemen van de RUB bestaan er momenteel twee succesvolle vormen van machinaal leren: ‘diepe neurale netwerken’ (Deep Learning) en ‘versterking-leren’ (Reinforcement Learning). In beide gevallen wordt een systeem getraind voor een specifieke taak, zoals het nemen van een beslissing. Het gewenste resultaat wordt daarbij samen met de opdracht gegeven. Na een paar runs leert het AI-systeem deze taak dan steeds sneller op te lossen – vaak beter dan de mens.

 
Laurenz Wiskott (links) en Tobias Glasmachers (rechts) oriënteren zich ook aan de processen van het menselijk brein (Foto: Roberto Schirdewahn, RUB).

Gebrek aan intelligentie

Het probleem met deze vormen van machinaal leren is dat ze zelf vrij dom en bovendien oud zijn: deze technieken dateren uit de jaren ’80 van de vorige eeuw. Dat ze überhaupt gebruikt kunnen worden is alleen maar te danken aan het feit dat er tegenwoordig meer rekencapaciteit en gegevens beschikbaar zijn. Vandaag de dag kunnen de eigenlijk inefficiënte leerprocessen met hun ontelbare herhalingen in uiterst korte tijd worden voltooid, zodat een domme training in een aanvaardbare tijd kan worden afgewerkt.

Maar de vraag blijft: hoe kan machinaal leren flexibeler worden gemaakt? Dom getrainde systemen zijn immers alleen goed in precies dat ene aspect waarvoor ze zijn opgeleid. Zulke systemen kunnen hun capaciteiten niet generaliseren of overdragen op verwante taken.

Nieuwe benaderingen

De onderzoekers richten zich daarom op nieuwe strategieën die AI-systemen helpen om zelfstandig structuren te ontdekken. Een voorbeeld hiervan is de taak om clusters te vormen of langzame veranderingen in video’s te onderkennen en te evalueren. Door dit ‘leren zonder toezicht’ kunnen computers de wereld alleen ontdekken en zo taken aanpakken waarvoor ze niet expliciet zijn opgeleid.


 
Reacties worden ingeladen...
gerelateerde items