Je staat er niet dagelijks bij stil, maar onze hersenen kunnen eigenlijk twee trucjes, ook wel ‘cognitieve functies’ genoemd: type-I is snel en vooral associatief en intuïtief, type-II is langzaam en meer redenerend. Denk bijvoorbeeld aan: als je rijdend in een auto een onoverzichtelijke situatie op een onbekend kruispunt nadert, zullen de type-I processen in je brein ervoor zorgen dat je alvast het gas loslaat en tijdig snelheid mindert, zonder dat je daar heel bewust over nadenkt. Daarna zal je de situatie rond de andere voertuigen, verkeerstekens en de verkeersregels evalueren die je uiteindelijk vertellen of je voorrang hebt of juist moet stoppen. Dat laatste is typisch een type-II proces. Een interessante vraag daarbij is waarover we het hebben als we spreken van kunstmatige intelligentie van computersystemen. Simuleren die type-I of type-II processen, en wat betekent dat voor de plaats die deze systemen kunnen gaan innemen in een verbonden samenleving?
In de jaren negentig van de vorige eeuw werden de eerste serieuze stappen op het gebied van AI gezet: kunnen we de functies van de hersenen nabootsen in de computer? In die tijd was de ontwikkeling vooral gericht op het type-II denken: het creëren van een redenerend superbrein. De stille overtuiging in die tijd was dat op het gebied van intuïtie de mens de computer de baas zou blijven, in elk geval voorlopig. De praktische toepasbaarheid van die redeneersystemen bleef destijds helaas achter bij de misschien wat overspannen verwachtingen, hoewel je toepassingen als schaakcomputers, de TomTom-routeplanner en ‘Business Rule gestuurde systemen’ zeker wel als nuttige producten van deze ontwikkeling kunt beschouwen.
Op dit moment komt er een tweede en veel grotere golf van AI-toepassingen aan. Opmerkelijk genoeg is het nu juist het type-I denken waar de computer ineens grote stappen in maakt. Dit komt door een samenloop van drie ontwikkelingen:
- De enorme hoeveelheden beschikbare ‘Big Data’ om deze systemen op te trainen (waarbij ook de toenemende beschikbaarheid van Open Data een belangrijke factor is);
- Een vooruitgang in benodigde onderliggende algoritmes en wiskunde;
- (vooral) De ontwikkeling van de beschikbare geheugencapaciteit en rekenkracht.
Dit laatste is onder andere mogelijk met processoren die oorspronkelijk voor grafische kaarten ontwikkeld zijn (GPU’s), waardoor computers steeds beter worden in ‘Advanced Predictive Analytics’. Dit wordt niet bereikt door te rekenen en te redeneren, maar door complexe modellen te optimaliseren (‘trainen’) op deze grote hoeveelheden data, net zolang tot het model in staat is om zinvolle voorspellingen te doen over nieuwe cases, op grond van de eerder waargenomen patronen.
De computer is daar nu misschien klaar voor, geldt dat ook voor de mens? Dat een computer je kan verslaan met schaken, daar zijn we inmiddels al aan gewend, maar dat een computer iemand met jarenlange ervaring kan verslaan in het beoordelen van dossiers op potentiële fraude, het detecteren van cybercriminaliteit of zelfs behoorlijk nauwkeurig de uitkomst van een rechtszaak kan voorspellen op grond van alleen het dossier, dat is iets waar we nog niet aan gewend zijn. Toch hebben we ongemerkt al dagelijks met dit type systemen te maken. Voorbeelden zijn de algoritmes van Google, Facebook en Netflix die bepalen welke hits, posts, films en advertenties je voorgeschoteld krijgt. Ook virtuele assistenten zoals Siri, Google Now en Cortana worden elk jaar slimmer. Hetzelfde geldt voor computervertalingen zoals Google Translate die op dit moment in veel talen ‘context aware’ aan het worden zijn door het toepassen van neurale machine translation (NMT). In veel gevallen zijn deze vertalingen bijna niet meer te onderscheiden van een menselijke vertaler. Computers kunnen inmiddels al beter liplezen dan mensen. Misschien nog wel het meest verontrustende: computers zijn inmiddels net zo goed als mensen in het invullen van anti-robotfilter puzzels als ‘CAPTCHA’ Completely Automated Public Turing Test To Tell Computers and Humans Apart). Ook in andere ‘directe confrontaties’ hebben computers de mens al verslagen. Bekend zijn Jeopardy met IBM Watson en redelijk recent ook Go met Google Deepmind. Die laatste heeft nu als volgend doel gekregen om menselijke tegenstanders te verslaan bij het real-time strategische computerspel Starcraft II.
Ook op het creatieve vlak zijn computers zich trouwens aan het ontwikkelen. Neurale netwerken kunnen al foto’s omwerken naar ‘schilderijen’ in de stijl van willekeurige schilders. Capgemini Noorwegen liet in samenwerking met Microsoft afgelopen kerst de computer een kerstlied componeren door het twee weken lang te trainen op 50 bestaande kerstliedjes. Op dit punt lijkt de mens de computer nog wel de baas, maar voor hoe lang nog?
Voor de gehele samenleving, maar ook zeker voor het domein openbare orde en veiligheid, liggen hier enorme kansen en uitdagingen.
Kansen omdat het nog redelijk onontgonnen terrein is waarin ongetwijfeld nog heel veel prachtige toepassingen verscholen zitten. Met name voor toepassingen waar geen uitputtende expliciete regels geformuleerd kunnen worden, maar waar wel veel ervaringsgegevens voorhanden zijn kunnen de nieuwe AI-systemen goed worden ingezet. Uitdagingen omdat zowel de overheid als de burgers hier nog niet aan gewend zijn en we nog niet alle valkuilen kennen. Hoe ‘slim’ wil de burger een systeem hebben voordat het ongemakkelijk wordt en als een bedreiging van de privacy gaat voelen? Welke data willen en mogen we eigenlijk gebruiken en hoe reageert het systeem als data vervuild zijn? Kunnen ongewenste effecten als ‘etnisch profileren’ via historische gegevens door je kennissysteem worden overgenomen? Hoe leg je als rechter uit aan een verdachte dat hij naast een boete ook een taakstraf krijgt, omdat het systeem de kans op recidive hoog inschat en er zo’n complex rekenmodel achter zit dat we eigenlijk niet kunnen terugredeneren waarom het systeem die kans eigenlijk zo hoog inschat? Want dat is misschien wel het grootste gevaar met die ‘type-I’ systemen: het is en blijft geautomatiseerde intuïtie. Als mens willen we dat toch vertaald hebben in redenen, logica en er vervolgens over kunnen discussiëren. Misschien is dat iets voor de volgende AI-golf?