Het publieke debat over AI wordt gevoerd door twee tegenpolen. Enerzijds is technologie als AI noodzakelijk om de samenleving veiliger te maken. Anderzijds heerst de angst dat AI onze vrijheid en veiligheid beperkt – hetzij door privacy-schendende multinationals, hetzij via big brother-achtige overheden. De werkelijkheid is complexer. Nuance verdwijnt wanneer de bevolking dagelijks wordt gebombardeerd door Hollywood films en (AI-gestuurde) media. Slecht nieuws krijgt nu eenmaal meer aandacht. Door alle verhalen over robots en ‘foute’ AI die onze vrijheid en veiligheid bedreigen is het moeilijk de science van de fictie te onderscheiden.
AI als spiegel van de mens: een set aan technieken om het menselijk denken en doen na te bootsen.
Artificial intelligence is een snel ontwikkelende tak van wetenschap, gericht op het ontwikkelen van algoritmes en machines die menselijk gedrag kunnen nabootsen. Doorbraken in machine learning en data-opslag stellen ons in staat om slimme algoritmes te ontwikkelen. Veel organisaties (publiek en privaat) binnen het veiligheidsdomein passen deze technologieën dagelijks toe om processen te optimaliseren, te voorspellen en kosten te besparen.
Het is belangrijk dat we ons realiseren dat AI werkt op basis van data(sets) en algoritmes – beiden worden door mensen geproduceerd. Met deze data en algoritmen kunnen machines menselijk gedrag nabootsen, zie het als een digitale medewerker.
AI leert snel door goede data, maar deze afhankelijkheid heeft ook een keerzijde. Zonder data van voldoende kwaliteit en kwantiteit zal een AI-toepassing niet erg nauwkeurig zijn. AI bevat in de beginfase veel kinderziektes. Wanneer ingevoerde data bijvoorbeeld niet volledig of representatief is, zie je al snel dat AI tot discriminerende resultaten komt. Dit is extra problematisch binnen het veiligheidsdomein, vanwege de gevoelige data en de impact op het individu. Dergelijke berichten leiden tot wantrouwen in de samenleving. De oorzaak van dit probleem ligt echter niet in de technologie, maar in de (mogelijk onethische) toepassing ervan door mensen.
Ontwikkelaars én bestuurders moeten zich bewust zijn van ethische complicaties om de toepassing van AI te verbeteren en tegelijkertijd verwachtingen te managen. Enerzijds dient de performance van AI goed gemonitord te worden. Dit kan bijvoorbeeld via het vier ogen principe, waarbij mensen de besluitvormingsprocedure van de machine controleren en verifiëren. Anderzijds dienen organisaties in het veiligheidsdomein te accepteren en te anticiperen op het feit dat AI fouten kan maken, zeker in het begin. Bovendien is AI nooit 100% foutloos, net als mensen dat niet zijn.
Transparantie is een ander groot onderwerp binnen AI. Besluitvorming van AI over bijvoorbeeld de correctheid van je belastingaangifte, risicoprofielen voor fraude of het voorspelde brandgevaar van je woning, dienen verklaarbaar en uitlegbaar te zijn. Ook hier is AI te spiegelen met onszelf. Menselijke (of bestuurlijke) besluitvorming is vaak niet transparant maar achteraf wel uitlegbaar. Hetzelfde geldt voor AI, die beslissingen niet maakt op basis van regels (deterministisch) maar via kansberekeningen. Berekeningen zijn vaak moeilijker uit te leggen aan mensen dan een beslisboom. Een uitleg vergroot het vertrouwen en daarmee de acceptatie van AI door de gemiddelde burger. Evalueren hoe een AI presteert in vergelijking met de menselijke medewerker, met andere woorden wiens bias minder duidelijk is, nuanceert het debat. De vraag moet niet zijn hoe goed of slecht een AI toepassing is, maar hoe goed de AI is in vergelijking met de mens.
Impact van AI op maatschappelijke veiligheid
Veel mensen vrezen dat AI een gevaar zal vormen voor de maatschappij. Maar momenteel speelt AI geen zichtbare rol in levensbedreigende situaties binnen het veiligheidsdomein . Waar AI momenteel wél impact heeft is de economie en werkgelegenheid. Onrust en gebrek aan vertrouwen voorkomt investering in nieuwe technologie, maar juist hier kan het veiligheidsdomein niet achterblijven.
Door criminelen wordt steeds meer gebruik gemaakt van AI. Denk aan de cybercriminelen die 220.000 euro buitmaakten door stem en spraak van een CEO na te bootsen (Wall Street Journal, 2019 ). Bedrijven en overheden tonen echter weinig initiatief om de markt en maatschappij in te lichten. Informeren over risico’s zoals datalekken, het binnendringen van accounts of het doorverkopen van persoonlijke data worden gezien als bijzaak. Dit maakt het gebrek aan ‘awareness’ over data, digitale veiligheid en AI in de maatschappij tot een groot probleem. Want het is diezelfde maatschappij die het grootste veiligheidsrisico loopt.
Het veiligheidsdomein dient hier een belangrijke rol en een voortrekkers rol te spelen. Door preventief te communiceren en op te leiden (in samenwerking met academica) om bijvoorbeeld data- en security-bewustzijn te creëren en door in te grijpen wanneer dit fout gaat. Als we kijken naar hedendaagse opleidingen zien we namelijk weinig data, statistiek of cybersecurity terugkomen. Terwijl de arbeidsmarkt dit wel verwacht en de vraag ernaar in de toekomst alleen maar zal toenemen. Deze ‘digital skill gap’ (het ontbreken van digitale vaardigheden in personeelsbestanden ) is een van de grootste uitdagingen voor het veiligheidsdomein én de maatschappij.
Beeldvorming van AI in de samenleving
Wanneer AI ethisch de fout in gaat bereikt dit al snel het nieuws, zoals Tay, de chatbot van Microsoft die extreemrechtse leuzen aanleerde, of de recruitment engine van Amazon, die een voorkeur had voor blanke mannen. Goed functionerende AI krijgt weinig aandacht. In tegendeel: goede AI noemen we al snel geen AI meer, maar wordt deel van ons dagelijks bestaan. Zie: Google, het weerbericht en zelfrijdende auto’s. “AI is alles wat machines nog niet kunnen”, aldus Tesler (1979). Wat zou bijvoorbeeld de reactie zijn wanneer AI succesvol bosbranden kan voorspellen waardoor de brandweer preventief kan handelen? Binnen een paar jaar zouden we er niet meer van opkijken.
In onze optiek heeft de maatschappij in plaats van focus op de buzz meer belang bij uitleg; over het functioneren van AI, het besluitvormingsproces en waar de besluiten op gebaseerd zijn. Enerzijds dient de besluitvorming van AI transparant en uitlegbaar te zijn aan zowel een CIO als een gewone burger. Anderzijds dient het begrip van AI binnen de maatschappij vergroot te worden. Alleen met een combinatie van deze twee elementen kunnen we AI een plaats geven in onze huidige samenleving en het imago van AI positief beinvloeden. Het is mede aan het veiligheidsdomein om de negatieve beeldvorming om te draaien: door frequenter en overtuigender de kansen van AI te laten zien en om nuance te aan te brengen. Geen zwart/wit discours, maar een maatschappelijk debat over hoe AI verantwoord in te zetten is. Op dezelfde manier dat we eerder discussies voerden over de komst van technologie als radio, TV en het internet. Hier ligt een grote taak voor de Nederlandse overheid. De AVG, Nationale AI-Cursus en het AI-Actieplan van de Europese Commissie zijn stappen in de goede richting.
Nuancering van AI-ontwikkeling
Dit gaat niet alleen over AI, algoritmes en technologie maar ook over de mensen en bedrijven als Google en Amazon, of overheden zoals de VS en China. Enerzijds verwerpen we hoe China AI via cameratoezicht toepast voor doeleinden als ‘social ranking’. Anderzijds is de Nederlandse overheid soms nog niet in staat om papieren processen te digitaliseren. Hierdoor ontstaat een breuk in de discussie over AI, tussen de mogelijkheden en de gevaren.
Dezelfde technieken worden ingezet voor negatieve doeleinden, om te spioneren of rekruten te filteren, maar ook om mensen te helpen zoals bij routeplanning, kankeronderzoek of het voorspellen van oogst voor boeren. Sterker nog, de AI-methoden om bijvoorbeeld rekruten te filteren (wat leidde tot discriminatie) waren oorspronkelijk juist ontwikkeld om discriminatie aan te tonen. Toch voert negatieve aandacht de boventoon, wat resulteert in een technofobische trend in de samenleving. AI heeft zowel kosten als baten die zorgvuldig geëvalueerd moeten worden. Maar het proces van technologische vooruitgang is moeilijk omkeerbaar.
Ons advies
- Faciliteer een brede discussie over AI en nieuwe technologie, waarin zowel de kosten als baten belicht worden. Juist hierdoor kan de maatschappelijke angst voor nieuwe technologie genuanceerd en deels weggenomen worden.
- Overheden moeten inzetten op een goede interne (data) infrastructuur om de adoptie van nieuwe AI-technieken te versnellen. Dit is een investering voor de lange termijn. Veel (legacy) systemen binnen overheden zijn niet klaar voor nieuwe technologie als AI, zowel qua snelheid als data kwaliteit. Het updaten van zulke systemen gebeurt vaak reactief, bijvoorbeeld wanneer er grote persaandacht of onrust ontstaat. Wees proactiever. Op dit moment vormt het gebrek aan moderne ICT-infrastructuur de grootste bottleneck voor het adopteren van nieuwe AI-technieken binnen de overheid.
- Investeer in het opleiden van intern personeel voor omgang met nieuwe technologie. Veel overheidsmedewerkers hebben weinig kennis van data, statistiek, cybersecurity of eenvoudige digitale skills. Dit vormt onderdeel van de digital skill gap: Hoe om te gaan met niet-technisch personeel binnen een arbeidsmarkt die steeds meer technisch van aard wordt? Dit is een van de grootste uitdagingen voor de komende jaren.
- Zowel leveranciers van software en technologie als afnemers moeten proactief handelen in het begrijpen van technologie en diens (veiligheids)risico’s. Deel best practices en lessons learned! Ook is het de taak van de overheid om middelen als opleidingen en platformen beschikbaar te stellen. Samenwerking tussen overheid, verzekeraars, ontwikkelaars en afnemers is per slot van rekening cruciaal voor een veilig Nederland.
Conclusie
De AI-discussie wordt gevoed door te veel woorden en te weinig daden. Naast meer wetgeving en beleid is het van belang ook actief onderzoeksresultaten om te zetten in productie. Continue experimenten en ‘Proof of Concepts’ met AI hebben weinig betekenis voor de maatschappij. Het verschil wordt gemaakt door ethische inzet van AI en het belichten van de kansen die het biedt. Technologie is een middel, geen doel op zich. Als mensen hebben wij vaak moeite met verandering en AI is hier ook onderdeel van. Zie erop toe dat AI goed ingezet wordt, voor de veiligheid van het individu én de maatschappij.