Artificiële intelligentie (AI) leidt in het huidige publieke debat meestal tot een hype of tot angst. Gepresenteerd als technisch geschenk zal AI kanker genezen, klimaatopwarming oplossen en ongelijkheid de wereld uit helpen. Neergezet als monsterlijke machine is AI een groot onheil dat zich over ons ontvouwt: van discriminerende algoritmes tot zelflerende oncontroleerbare machines die zich uiteindelijk tegen de mensheid zullen keren.
‘De machine’ wordt centraal gezet, als grote boosdoener of als heilige graal
Beide voorstellingen van AI zijn te simplistisch: ‘de machine’ wordt centraal gezet, als grote boosdoener die gemeenten overneemt en dringend gereguleerd moet worden of als heilige graal en ‘spiritueel baken’. In werkelijkheid is het niet de machine, maar de mens die zorgt voor het falen of succes van AI. Er is daarom meer aandacht nodig voor de menselijke kant en de diversiteit in zowel falende als succesvolle AI. Ons onderzoek naar AI in de publieke sector bevestigt dit.
Variëteit aan menselijk falen
Allereerst faalt 'de monsterlijke machine’ niet slechts op één manier. Er zit een variëteit aan menselijk falen achter. Soms faalt een systeem door nalatigheid: onzorgvuldig werk met als gevolg simpele gebreken, onvolkomenheden, ongelukken of miscommunicaties. Zoals bij de wereldwijde uitval van informatietechnologie in juli 2024, waarbij miljoenen Windows-apparaten crashten door een bug in een software-update.
84 van de 110 onderzochte gemeenten voldoen niet aan de vereisten van de Algemene Verordening Gegevensbescherming
Ander falen ontstaat door roekeloosheid. Zo blijkt uit onderzoek van Argos dat Nederlandse gemeenten privacywetgeving niet serieus genoeg nemen: 84 van de 110 onderzochte gemeenten voldoen niet aan de vereisten van de Algemene Verordening Gegevensbescherming (AVG). Als een AI-project niet in lijn is met deze regels, kan gevoelige of foutieve persoonlijke data (illegaal) worden gebruikt, wat kan leiden tot discriminatie of fouten.
De schadelijkste vorm van falen: directe en opzettelijke, of indirecte en institutionele discriminatie en racisme
De schadelijkste vorm van falen is wanneer er sprake is van directe en opzettelijke, of indirecte en institutionele discriminatie en racisme. AI weerspiegelt hierbij de vooroordelen en discriminatoire praktijken die zijn ingebed in de Nederlandse samenleving, zoals racistische stereotypen over etnische minderheden. Het kindertoeslagenschandaal is hiervan in Nederland het meest schrijnende en bekende voorbeeld.
AI-succes is meer dan techniek
Ook de succesverhalen van AI zijn complexer dan de huidige hype suggereert. Kunstmatige Intelligentie wordt bejubeld als grote belofte, getuige de recente Nobelprijs voor de Natuurkunde die ging naar twee AI-pioniers. Maar het succes van AI zit vaak niet in het technisch vernuft. Het zit in de manier waarop het wordt ingezet en is daarmee volledig afhankelijk van mensen.
AI-systemen zijn succesvol wanneer mensen zorgen voor het snel identificeren en herstellen van fouten
AI-systemen zijn ten eerste succesvol wanneer mensen zorgen voor het snel identificeren en herstellen van (onvermijdelijke) fouten. Ten tweede is AI succesvol wanneer mensen voorzichtigheid inbouwen, waardoor risico’s worden beperkt. Denk aan systemen die getraind worden op correcte en uitgebreide data, in lijn met privacy en andere wetgeving.
Ten slotte zijn AI-systemen succesvol wanneer ze niet gericht zijn op het surveilleren van kwetsbare groepen, maar juist om mensen en de samenleving te ondersteunen en hun welzijn te verbeteren vanuit een fundament van vertrouwen. Zo pleiten ook steeds meer mensen voor de kritische betrokkenheid van burgers bij technologische ontwikkelingen.
Zowel het falen als de successen van AI laten zien hoe menselijk digitale technologieën zijn
Zowel het falen als de successen van AI laten zien hoe menselijk digitale technologieën zijn. Ze zitten vol onvolkomenheden en imperfecties, foute oordelen en pragmatisme – maar ook vol mogelijkheden om zorgzaam te zijn en verantwoordelijkheid te nemen.
Humane AI
Het succes én falen van AI worden bepaald door hoe mensen technologie gebruiken en vormgeven. Daarom pleiten we voor humane AI, vanuit het besef dat AI niet losstaat van de mens, maar vervlochten is met ons handelen.
Perfecte AI-systemen bestaan niet, net zomin als er perfecte mensen zijn
Door de menselijke aspecten van AI centraal te stellen, kunnen we verantwoordelijkheid dragen voor zowel de mogelijkheden als de beperkingen ervan. Perfecte AI-systemen bestaan niet, net zomin als er perfecte mensen zijn. Maar met meer aandacht voor de mens achter ‘de machine’ kunnen we het falen van AI corrigeren én AI gebruiken om zijn eigen potentieel te optimaliseren.
Shirley Kempeneer is universitair docent bestuurskunde aan Tilburg University. Sofia Ranchordás is er hoogleraar bestuursrecht en Simone van de Wetering werkt er als postdoctoraal onderzoeker bestuurskunde. Dit artikel is gebaseerd op hun recent gepubliceerde hoofdstuk AI failure, AI success, and AI power dynamics in the public sector (2024).
Foto: Michael Kappel (Flickr Creative Commons)