Dit artikel is gepubliceerd in het Parool op 8 november 2021.
Kunstmatige intelligentie gaat een steeds groter deel uitmaken van ons leven. En dat is niet zonder risico, stellen Kritika Maheshwari en Otto Barten. Ze pleiten voor het in kaart brengen van de risico’s.
Bij Facebook stapelen de schandalen zich op. De techgigant, die toch al onder vuur lag, werd onlangs door klokkenluider Frances Haugen – een voormalig medewerker – verder ontmaskerd. Haugen schrijft de bestorming van het Capitool, een Amerikaans trauma, direct toe aan de instellingen, of het verdienmodel, van het bedrijf van Mark Zuckerberg; de algoritmes die vooral op polarisatie gedijen. Ook buiten Amerika wijzen experts en betrokkenen naar Facebook als platform dat bijdroeg aan escalatie. De polariserende algoritmes zouden medeplichtig zijn aan het conflict in Ethiopië, de genocide op de Rohingya in Myanmar en de moslimhaat in India.
Dichter bij huis lezen we over racistische en discriminerende algoritmes in het kader van het toeslagenschandaal. Amnesty International deed onderzoek naar de algoritmes en concludeerde dat het door de Belastingdienst gebruikte systeem zich schuldig maakte aan etnisch profileren en aan discriminatie op basis van sociale klasse. Als je bedenkt dat het in deze zaak niet eens om geavanceerde kunstmatige intelligentie gaat en er desondanks zo’n fundamentele schending van burgerrechten door veroorzaakt werd, dan houd je je hart vast als het gaat om technologische ontwikkelingen die intelligenter zijn dan dit algoritme.
Het is dan ook van het grootste belang dat we deze voorbeelden aangrijpen voor een nieuw gesprek over in hoeverre we tech en kunstmatige intelligentie moeten toelaten in ons leven. De waarschuwingsschoten zijn stuk voor stuk ernstig en het is tijd dat we zowel langs politieke als technologische lijn met elkaar in gesprek gaan.
Als bedrijf of maatschappij vragen we iets van een algoritme; bijvoorbeeld om ons zo gericht mogelijk producten aan te bieden of om fraudeurs te identificeren. De praktijk laat vervolgens zien wat het levensgrote risico van die technologie kan zijn: een toename van polarisatie, van haat en discriminatie of het aanmerken als fraudeurs van duizenden onschuldige burgers. Hoe slimmer het algoritme, hoe groter de onbedoelde bijeffecten en hoe moeilijker de correctie. En in die constatering schuilt het gif: technologie kan slimmer zijn dan wij en corrigeren kan veel complexer zijn dan gewenst.
En algoritmes worden alleen maar nóg slimmer. Op dit moment hebben de meest omvangrijke neurale netwerken al 175 miljard neuronen. En dit aantal wordt elk jaar ongeveer tien keer groter. Dit betekent dat het waarschijnlijk is dat we over drie jaar neurale netwerken hebben met een complexiteit die niet voor die van onze eigen hersenen onderdoet. Dit wil niet per se zeggen dat kunstmatige intelligentie dan al op ons niveau kan denken (hoewel sommigen in de industrie stellen van wel), maar wel dat de hardwarematige voorwaarden hiervoor dan definitief geschapen lijken te zijn. Of en wanneer die vervolgens ook intelligenter wordt dan wijzelf, is speculatie, maar de kans dat dit gebeurt, wordt wel elk jaar groter. De meeste wetenschappers en technologen vinden dit bepaald geen ondenkbaar scenario. Om het simpel te stellen: nu al neemt kunstmatige intelligentie een loopje met ons. Stel je voor wat er kan gebeuren als dat neurale netwerk slimmer wordt dan ons eigen brein.
Het is de hoogste tijd voor digitale volwassenheid. Onze overheid – wij als samenleving ook – moet de ernstige risico’s met betrekking tot toekomstige kunstmatige intelligentie, de existentiële risico’s , niet alleen benoemen maar ook in investeren. Richt een Planbureau voor Existentiële Risico’s in, dat in de gaten houdt hoe groot de risico’s zijn en dat voorstellen doet over hoe die te reduceren. Benoem een directeur-generaal voor existentiële risico’s op het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties. En voeg existentiële risico’s vanwege kunstmatige intelligentie en andere nieuwe technologieën toe aan de Geïntegreerde Risicoanalyse Nationale Veiligheid.
In dit geval is voorzorg noodzakelijk. Kijk maar hoe ongelooflijk veel macht een marktpartij als Facebook met z’n potentieel gevaarlijke algoritmes al heeft. Een systeem dat intelligenter is dan wij laat zich niet met terugwerkende kracht beteugelen.
Otto Barten is directeur van het Existential Risk Observatory.
Kritika Maheshwari promoveert aan de Rijksuniversiteit Groningen op de ethiek van risico’s.