Komende kabinetsperiode zal AI waarschijnlijk veel vaardiger worden dan het op dit moment is, misschien zelfs wel menselijk niveau bereiken. Dat is een fundamentele verandering voor de maatschappij, die ongekende risico’s met zich meebrengt.
Deze risico’s kunnen gereduceerd worden door goed beleid. Maar welke partij doet het meest zijn best om de risico’s van frontier AI te reduceren? Wij zochten het uit!
PvdD
“Het moment waarop kunstmatige intelligentie (AI) slimmer wordt dan de mens komt steeds dichterbij. Van een systeem dat je niet begrijpt, kun je het gedrag niet voorspellen. Bovendien kunnen kwaadwillenden deze intelligente AI als wapen inzetten. Dit alles brengt grote risico’s met zich mee voor de mensheid. Nederland sluit zich aan bij de oproep van deskundigen om de ontwikkeling van AI-systemen die krachtiger zijn dan GPT-4 minstens 6 maanden te pauzeren, en werkt internationaal samen om veiligheidsmaatregelen te ontwikkelen en in te voeren.”
Ons advies: De PvdD is van alle partijen het verst gevorderd met het erkennen en aanpakken van AI-risico’s. Het verkiezingsprogramma heeft het expliciet over AI van menselijk niveau, het feit dat geavanceerde AI op dit moment onuitlegbaar en onvoorspelbaar is, en dat dit grote risico’s voor de mensheid met zich meebrengt. De PvdD schaart zich ook achter de AI-pauze, het enige middel om zeker te zijn dat zulke risico’s geen werkelijkheid worden. Helemaal goed dus!
PvdA/GL
“We verbieden daarom riskante AI-systemen, zoals systemen voor realtime gezichts- of emotieherkenning. (…) Zo moet gegenereerde content altijd zodanig herkenbaar zijn en moet maatschappelijk onwenselijk gebruik zoveel mogelijk worden uitgesloten, evenals auteursrechtenschendingen bij het trainen van de AI. (…) We steunen de inzet van het Europees Parlement om taalmodellen zoals ChatGPT en andere systemisch relevante AI-systemen binnen de reikwijdte van de wet te laten vallen. (…) We willen een Europese autoriteit die toeziet op AI in de EU. Nederland loopt voorop in Europese en wereldwijde samenwerking rond verantwoorde AI, neemt het voortouw bij internationaal, publiek gefinancierd onderzoek naar de risico’s van geavanceerde AI en ijvert voor de totstandkoming van internationale normen. Streefdoel is een bindend wereldwijd verdrag.”
Ons advies: Goed dat PvdA/GroenLinks scherp is op de gebeurtenissen omtrent de EU AI Act en hier de juiste afweging maakt: taalmodellen moeten inderdaad binnen de wet vallen. Ook verbieden van gezichtsherkenning, herkenbaar maken van AI content, en een verbod op training op auteursrechtelijk beschermd materiaal, zijn wat ons betreft goede maatregelen. Het meest enthousiast zijn we over publiek gefinancierd onderzoek naar de risico’s van geavanceerde AI (dit kan PvdA/GL bij de formatie direct meenemen, mocht ze aan tafel zitten) en het bindende wereldwijde verdrag. Als frontier AI en existentiële risico’s hier expliciet genoemd zouden worden, en het bindende wereldwijde verdrag tot een pauze zou leiden zo lang deze risico’s niet afdoende gereduceerd zijn, zouden we nog enthousiaster worden over PvdA/GL, maar men is goed op weg!
D66
“Om artificiële intelligentie (AI) veilig en ethisch verantwoord te ontwikkelen en implementeren, pleit Nederland voor de oprichting van een VN Agentschap dat toezicht houdt op de ontwikkeling van nieuwe AI modellen. (…) Later krijgt deze autoriteit ook additionele bevoegdheden, bijvoorbeeld het inzicht krijgen in de hoeveelheid beschikbare rekencapaciteit bij ontwikkelaars of het stoppen van potentieel gevaarlijke training-runs.”
Ons advies: D66 heeft het veel over AI, en dan met name over de kansen. We kunnen AI bijvoorbeeld gebruiken om “klimaatverandering te bestrijden of armoede tegen te gaan, of voor medisch onderzoek.” Ook aan huidige problemen van AI (commercie, energiegebruik, etc.) wordt volop aandacht besteed. Volgens ons vindt echter het grootste deel van de impact van AI in de toekomst plaats, als de modellen waarschijnlijk veel krachtiger zijn dan nu. Dit aspect komt er bij D66 relatief bekaaid vanaf. Echter, ook hier wordt wel beleid voor voorgesteld: het opzetten van een VN Agentschap dat uiteindelijk ook inzicht krijgt en rekencapaciteit en training runs kan stoppen, is een hele goede maatregel, en duidelijk bedoeld voor geavanceerde AI van de toekomst. D66 laat helaas ook nog veel liggen: als onderzoekspartij stelt ze geen onderzoek voor naar AI Safety, ondanks de door Hind Dekker-Abdulaziz (D66) voorgestelde en unaniem aangenomen motie die vroeg om zulk onderzoek. Ook een AI Safety instituut op Europees niveau (wellicht te huisvesten in Nederland), als variant op soortgelijke instituten die in het VK en de VS opgezet worden, zou voor de progressieve, Europees en strategisch denkende partij een logische beleidsmaatregel zijn.
VVD
“We zorgen ervoor dat er binnen Nederlandse en Europese wet- en regelgeving maximaal geëxperimenteerd mag worden met kunstmatige intelligentie (AI). Daarentegen mogen we de risico’s van het gebruik van AI niet bagatelliseren. Nederland moet zich daarom internationaal inzetten om afspraken te maken over het gebruik van AI door bedrijven en overheid. Gecombineerd met deze internationale afspraken is het van belang om de kennis over de kansen en gevaren van AI binnen de overheid uit te breiden. (…) Het watermerken van materiaal dat is gegenereerd met behulp van kunstmatige intelligentie, wordt de norm.
Ons advies: van de VVD hadden we meer verwacht. Queeny Rajkowski (VVD) kennen we als één van de meest actieve en geïnformeerde Kamerleden van de commissie Digitale Zaken, die zeker ook oog heeft voor de risico’s van AI. Helaas komt deze expertise nog te weinig in het verkiezingsprogramma naar voren: er mag “maximaal geëxperimenteerd” worden met AI. Wel goed zijn de benoeming van risico’s (existentiële zou nog mooier zijn), uitbreiding van de kennis over kansen en gevaren binnen de overheid, en watermerken van AI content. Ook internationale inzet van Nederland is natuurlijk welkom, maar zou wel meer ingevuld kunnen worden: Nederland zou bijvoorbeeld één van de stuwende krachten kunnen worden in het Bletchley-proces en binnen de EU voor regulering van taalmodellen kunnen pleiten. Ook meer onderzoek doen, met name naar de (existentiële) risico’s van AI van menselijk niveau, is een kans die de VVD nog heeft laten liggen. Misschien kan dit bij de ongetwijfeld aanstaande formatie nog goedgemaakt worden?
Volt
“Volt wil dat aanbieders van AI-systemen op verzoek gegevensbronnen en licenties verstrekken. (…) Toezichthouders moeten in staat worden gesteld om de risico’s en schadelijke gevolgen van AI-ontwikkelingen te monitoren en sanctioneren waar mogelijk. (…) Nederland dient actief bij te dragen aan Europese en internationale samenwerkingsverbanden om ethische AI te bevorderen.”
Ons advies: hoewel Volt als enige partij een hele pagina wijdt aan AI, worden AI-risico’s hier slechts weinig in genoemd. Volt lijkt geen oog te hebben voor de snelle opkomst van frontier AI, benoemt de risico’s van AI van menselijk niveau niet, heeft geen standpunt over het al dan niet in de EU AI Act integreren van large language models, en stelt geen AI Safety instituut voor, bijvoorbeeld op Europees niveau. Jammer!
NSC
“We pleiten voor een verplichting op Europees niveau voor ontwikkelaars van kunstmatige intelligentie om zichtbare en onzichtbare watermerken toe te voegen wanneer hun software wordt gebruikt om bestaande mensen na te bootsen. (…) Openheid en transparantie over digitale systemen en beslisregels (algoritmen) moeten daarom gegarandeerd zijn bij overheidsdiensten. We steunen de Werkagenda Waardengedreven Digitaliseren en zijn voorstander van strakke wetgeving rondom algoritmes en AI. (…) In Nederland en de EU moet de techindustrie worden gesteund om afhankelijkheid [van Amerikaanse AI-modellen] te verminderen.”
Ons advies: NSC stelt één goede maatregel voor: watermerken voor AI-gegenereerde content. Ook “strakke wetgeving rondom algoritmes en AI” klinkt veelbelovend, maar wordt verder niet ingevuld. NSC lijkt, net als veel partijen, niet op de hoogte van de revolutie die AI van menselijk niveau zou betekenen en stelt geen maatregelen voor om de risico’s die dit met zich meebrengt te reduceren.
CDA
“Technologische ontwikkelingen als Artificiële Intelligentie (AI) bieden toekomst (sic). We moeten ons wel bewust zijn van de risico’s. Techniek moet niet leidend zijn, maar staat ten dienste van onze waarden en normen. Dit vraagt om een stevige Europese inzet en landelijke borging.”
Ons advies: Het CDA pleit voor bewustzijn van AI-risico’s en een stevige Europese inzet, wat in beginsel positief kan zijn. Het CDA lijkt echter, net als veel partijen, niet op de hoogte van de revolutie die AI van menselijk niveau zou betekenen en stelt geen maatregelen voor om de risico’s die dit met zich meebrengt te reduceren.
Bij1
“We stoppen per direct met het ontwikkelen van AI-systemen voor militaire doeleinden. Computers mogen nooit beslissen over leven en dood. De ontwikkeling en het gebruik van AI zijn nog altijd doordrongen van discriminerende algoritmes en data. (…) Er komt een integrale aanpak om techbedrijven die misbruik maken van geavanceerde AI en algoritmes aan te pakken: we treden onder andere op tegen het promoten van mis- en desinformatie en racisme door techbedrijven, en het rangschikken en evalueren van medewerkers en verdelen van werk met algoritmes. De data en informatie waar AI-systemen op zijn gebouwd mogen niet discriminerend zijn, of zonder toestemming van en vergoeding voor de oorspronkelijke bron worden ingezet.”
Ons advies: het is heel goed om te stoppen met AI-systemen voor militaire doeleinden, en het valt op dat Bij1 bijna de enige is die hier een punt van maakt. Ook het tegengaan van mis- en desinformatie en racisme is uiteraard positief. Bij1 benoemt echter niet de risico’s van geavanceerde AI (frontier AI) en stelt geen maatregelen voor om deze risico’s te reduceren.
ChristenUnie
“Regulering algoritmes en Artificiële Intelligentie. Er komen strenge regels over de kwaliteit en het type data dat gebruikt mag worden voor de training van automatisch gegenereerde beslismodellen. Training van modellen op generieke kenmerken (zonder oorzakelijk verband met de voorspelde waarde) wordt verboden. Organisaties die algoritmes gebruiken moeten inzichtelijk maken welke data gebruikt is om de algoritmes te trainen en welke afwegingen zijn gemaakt om discriminatie en ongelijke behandeling te voorkomen.”
Ons advies: De ChristenUnie gaat slechts summier in op AI risico’s, en helemaal niet op risico’s van AI van menselijk niveau, zoals risico op menselijk uitsterven. Het zou bij de ChristenUnie passen om de discussie aan te zwengelen over hoe ver we moeten gaan met AI en welke risico’s acceptabel zijn, bijvoorbeeld vanuit oogpunt van rentmeesterschap. Ook kunnen concrete maatregelen voorgesteld worden, zoals taalmodellen binnen de AI Act laten vallen, onderzoek doen naar welke bedreigingen de voortgang van AI nog kan opleveren, of een Nederlands of Europees instituut voor AI Safety.
SP
“Inzet van kunstmatige intelligentie om fraude op te sporen is niet langer toegestaan, als mensenrechten niet gewaarborgd kunnen worden. (…) Er komt beter toezicht op de algoritmes die sociale mediabedrijven gebruiken. (…) Wij versterken de volksvertegenwoordiging met een permanent onderzoeksinstituut dat adviseert over de maatschappelijke gevolgen van technologische ontwikkelingen en voorstellen doet voor aanvullende burgerrechten in het digitale tijdperk. Nieuwe technologieën worden eerst onderworpen aan een ethische toets.”
Ons advies: Het onderzoeksinstituut dat adviseert over maatschappelijke gevolgen van technologische ontwikkelingen klinkt goed, als dit instituut ook onderzoek doet naar risico’s van frontier AI. Ook de ethische toets, waar nieuwe technologieën aan moeten worden onderworpen, zou heel goed kunnen zijn, als deze geldt voor technologieën waar grote (existentiële) risico’s aan vast zitten, zoals AI van menselijk niveau. De SP werkt deze opmerkingen echter niet uit, waardoor het onduidelijk blijft aan welke technologieën de partij denkt en hoe deze ‘toets’ in elkaar zou zitten. Als de SP zorgen zou uitspreken over AI van menselijk niveau, zou zeggen dat modellen geavanceerder dan GPT-4 niet getraind mogen worden voordat de ethische toets (inclusief risicoanalyse) doorlopen is, dat Nederland zich daarvoor internationaal in gaat zetten en dat het onderzoeksinstituut onderzoek naar reductie van existentiële risico’s zou verrichten, zouden we daar nog veel enthousiaster van worden!
BBB
“Wij zetten ons in voor het creëren van mogelijkheden om datawetenschap en kunstmatige intelligentie effectief te benutten voor een verbeterde overheidsdienstverlening. (…) We omarmen het gebruik van drones en kunstmatige intelligentie in een moderne krijgsmacht (…), zolang de uiteindelijke inzet en daadwerkelijke gevechtshandeling een menselijke beslissing blijft. (…) AI biedt ontzettend veel kansen maar ook risico’s. Transparantie staat bij deze dan ook altijd voorop.”
Ons advies: BBB pleit voor een minister van digitalisering in het nieuwe kabinet, wat een prima idee zou zijn. De partij benoemt kansen en risico’s van digitalisering in algemene zin, maar gaat nauwelijks in op kunstmatige intelligentie, en zeker niet op AI van menselijk niveau. De BBB stelt ook geen concrete beleidsmaatregelen voor die de risico’s van AI zouden kunnen verminderen. Zulke maatregelen zouden kunnen zijn: AI Safety onderzoek, een AI Safety Instituut dat modellen kan evalueren en de risico’s in de gaten kan houden, en binnen de EU pleiten voor regulering van taalmodellen in de AI Act.
FVD
Kunstmatige intelligentie wordt niet genoemd in het verkiezingsprogramma.
Ons advies: Het FVD lijkt, net als veel partijen, niet op de hoogte van de revolutie die AI van menselijk niveau zou betekenen en stelt geen maatregelen voor om de risico’s die dit met zich meebrengt te reduceren. Zulke maatregelen zouden kunnen zijn: AI Safety onderzoek, een AI Safety Instituut dat modellen kan evalueren en de risico’s in de gaten kan houden, en binnen de EU pleiten voor regulering van taalmodellen in de AI Act.
PVV
Kunstmatige intelligentie wordt niet genoemd in het verkiezingsprogramma.
Ons advies: de komende AI-revolutie, waarin ook het electoraat van de PVV behoorlijke klappen zou kunnen krijgen, is helaas geen prioriteit in het PVV verkiezingsprogramma. Dit ondanks het actieve PVV-Kamerlid Danai van Weerdenburg dat met veel inzet oppositie voerde in de commissie Digitale Zaken. Het is jammer dat dezelfde inzet niet is benut om concrete voorstellen in het verkiezingsprogramma te krijgen om de AI-revolutie zo goed mogelijk door te komen. Voorstellen die de PVV zou kunnen omarmen zijn: AI Safety onderzoek, een AI Safety Instituut dat modellen kan evalueren en de risico’s in de gaten kan houden, en binnen de EU pleiten voor regulering van taalmodellen in de AI Act.