Dit artikel is eerder verschenen in de Telegraaf van 13 november.

Kunstmatige intelligentie is één van de grootste bedreigingen van de 21e eeuw

Techniek die slimmer is dan de mens. Klinkt als een science fiction-film, maar dat is het niet. Want kunstmatige intelligentie – of artificial intelligence (AI) – wordt razendsnel slimmer. De meest geavanceerde neurale netwerken hebben nu al 175 miljard neuronen, en dat worden er elk jaar 10 keer zoveel. In dit tempo streeft AI, in elk geval in complexiteit, ons eigen brein over ongeveer drie jaar voorbij. Is AI dan ook meteen slimmer dan wij? Dat waarschijnlijk nog niet, maar de kans dát dit gebeurt, wordt wel elk jaar groter.

Uiteindelijk zal AI waarschijnlijk alle denkbare taken beter kunnen uitvoeren dan wij. Het kan dan wetenschappelijke ontdekkingen gaan doen, zonder menselijke bemoeienis. AI ontwikkelt dan bijvoorbeeld de volgende generatie computers – nóg snellere hardware, nóg betere software – en de volgende generatie AI is als gevolg ook weer slimmer. Zo creëert technologie wat we een ‘positieve feedbackloop’ noemen: steeds slimmere AI zorgt voor weer slimmere AI. Niemand weet precies waar deze ontwikkeling eindigt. Maar het tijdperk van de mens als slimste en daarmee machtigste bewoner van de aarde is, tegen deze achtergrond, geen vanzelfsprekendheid meer. Controle over een superintelligente AI is dus van levensbelang. Niet voor niets werken AI-wetenschappers al zo’n twee decennia aan dit control problem.

Helaas is het ze voorlopig nog niet gelukt. Sterker nog, hoe meer onderzoek er gedaan wordt, des te verder lijkt een oplossing verwijderd te zijn. Er zijn inmiddels wetenschappers die denken dat superintelligente AI controleren fundamenteel onmogelijk is. En juist daarom is het de hoogste tijd dat wij als samenleving, maar zeker ook onze politici, hierover in gesprek gaan. 

Kunnen we superintelligente AI dan reguleren? Maar hoe reguleer je technologie die nog niet bestaat? Die vraag hebben we ons als menssoort nog nooit hoeven stellen. Zullen grootmachten als de VS, China of Rusland hierin meegaan? Terroristische netwerken als ISIS of Al-Qaida? Want ja, AI kan ook door hen gebruikt gaan worden. Niet voor niets ziet een groeiende groep wetenschappers AI als een van de grootste bedreigingen van de komende eeuw. Toby Ord van de Universiteit van Oxford, specialist in existentiële risico’s, denkt bijvoorbeeld dat de kans grofweg één op tien is dat we AI niet gaan overleven. Elon Musk, een ingenieur met een uitstekende kennis van AI, luidt al een poos de noodklok. En ook Bill Gates maakt zich grote zorgen.

Er zijn ook wetenschappers die denken dat AI nooit een doel zal krijgen dat niet gelijk is aan dat van onszelf. Zij denken dat AI altijd zal doen wat wij, mensen, ervan verlangen. En er zijn mensen die denken dat we in geval van nood gewoon de stekker eruit kunnen trekken. Maar hoe zeker weten deze sceptici dat ze gelijk hebben, als AI safety-onderzoekers iets anders zeggen? 

Op dit moment investeren we wereldwijd zo’n 0,01 miljard dollar per jaar in onderzoek naar existentieel risico en AI safety. Overheden geven het vraagstuk dus niet bepaald prioriteit, Nederland vooralsnog ook niet. Het is hoogste tijd dat dat verandert. Onze politici en wijzelf moeten eraan wennen dat dit geen science fiction is, maar een reëel vraagstuk. Onze kop moet dringend uit het zand.

Otto Barten is directeur van het Existential Risk Observatory