AI promovendus Ruben Wiersma schrijft in Trouw als antwoord op ons eerdere stuk dat AI nog niet de vaardigheden van de mens heeft. Deze blogpost is een antwoord op de, in onze ogen, ondoordachte conclusies die hij uit dit feit trekt.
Het klopt, op dit moment kan AI nog lang niet alles wat de mens kan. Maar wat niet is, kan wel komen. In de toekomst zou AGI (artificial general intelligence) uitgevonden kunnen worden, een vorm van AI die alle cognitieve taken minimaal zo vaardig kan uitvoeren als wij. Dat dit gebeurt, is niet zeker. Daarom betreft het ook een risico.
Wiersma bestrijdt niet dat de ontwikkeling van AGI zou kunnen leiden tot een extreem slechte uitkomst, tot menselijk uitsterven aan toe. Dit is in lijn met veel van zijn collega’s, van wie zeker de helft volgens enquêtes dit risico wel degelijk ziet. Maar om het hier nou zo in het openbaar over te hebben? Dat vindt Wiersma “niet bijdragen aan een gezonde discussie”. Het is slecht voor de “beeldvorming”. Spreekt hier een wetenschapper of een PR-afdeling?
Je zou verwachten dat Wiersma, als hij zich zo druk maakt over de beeldvorming over zijn vakgebied, zou verwijzen naar wetenschappelijke publicaties die klip en klaar aantonen dat de kans op uitsterven van de mensheid door AI nul procent bedraagt. Dit zou zo kunnen zijn omdat we zeker weten dat AGI er in een bepaalde tijdsspanne nooit gaat komen, of omdat we zeker weten dat AGI niet gaat zorgen voor menselijk uitsterven. Maar helaas weten we dit allebei niet zeker. En dat is precies het probleem.
AI-onderzoekers zoals Wiersma zouden, in plaats van hun energie te steken in het bagatelliseren van het probleem, ook kunnen bijdragen aan een oplossing. AI Safety, het opkomende academische vakgebied dat probeert om AGI veilig te maken, heeft dringend AI-talent zoals Wiersma nodig. In Nederland vindt op dit moment helaas nog nauwelijks onderzoek op dit gebied plaats. Maar de Nederlandse overheid zou, samen met universiteiten en onderzoeksinstellingen, de wereldwijde onderzoeksinspanningen op dit gebied eenvoudig kunnen verdubbelen.
Laten we samen werken aan oplossingen om de toekomstige risico’s van AGI zo klein mogelijk te maken. Dit lijkt ons een stuk constructiever dan het probleem bagatelliseren totdat AGI er is, en dan te constateren dat we te laat zijn.