Kunstmatige Intelligentie (AI) verwijst naar een klasse van hardware- en softwaresystemen die in de brede zin van het woord ‘intelligent’ genoemd kunnen worden. Soms verwijst dit naar het vermogen van het systeem om acties te ondernemen om vooraf bepaalde doelen te bereiken, maar het kan ook verwijzen naar bepaalde vaardigheden die verband houden met intelligentie, zoals het begrijpen van menselijke spraak. AI is al overal om ons heen, van de onderliggende algoritmen die automatische vertaaldiensten aansturen, tot de manier waarop aanbieders van digitale media uw voorkeuren leren om u de inhoud te tonen die het meest relevant voor u is. Ondanks ongelooflijke vooruitgang in AI-technologie in het afgelopen decennium, vooral in een gebied dat bekend staat als deep learning, zijn de huidige AI-mogelijkheden waarschijnlijk slechts het topje van de ijsberg vergeleken met wat mogelijk zou kunnen zijn in de toekomst.
Wat is AI?
AGI en Superintelligentie
Een van de belangrijkste bijdragen aan de huidige schattingen van het existentiële risico van AI is het vooruitzicht van ongelooflijk krachtige AI-systemen die in de toekomst kunnen worden ontwikkeld. Deze wijken af van de huidige AI-systemen, ook wel ‘Narrow AI’ genoemd. Er zijn veel verschillende termen die onderzoekers hebben gebruikt bij het bespreken van systemen, elk met zijn eigen subtiele definitie. Kunstmatige Algemene Intelligentie (Artificial General Intelligence, AGI) is een AI-systeem dat bekwaam is in alle aspecten van menselijke intelligentie. Met Human-Level Artificial Intelligence (HLAI) wordt een AI bedoeld die op zijn minst menselijke capaciteiten kan evenaren in alle aspecten van intelligentie, terwijl Artificial Superintelligence (ASI) een AI-systeem aanduidt dat alle cognitieve taken veel beter kan uitvoeren dan wij. Andere definities, die ook gebruikt worden, zijn Transformative Artificial Intelligence (TAI) of Prepotent Artificial Intelligence.
Het alignment-probleem
Een fundamenteel probleem met zowel huidige als toekomstige AI-systemen is het alignment-probleem. Eenvoudig gezegd is het alignment-probleem de vraag hoe ervoor te zorgen dat de doelen van een AI-systeem zijn afgestemd op die van de mensheid. Dit wordt in meer detail beschreven in het boek ‘Human Compatible’ van Stuart Russell. Hoewel dit op het eerste gezicht misschien een eenvoudige taak lijkt (‘Wij bouwen de AI, dus we kunnen hem gewoon zo bouwen dat hij doet wat wij willen!’), zijn er veel technische en filosofische problemen die zich voordoen bij het bouwen van aligned AI. Om te beginnen, wat bedoelen we precies met menselijke waarden? Mensen delen niet veel van hun waarden met elkaar, dus zal het mogelijk zijn om waarden te definiëren die fundamenteel zijn en worden gedeeld door alle mensen? Zelfs als we erin slagen om dergelijke waarden te identificeren, zal het dan mogelijk zijn om ze op zo’n manier weer te geven dat een AI ze kan begrijpen en er rekening mee kan houden?
Intelligentie-explosie
Een factor die ons vermogen om toekomstige AI-systemen te beïnvloeden verder kan belemmeren, is als er een intelligentie-explosie plaatsvindt. Deze mogelijkheid werd voor het eerst gesuggereerd door wiskundige I.J. Good in het midden van de jaren zestig. Hij schreef:
‘Laat een ultraintelligente machine worden gedefinieerd als een machine die alle intellectuele activiteiten van de mens, hoe slim ook, verre kan overtreffen. Aangezien het ontwerpen van machines een van deze intellectuele activiteiten is, zou een ultraintelligente machine nog betere machines kunnen ontwerpen; dan zou er ongetwijfeld een ‘intelligentie-explosie’ zijn en zou de intelligentie van de mens ver achterblijven. Dit zal de laatste uitvinding zijn die de mens ooit heeft hoeven doen.’
Het basisargument is dat, zodra een AI een bepaald niveau (of kwaliteit) van intelligentie bereikt, het beter zal zijn in het ontwerpen van AI dan mensen. Het zal dan in staat zijn om zijn eigen capaciteiten te verbeteren of andere AI-systemen te bouwen die intelligenter zijn dan zijzelf. De resulterende AI zal dan nog beter zijn in het ontwerpen van AI, en dus in staat zijn om een AI-systeem te bouwen dat nog intelligenter is. Dit argument gaat recursief door, waarbij AI zichzelf voortdurend verbetert en uiteindelijk veel intelligenter wordt dan mensen, zonder verdere input van een menselijke ontwerper.
Er is nog steeds veel onduidelijk met betrekking tot de aard, en zelfs de mogelijkheid, van een dergelijk scenario, ondanks de schijnbare robuustheid van Good’s argument. Eén zo’n discussiegebied betreft de snelheid van dergelijke zelfverbetering. Momenteel is het erg moeilijk om te voorspellen hoe snel een voldoende intelligente AI in staat zal zijn om zijn eigen capaciteiten te verbeteren. Als zich een snel scenario voordoet, waarbij de AI zichzelf snel kan verbeteren en in een kwestie van weken of maanden vele malen intelligenter wordt dan de mens, zal er duidelijk minder tijd zijn om ervoor te zorgen dat die AI aansluit bij onze waarden. In zo’n geval zou het belangrijk zijn om ervoor te zorgen dat het alignment-probleem opgelost is, lang voordat de AI het punt heeft bereikt waarop het zichzelf kan verbeteren.
Aan de andere kant kan blijken dat de moeilijkheid om AI’s te ontwerpen die steeds intelligenter worden sneller toeneemt dan het intelligentieniveau dat bij elke iteratie wordt bereikt. In dit geval is het moeilijk in te zien hoe een intelligentie-explosie zou kunnen plaatsvinden, en de intelligentie van het (de) resulterende AI-systeem(en) zal ofwel convergeren naar een constante waarde, of blijven toenemen, maar in een gestaag tempo.
Risico's van narrow AI
Zelfs voordat AGI of ASI binnen bereik zijn – ervan uitgaande dat ze fysiek mogelijk zijn – zijn er nog steeds manieren waarop AI een existentieel risico kan vormen, voornamelijk door als risicofactor te fungeren (Zie het gedeelte over risicofactoren op deze pagina).
Een voorbeeld van hoe dit zou kunnen gebeuren, is als landen betrokken raken bij een AI-wapenwedloop, waarbij de politieke spanningen toenemen als gevolg van internationale concurrentie om geavanceerde AI-systemen te ontwikkelen. Merk op dat dit niet expliciet is gekoppeld aan het gebruikelijke begrip ‘wapens’. race’ in termen van wapens. Dit zou kunnen leiden tot een ‘AI koude oorlog’, wat de kans op wereldwijde conflicten zou vergroten. Als alternatief zouden AI-systemen krachtig genoeg kunnen worden (onder de AGI-status) om de huidige cyberbeveiligings- en encryptiemethoden te ondermijnen, met drastische gevolgen voor de wereldwijde technologische infrastructuur die ten grondslag ligt aan een groot deel van de moderne samenleving.
Dus zelfs voor degenen die sceptisch zijn over de vraag of AGI mogelijk is, zijn er nog steeds redenen tot bezorgdheid met betrekking tot huidige of narrow AI-systemen.