Wat is AI?

Kunstmatige Intelligentie (AI) verwijst naar een klasse van hardware- en softwaresystemen die in de brede zin van het woord ‘intelligent’ genoemd kunnen worden. Soms verwijst dit naar het vermogen van het systeem om acties te ondernemen om vooraf bepaalde doelen te bereiken, maar het kan ook verwijzen naar bepaalde vaardigheden die verband houden met intelligentie, zoals het begrijpen van menselijke spraak. AI is al overal om ons heen, van de onderliggende algoritmen die automatische vertaaldiensten aansturen, tot de manier waarop aanbieders van digitale media uw voorkeuren leren om u de inhoud te tonen die het meest relevant is voor uw interesses. Ondanks ongelooflijke vooruitgang in AI-technologie in het afgelopen decennium 1, zijn de huidige AI-mogelijkheden waarschijnlijk slechts het topje van de ijsberg vergeleken met wat mogelijk zou kunnen zijn in de toekomst.

AGI en Superintelligentie

Een van de belangrijkste bijdragen aan de huidige schattingen van het existentiële risico van AI is het vooruitzicht van ongelooflijk krachtige AI-systemen die in de toekomst kunnen worden ontwikkeld. Deze wijken af ​​van de huidige AI-systemen, ook wel ‘Narrow AI’ genoemd. Er zijn veel verschillende termen die onderzoekers hebben gebruikt bij het bespreken van systemen, elk met zijn eigen subtiele definitie. Deze omvatten: kunstmatige algemene intelligentie (AGI), een AI-systeem dat bekwaam is in alle aspecten van menselijke intelligentie; Human-Level Artificial Intelligence (HLAI), een AI die op zijn minst menselijke capaciteiten kan evenaren in alle aspecten van intelligentie; en Artificial Superintelligence (ASI), een AI-systeem dat veel beter in staat is dan mensen op alle gebieden van intelligentie 2.

Het uitlijningsprobleem

Een fundamenteel probleem met zowel huidige als toekomstige AI-systemen is dat van het uitlijningsprobleem. In detail beschreven in Stuart Russell’s recente boek ‘Human Compatible’, is het afstemmingsprobleem eenvoudig de kwestie hoe ervoor te zorgen dat de doelen van een AI-systeem zijn afgestemd op die van de mensheid. Hoewel dit op het eerste gezicht misschien een eenvoudige taak lijkt (‘We bouwen de AI, dus we kunnen het gewoon zo bouwen dat het qua ontwerp op één lijn ligt!’), zijn er veel technische en filosofische problemen die zich voordoen bij het bouwen van uitgelijnde AI. Om te beginnen, wat bedoelen we precies met menselijke waarden? Mensen delen niet veel van hun waarden met elkaar, dus zal het mogelijk zijn om waarden te isoleren die fundamenteel zijn voor en worden gedeeld door alle mensen? Zelfs als we erin slagen om dergelijke waarden te identificeren, zal het mogelijk zijn om ze op zo’n manier weer te geven dat een AI het kan begrijpen en er rekening mee kan houden? 3

Intelligentie Explosie

Een factor die ons vermogen om toekomstige AI-systemen te beïnvloeden verder kan belemmeren, is als er een intelligentie-explosie plaatsvindt. Deze mogelijkheid werd voor het eerst gesuggereerd door wiskundige I.J. Goed in het midden van de jaren zestig. Hij schreef:

‘Laat een ultraintelligente machine worden gedefinieerd als een machine die alle intellectuele activiteiten van een man, hoe slim ook, verre kan overtreffen. Aangezien het ontwerpen van machines een van deze intellectuele activiteiten is, zou een ultraintelligente machine nog betere machines kunnen ontwerpen; dan zou er ongetwijfeld een ‘intelligentie-explosie’ zijn en zou de intelligentie van de mens ver achterblijven. Dit is de eerste ultraintelligente machine en de laatste uitvinding die de mens ooit heeft gedaan.’

Het basisargument is dat, zodra een AI een bepaald niveau (of kwaliteit) van intelligentie bereikt, het beter zal zijn in het ontwerpen van AI dan mensen. Het zal dan in staat zijn om zijn eigen capaciteiten te verbeteren of andere AI-systemen te bouwen die intelligenter zijn dan zijzelf. De resulterende AI zal dan nog beter zijn in het ontwerpen van AI, en dus in staat zijn om een ​​AI-systeem te bouwen dat nog intelligenter is. Dit argument gaat recursief door, waarbij AI zichzelf voortdurend verbetert en uiteindelijk veel intelligenter wordt dan mensen, zonder verdere input van een menselijke ontwerper.

Er zijn nog steeds veel onbekenden met betrekking tot de aard, en zelfs de mogelijkheid, van een dergelijk scenario 4 Een zo’n discussiegebied betreft de snelheid van dergelijke zelfverbetering. Momenteel is het erg moeilijk om te voorspellen hoe snel een voldoende intelligente AI in staat zal zijn om zijn eigen capaciteiten te verbeteren. Als zich een snel opstijgend scenario voordoet, waarbij de AI zichzelf snel kan verbeteren en in een kwestie van weken of maanden vele malen intelligenter wordt dan de mens, zal er duidelijk minder tijd zijn om ervoor te zorgen dat die AI aansluit bij onze waarden. In zo’n geval zou het belangrijk zijn om ervoor te zorgen dat de afstemming lang voordat de AI het punt bereikte om zichzelf te verbeteren.

Aan de andere kant kan blijken dat de moeilijkheid om AI’s te ontwerpen die steeds intelligenter worden sneller toeneemt dan het intelligentieniveau dat bij elke iteratie wordt bereikt. In dit geval is het moeilijk in te zien hoe een intelligentie-explosie zou kunnen plaatsvinden, en de intelligentie van het (de) resulterende AI-systeem(en) zal ofwel convergeren naar een constante waarde of blijven toenemen, maar in een gestaag tempo.

 

Risicos van smalle AI

Zelfs voordat AGI of ASI binnen bereik zijn 5, zijn er nog steeds manieren waarop AI een existentieel risico kan vormen, voornamelijk door als risicofactor te fungeren 6.

Een voorbeeld van hoe dit zou kunnen gebeuren, is als landen betrokken raken bij een AI-wapenwedloop, waarbij de politieke spanningen toenemen als gevolg van internationale concurrentie om geavanceerde AI-systemen te ontwikkelen 7. Dit zou kunnen leiden tot een ‘AI koude oorlog’, wat de kans op wereldwijde conflicten zou vergroten. Als alternatief zouden AI-systemen krachtig genoeg kunnen worden 8 te bereiken om de huidige cyberbeveiligings- en encryptiemethoden te ondermijnen, met drastische gevolgen voor de wereldwijde technologische infrastructuur die ten grondslag ligt aan een groot deel van de moderne samenleving.

Dus zelfs voor degenen die sceptisch zijn over de vraag of AGI mogelijk is, zijn er nog steeds redenen tot bezorgdheid met betrekking tot huidige of smalle AI-systemen.

  1. Vooral in een gebied dat bekend staat als ‘Deep Reinforcement Learning’
  2. Anderen zijn Transformative Artificial Intelligence (TAI) of Prepotent Artificial Intelligence
  3. Zie dit nieuwsbericht voor een verdere bespreking hiervan.
  4. Ondanks de schijnbare onverzettelijkheid van Good
  5. Ervan uitgaande dat ze fysiek mogelijk zijn
  6. Zie het gedeelte over risicofactoren op deze pagina
  7. Merk op dat dit niet expliciet is gekoppeld aan het gebruikelijke begrip ‘wapens’. race’ in termen van wapens
  8. Zonder de AGI-status