“‘The Game is Over’: Google’s DeepMind says it is on verge of achieving human-level AI.” Dat kopte The Independent gisteren. Voor wie gelooft dat human-level AI kan resulteren in oncontroleerbare superintelligentie, en de meeste AI Safety onderzoekers denken dat, zou dit alarmfase tien betekenen. Is het echt zo dramatisch? Ja en nee.
DeepMind, dat van Google is, is inderdaad zeer serieus op weg om AGI (human-level AI) te maken. AI was tot nu toe alleen in staat om specifieke taken net zo goed of beter dan een mens uit te voeren, zoals schaken, Go spelen, of autorijden. Maar dezelfde AI kon niet zowel Go spelen als autorijden, zoals een mens dat kan. Voordat AI echt net zo slim wordt als wij, en daarmee in staat wordt om zichzelf te verbeteren, moet het net zoals wij een breed spectrum aan taken aankunnen: Artificial General Intelligence (AGI). Volgens The Independent heeft DeepMind dat punt nu bijna bereikt, wat de weg vrij zou maken voor oncontroleerbare superintelligentie.
Echter, wat bedoelde DeepMind’s onderzoeker dr. Nando de Freitas met zijn tweet “the game is over”? Hij vraagt het zelf als grapje op Twitter aan AI programma Flamingo. Flamingo zegt: “Ik denk dat hij met ’the game is over’ bedoelt dat iedereen zich moet concentreren op opschaling”. Nando de Freitas is het met de AI eens, dat bedoelde hij inderdaad. Hij bedoelde dus niet, zegt hij zelf achteraf in elk geval, dat DeepMind al bijna AGI heeft ontwikkeld.
This is me chatting with Flamingo ? about a photo of a recent tweet. ?seems to understand what I mean by game over. Can someone please explain it ? pic.twitter.com/6RCINtMWs0— Nando de Freitas ?️? (@NandoDF) May 17, 2022
Betekent dit nu dat de pers het weer eens verkeerd heeft, en dat dit een interessante wetenschappelijke ontwikkeling is, maar verder niks is om ons druk over te maken? Nee, dat ook weer niet.
Gato, het model van DeepMind waar The Independent het over heeft, kan meer dan 600 taken goed uitvoeren. Daar zitten hele verschillende taken tussen. Het gaat niet alleen meer om spelletjes spelen, maar ook om het herkennen van beeld, het chatten met mensen en zelfs het controleren van robotarmen. En dat allemaal voor één model, slechts eenmalig getraind. Schattingen van hoe lang het nog duurt voordat we AGI hebben, zijn volgens sommigen met Gato tien jaar korter geworden.
En neemt DeepMind de nodige veiligheidsmaatregelen, of is er een overheid die het bedrijf daartoe dwingt, om zeker te weten dat er geen oncontroleerbare superintelligentie komt? Nee, daarover wordt in het paper slechts gezegd: “The ethics and safety considerations of knowledge transfer may require substantial new research“. DeepMind heeft geen plan om die ‘substantial new research’ af te gaan ronden, voordat er een kans bestaat op AGI. Het bedrijf heeft weliswaar een AI Safety-afdeling, maar hier werken slechts circa 30 van de 1300 werknemers. Het bedrijf zegt dan ook zelf: “the recent progress in generalist models suggests that safety researchers, ethicists, and most importantly, the general public, should consider their risks and benefits“. Daar is geen woord Chinees bij.
Wat zou een land als Nederland kunnen doen aan deze situatie, om ook onze veiligheid te waarborgen? In elk geval niet wachten tot de AGI er is, want dan is het waarschijnlijk al snel te laat om de koers nog te wijzigen. Wat we wel nu kunnen doen zijn de volgende drie maatregelen nemen, die wij eerder ook in stukken in Het Parool en Trouw voorstelden:
- Voeg existentiële risico’s vanwege kunstmatige intelligentie en andere nieuwe technologieën toe aan de Geïntegreerde Risicoanalyse Nationale Veiligheid.
- Richt een Planbureau voor Existentiële Risico’s in, dat in de gaten houdt hoe groot de risico’s zijn en dat voorstellen doet over hoe die te reduceren.
- Benoem een directeur-generaal voor existentiële risico’s op het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties.
Het is nog geen alarmfase 10. Laten we zorgen dat we daar ook niet terechtkomen.