overname door kunstmatige intelligentie
© Adobe
Enkele weken geleden maakte ik een praatje met mijn buurman Tom, een amateurchemicus die experimenten uitvoert in zijn appartement. Ik vind scheikunde al heel lang fascinerend en ik maak altijd graag een praatje met hem. Maar dit gesprek was eng. Als zijn laatste experiment zou slagen, vertelde hij me, dan zou het "een rol kunnen spelen bij de genezing van kanker." Als het echter zou mislukken, was er volgens zijn berekeningen een redelijke kans dat het experiment "een explosie zou veroorzaken die het hele appartementencomplex met de grond gelijk zou maken."

Misschien liegt Tom, of misschien heeft hij waanideeën. Maar wat als er echt nog maar één reageerbuisje meer nodig zou zijn om mij en tientallen van onze medebewoners op te blazen? Wat moet je in zo'n situatie doen? Na kort wikken en wegen besloot ik het noodnummer te bellen. De politie snelde toe, doorzocht zijn appartement en besloot na een onderzoek om al zijn scheikundige apparatuur in beslag te nemen en hem mee te nemen voor verhoor.

Het bovenstaande scenario is een gedachte-experiment. Voor zover ik weet is niemand in mijn appartementencomplex een amateurchemicus die experimenteert met zeer brandbare stoffen. Ik heb dit fictieve verhaal verzonnen omdat het uitstekend de situatie weergeeft waarin wij - wij allemaal - ons bevinden met betrekking tot de AI-bedrijven die proberen kunstmatige algemene intelligentie, of AGI, te ontwikkelen. Op de lijst van dergelijke bedrijven staan DeepMind, OpenAI, Anthropic en xAI, die stuk voor stuk met miljarden dollars worden ondersteund. Veel leidende figuren bij deze bedrijven hebben in het openbaar voor de microfoon beweerd dat een van de mogelijke gevolgen van de technologie die ze expliciet proberen te ontwikkelen, is dat iedereen op aarde sterft. De enige verstandige reactie hierop is om onmiddellijk het noodnummer te bellen en hen aan te geven bij de autoriteiten. Ze zeggen dat hun eigen technologie u, mij, onze familieleden en vrienden kan doden - de hele menselijke bevolking. En vrijwel niemand raakt hierover in paniek.

Het is van essentieel belang om op te merken dat men niet hoeft te geloven dat AGI werkelijk iedereen op Aarde zal doden om verontrust te raken. Persoonlijk ben ik sceptisch ten aanzien van dit soort beweringen. Zelfs als men Tom ervan verdenkt dat hij liegt over zijn scheikundige experimenten, rechtvaardigt het feit dat hij me vertelt dat zijn acties iedereen in ons appartementencomplex kunnen doden al het bellen van het noodnummer.

Wat zeggen AI-bedrijven precies over de potentiële gevaren van AGI? Tijdens een lezing in 2023 werd de CEO van OpenAI, Sam Altman, gevraagd of AGI de mensheid zou kunnen vernietigen en hij antwoordde: "In het slechte geval - en ik denk dat dit belangrijk is om te zeggen - is het met ons allemaal afgelopen." In eerdere interviews verklaarde hij dat hij denkt "dat AI hoogstwaarschijnlijk zal leiden tot het einde van de wereld, maar in de tussentijd zullen er geweldige bedrijven ontstaan met geavanceerde zelflerende machines" en dat "AI ons waarschijnlijk allemaal zal doden, maar tot die tijd zullen we een heleboel geweldige studenten afleveren." Het publiek moest hierom lachen. Maar maakte hij een grapje? Als dat zo was, was hij ook serieus: de website van OpenAI stelt in een artikel uit 2023 dat de risico's van AGI "existentieel" kunnen zijn, wat grofweg betekent dat ze de hele menselijke soort kunnen uitroeien. Een ander artikel op hun website bevestigt dat "een verkeerd ingestelde superintelligente AGI de wereld ernstige schade zou kunnen toebrengen."

In een post uit 2015 op zijn persoonlijke blog schreef Altman dat "de ontwikkeling van bovenmenselijke machine-intelligentie waarschijnlijk de grootste bedreiging vormt voor het voortbestaan van de mensheid." Terwijl "AGI" verwijst naar elk kunstmatig systeem dat minstens zo bekwaam is als de mens op elk belangrijk cognitief gebied, zoals wetenschap, wiskunde, sociale manipulatie en creativiteit, behoort een "SMI" tot een type AGI dat bovenmenselijk is in zijn mogelijkheden. Veel onderzoekers op het gebied van "AI-veiligheid" geloven dat als we eenmaal AGI hebben, we kort daarna superintelligente machines zullen hebben. De reden hiervoor is dat het ontwerpen van steeds meer capabele machines een intellectuele taak omvat, dus hoe "slimmer" deze systemen worden, hoe beter ze in staat zullen zijn om nog "slimmere" systemen te ontwerpen. Vandaar dat de eerste AGI's de volgende generatie van nog "slimmere" AGI's zullen ontwerpen, totdat deze systemen een "bovenmenselijk" niveau bereiken.

Nogmaals, men hoeft deze redenering niet te accepteren om verontrust te raken wanneer de CEO van het machtigste AI-bedrijf dat AGI's probeert te bouwen, zegt dat superintelligente machines dodelijk voor ons kunnen zijn.

Onlangs nog tweette een werknemer van OpenAI, die "roon" heet op Twitter/X, dat "de dingen steeds sneller gaan. Vrijwel niets hoeft van koers te veranderen om AGI te bereiken ... Je zorgen maken over tijdlijnen" - dat wil zeggen, je zorgen maken over of AGI later dit jaar of over 10 jaar gebouwd zal worden - "is onnodige bezorgdheid, buiten je controle. In plaats daarvan zou je je zorgen moeten maken over stomme vergankelijke dingen. Haten je ouders je? Houdt je vrouw van je?" Met andere woorden, AGI staat voor de deur en de ontwikkeling ervan kan niet gestopt worden. Eenmaal gecreëerd, zal het het einde van de wereld zoals wij die kennen, teweegbrengen, misschien wel door iedereen op de planeet te doden. Daarom zouden we niet zozeer moeten nadenken over wanneer dit precies zou kunnen gebeuren, maar over meer alledaagse dingen die zinvol zijn voor ons mensen: Hebben we onze levens op orde? Staan we op goede voet met onze vrienden, familie en partners? Als je in een vliegtuig vliegt en het begint richting de grond te dalen, draaien de meeste mensen zich naar hun partner en zeggen "Ik hou van je" of proberen nog een paar laatste sms'jes naar geliefden te sturen om afscheid te nemen. Dat is, volgens iemand bij OpenAI, wat we nu zouden moeten doen.

Andere opmerkelijke figuren bij OpenAI, zoals Altmans medeoprichter Ilya Sutskever, verkondigden een soortgelijke mening. "De toekomst zal hoe dan ook goed zijn voor AI's," zei hij in 2019. "Het zou mooi zijn als het ook goed zou zijn voor mensen." Hij voegt er onheilspellend aan toe dat hij denkt dat "het vrij waarschijnlijk is dat het hele oppervlak van de aarde bedekt zal zijn met zonnepanelen en datacenters" zodra we AGI creëren, verwijzend naar de notie dat AGI gevaarlijk is, deels omdat het zal proberen om elke bron die het kan te benutten. In dit proces kan de mensheid worden vernietigd als een onbedoeld neveneffect. Sutskever vertelt ons zelfs dat de AGI die zijn eigen bedrijf probeert te bouwen, waarschijnlijk niet
mensen actief zal haten en hen kwaad zal willen doen, maar het zal gewoon te krachtig zijn en ik denk dat een goede analogie de manier is waarop mensen dieren behandelen. Het is niet zo dat we dieren haten. Ik denk dat mensen van dieren houden en veel genegenheid voor ze hebben, maar als het tijd is om een snelweg tussen twee steden aan te leggen, vragen we de dieren niet om toestemming.We doen het gewoon omdat het belangrijk voor ons is. En ik denk dat dit de relatie zal zijn tussen ons en de AGI's, die echt autonoom zijn en zelfstandig opereren.
De goeieriken - en daarmee bedoel ik quasi-moordzuchtige lui - bij OpenAI zijn niet de enigen die eerlijk zijn over hoe hun werk zou kunnen leiden tot de vernietiging van onze soort. Dario Amodei, de CEO van Anthropic, dat onlangs 4 miljard dollar financiering kreeg van Amazon, zei in 2017 dat "er een lange reeks dingen van verschillende gradaties van slechtheid kan gebeuren" na het bouwen van AGI. "Ik denk dat aan het extreme uiterste de ... angst bestaat dat een AGI de mensheid zou kunnen vernietigen. Ik zie in principe geen enkele reden waarom dat niet zou kunnen gebeuren." Op dezelfde manier verklaarde Elon Musk, de medeoprichter van OpenAI die onlangs zijn eigen bedrijf startte om AGI te bouwen, genaamd xAI, in 2023 dat "een van de grootste risico's voor de toekomst van de beschaving AI is," en eerder zei hij dat het feit dat hij "heel dicht bij het snijvlak van AI zit ... me doodsbang maakt." Waarom? Omdat geavanceerde AI "tot veel meer in staat is dan menigeen weet en de snelheid van verbetering exponentieel verloopt."

Sam Altman
© AP Photo/Eric RisbergCEO van OpenAI Sam Altman neemt deel aan een discussie tijdens de Asia-Pacific Economic Cooperation CEO Summit, 16 november 2023, in San Francisco.
Zelfs de CEO van Google, Sundar Pichai, vertelde vorig jaar aan Sky News dat geavanceerde AI "zeer schadelijk kan zijn als het verkeerd wordt ingezet" en dat met betrekking tot veiligheidskwesties "we daaromtrent nog niet alle antwoorden hebben, en de technologie gaat snel. ... Lig ik daar 's nachts wakker van? Absoluut."

Google is momenteel eigenaar van DeepMind, dat in 2010 werd opgericht door de computerwetenschapper Shane Legg. Tijdens een lezing een jaar voordat DeepMind werd opgericht, stelde Legg dat "als we AI op menselijk niveau kunnen bouwen, we het bijna zeker kunnen opschalen tot ver boven het menselijke niveau. Een machine ver boven het menselijk niveau zal zijn ontwerp begrijpen en in staat zijn om nog krachtigere machines te ontwerpen," wat teruggrijpt op de idee dat AGI de taak van het ontwerpen van nog geavanceerdere AI-systemen dan zichzelf zou kunnen overnemen. "We hebben vrijwel geen idee hoe we hiermee moeten omgaan," voegt hij eraan toe. Tijdens dezelfde lezing zei Legg dat we geen theorie gaan ontwikkelen over hoe we AGI veilig kunnen houden voordat AGI is ontwikkeld. "Ik heb met een heleboel mensen gesproken," meldt hij, "geen van hen, die ik ooit gesproken heb, denkt dat ze over ongeveer 10 jaar een praktische theorie zullen hebben over vriendelijke kunstmatige intelligentie. We hebben geen idee hoe we dit probleem moeten oplossen."

Dat is zorgwekkend omdat veel onderzoekers bij de grote AI-bedrijven stellen dat - zoals "roon" suggereerde - AGI wel eens in aantocht kan zijn. In een recent interview zegt Demis Hassabis, een andere medeoprichter van DeepMind, dat "toen we DeepMind in 2010 begonnen, dachten we dat het een project van 20 jaar zou worden, en eigenlijk denk ik dat we op schema liggen. Dus het zou me niet verbazen als we binnen tien jaar AGI-achtige systemen hebben." Op de vraag wat er nodig is om ervoor te zorgen dat een AGI die "slimmer is dan een mens" veilig is, bestond zijn antwoord, zoals een commentator het uitdrukte, uit een "grabbelton van halfbakken ideeën." Misschien, zegt hij, kunnen we minder capabele AI's gebruiken om ons te helpen de AGI's in toom te houden. Maar misschien werkt dat niet - wie weet? Hoe dan ook, DeepMind en de andere AI-bedrijven gaan gewoon door met hun pogingen om AGI's te bouwen, terwijl ze tegelijkertijd publiekelijk erkennen dat hun producten de hele wereld kunnen vernietigen.

Dit is, in één woord, waanzin. Als u bij mij in de auto zit en ik vertel u dat ik eerder op de dag een bom aan de onderkant van de auto heb bevestigd die misschien wel - of misschien niet! - afgaat als we een kuil raken, dan moet u, of u me nu gelooft of niet, extreem verontrust zijn. Dat is iets heel engs om iemand te horen zeggen met 100 kilometer per uur op de snelweg. U zou zich inderdaad naar mij moeten omdraaien en schreeuwen: "Stop die verdomde auto nu meteen. Laat me er onmiddellijk uit - ik wil niet meer met je meerijden!"

Op dit moment zitten we in die auto met die AI-bedrijven aan het stuur. Ze hebben zich in de afgelopen vijftien jaar herhaaldelijk tot ons gewend en toegegeven dat ze een bom aan de auto hebben bevestigd en dat deze in de nabije toekomst misschien wel - of misschien niet! - ontploft en iedereen in de auto doodt. Dat is een schandalige situatie en meer mensen zouden moeten schreeuwen dat ze onmiddellijk moeten stoppen met wat ze aan het doen zijn. Meer mensen zouden het noodnummer moeten bellen en het incident melden bij de autoriteiten, zoals ik deed met Tom in het fictieve scenario hierboven.

Ik weet niet of AGI iedereen op aarde zal doden - ik richt me meer op de diepgaande schade die deze AI-bedrijven al hebben veroorzaakt door uitbuiting van werknemers, grootschalige diefstal van intellectueel eigendom, algoritmische vooringenomenheid enzovoort. Het punt is dat het volstrekt onacceptabel is dat de mensen die deze AI-bedrijven leiden of ervoor werken, geloven dat wat ze doen kan leiden tot uw dood en die van uw familie, vrienden en zelfs huisdieren (wie zal uw pluizige metgezellen eten geven als u ophoudt te bestaan?) - en er toch mee doorgaan. Men hoeft niet volledig de bewering "AGI zou de mensheid kunnen vernietigen" te geloven om in te zien dat iemand die zegt dat zijn werk de mensheid zou kunnen vernietigen, niet zou moeten doen wat hij doet. Zoals ik al eerder schreef, waren er in de recente geschiedenis van de mensheid verschillende momenten waarop wetenschappers verklaarden dat we op het punt stonden om een technologie te creëren die de wereld zou vernietigen - en er kwam niets uit voort. Maar dat is irrelevant. Als iemand u vertelt dat hij een pistool heeft en u zou kunnen neerschieten, zou dat meer dan genoeg moeten zijn om alarm te slaan, zelfs als u gelooft dat hij in werkelijkheid geen pistool onder zijn bed heeft verstopt.

Of deze AI bedrijven moeten nu aantonen dat de systemen die ze bouwen volledig veilig zijn, of ze moeten nu meteen stoppen met het bouwen van deze systemen. Er moet iets veranderen aan de situatie - en wel onmiddellijk.

Zie: https://www.truthdig.com/articles/the-madness-of-the-race-to-build-artificial-general-intelligence/