Afbeelding
AI-experts maken zich zorgen over de gevolgen van Artificial Intelligence. Een open brief die een agenda opstelt voor onderzoek naar het voorkomen van negatieve gevolgen, is al door een lange lijst mensen ondertekend. Benieuwd of het schrijven gevolg krijgt.

De initiatiefnemers achter de open brief constateren dat kunstmatige intelligentie de laboratoriumfase achter zich gelaten heeft: ontwikkelingen op het terrein van AI zorgen voor een steeds grotere economische waarde. De potentiële voordelen van toepassingen zijn groot. Uitbannen van ziekte en armoede lijken niet onmogelijk, stellen ze.

Tot nog toe lag de nadruk in AI-onderzoek vooral op de ontwikkeling van de onderliggende technieken. Het wordt tijd om ook aandacht te besteden aan het maximaliseren van het maatschappelijk nut, en aan methoden om te kunnen waarborgen dat kunstmatig intelligente systemen doen wat mensen willen dat ze doen, aldus de initiatiefnemers.

Die op zich voor de hand liggende wens resulteert in een onderzoeksagenda die onderstreept dat de gevolgen van invoering van AI-systemen niet per definitie gunstig zijn. De initiatiefnemers maken zich met name zorgen om de economische gevolgen, de juridische en ethische aspecten en de robuustheid van de onderliggende technieken. Ze roepen op tot meer onderzoek naar de gevolgen van invoering van kunstmatige intelligentie voor de arbeidsmarkt en voor bepaalde takken van de economische bedrijvigheid, en naar effectieve politieke maatregelen rond een toekomstscenario waarbij er te weinig werk overblijft voor alle leden van de samenleving.

Op juridisch en ethisch vlak moeten antwoorden geformuleerd worden op vragen als wie verantwoordelijk is voor een auto-ongeluk wanneer de auto zichzelf rijdt, of autonome wapens in overeenstemming zijn en kunnen handelen met het oorlogsrecht, en welke privacyaspecten in het gedrang komen door het gebruik van van AI-systemen.

Wat robuustheid betreft zijn er vragen op het terrein van verificatie (voldoet het systeem aan de gestelde eisen?), validiteit (valt het uit te sluiten dat het systeem ongewenst gedrag vertoont), beveiliging (het voorkomen van manipulatie door niet-gerechtigde derden) en controle (hoe zorg je ervoor dat de mens controle houdt over een AI-systeem als dat eenmaal in bedrijf is).

Wat het Future of Life Institute er niet bij schrijft is, dat deze uitdagingen ook een maatschappelijk politieke kant hebben. Onderzoek naar de economische, juridische en ethische aspecten is noodzakelijk, maar moet zich ook vertalen in aanpassingen in de wetgeving, en bijvoorbeeld in ons sociaal stelsel, het onderwijs etc. De uitdagingen die de initiatiefnemers schetsen op het gebied van AI zelf, vragen daarbij extra aandacht, ook van de politiek.

Om er eentje uit te pikken: als je kijkt naar de krakkemikkige staat van beveiliging van internet en de mogelijkheden die daaruit ontstaan om industriële productiefaciliteiten te saboteren, moet je je serieus afvragen onder welke voorwaarden je AI-systemen op internet wilt laten aansluiten. Het zou te wensen zijn dat politici zich over die vraag buigen voordat zich de eerste grote incidenten hebben voorgedaan.

Bij AI-wetenschappers is de noodzaak om AI serieus de maat te nemen, inmiddels wel doorgedrongen. De open brief van het Future of Life Institute kent een lange lijst ondertekenaars, voornamelijk uit het vakgebied AI. Meest bekende namen op de lijst zijn Stephen Hawking en Tesla oprichter Elon Musk, die eerder al hun zorg uitten over de potentieel negatieve kanten van AI, en Erik Brynjolfsson, die al jaren de aandacht trekt met onderzoek naar de effecten van IT in het algemeen op economie en arbeidsmarkt.