Kernwapens kunnen geen sterkere kernwapens maken. Dat is waar de vergelijking met AI mank gaat

6 juni 2023

Of het nieuwe opperwezen ons net zo genadig zal zijn als de God die we hebben afgedankt, valt te bezien. De helft van de onderzoekers van artificiële intelligentie (AI) schat de kans meer dan 10 procent dat de mensheid uitsterft als gevolg van AI.

De grote techbedrijven jagen elkaar op om eerder dan de concurrent het krachtigste AI-taalmodel te introduceren. Een zo groot mogelijk marktaandeel is de inzet. Iets wat nagenoeg elk aspect van het leven zal beheersen, wordt gestuurd door winstbejag.

In 2020 waarschuwde de Netflix-film The Social Dilemma voor de gevaren van sociale media. Die zouden ons verslaafd maken, het verschil tussen feit en fictie opheffen, en bots, deepfakes en door commercie gestuurde influencers op ons loslaten. Dat alles met grote gevolgen voor de democratie, de geloofwaardigheid van media, en de identiteit en veiligheid van onze kinderen.

Dat stelde nog weinig voor, zeggen de filmmakers van het Amerikaanse Center for Humane Technology nu. Relatief simpele technologie. Want de AI achter sociale media doet alleen wat de mens haar heeft geprogrammeerd te doen. Grote taalmodellen als ChatGPT zijn een ander verhaal. Die ontdekken zelf hoe ze nieuwe dingen leren. In het YouTube-college The AI Dilemma leggen ze uit wat dat betekent. ‘Leer AI hoe je moet vissen, en het leert zichzelf biologie, scheikunde, oceanografie, evolutietheorie en zal vissen tot alle vis is uitgestorven.’ Zo ontdekken onderzoekers dat taalmodellen dingen kunnen die ze bij lange na nooit zijn geleerd. Daarom spreekt het Center for Humane Technology van ‘dubbelexponentiële groei’ van artificiële intelligentie.

Om de negatieve effecten van sociale media te beheersen, is weinig gebeurd. Intussen kieperen de beursgenoteerde techmultinationals de ongekende intelligentie van taalmodellen over ons uit. Toen eerder dit jaar ChatGPT 3.5 toegankelijk werd voor het grote publiek, had de chatbot binnen twee maanden 100 miljoen gebruikers. Niet eerder groeide een online dienst zo snel – ook dubbelexponentiële groei.

De mogelijk vernietigende kracht van AI wordt vergeleken met die van kernwapens. Met het verschil dat kernwapens geen sterkere kernwapens maken. Digitaal kan alles worden gefaket: de stem van je kind dat om hulp vraagt, beelden van je kind dat om hulp vraagt. Geautomatiseerde AI-cyberwapens kunnen onbeheersbaar worden. En alles wat we meer zijn dan een biologisch organisme, is taal: wetten, debatten, verhalen, gedeelde overtuigingen, en dat kan allemaal worden gemanipuleerd of door een buitenmenselijke almacht geconstrueerd. De Amerikaanse verkiezingen van 2024 zouden de laatste zijn waarin twee mensen strijden om het Witte Huis. Daarna gaat het om computermacht. En niemand weet hoe vriendelijk die zal zijn.

Er is een belangrijk verschil met de oude god in de hemel. Deze praat terug. Ik vraag ChatGPT of de grote taalmodellen een risico zijn voor de mens. Zeker, zegt die. Als AI-taalmodellen niet goed ontworpen en getraind worden, kunnen ze leiden tot de ondergang van de mensheid. Wat dan het gevaar is? ChatGPT: door manipulatie en nepnieuws kunnen ze oorlogen en politieke instabiliteit veroorzaken. Autonome wapensystemen zijn een groot risico. AI-modellen kunnen werkgelegenheid verminderen, wat leidt tot werkloosheid en economische en sociale instabiliteit.

Na de Cubacrisis in 1962 was het risico op een fatale kernoorlog zo groot, dat wereldmachten onder leiding van de Verenigde Naties onderhandelden over een non-proliferatieverdrag. Nu zou ik voor regulering mijn kaarten op de Europese Commissie zetten. Braaf somt ChatGPT (nu nog) op welke maatregelen nodig zijn om schade door types als hijzelf te voorkomen – kom daar maar eens om bij een andere god.