Na alle aandacht voor AI en met name ChatGPT, klinkt er plotseling een tegengeluid. Een open brief, ondertekend door inmiddels ruim 1300 mensen uit de techwereld, roept op tot bezinning en een pauze in de ontwikkeling van AI-toepassingen.
Onder de open brief staan opvallende namen. Meteen onder twee prominente geleerden op het gebied van kunstmatige intelligentie prijkt die van Elon Musk, gevolgd door Steve Wozniak, een van de oprichters van Apple. Andere prominente ondertekenaars zijn Evan Sharp, oprichter van Pinterest, en historicus en schrijver Yuval Noah Harari. Veel mensen uit de AI-industrie zelf hebben de brief onderschreven. Opvallende afwezige is de topman van OpenAI, Sam Altman. Volgens sommige nieuwsbronnen stond zijn naam er eerst wel onder en is die later verwijderd.
Belangrijkste punt van de schrijvers is dat AI nu op een punt is aangekomen dat er een groot risico is dat de wereld wordt overspoeld met desinformatie. Vorige week nog verschenen op Twitter beelden van de zogenaamde arrestatie van Donald Trump, gemaakt en geplaatst door Eliot Higgins, oprichter van het onderzoeksplatform Bellingcat, mét vermelding dat het nep was. Zoals verwacht ging internet direct aan de haal hiermee, zodat het grootste deel van de mensen die de foto’s onder ogen kwamen, geen idee hadden dat het om fake nieuws ging.
Aantal gebruikers geëxplodeerd
Tekst en beeld (én video!) kunnen straks nog maar met heel grote moeite worden gekenmerkt als authentiek. Dat was natuurlijk al enkele jaren zo, maar met de lancering van ChatGPT is de belangstelling voor en het gebruik van AI exponentieel gestegen, en daarbij het risico op misbruik. ChatGPT passeerde in vijf dagen de 1 miljoen gebruikers. Ter vergelijking: Netflix deed daar bijna drieënhalf jaar over.
De briefschrijvers pleiten nu voor een bezinningsperiode van zes maanden en om in die tijd de AI-systemen die de kracht van GPT-4 overstijgen niet te trainen. De tijd zou moeten worden gebruikt om regels op te stellen en veiligheidsprotocollen te implementeren. De schrijvers benadrukken dat het niet gaat om het ontwikkelen van Ai in het algemeen. Maar alleen om de ‘AI wapenwedloop’ die ervoor zorgt dat er steedse grotere modellen ontstaan die – ook voor deskundigen – een zwarte doos vormen. Daarnaast roepen ze op om meer tijd te steken in het transparant, robuust en betrouwbaar maken van bestaande systemen.
Wat vind jij? Moeten we een pauze inlassen? Stem in het formulier in de rechterkolom.