Wat als het enige dat je echt kon vertrouwen iets of iemand was die dichtbij genoeg was om fysiek aan te raken? Dat is misschien wel de wereld waarin AI ons brengt. Een groep academici van Harvard en experts op het gebied van kunstmatige intelligentie heeft zojuist een rapport uitgebracht met als doel ethische vangrails te plaatsen rond de ontwikkeling van mogelijk dystopische technologieën, zoals de door Microsoft gesteunde OpenAI’s ogenschijnlijk bewuste chatbot, die debuteerde in een nieuwe en “verbeterde” (afhankelijk van uw punt van view) versie, GPT-4, vorige week.
De groep, waaronder Glen Weyl, een Microsoft-econoom en onderzoeker, Danielle Allen, een Harvard-filosoof en directeur van het Safra Center for Ethics, en vele andere notabelen uit de industrie, luidt de alarmbellen over “de overvloed aan experimenten met gedecentraliseerde sociale technologieën”. . Het gaat onder meer om de ontwikkeling van “zeer overtuigende, door machines gegenereerde inhoud (bijv. ChatGPT)” die de structuur van onze economie, politiek en samenleving dreigt te verstoren.
Ze geloven dat we een ‘grondwettelijk moment’ van verandering hebben bereikt dat een geheel nieuw regelgevingskader voor dergelijke technologieën vereist.
Sommige van de risico’s van AI, zoals een toekomst in Terminator-stijl waarin de machines beslissen dat mensen hun tijd hebben gehad, zijn platgetreden terrein in sciencefiction – die, het moet worden opgemerkt, een vrij goede staat van dienst heeft in het voorspellen waar wetenschap zelf zal gaan in de afgelopen 100 jaar of zo. Maar er zijn andere die minder goed worden begrepen. Als AI nu bijvoorbeeld een perfect ondetecteerbaar nep-ID kan genereren, wat hebben de juridische en bestuurlijke kaders dan voor zin die op dergelijke documenten vertrouwen om ons in staat te stellen auto te rijden, te reizen of belasting te betalen?
Een ding dat we al weten, is dat AI ervoor kan zorgen dat slechte acteurs zich voordoen als iedereen, overal en altijd. “Je moet ervan uitgaan dat bedrog in dit nieuwe tijdperk veel goedkoper en gangbaarder zal worden”, zegt Weyl, die samen met de Taiwanese digitale minister, Audrey Tang, een online boek heeft gepubliceerd. Dit legt de risico’s bloot die AI en andere geavanceerde informatietechnologieën vormen voor de democratie, met name dat ze het probleem van desinformatie op steroïden leggen.
De mogelijke gevolgen strekken zich uit over elk aspect van de samenleving en de economie. Hoe weten we dat digitale overboekingen veilig of zelfs authentiek zijn? Zijn online notarissen en contracten betrouwbaar? Zal nepnieuws, dat toch al een enorm probleem is, in wezen ondetecteerbaar worden? En hoe zit het met de politieke gevolgen van het ontelbare aantal baanonderbrekingen, een onderwerp dat academici Daron Acemoglu en Simon Johnson later dit jaar in een zeer belangrijk boek zullen onderzoeken.
Men kan zich gemakkelijk een wereld voorstellen waarin regeringen moeite hebben om deze veranderingen bij te houden en, zoals het Harvard-rapport stelt, „bestaande, zeer onvolmaakte democratische processen machteloos blijken te zijn. . . en worden zo in de steek gelaten door steeds cynischere burgers”.
We hebben hier al vermoedens van gezien. De privéstad in Texas die door Elon Musk wordt gebouwd om zijn werknemers van SpaceX, Tesla en Boring Company te huisvesten, is slechts de nieuwste versie van de libertaire fantasie in Silicon Valley waarin de rijken hun toevlucht zoeken in privé-complexen in Nieuw-Zeeland, of hun rijkdom en bedrijven verplaatsen in extragouvernementele jurisdicties en “speciale economische zones”. Wellesley-historicus Quinn Slobodian pakt de opkomst van dergelijke zones aan in zijn nieuwe boek, Crack-up kapitalisme.
In dit scenario dalen de belastinginkomsten, wordt het arbeidsaandeel uitgehold en verergert de resulterende nulsomwereld een “exitocratie” van de bevoorrechten.
Natuurlijk kan de toekomst ook veel rooskleuriger zijn. AI heeft een ongelooflijk potentieel voor het verhogen van productiviteit en innovatie, en zou ons zelfs in staat kunnen stellen om digitale rijkdom op nieuwe manieren te herverdelen. Maar wat al duidelijk is, is dat bedrijven niet zo snel mogelijk zullen stoppen met het ontwikkelen van geavanceerde Web3-technologieën, van AI tot blockchain. Ze zien zichzelf als in een existentiële race met elkaar en China voor de toekomst.
Daarom zoeken ze naar manieren om niet alleen AI te verkopen, maar ook de beveiligingsoplossingen ervoor. In een wereld waarin vertrouwen niet digitaal kan worden geauthenticeerd, denken bijvoorbeeld AI-ontwikkelaars bij Microsoft en andere bedrijven na of er misschien een methode is om meer geavanceerde versies van “gedeelde geheimen” (of dingen die alleen jij en een andere naaste persoon zou kunnen weten over) digitaal en op schaal.
Dat klinkt echter een beetje als het probleem van technologie oplossen met meer technologie. In feite is de beste oplossing voor het AI-raadsel, voor zover die er is, misschien wel analoog.
“Wat we nodig hebben, is een raamwerk voor meer voorzichtige waakzaamheid”, zegt Allen, daarbij verwijzend naar het rapport van de presidentiële commissie over bio-ethiek uit 2010, dat werd uitgebracht als reactie op de opkomst van genomics. Het creëerde richtlijnen voor verantwoord experimenteren, wat een veiligere technologische ontwikkeling mogelijk maakte (hoewel men zou kunnen wijzen op nieuwe informatie over het mogelijke laboratoriumlek in de Covid-19-pandemie en zou kunnen zeggen dat geen enkel raamwerk internationaal onfeilbaar is).
Voor nu zouden we, in plaats van AI te verbieden of een perfecte reguleringsmethode te hebben, kunnen beginnen met het dwingen van bedrijven om te onthullen welke experimenten ze doen, wat heeft gewerkt en wat niet heeft gewerkt en waar onbedoelde gevolgen naar voren kunnen komen. Transparantie is de eerste stap om ervoor te zorgen dat AI zijn makers niet te slim af is.
Lees hier het volledige artikel.