ABONNEREN
Startpagina Technologie De generatieve AI-strijd heeft een fundamentele fout

De generatieve AI-strijd heeft een fundamentele fout

door Nieuws kamer
0 commentaar

Afgelopen week heeft de Authors Guild stuurde een open brief naar de leiders van enkele van ‘s werelds grootste generatieve AI-bedrijven. Ondertekend door meer dan 9.000 schrijvers, waaronder prominente auteurs als George Saunders en Margaret Atwood, vroeg het onder meer Alphabet, OpenAI, Meta en Microsoft “om toestemming te verkrijgen, erkenning te krijgen en schrijvers eerlijk te compenseren voor het gebruik van auteursrechtelijk beschermd materiaal bij het trainen van AI.” Het pleidooi is slechts het laatste in een reeks pogingen van creatieven om krediet en compensatie veilig te stellen voor de rol die zij beweren dat hun werk heeft gespeeld bij het trainen van generatieve AI-systemen.

De trainingsgegevens die worden gebruikt voor grote taalmodellen, of LLM’s, en andere generatieve AI-systemen zijn geheim gehouden. Maar hoe meer deze systemen worden gebruikt, hoe meer schrijvers en beeldend kunstenaars overeenkomsten opmerken tussen hun werk en de output van deze systemen. Velen hebben generatieve AI-bedrijven opgeroepen om hun gegevensbronnen bekend te maken en, net als bij de Authors Guild, degenen van wie het werk is gebruikt, te compenseren. Sommige pleidooien zijn open brieven en posts op sociale media, maar een toenemend aantal zijn rechtszaken.

Hier speelt het auteursrecht een grote rol. Toch is het een instrument dat slecht is toegerust om de zorgen van kunstenaars in de volle omvang aan te pakken, of dit nu langdurige zorgen zijn over werkgelegenheid en compensatie in een wereld die op zijn kop staat door internet, of nieuwe zorgen over privacy en persoonlijke – en niet-auteursrechtelijk – kenmerken. Voor veel hiervan kan het auteursrecht slechts beperkte antwoorden bieden. “Er zijn veel vragen die AI creëert voor bijna elk aspect van de samenleving”, zegt Mike Masnick, redacteur van de technologieblog Techdirt. “Maar deze beperkte focus op auteursrecht als middel om ermee om te gaan, is volgens mij echt misplaatst.”

Het meest spraakmakende van deze recente rechtszaken kwam eerder deze maand toen komiek Sarah Silverman, samen met vier andere auteurs in twee afzonderlijke dossiers, OpenAI aanklaagde en beweerde dat het bedrijf zijn razend populaire ChatGPT-systeem zonder toestemming op hun werken had getraind. Beide class action-rechtszaken werden aangespannen door Joseph Saveri Law Firm, dat gespecialiseerd is in antitrustgeschillen. Het bedrijf vertegenwoordigt ook de artiesten die om soortgelijke redenen Stability AI, Midjourney en DeviantArt aanklagen. Vorige week, tijdens een hoorzitting in die zaak, gaf de rechter van de Amerikaanse districtsrechtbank, William Orrick, aan dat hij het grootste deel van de rechtszaak zou kunnen afwijzen, waarbij hij verklaarde dat, aangezien deze systemen waren getraind op “vijf miljard gecomprimeerde afbeeldingen”, de betrokken artiesten “meer feiten moesten verstrekken” voor hun claims wegens inbreuk op het auteursrecht.

De Silverman-zaak beweert onder meer dat OpenAI mogelijk de memoires van de komiek heeft geschraapt, Bedplasser, via “schaduwbibliotheken” die grote hoeveelheden illegale e-boeken en academische papers bevatten. Als de rechtbank in het voordeel van Silverman en haar mede-eisers oordeelt, zou de uitspraak een nieuw precedent kunnen scheppen voor hoe de wet kijkt naar de datasets die worden gebruikt om AI-modellen te trainen, zegt Matthew Sag, een professor in de rechten aan de Emory University. Het zou met name kunnen helpen bepalen of bedrijven aanspraak kunnen maken op redelijk gebruik wanneer hun modellen auteursrechtelijk beschermd materiaal schrapen. “Ik ga de uitkomst van deze vraag niet noemen”, zegt Sag over de rechtszaak van Silverman. “Maar het lijkt de meest overtuigende van alle ingediende zaken.” OpenAI reageerde niet op verzoeken om commentaar.

De kern van deze gevallen, legt Sag uit, is dezelfde algemene theorie: dat LLM’s beschermde werken van auteurs ‘kopieerden’. Maar, zoals Sag uitlegde in een getuigenis voor een hoorzitting van een subcommissie van de Amerikaanse Senaat eerder deze maand, “kopiëren” modellen zoals GPT-3.5 en GPT-4 werk niet in de traditionele zin. Verteren zou een geschikter werkwoord zijn: trainingsgegevens verwerken om hun functie uit te voeren: het beste volgende woord in een reeks voorspellen. “In plaats van te denken aan een LLM als het kopiëren van de trainingsgegevens zoals een schrijver in een klooster,” zei Sag in zijn getuigenis van de Senaat, “is het logischer om het te zien als leren van de trainingsgegevens zoals een student.”

Lees hier het volledige artikel.

Dit vind je misschien ook leuk

Laat een reactie achter

Over ons

Nieuws.net is uw one-stop-nieuwswebsite voor het laatste Nederlandse lokale, zakelijke, lifestyle-, sport-, entertainment- en al het wereldwijde nieuws van alle vertrouwde bronnen. Volg ons nu om het nieuws en de updates te ontvangen die voor u belangrijk zijn.

Recente Artikelen

Auteursrechten © 2023 – Alle rechten voorbehouden. Partner van Livescore Group and FootballScore.com

Deze website maakt gebruik van cookies om uw ervaring te verbeteren. We gaan ervan uit dat u hiermee akkoord gaat, maar u kunt zich desgewenst afmelden. Aanvaarden Lees verder

Privacy- en cookiebeleid