Klinton Bicknell werd afgelopen september toegelaten tot een van de grootste geheimen van de technologiewereld. Het hoofd van AI bij de app Duolingo voor het leren van talen kreeg zeldzame toegang tot GPT-4, een nieuw kunstmatige-intelligentiemodel gemaakt door door Microsoft ondersteunde OpenAI.
Hij ontdekte al snel dat het nieuwe AI-systeem nog geavanceerder was dan de eerdere versie van OpenAI die werd gebruikt om de populaire ChatGPT-chatbot aan te drijven die realistische antwoorden geeft in reactie op tekstprompts.
Binnen zes maanden had het team van Bicknell GPT-4 gebruikt om zelf een geavanceerde chatbot te maken waarmee menselijke gebruikers konden praten, om conversatie Frans, Spaans en Engels te oefenen alsof ze zich in echte omgevingen zoals luchthavens of cafés bevonden.
“Het was verbazingwekkend hoe het model zo’n gedetailleerde en gespecialiseerde kennis had van hoe talen werken en van de overeenkomsten tussen verschillende talen”, zei Bicknell. “Met GPT-3, dat we al gebruikten, zou dit gewoon geen haalbare functie zijn.”
Duolingo is een van de weinige bedrijven, waaronder Morgan Stanley Wealth Management en online onderwijsgroep Khan Academy, die vooraf toegang kregen tot GPT-4, voordat het deze week op grotere schaal werd gelanceerd.
De release laat zien hoe OpenAI is getransformeerd van een op onderzoek gerichte groep tot een bedrijf met een waarde van bijna $ 30 miljard, racereuzen zoals Google in pogingen om AI-technologieën te commercialiseren.
OpenAI kondigde aan dat GPT-4 prestaties op “menselijk niveau” liet zien op een reeks gestandaardiseerde tests, zoals het US Bar-examen en de SAT-schooltests, en liet zien hoe zijn partners de AI-software gebruikten om nieuwe producten en diensten te creëren.
Maar voor het eerst onthulde OpenAI geen details over de technische aspecten van GPT-4, zoals op welke gegevens het was getraind of de hardware en computercapaciteit die werden gebruikt om het in te zetten, vanwege zowel het “competitieve landschap als de veiligheid”. implicaties”.
Dit vertegenwoordigt een verschuiving sinds OpenAI in 2015 werd opgericht als een non-profitorganisatie, gedeeltelijk het geesteskind van enkele van de meest radicale denkers van de technische wereld, waaronder Elon Musk en Peter Thiel. Het is gebaseerd op de principes om AI voor iedereen toegankelijk te maken door middel van wetenschappelijke publicaties en om de technologie veilig te ontwikkelen.
Een spil in 2019 veranderde het in een winstgevende onderneming met een investering van $ 1 miljard van Microsoft. Dat werd dit jaar gevolgd door een verdere financiering van meerdere miljarden dollars van de technologiegigant, waarbij OpenAI snel een cruciaal onderdeel werd van de weddenschap van Microsoft dat AI-systemen zijn bedrijfsmodel en producten zullen transformeren.
Deze transformatie bracht Musk, die in 2018 het bestuur van OpenAI verliet, ertoe om deze week te tweeten dat hij “nog steeds in de war was over hoe een non-profitorganisatie waaraan ik ~ $ 100 miljoen heb gedoneerd, op de een of andere manier een marktkapitalisatie van $ 30 miljard met winstoogmerk werd. Als dit legaal is, waarom doet niet iedereen het?”
OpenAI’s gebrek aan transparantie met betrekking tot de technische details van GPT-4 heeft kritiek gekregen van anderen binnen de AI-gemeenschap.
“Het is zo ondoorzichtig, ze zeggen ‘vertrouw ons, we hebben het juiste gedaan'”, zegt Alex Hanna, onderzoeksdirecteur bij het Distributed AI Research Institute (DAIR) en een voormalig lid van het Ethical AI-team van Google. “Ze kiezen deze taken uit, omdat er geen wetenschappelijk overeengekomen reeks benchmarks is.”
GPT-4, dat toegankelijk is via de betaalde versie van ChatGPT voor $ 20, heeft een snelle verbetering laten zien ten opzichte van eerdere AI-modellen voor bepaalde taken. GPT-4 scoorde bijvoorbeeld in het 90e percentiel op het Uniform Bar Exam, afgenomen door aspirant-advocaten in de VS. ChatGPT bereikte slechts het 10e percentiel.
Hoewel OpenAI geen details verstrekte, geloven AI-experts dat de grootte van het model groter is dan die van eerdere generaties en dat er veel meer menselijke training is geweest om het te verfijnen.
De meest voor de hand liggende nieuwe functie is dat GPT-4 invoer in zowel tekst- als afbeeldingsvorm kan accepteren, hoewel het alleen reageert met tekst. Dit betekent dat gebruikers een foto kunnen uploaden om het model te vragen de foto tot in de kleinste details te beschrijven, ideeën kunnen opvragen voor een maaltijd bereid met ingrediënten die in de afbeelding aanwezig zijn, of het model kunnen vragen om de grap achter een visuele meme uit te leggen.
GPT-4 is ook in staat om veel grotere tekstvolumes te genereren en op te nemen in vergelijking met andere modellen van dit type: gebruikers kunnen tot 25.000 woorden invoeren in vergelijking met 3.000 woorden in ChatGPT. Dit betekent dat het kan omgaan met gedetailleerde financiële documentatie, literaire werken of technische handleidingen.
Dankzij zijn geavanceerdere redeneer- en parseervermogen is hij veel bedrevener in het analyseren van complexe juridische contracten op risico’s, zegt Winston Weinberg, mede-oprichter van Harvey, een AI-chatbot die is gebouwd met GPT-4 en wordt gebruikt door PwC en Magic Circle Law. firma Allen & Overy.
Ondanks deze vorderingen heeft OpenAI gewaarschuwd voor verschillende risico’s en beperkingen van GPT-4. Dit omvat het vermogen om gedetailleerde informatie te verstrekken over het uitvoeren van illegale activiteiten, waaronder het ontwikkelen van biologische wapens en het genereren van haatdragende en discriminerende taal.
OpenAI heeft GPT-4 door een veiligheidstestproces geleid dat bekend staat als red-teaming, waarbij meer dan 50 externe experts in disciplines variërend van medicinale chemie tot kernfysica en verkeerde informatie werden gevraagd om te proberen het model te doorbreken.
Paul Röttger, een AI-onderzoeker aan het Oxford Internet Institute die zich richt op de identificatie van giftige online-inhoud, werd door OpenAI voor zes maanden gecontracteerd om te proberen schadelijke reacties van GPT-4 op te wekken en feedback te geven over onderwerpen variërend van zelfmoord of zelf- schadelijke inhoud, tot expliciete beschrijvingen van geweld of voorbeelden van extremisme en aanzetten tot haat.
Hij zei dat het model over het algemeen zijn reacties verbeterde gedurende de maanden van testen, waarbij het aanvankelijk zijn antwoorden zou afdekken, maar later eenduidiger zou worden in zijn reacties op slechte prompts.
“Aan de ene kant is het veiligheidsonderzoek vooruitgegaan sinds GPT-3, en er zijn veel goede ideeën om dit model veiliger te maken,” zei hij. “Maar tegelijkertijd is dit model zoveel krachtiger en kan het veel meer dan GPT-3, dus het risicooppervlak is ook veel groter geworden.”
Lees hier het volledige artikel.