OpenAI:s nya språkgenerator GPT-3 är chockerande bra – och helt sinneslös

fallande bokstäver

Getty



Att spela med GPT-3 känns som att se framtiden, Arram Sabeti, en San Francisco-baserad utvecklare och artist, twittrade förra veckan . Det sammanfattar ganska mycket responsen på sociala medier de senaste dagarna på OpenAI:s senaste språkgenererande AI.

OpenAI först beskrivna GPT-3 i en forskningsartikel som publicerades i maj. Men förra veckan började det droppmata programvaran till utvalda personer som begärde tillgång till en privat betaversion . För tillfället vill OpenAI att externa utvecklare ska hjälpa det att utforska vad GPT-3 kan göra, men de planerar att göra verktyget till en kommersiell produkt senare i år, och erbjuda företag en betald prenumeration på AI via molnet.





ska jag frysa mina ägg vid 35?

GPT-3 är den mest kraftfulla språkmodellen någonsin. Dess föregångare, GPT-2, släpptes förra året , kunde redan spotta ut övertygande textströmmar i en rad olika stilar när du uppmanades med en inledande mening. Men GPT-3 är ett stort steg framåt. Modellen har 175 miljarder parametrar (de värden som ett neuralt nätverk försöker optimera under träning), jämfört med GPT-2:s redan enorma 1,5 miljarder. Och med språkmodeller, storleken spelar verkligen roll .

Sabeti länkade till en blogginlägg där han visade upp noveller, sånger, pressmeddelanden, tekniska manualer och mer som han hade använt AI för att generera. GPT-3 kan också producera pastischer av vissa författare. Mario Klingemann, en konstnär som arbetar med maskininlärning, delade med sig av en novell som heter Vikten av att vara på Twitter, skriven i stil med Jerome K. Jerome, som börjar: Det är ett märkligt faktum att den sista kvarvarande formen av socialt liv i som folket i London fortfarande är intresserade av är Twitter. Jag slogs av detta märkliga faktum när jag gick på en av mina periodiska helgdagar till havet och fann hela platsen kvittra som en starebur. Klingemann säger att allt han gav AI:n var titeln, författarens namn och initialen It. Det finns till och med en ganska informativ artikel om GPT-3 skriven helt av GPT-3 .



Andra har funnit att GPT-3 kan generera vilken typ av text som helst, inklusive gitarrflikar eller datorkod. Till exempel, genom att justera GPT-3 så att den producerade HTML snarare än naturligt språk, visade webbutvecklaren Sharif Shameem att han kunde göra det skapa webbsideslayouter genom att ge den uppmaningar som en knapp som ser ut som en vattenmelon eller stor text i rött som säger VÄLKOMMEN TILL MITT NYHETSBREV och en blå knapp som säger Prenumerera. Till och med den legendariske kodaren John Carmack, som var banbrytande för 3D-datorgrafik i tidiga videospel som Doom och nu konsulterar CTO på Oculus VR, var nervös : Den senaste, nästan oavsiktliga upptäckten att GPT-3 kan typ skriva kod genererar en lätt rysning.

Trots sina nya knep är GPT-3 fortfarande benägen att spy ut hatiskt sexistiskt och rasistiskt språk. Att finjustera modellen bidrog till att begränsa denna typ av utdata i GPT-2.



Det är heller ingen överraskning att många har varit snabba med att börja prata om intelligens. Men GPT-3:s människoliknande produktion och slående mångsidighet är resultatet av utmärkt ingenjörskonst, inte äkta smart. För det första gör AI:n fortfarande löjliga tjut som avslöjar en total brist på sunt förnuft. Men även dess framgångar har en brist på djup, läser mer som klipp-och-klistra jobb än originalkompositioner.

det som skyddar jorden från solvindar

Exakt vad som händer inuti GPT-3 är inte klart. Men vad den verkar vara bra på är att syntetisera text som den har hittat någon annanstans på internet, vilket gör den till en sorts stor, eklektisk klippbok skapad av miljoner och åter miljoner textbitar som den sedan limmar ihop på konstiga och underbara sätt på begäran.

Det är inte för att tona ned OpenAI:s prestation. Och ett verktyg som detta har många nya användningsområden, både bra (från att driva bättre chatbots till att hjälpa människor kod) och dåliga (från att driva bättre desinformationsrobotar till att hjälpa barn att fuska på sina läxor).

Men när en ny AI-milstolpe kommer blir den alltför ofta begravd i hype. Till och med Sam Altman, som grundade OpenAI tillsammans med Elon Musk, försökte tona ner saker och ting : GPT-3-hypen är alldeles för mycket. Den är imponerande (tack för de fina komplimangerna!) men den har fortfarande allvarliga svagheter och gör ibland väldigt fåniga misstag. AI kommer att förändra världen, men GPT-3 är bara en mycket tidig glimt. Vi har mycket kvar att ta reda på.

Vi har en låg nivå när det gäller observationsintelligens . Om något ser smart ut är det lätt att lura oss själva att det är det. Det största tricket AI någonsin har gjort var att övertyga världen om att den existerar. GPT-3 är ett stort steg framåt – men det är fortfarande ett verktyg som gjorts av människor, med alla de brister och begränsningar som det innebär.

hej google var är
Dölj

Faktisk Teknik

Kategori

Okategoriserad

Teknologi

Bioteknik

Teknisk Policy

Klimatförändring

Människor Och Teknik

Silicon Valley

Datoranvändning

Mit News Tidningen

Artificiell Intelligens

Plats

Smarta Städer

Blockchain

Huvudartikel

Alumnprofil

Alumnikoppling

Mit News-Funktion

1865

Min Syn

77 Mass Ave

Möt Författaren

Profiler I Generositet

Ses På Campus

Alumnbrev

Nyheter

Tidningen Mit News

Val 2020

Med Index

Under Kupolen

Brandslang

Oändliga Berättelser

Pandemic Technology Project

Från Presidenten

Cover Story

Fotogalleri

Rekommenderas