Mannen som hjälpte till att uppfinna virtuella assistenter tror att de är dömda utan en ny AI-metod

Ms. Tech



är denna person verklig

Siri, Alexa, Google Home – teknik som analyserar språk hittar allt mer in i vardagen.

Boris Katz , en huvudforskare vid MIT, är inte så imponerad. Under de senaste 40 åren har Katz gett viktiga bidrag till maskinernas språkliga förmågor. På 1980-talet utvecklades han START , ett system som kan svara på naturligt formulerade frågor. Idéerna som användes i START hjälpte IBMs Watson att vinna vidare Jeopardy! och lade grunden för dagens tjattrande konstgjorda tjänare.





Men Katz oroar sig nu för att fältet lider av ett beroende av årtionden gamla idéer, och att dessa idéer inte kommer att ge oss maskiner med verklig intelligens. Jag träffade honom för att diskutera de nuvarande gränserna för AI-assistenter och för att höra hans tankar om var forskningen måste gå om de någonsin ska bli smartare.

Hur blev du intresserad av att få datorer att använda språk?

Jag mötte första gången datorer på 1960-talet som student vid Moskvas universitet. Den speciella maskinen jag använde var en stordator som heter BESM-4. Man kunde bara använda oktal kod för att kommunicera med den. Mitt första datorprojekt handlade om att lära en dator att läsa, förstå och lösa matematiska problem.



Sedan utvecklade jag ett datorprogram för att skriva poesi. Jag minns fortfarande att jag stod i maskinrummet och väntade på att se nästa dikt som maskinen genererade. Jag blev chockad av dikternas skönhet; de verkade vara producerade av en intelligent enhet. Och jag visste då och där att jag vill arbeta resten av mitt liv med att skapa intelligenta maskiner och hitta sätt att kommunicera med dem.

Vad tycker du om Siri, Alexa och andra personliga assistenter?

Det är roligt att prata om, för å ena sidan är vi väldigt stolta över dessa otroliga framsteg – alla i fickan har något som vi hjälpte till att skapa här för många, många år sedan, vilket är underbart.

Foto på Boris Katz

MED



Men å andra sidan är dessa program så otroligt korkade. Så det finns en känsla av att vara stolt och nästan generad. Du lanserar något som folk känner är intelligent, men det är inte ens i närheten.

Det har skett betydande framsteg inom AI tack vare maskininlärning. Är inte det att göra maskiner bättre på språk?

Å ena sidan finns detta dramatiska framsteg, och sedan är en del av dessa framsteg uppblåsta. Om man tittar på framsteg inom maskininlärning kom alla idéer för 20 till 25 år sedan. Det är bara det att ingenjörer så småningom gjorde ett bra jobb med att förverkliga dessa idéer. Denna teknik, hur stor den än är, kommer inte att lösa problemet med verklig förståelse – med verklig intelligens.

Det verkar som om vi gör framsteg inom AI, dock... (se 10 banbrytande teknologier: Smooth-talking Personal Assistants ) ?

På en mycket hög nivå är moderna tekniker – statistiska tekniker som maskininlärning och djupinlärning – mycket bra på att hitta regelbundenheter. Och eftersom människor vanligtvis producerar samma meningar mycket av tiden, är det väldigt lätt att hitta dem på språket.

Titta på prediktiv text. Maskinen vet bättre än du vad du ska säga. Du kan kalla det intelligent, men det är bara att räkna ord och siffror. Eftersom vi fortsätter att säga samma sak är det lätt att bygga system som fångar regelbundenheterna och agerar som om de är intelligenta. Detta är den fiktiva karaktären hos mycket av de nuvarande framstegen.

Vad sägs om det farliga språkgenererande verktyget tillkännagav nyligen av OpenAI ?

Dessa exempel är verkligen mycket imponerande, men jag är inte säker på vad de lär oss. OpenAI-språkmodellen tränades på 8 miljoner webbsidor för att förutsäga nästa ord, givet alla föregående ord i någon text (som handlade om samma ämne som den som modellen tränades på). Denna enorma mängd träning säkerställde verkligen lokal koherens (syntaktisk och till och med semantisk) i texten.

Varför tror du att AI är på fel väg i språket?

vem är mest sannolikt att vinna valet 2016

Inom språkbehandling, liksom inom andra områden, gjordes framsteg genom att träna modeller på enorma mängder data – många miljoner meningar. Men den mänskliga hjärnan skulle inte kunna lära sig språk med detta paradigm. Vi lämnar inte våra barn med ett uppslagsverk i spjälsängen och förväntar oss att de ska behärska språket.

När vi ser något beskriver vi det i språket; när vi hör någon prata om något föreställer vi oss hur de beskrivna föremålen och händelserna ser ut i världen. Människor lever i en fysisk miljö, fylld med visuella, taktila och språkliga sensoriska input, och den överflödiga och komplementära karaktären hos dessa input gör det möjligt för mänskliga barn att ta sig ur världen och lära sig språk på samma gång. Kanske genom att studera dessa modaliteter isolerat, har vi gjort problemet svårare snarare än lättare?

Varför är sunt förnuft viktigt?

Säg att din robot hjälper dig att packa, och du säger till det: Den här boken skulle inte passa i den röda rutan eftersom Det Är också små. Det är klart att du vill att din robot ska förstå att netto låda är för liten så att du kan fortsätta ha ett meningsfullt samtal. Men om du säger till roboten: Den här boken skulle inte passa i den röda rutan eftersom Det Är också stor, du vill att din robot ska förstå att bok är för stor.

Att veta vilken enhet i en konversation ett pronomen syftar på är en mycket vanlig uppgift som människor gör varje dag, och ändå, som du kunde se från dessa och andra exempel, förlitar det sig ofta på djup förståelse av världen, som för närvarande är utom räckhåll av våra maskiner: förståelse för sunt förnuft och intuitiv fysik, förståelse för andras föreställningar och avsikter, förmåga att visualisera och resonera kring orsak och verkan, och mycket mer.

Du försöker lära maskiner om språk med hjälp av simulerade fysiska världar. Varför är det så?

Jag har ännu inte sett en bebis vars föräldrar lägger ett uppslagsverk i spjälsängen och säger: Gå och lär dig. Och det här är vad våra datorer gör idag. Jag tror inte att dessa system kommer att lära sig som vi vill att de ska eller förstå världen som vi vill.

Vad som händer med bebisar är att de omedelbart får taktil upplevelse av världen. Då börjar bebisar se världen och absorbera händelser och föremåls egenskaper. Och så hör barnet så småningom språklig input. Och det är denna kompletterande input som får magin med förståelse att hända.

Vad är ett bättre tillvägagångssätt?

En väg framåt är att få en större förståelse för mänsklig intelligens och sedan använda den förståelsen för att skapa intelligenta maskiner. AI-forskning måste bygga på idéer från utvecklingspsykologi, kognitionsvetenskap och neurovetenskap, och AI-modeller borde spegla det som redan är känt om hur människor lär sig och förstår världen.

Verkliga framsteg kommer först när forskare kommer ut från våra kontor och börjar prata med människor inom andra områden. Tillsammans kommer vi närmare att förstå intelligens och ta reda på hur vi kan replikera den i intelligenta maskiner som kan tala, se och fungera i vår fysiska värld.

Utmaningen att skapa verkligt intelligenta maskiner är mycket svår, men det är också en av de viktigaste utmaningarna vi har.

Dölj

Faktisk Teknik

Kategori

Okategoriserad

Teknologi

Bioteknik

Teknisk Policy

Klimatförändring

Människor Och Teknik

Silicon Valley

Datoranvändning

Mit News Tidningen

Artificiell Intelligens

Plats

Smarta Städer

Blockchain

Huvudartikel

Alumnprofil

Alumnikoppling

Mit News-Funktion

1865

Min Syn

77 Mass Ave

Möt Författaren

Profiler I Generositet

Ses På Campus

Alumnbrev

Nyheter

Tidningen Mit News

Val 2020

Med Index

Under Kupolen

Brandslang

Oändliga Berättelser

Pandemic Technology Project

Från Presidenten

Cover Story

Fotogalleri

Rekommenderas