Jag började gråta: Inuti Timnit Gebrus sista dagar på Google – och vad som händer härnäst

. illustration av Timnit Gebru

Nhung Le



16 december 2020

Vid det här laget har vi alla hört någon version av historien. Den 2 december, efter en utdragen oenighet om utgivningen av en forskningsartikel, gjorde Google tvingade bort sin etiska AI-medledare, Timnit Gebru . Tidningen fanns på risker med stora språkmodeller , AI-modeller tränade på häpnadsväckande mängder textdata, som är en forskningslinje för Googles verksamhet. Gebru, en ledande röst inom AI-etik, var en av de enda svarta kvinnorna på Google Research.

Flytten har sedan dess väckt en debatt om växande företagsinflytande över AI, den långvariga bristen på mångfald inom teknik och vad det innebär att göra meningsfull AI-etisk forskning. Den 15 december hade över 2 600 Google-anställda och 4 300 andra inom akademin, industrin och civilsamhället undertecknade en petition fördömer avskedandet av Gebru och kallar det oöverträffad forskningscensur och en vedergällningshandling.





Vi läste tidningen som tvingade bort Timnit Gebru från Google. Så här står det.

Företagets stjärna etikforskare lyfte fram riskerna med stora språkmodeller, som är nyckeln till Googles verksamhet.

Gebru är känd för grundarbete inom avslöjar AI-diskriminering , utvecklande metoder för att dokumentera och granska AI-modeller , och förespråkar större mångfald i forskningen. 2016 var hon med och grundade den ideella Black in AI , som har blivit en central resurs för medborgarrättsaktivister, arbetsorganisatörer och ledande AI-etikforskare, som odlar och lyfter fram svarta AI-forskartalanger.

Att förlora jobbet gjorde inte Gebru långsammare. Veckan därpå deltog hon i flera workshops på NeurIPS, den största årliga AI-forskningskonferensen, som över 20 000 personer deltog i i år. Det var terapeutiskt, säger hon, att se hur samhället hon hjälpt till att bygga upp dök upp och stöttade varandra. Nu, ytterligare en vecka senare, varvar hon bara och hämtar andan – och försöker förstå allt.



Måndagen den 14 december kom jag ikapp Gebru via Zoom. Hon berättade vad som hände under hennes tid på Google, reflekterade över vad det betydde för fältet och AI-etikforskningen och gav avskedande råd till dem som vill fortsätta hålla tekniska företag ansvariga. Du kan också lyssna på ett specialavsnitt av vår podcast, In Machines We Trust, för höjdpunkter från intervjun. (Google avböjde en begäran om kommentarer om innehållet i denna intervju.)

Följande har redigerats och sammanfattats.

Jag ville först kolla in hur du mår.

Jag känner att jag inte riktigt har haft tid att bearbeta allt som hände och dess återverkningar känslomässigt. Jag bara går och går och går. Så jag känner att jag förmodligen kommer att falla samman någon gång när det blir lite lugnare. Men just nu är jag bara mycket oroad över mitt team och de människor som stöttar mig, och vilka typer av risker de tar, och för att se till att de inte får repressalier.

Det har varit så många berättelser om vad som har hänt. Jag ville börja från en mycket tidigare punkt i den här historien. Vad var det som gjorde att du ursprungligen valde att arbeta på Google, och hur var Google då?

Jag tror Samy [Bengio, regissör på Google AI] och Jeff [Dean, SVP för Google Research] var på Black in AI-workshopen [på NeurIPS 2017]. De frågade mig vad jag gjorde och de sa: Ja, du borde komma och jobba på Google. Jag hade inte planerat det. Jag gjorde min postdoc vid den tiden på Microsoft Research [MSR]. Jag hade inte kommit på vad jag skulle göra härnäst. Men jag visste att jag ville åka tillbaka till Bay Area, och de höll på att skapa ett kontor i Accra, Ghana. Jag tänkte att det skulle vara bra för mig att hjälpa till med det.



stormflod i new york

Jag hade många reservationer. Jag var i New York City på MSR, och det fanns många sångkvinnor där – Danah Boyd, Hannah Wallach, Jen [Wortman Vaughan], Kate Crawford, Mary Gray. Det fanns inte riktigt färgade kvinnor. De enda svarta kvinnorna jag känner av hela Microsoft Research är Danielle Bellgrave i Storbritannien och Shawndra Hill i New York. Men ändå var även männen väldigt stöttande. Jag var mycket tveksam till att gå till en miljö där jag visste att Google Research inte var känt för sitt förespråkande för kvinnor. Det fanns ett antal problem som jag hade hört via mina visknätverk. Faktum är att när jag sa att jag skulle gå till Google Research var det faktiskt ett antal personer som satte mig ner. Så jag fruktade det bara, som Åh, man, okej, vad ska jag in på?

Jag var definitivt den första svarta kvinnan som var forskare på Google. Efter mig har vi två svarta kvinnor till. Det är, liksom, av så många forskare. Hundra och hundra. Tre av Gud vet hur många.

De gjorde inte besviken. Det var bara konstant kamp. Jag försökte närma mig det som att prata med människor, försöka utbilda dem, försöka få dem att se en viss synvinkel. Jag fortsatte att tänka att de kunde göra bättre, vet du? Med Samy har han blivit en så stor förespråkare. Folk klagade på att den här organisationen [Google Research] anställde bara 14 % kvinnor. Samy, min chef, anställde 39 % kvinnor. Det var inte som att han hade något som helst incitament att göra det. Han var den enda anledningen till att jag känner att det här inte hänt mig tidigare. Det är förmodligen för att han skyddade oss. Och genom att skydda oss skulle han själv få problem. Om andra ledare övervakar dig, och du är för högljudd, du är som en bråkmakare – vi vet alla att det är vad som händer med människor som jag – då om någon försvarar dig kommer de uppenbarligen också att vara ett problem för de andra ledarna.

Så det var mina två år på Google. Jag trodde faktiskt att vi kanske gjorde framsteg fram till den senaste incidenten, för vårt team växte. Det gick från att nästan sönderfalla – två månader in i min tid på Google skulle min medledare, Meg Mitchell, sluta. Men sedan utökade vi vårt team, och vi är nu typ 12 personer. Så jag trodde att vi gick framåt.

Det pratades så mycket om mångfald och inkludering, men så mycket hyckleri. Jag är en av 1,6 % svarta kvinnor på Google. I [Google] Research är det inte 1,6 % – det är mycket lägre. Jag var definitivt den första svarta kvinnan som var forskare på Google. Efter mig har vi två svarta kvinnor till. Det är, liksom, av så många forskare. Hundra och hundra. Tre av Gud vet hur många.

Så någon gång var jag precis som, vet du vad? Jag vill inte ens prata om mångfald. Det är bara utmattande. De vill ha möten med dig, de lyssnar inte på dig och sedan vill de ha möten med dig igen. Jag har skrivit en miljon dokument om en miljon mångfaldsrelaterade saker – om raskunskaper och maskininlärning [ML], ML rättvisa initiativ, om att behålla kvinnor och frågorna. Så många dokument och så många e-postmeddelanden.

Så det har bara varit det ena efter det andra. Det har inte varit en enda semester jag tog på Google där jag inte var mitt uppe i ett eller annat problem. Det har bara aldrig varit sinnesfrid. Föreställ dig att någon skjuter på dig med en pistol och du skriker. Och istället för att försöka stoppa personen som skjuter på dig med en pistol, försöker de hindra dig från att skrika. Det var så det kändes. Det var bara så smärtsamt att vara i den positionen om och om och om igen.

Du har framgångsrikt byggt ett av de mest mångsidiga teamen inom AI-branschen. Vad krävdes egentligen för att göra det?

Vi var tvungna att slåss mot alla möjliga saker. Jag var tvungen att vara chef, och då ville folk inte att jag skulle bli chef. Jag tänkte, okej, jag har startat en mycket välkänd ideell organisation. Varför har du 'oro' över att jag är chef? Samy sa inte detta till mig, men han var tvungen att leverera detta meddelande: Vet hon att hon kan få sparken för saker? Vet hon att om hon blir chef måste hon vara en representant för Google? Sedan tog folk upp oro för att jag verkade missnöjd på Google. Det är inte som, Åh, det finns en giftig kultur som gör människor som henne olyckliga. Så låt oss fixa den kulturen. Nej, det var inte samtalet. Samtalet var att hon verkar vara olycklig, så låt oss inte göra henne till chef.

Jag var arg på den tiden. Jag var så arg. Jag frågade varannan person som blev chef på min nivå vad deras erfarenhet var. Jag är som, den här personen blev chef och ingen frågade dem någonsin om de visste att de skulle få sparken för X, Y och Z. Den här andra personen blev chef. Ingen behövde prata med dem. Det blev ingen som helst diskussion. För mig var det inte så.

Föreställ dig att någon skjuter på dig med en pistol och du skriker. Och istället för att försöka stoppa personen som skjuter på dig med en pistol, försöker de hindra dig från att skrika.

En annan sak: vi ville anställa samhällsvetare. Många gånger anställer forskare bara sina vänner, och det ville vi inte göra. Vi ringde ett samtal. Vi fick 300 ansökningar. Vi tittade igenom dem för hand eftersom vi ville se till att rekryterare inte filtrerade bort vissa grupper av människor. Vi hade ett snabbt samtal med 20-någonting, vi hade en intervju på plats med 10 personer och sedan anställde vi två av dem.

Varför jag trodde att vi gjorde framsteg var för att vi kunde få resurser för att anställa dessa människor. Så jag tänkte att Jeff kanske började stötta vårt team och stötta den sortens saker vi gjorde. Jag föreställde mig aldrig – jag vet inte exakt hur den här saken hände alls – men jag föreställde mig bara inte att han skulle skriva under på det [min sparken]. Jag kan inte föreställa mig att han initierade det, men till och med han som skrev på det var bara något så överraskande för mig.

Under tiden du byggde upp teamet, kunde du bygga relationer med andra team på Google? Blev vissa delar av organisationen mer mottagliga för AI-etiska frågor?

De flesta i vårt team översvämmas av förfrågningar från andra team eller andra människor. Och en av våra utmaningar var att inte alltid vara mitt i en brand, eftersom vi ville ha framförhållning. Vi ville forma vad som händer i framtiden och inte bara reagera.

Den största missmatchningen jag ser är att det finns så många människor som respekterar oss, men sedan finns det folk på toppen, som VPs, som kanske inte tål oss eller bara inte respekterar vår auktoritet eller expertis alls. Jag har sett det ett antal gånger. Men personer i Google Cloud, eller Cloud AI specifikt, några av de högre ledarna – de var mycket stödjande. Jag kände att de verkligen respekterade vårt ledarskap, så de skulle försöka dra oss in i många saker. Å andra sidan kom detta senaste fiasko inte från dem. Jag har mina misstankar om vilka VP:er det kom ifrån, och de respekterade verkligen inte vår expertis eller ledarskap.

hur många tegelstenar kan en murare lägga på en dag

Kan du prata lite mer om det?

Tja, även om du bara ser mejlet från Jeff —Jag antar att han inte skrev det här mejlet; Jag antar att någon skrev det och han skickade det – det talar om hur vår forskning [uppsats om stora språkmodeller] hade luckor, det saknades en del litteratur. [Mejlet låter inte] som om de pratar med personer som är experter inom sitt område. Detta är inte peer review. Det här är inte recensent #2 som säger till dig, hej, det här citatet saknas. Det här är en grupp människor som vi inte känner, som är högt uppe för att de har varit på Google länge, som av någon okänd anledning och process som jag aldrig har sett någonsin fick makten att lägga ner denna forskning.

Vi hade 128 citat [på det pappret], och vi skickade vårt papper till många av dessa personer som vi citerade. Vi var så noggranna. Jag sa, okej, jag vill samla de personer som vi ska be om feedback från i fyra hinkar. En är de människor som själva har utvecklat stora språkmodeller, bara för att få deras perspektiv. En är människor som arbetar med att förstå och mildra partiskheten i dessa modeller. En är människor som kanske inte håller med om vår uppfattning. En är människor som använder dessa stora språkmodeller för olika saker. Och vi har ett helt dokument med all denna feedback som vi skulle gå igenom för att ta itu med, och som jag vill göra fortfarande innan vi släpper det här arbetet.

Men hur de [Googles ledarskap] pratade med oss, var det inte som att de pratade med världskända experter och lingvister. Som att Emily Bender [en professor vid University of Washington och medförfattare till tidningen] inte är någon slumpmässig person som bara sätter sitt namn på ett slumpmässigt papper där ute. Jag kände att det hela var så respektlöst.

Fanns det tidigare tillfällen där du någonsin kände att Google begränsade eller begränsade ditt teams förmåga att bedriva forskning före detta specifika dokument?

Jag kände att det fanns tidigare fall där de urvattnade forskningsresultaten mycket. Folk hade samtal med PR och policy eller vad som helst, och de skulle ta problem med vissa formuleringar eller ta problem med vissa detaljer. Det var vad jag trodde att de kunde försöka göra med det här papperet också. Så jag skrev ett dokument, och jag fortsatte att fråga dem, exakt vad är din feedback? Är din feedback att lägga till ett avsnitt? Att ta bort? Vad betyder det här? Vad frågar du oss?

Detta var bokstavligen mitt mejl i fredags efter Thanksgiving [ 27 november, fem dagar före Gebrus uppsägning ] för på Thanksgiving day hade jag ägnat min dag åt att skriva det här dokumentet istället för att ha det trevligt med min familj. Nästa dag, på fredagen, då jag skulle dra tillbaka den här uppsatsen, skrev jag: Okej, jag har skrivit det här sexsidiga dokumentet som på hög och låg nivå tar upp vilken feedback jag än kan samla in. Och jag hoppas att det åtminstone finns en öppenhet för vidare samtal snarare än bara ytterligare order. Jag skrev det mailet. Sådär. Hur svarar Megan [Kacholia, VP of engineering på Google Research] på det här e-postmeddelandet? På måndag svarar hon på det och säger: Kan du bekräfta att du antingen har dragit tillbaka tidningen eller tagit bort författarnas namn från denna tidning. Tack. Och kan du bekräfta efter att du har gjort detta. Skicka mig ett mail och bekräfta. Som om jag inte har någon byrå.

Det är inte vad de gör mot människor som har ägnat sig åt grovt tjänstefel. De ger dem 80 miljoner dollar, och de ger dem en trevlig liten exit. De gör inte vad de gjorde mot mig.

Sedan skrev jag i det dokumentet att detta har varit extremt respektlöst mot det etiska AI-teamet, och det måste finnas ett samtal, inte bara med Jeff och vårt team, och Megan och vårt team, utan hela Research om respekt för forskare och hur man för den här typen av diskussioner. Nej. Inget engagemang med det.

Jag grät förresten. När jag hade det första mötet, som var torsdagen före Thanksgiving, en dag innan jag skulle åka på semester – när Megan sa till oss att du måste dra tillbaka det här papperet började jag gråta. Jag var så upprörd för att jag sa att jag är så trött på att konstant slåss här. Jag tänkte att om jag bara ignorerade allt detta DEI [mångfald, rättvisa och inkludering] hyckleri och andra saker, och jag bara fokuserade på mitt arbete, så skulle jag åtminstone få mitt arbete gjort. Och nu kommer du för mitt arbete. Så jag började bokstavligen gråta.

Vad tror du att det var med just denna tidning som berörde dessa händelser? Tror du att det faktiskt handlade om denna tidning, eller var det andra faktorer som spelade in?

Jag vet inte. Samy blev förskräckt över det hela. Han menade, det är inte så här vi behandlar forskare. Jag menar, det är inte så här man behandlar människor i allmänhet. Människor pratar om hur, om detta händer någon så bra, får det mig att föreställa mig vad de gör med människor, särskilt människor i utsatta grupper.

De trodde nog att jag skulle vara väldigt tyst om det. Jag vet inte. Jag tror inte att slutresultatet bara handlade om detta papper. Kanske blev de förvånade över att jag trängde tillbaka på något som helst sätt. Jag försöker fortfarande ta reda på vad som hände.

Misstänkte du någonsin, baserat på de tidigare händelserna och spänningarna, att det skulle sluta på detta sätt? Och förväntade du dig samhällets svar?

Jag tänkte att de kunde göra mig olycklig nog att lämna, eller något liknande. Jag trodde att de skulle vara smartare än att göra det på exakt det här sättet, eftersom det är ett sammanflöde av så många frågor som de har att göra med: forskningscensur, etisk AI, arbetsrätt, DEI – alla saker som de har hamnat under. eld för tidigare. Så jag förväntade mig inte att det skulle vara på det sättet – som att stänga av mitt företagskonto helt. Det är så hänsynslöst. Det är inte vad de gör mot människor som har ägnat sig åt grovt tjänstefel. De ge dem 80 miljoner dollar , och de ger dem en trevlig liten utgång, eller så kanske de passivt-aggressivt inte främjar dem, eller vad som helst. De gör inte mot de människor som faktiskt skapar en fientlig arbetsmiljö vad de gjorde mot mig.

Jag fick reda på det från mina direktrapporter, vet du? Vilket är så, så sorgligt. De var bara så traumatiserade. Jag tror att mitt team var uppe till 4 eller 5 på morgonen tillsammans och försökte förstå vad som hände. Och att gå runt Samy - det var bara så hemskt och hänsynslöst.

Jag tänkte att om jag bara ... fokuserade på mitt arbete, så kunde jag åtminstone få mitt arbete gjort. Och nu kommer du för mitt arbete. Så jag började bokstavligen gråta.

hur mycket kostar designerbebisar

Jag förväntade mig en viss mängd stöd, men jag förväntade mig definitivt inte den mängd utgjutning som det finns. Det har varit otroligt att se. Jag har aldrig, aldrig upplevt något liknande. Jag menar, slumpmässiga släktingar sms:ar mig, jag såg det här på nyheterna. Det är definitivt inget jag förväntade mig. Men människor tar så många risker just nu. Och det oroar mig, för jag vill verkligen se till att de är säkra.

Du har nämnt att det här inte bara handlar om dig; det handlar inte bara om Google. Det är ett sammanflöde av så många olika frågor. Vad säger denna speciella erfarenhet om teknikföretags inflytande på AI i allmänhet, och deras förmåga att faktiskt göra ett meningsfullt arbete inom AI-etik?

Du vet, det var ett antal människor jämför Big Tech och Big Tobacco , och hur de censurerade forskning trots att de kände till problemen ett tag. Jag trycker tillbaka på dikotomien mellan akademi och teknik, eftersom de båda har samma sorts väldigt rasistiska och sexistiska paradigm. Paradigmet som du lär dig och tar till Google eller var som helst börjar i akademin. Och folk rör på sig. De går till industrin och sedan går de tillbaka till akademin, eller vice versa. De är alla vänner; de går alla på samma konferenser.

Jag tror inte att lärdomen är att det inte borde finnas någon AI-etisk forskning i teknikföretag, men jag tror att lärdomen är att a) det måste finnas mycket mer oberoende forskning. Vi måste ha fler valmöjligheter än bara DARPA [The Defense Advanced Research Projects Agency] kontra företag. Och b) det måste finnas tillsyn över teknikföretag, uppenbarligen. Vid det här laget förstår jag bara inte hur vi kan fortsätta tro att de kommer att självreglera på DEI eller etik eller vad det nu är. De har inte gjort rätt, och de kommer inte att göra rätt.

Jag tror att akademiska institutioner och konferenser måste ompröva sina relationer med stora företag och hur mycket pengar de tar från dem. En del människor undrade till exempel om några av dessa konferenser borde ha en uppförandekod utan censur eller något liknande. Så jag tror att det finns mycket som dessa konferenser och akademiska institutioner kan göra. Det är för mycket maktobalans just nu.

Vilken roll tror du att etikforskare kan spela om de är på företag? Specifikt, om ditt tidigare team stannar på Google, vilken typ av väg ser du för dem när det gäller deras förmåga att producera effektfullt och meningsfullt arbete?

Jag tror att det måste finnas något slags skydd för sådana människor, eller sådana forskare. Just nu är det uppenbarligen väldigt svårt att föreställa sig hur någon kan göra någon verklig forskning inom dessa företag. Men om du hade arbetsskydd, om du har whistleblower-skydd, om du har lite mer tillsyn, kan det vara lättare för människor att skyddas medan de utför den här typen av arbete. Det är mycket farligt om du har den här typen av forskare som gör det som min medledare kallade fikonlöv - täckande - arbete. Som att vi inte ändrar någonting, vi sätter bara ett fikonblad på konsten. Om du befinner dig i en miljö där människorna som har makt inte investeras i att förändra något på riktigt, eftersom de inte har några som helst incitament, kommer det uppenbarligen inte att hjälpa alls att ha den här typen av forskare inbäddade där. Men jag tror att om vi kan skapa ansvars- och tillsynsmekanismer, skyddsmekanismer, hoppas jag att vi kan tillåta sådana här forskare att fortsätta att existera i företag. Men mycket måste förändras för att det ska hända.

Förutom att konferenser eller reglering ändrar incitamentsstrukturerna, finns det andra mekanismer eller saker som du kan se vara en del av denna externa tillsynsram? Ser du någon roll som allmänheten kan spela för att hålla teknikföretag ansvariga?

Jag måste tänka mer på detta. Jag tror att allmänheten behöver bli mer utbildad i den roll som teknikföretag, och även AI, spelar i våra dagliga liv. Många människor har gjort ett riktigt bra jobb med det. Folk har skrivit böcker— Vapen för matematisk förstörelse var en mycket bra bok för mig att läsa. Det finns Kodad bias , dokumentären. Jag är också glad att jag börjar se universitet som erbjuder några av dessa klasser i datavetenskap. Jag tycker att de borde krävas. Nicki Washington har en klass på Duke som jag önskar att jag kunde ha tagit. Ruha [Benjamin] har en klass [på Princeton] . Jag tror att vår förståelse för hur vetenskap utvecklas och hur ingenjörskonst utvecklas - den behöver bara förändras. Allmänheten måste förstå den politiska karaktären av detta arbete. De högre utbildningssystemen ligger enligt min mening väldigt efter på det här sättet. De behöver göra mycket arbete.

När det gäller allmänheten tror jag att om jag skulle gå tillbaka till för tre, fyra år sedan så var det mycket mindre medvetenhet. Nu är enheter som ACLU [American Civil Liberties Union] starkt involverade; du har Algorithmic Justice League , Data för Black Lives , gör mycket arbete här. Så jag tror att allmänheten kan lära sig mer. Men jag tror att det här handlar mer om politikerna, eftersom vi har en mekanism för att involvera allmänheten i olika saker. Men politikerna ger inte allmänheten ett sätt att engagera sig. Till exempel, [dataanalysföretag] Palantir användes i New Orleans för predictive policing och ingen visste. Det blev ingen omröstning. Det fanns ingen räkning. Det blev ingen diskussion om det. Så vår regering måste aktivt ge allmänheten en chans att väga in den här typen av frågor.

Vad innebär det att faktiskt utföra ett meningsfullt AI-etiskt arbete?

Jag tror att det kanske betyder att man kan ifrågasätta de grundläggande premisserna och grundläggande frågorna om AI. Du behöver inte bara dölja saker, eller så behöver du inte bara vara reaktionär. Du kan ha förutseende om framtiden, och du kan komma in tidigt medan produkter funderas och utvecklas, och inte bara göra saker i efterhand. Det är det första jag tänker på. Och att de människor som påverkas mest av tekniken borde ha ett mycket stort att säga till om, från allra första början.

Du har nämnt tidigare hur etik hos teknikföretag ofta kommer uppifrån och ner, från människor som inte nödvändigtvis är de som påverkas av tekniken. Vilken är den idealiska balansen av att faktiskt ha marginaliserade röster som driver samtalet, samtidigt som det är ett inköp av toppledarskap?

Om människor i marginalen inte har makt, så finns det inget incitament för någon att lyssna på dem eller låta dem forma diskussionen. Så jag tror att människor i toppen behöver främja en miljö där det är människor i marginalen som är de som formar diskussionerna om dessa saker, om AI-etik, om mångfald och inkludering.

vetenskapen om jordning avslöjades

Vi lärs ut när vi objektivt lär oss vetenskap, det som kallas synen från ingenstans, som om du inte borde ta med din synvinkel till det. Jag tycker att folk borde göra precis tvärtom.

Det är inte vad som händer just nu. Du går till Google och du ser alla personer på hög nivå som gör AI-etik – de är absolut inte ens människor från underrepresenterade grupper alls. Det var det samtalet vi hade när jag var där, och många av oss var superfrustrerade över det. Vi hade dessa principer som hette Ingenting om oss utan oss, och det allra första vi kom på var psykologisk säkerhet. Kan du föreställa dig? Det betyder att jag inte ska straffa mig för att jag pratar, vilket är precis vad de gjorde. Så du måste söka input, men sedan igen, gör det inte på ett underligt sätt. Innan du ens tänker på produkterna du bygger eller forskningen du gör måste du börja föreställa dig: hur kan du arbeta med människor i marginalen för att forma den här tekniken?

Ser du dig själv på något sätt som en martyr?

Jag försökte inte vara det, och jag tror inte att jag är en martyr just nu. Jag hoppas att jag är mer av en agent för förändring. Men ja, Google gjorde mig till en, mer än jag skulle ha varit om de inte gjorde det här mot mig.

Vad är nästa för dig?

Åh, man. Jag har inte haft tid att tänka på det. Just nu försöker jag bokstavligen se till att mitt team är säkert, se till att berättelsen kring vad som händer med mig är korrekt, och ta en liten paus när jag kan. Förhoppningsvis dricka lite vin, äta lite mat, äta lite choklad, umgås med familjen. Och jag kanske kommer på det efteråt. Men min största prioritet är att inte vara i den typ av miljö jag var i. Det är min största prioritet.

Vilka råd har du till andra som vill bygga vidare på det arbete du har gjort?

Mitt råd är att läsa på några av de verk som jag nämnde, särskilt av Klänning [Benjamin] , Meredith [Broussard] , Safiya [Noble] , Simone Browne , och ett antal andra människor. Och ta med dig din levda erfarenhet. Försök inte ta dig själv ur detta arbete. Det har mycket med dig att göra. Så din vinkel och din styrka kommer att bero på vad din levda upplevelse är. Jag höll ett föredrag som hette Hierarkin för kunskap och maskininlärning , och det handlade ungefär om det: Hur vi lärs ut när vi lär oss naturvetenskap objektivt, det som kallas synen från ingenstans, som om du inte ska ta med din synvinkel till det. Jag tycker att folk borde göra precis tvärtom.

Uppdatering: Vi förtydligade Samy Bengios befattning och rättade en referens till en forskare. Timnit syftade på Jen Wortman Vaughan, en senior huvudforskare vid MSR, inte Jen Chayes, en tidigare direktör på samma företag.

Faktisk Teknik

Kategori

Okategoriserad

Teknologi

Bioteknik

Teknisk Policy

Klimatförändring

Människor Och Teknik

Silicon Valley

Datoranvändning

Mit News Tidningen

Artificiell Intelligens

Plats

Smarta Städer

Blockchain

Huvudartikel

Alumnprofil

Alumnikoppling

Mit News-Funktion

1865

Min Syn

77 Mass Ave

Möt Författaren

Profiler I Generositet

Ses På Campus

Alumnbrev

Nyheter

Tidningen Mit News

Val 2020

Med Index

Under Kupolen

Brandslang

Oändliga Berättelser

Pandemic Technology Project

Från Presidenten

Cover Story

Fotogalleri

Rekommenderas