AI gör vÀrlden till en konstigare plats, och det Àr okej

AI gör vÀrlden till en konstigare plats, och det Àr okej

Artificiell intelligens kan göra nĂ„gra fantastiska saker, men det Ă€r inte perfekt. Forskare Dr. Janelle Shane har katalogiserat “de ibland roliga, ibland oroande sĂ€tt som algoritmer fĂ„r fel pĂ„ saker” pĂ„ sin webbplats, AI Weirdness, och dyker djupare in i Ă€mnet i sin nya bok, den hĂ€r veckan.

GĂ„ng pĂ„ gĂ„ng intar Dr Shanes neurala nĂ€t de data hon kastar pĂ„ dem och spottar ut nĂ„gra konstiga saker – frĂ„n oĂ€tliga recept (pepparrotsbrunor, nĂ„gon?) Till bisarra kattnamn och mĂ„la fĂ€rger frĂ„n helvetet.

Vid första anblicken verkar doktor Shanes bok – som en lĂ€ttsam, tecknad förbĂ€ttrad blick pĂ„ AI, men det finns nĂ„gra lĂ€rdomar om mĂ€nskliga sĂ„rbarheter. Vi pratade med Dr Shane för att ta reda pĂ„ varför hon skrev boken och vad hon hoppas att vi kommer att lĂ€ra oss av den.

Dr Shane, kan du förklara ditt dagliga jobb pÄ Boulder Nonlinear Systems, dÀr du gör datorstyrda hologram för att studera hjÀrnan och fotonik (ljusstyrning)?
SĂ€ker! Jag arbetar som forskare pĂ„ ett litet företag som utvecklar nya sĂ€tt att styra ljuset. Jag fĂ„r arbeta inom en massa olika omrĂ„den, för det finns mĂ„nga applikationer. Att studera hjĂ€rnan Ă€r stort – det finns forskare som anvĂ€nder vĂ„ra programmerbara hologram för att studera hur neuroner Ă€r anslutna i hjĂ€rnan hos en mus.

Det lÄter konstigt och underbart i sig. Vad Àr det konstigaste projektet du nÄgonsin har arbetat med?
Ett av de konstigaste projekten jag arbetade med var att utveckla en virtual reality-arena för mantisrÀka.

Sinnet skÀmmer. Okej, ge oss nu bakgrundsberÀttelsen om att skriva den hÀr boken.
Vi har mer och mer att göra med artificiell intelligens i vĂ„rt dagliga liv – algoritmer som avgör vilka annonser vi ser, eller vem som fĂ„r ett lĂ„n, hela vĂ€gen till helt eller helt mĂ€nskliga system som fortfarande sĂ€ljs som “AI”. Jag ville skapa ett roligt och tillgĂ€ngligt sĂ€tt för mĂ€nniskor att lĂ€ra sig mer om AI, för nĂ€stan alla kommer att behöva lĂ€ra kĂ€nna grunderna.

Dr. Janelle Shane

Hur kom den titeln till?
Titeln kommer frÄn ett neuralt nÀtverk som jag trÀnade i en samling befintliga upphÀmtningslinjer. Det fick inte helt hÀnga pÄ originalets osthet och inuendo. Enligt min mening Àr det bÀttre Àn dem alla!

Verkligen. PĂ„ allvar, i boken sĂ€ger du: ‘Eftersom mer av vĂ„rt dagliga liv styrs av algoritmer, börjar AI-konstigheterna fĂ„ konsekvenser.’ Ringer du oss ett vĂ€ckarklocka?
Jag tror att vi redan börjar inse hur skadlig en förspĂ€nd algoritm kan vara – hur den kan förneka mĂ€nniskor skiljaktighet eller vĂ„rd eller en intervju, bara genom att medvetet kopiera de fördomar som de ser i mĂ€nskligt beteende. MĂ€nniskor utmanar redan nĂ„gra av dessa partiska algoritmer i domstol och vinner. Jag skulle vilja att inte bara förspĂ€nningen utan Ă€ven förspĂ€nningen blir allmĂ€nt kĂ€nt. Andra AI-karaktĂ€rer kan ocksĂ„ vara skadliga – och att sĂ€tta alltför stort förtroende för intelligensen hos AI Ă€r ofta roten till dem.

NÀr hon intervjuade Dr. Yolanda Gil, ordförande för Association for the Advancement of AI, talade hon om behovet av etik inom omrÄdet. Men du gÄr lÀngre Àn sÄ och argumenterar för att AI Black Box Àr ett problem om vi inte kan se hur den kom till sina slutsatser.
Jag tror att etik inom AI mĂ„ste inkludera en del erkĂ€nnande av att AI i allmĂ€nhet inte berĂ€ttar för oss nĂ€r de har kommit fram till sina svar via problematiska metoder. Vanligtvis Ă€r allt vi ser det slutgiltiga beslutet, och vissa har frestats att ta beslutet som opartiskt bara för att en maskin var inblandad. Jag tror att etisk anvĂ€ndning av AI kommer att behöva innebĂ€ra att man granskar AI: s beslut. Om vi ​​inte kan titta inuti den svarta rutan kan vi Ă„tminstone köra statistik om AI: s beslut och leta efter systematiska problem eller konstiga problem.

 Hur AI fungerar och varför det gör vÀrlden till en konstigare plats, Dr. Janelle Shane

Hur kan vi göra det?
Det finns vissa forskare som redan kör beslut om vissa högprofilerade algoritmer, men de mÀnniskor som bygger dessa algoritmer har ansvaret att göra en noggrann undersökning av sitt eget arbete. Detta Àr förutom att vara mer etiskt om huruvida en viss algoritm ska byggas alls. Om algoritmer för ansiktsigenkÀnning tenderar att anvÀndas mot minoriteter, och algoritmer för kÀnselsigenkÀnning tenderar att utelÀmna mÀnniskor som inte Àr neurotypa, ska vi överhuvudtaget bygga dessa?

Bra poĂ€ng. Som du har illustrerat kan vissa AI, sĂ€rskilt GAN – dĂ€r AI konkurrerar med varandra – producera mycket kreativt arbete, sĂ€rskilt i de magiska lĂ€nderna inom mode och design, men vi vill inte ha konstigt inom cybersĂ€kerhet, eller hur?
Ha, ja, det finns applikationer dÀr vi vill ha konstigt, icke-mÀnskligt beteende. Och sÄ finns det applikationer dÀr vi hellre vill undvika konstighet. TyvÀrr, nÀr du anvÀnder algoritmer för maskininlÀrning, dÀr du inte berÀttar för dem exakt hur man ska lösa ett visst problem, kan det finnas konstiga konstigheter i de strategier de vÀljer. Forskare har visat att genom att bara injicera nÄgra noggrant utvalda exempel i offentliga skadliga databaser kan de senare designa skadlig programvara som gör det förbi AI-baserade skadliga detektorer utbildade i dessa databaser. Vi har inte sett nÄgra verkliga exempel pÄ sÄdana slags kontroversiella attacker, men mÀnniskor Àr bekymrade över dem.

Dr Aleksandra Faust frĂ„n Google Robotics / AI-divisionen berĂ€ttade om svĂ„righeterna med att lĂ€ra robotar att navigera i miljöer. Du har ett bra exempel i boken om en AI som “rĂ€knar ut” hur man fĂ„r en “kropp” frĂ„n punkt A till B.
Om AI kan designa vilken kroppsplan som helst, tenderar den att bygga sig in i ett högt torn och falla om och landa dÀrmed vid punkt B. Jag Àlskar det hÀr exemplet eftersom det har kommit upp gÄng pÄ gÄng, sedan folk har arbetat med AI-kontrollerade robotar. Det Àr bara mycket lÀttare att falla över Àn att lÀra sig gÄ.

Som du pÄpekar i boken har AI ocksÄ ett minnesproblem.
I allmĂ€nhet har AI en enklare tid med applikationer dĂ€r de inte behöver mycket minne. Jag har mĂ„nga exempel pĂ„ textgenererande neuralnĂ€t som bara har minnen som gĂ„r tillbaka till en mening eller tvĂ„, eller till och med bara nĂ„gra ord. En av dem, utbildad i drömdagböcker, har inkonsekvensen av en dröm i sig, byter instĂ€llningar och karaktĂ€rer och scenarier Ă€ven i mitten av meningen. PĂ„ senare tid har nĂ„gra stora nya neuralnĂ€t fĂ„tt nya sĂ€tt att hĂ„lla reda pĂ„ information som lĂ€nge sedan har varit och detta har förbĂ€ttrats nĂ„got. ÄndĂ„ tenderar en neural nĂ€tskriven berĂ€ttelse att snabbt tappa koll pĂ„ handlingen.

Tesla-tragedin i mars 2018, nÀr en förare dog pÄ grund av att hans bil inte registrerade en lastbil framför, har tÀckts mycket. Och du poÀngterar att full autonomi förmodligen aldrig kommer att hÀnda, eller hur? Det finns för mÄnga variabler?
Det Ă€r mycket lĂ€ttare att skapa en AI som följer vĂ€gar och följer trafikreglerna Ă€n att göra en AI som undviker konstiga fel. Det Ă€r precis det problemet – att det finns sĂ„ mycket variation i den verkliga vĂ€rlden, och sĂ„ mĂ„nga konstiga saker som hĂ€nder, att AI inte kan ha sett allt under trĂ€ningen. MĂ€nniskor Ă€r relativt bra pĂ„ att anvĂ€nda sin kunskap om vĂ€rlden för att anpassa sig till nya omstĂ€ndigheter, men AI Ă€r mycket mer begrĂ€nsad och tenderar att vara hemsk pĂ„ det. Å andra sidan Ă€r AI mycket bĂ€ttre pĂ„ att köra konsekvent Ă€n mĂ€nniskor Ă€r. Kommer det att finnas nĂ„gon punkt dĂ€r AI-konsistensen övervĂ€ger de konstiga problem, och vĂ„ra försĂ€kringsbolag börjar uppmuntra oss att anvĂ€nda sjĂ€lvkörande bilar? Eller kommer tanken pĂ„ problem att vara för lĂ€skig? Jag Ă€r inte sĂ€ker.

PĂ„ ett mer positivt sĂ€tt markerar du AI som kallas Quicksilver, som Ă„tgĂ€rdar könsbalansen i Wikipedia genom att automatisera poster för forskare som inte rĂ„kar vara cisgender-mĂ€n. Har du nĂ„gra andra exempel pĂ„ “bra” AI?
Jag har pratat med översÀttare och ljudtranskriberare som anvÀnder AI-verktyg som ett första utkast. Precis som Quicksilver-artiklarna behöver produkten fortfarande redigeras av mÀnniskor, men det sparar mycket tid. Ett annat omrÄde som jag verkligen gillar Àr kreativ anvÀndning av AI, inklusive artister och musiker som anvÀnder AI-generation och filtrering som ett kreativt verktyg. Jag ser verkligen fram emot Robin Sloans kommande roman, dÀr han genererar nÄgra konstiga, stÀmningsfulla fraser och avsnitt med hjÀlp av ett specialutbildat, textgenererande neuralt nÀtverk.

Snabb bakgrundshistoria: Du doktorerade i fotonik vid University of California, San Diego, efter en magisterexamen i Skottland, och tog examen i elektroteknik vid Michigan State University. Hur kom du in i det hÀr fÀltet i första hand?
Jag mötte först maskininlĂ€rning i Michigan State, dĂ€r jag deltog i en fascinerande förelĂ€sning av professor Erik Goodman om hans arbete med evolutionĂ€ra algoritmer. Han berĂ€ttade nĂ„gra av samma slags historier som jag gör i min bok – av algoritmer som felaktigt tolkar deras uppgifter pĂ„ roliga sĂ€tt, eller som nĂ„r ovĂ€ntade (och ibland oförklarliga) lösningar. Jag började arbeta med evolutionĂ€ra algoritmer innan jag gradvis flyttade in i optik, men jag har alltid tyckt att de Ă€r fascinerande.

Slutligen pĂ„pekar du: “ju smalare dess uppgift, desto smartare verkar en AI.” Är ditt argument att AI bara ska anvĂ€ndas för mycket specifika uppgifter med tydliga grĂ€nser, eller att AI verkligen bara fungerar bra med inte bara mĂ€nsklig tillsyn utan mer som IA, eller mĂ€nsklig intelligensförstĂ€rkning?
Jag tror att det finns en plats för bĂ„da typerna av AI. Vi har sett AI göra otroligt bra pĂ„ smala, vĂ€l begrĂ€nsade uppgifter som att spela schack eller Go. I andra applikationer kan AI vara riktigt anvĂ€ndbart Ă€ven om det inte Ă€r perfekt, som att filtrera skrĂ€ppost eller mĂ€rka foton. NĂ€r vi behöver undvika fel, och sĂ€rskilt om det finns risk för skada, behöver vi fortfarande mĂ€nsklig tillsyn. Även om vi tror att en uppgift Ă€r tillrĂ€ckligt smal för AI, behöver vi en mĂ€nniska för att kontrollera att AI verkligen gjorde det rĂ€tt. Vi mĂ€nniskor gör breda, svĂ„ra uppgifter sĂ„ otĂ€nkbart att vi tenderar att vara fruktansvĂ€rda domare över hur svĂ„rt en uppgift Ă€r, tills vi bygger en AI för att göra det och det misslyckas ovĂ€ntat.