Leder YouTubes algoritm till radikalisering?

Leder YouTubes algoritm till radikalisering?

Vi vet nu att tobak Àr skadligt, men i flera Är kÀmpade lobbyister lÀkare bakom kulisserna i kongresshallarna för att undvika reglering som skulle skada tobaksindustrins slutresultat. Genomsnittskonsumenten visste inte om dessa slagsmÄl; i mitten av 60-talet rökte fler amerikaner Àn nÄgon annan gÄng i historien. Men i slutÀndan var det svÄrt att undkomma det faktum att cigaretter Àr dödliga.

Samma situation hÀnder just nu med YouTube och dess rekommendationsalgoritm, sÀger före detta Google-anstÀlld Guillaume Chaslot.

Även om videodelningsplattformen har gjort Ă€ndringar i hur dess rekommendationsmotor serverar relaterat innehĂ„ll, Ă€r problemen inbyggda i YouTubes DNA, sa Chaslot vid MozFest-internetkonferensen i London nyligen. Det enda sĂ€ttet att bekĂ€mpa dem Ă€r via reglering och en acceptans att plattformen i sig Ă€r skadlig för tittarna.

I februari 2019 var YouTube tvungen att avsluta 400 kanaler och inaktivera kommentarer pÄ miljontals videor med minderÄriga eftersom det upptÀcktes att pedofiler anvÀnde webbplatsen för att utbyta kontaktuppgifter och lÀnkar till barnporr. I kommentarerna till dessa videor skulle anvÀndarna specificera var barnen visade sina bara ben eller rygg.

Bakom kulisserna var YouTubes algoritm, som arbetade opartiskt för att föreslÄ fler videor som anvÀndarna skulle njuta av, redo att servera fler videor av barn till dessa pedofiler via maskininlÀrning.

YouTube generiskt

Förra Ă„ret sa YouTube att man anstĂ€llde 10 000 fler anstĂ€llda för att fokusera pĂ„ “sĂ€kerhet och sĂ€kerhet” pĂ„ plattformen. Och anvĂ€ndare kan rapportera stötande innehĂ„ll; om YouTube gĂ„r med pĂ„ det tas det ner.

Enligt Chaslot fungerar dock YouTubes algoritm mot att detta hÀnder. Det Àr osannolikt att en pedofil kommer att flagga innehÄll som de gillar, precis som det Àr osannolikt att en terrorist rapporterar extremistiska videor. Eftersom algoritmen fÄr mer kunskap om anvÀndare blir det dessutom mer benÀgna att rekommendera dessa typer av videor till anvÀndare som kommer att tycka om dem, och mindre sannolikt att visa det för dem som inte vill.

Rapporteringssystemet tar inte heller direkt hÀnsyn till att videor laddas upp igen eller justeras nÄgot för att undvika upptÀckt. Efter att Christchurch-skjutningen live-streamades pÄ Facebook delades till exempel klipp sedan pÄ andra sociala mediasidor, inklusive YouTube.

Mycket av vĂ„r kunskap om YouTubes algoritm hĂ€rrör frĂ„n vad företaget berĂ€ttar för oss. Under 2012 Ă€ndrade företaget sin algoritm frĂ„n körvy till körtid. År 2018 justerade YouTube igen sin algoritm för att rekommendera fler “betrodda journalistiska organisationer” efter att det frĂ€mjade konspirationsteorier i kölvattnet av Parkland-skjutningen (och igen 2019).

YouTube hĂ€vdar att de senaste Ă€ndringarna ocksĂ„ inkluderar “att mĂ€ta gillar, ogillar, undersökningar och tid som anvĂ€nds” pĂ„ plattformen. Chaslot hĂ„ller inte med och sĂ€ger att det enda riktiga mĂ„ttet för YouTube som Ă€r viktigt Ă€r hur lĂ„ng tid anvĂ€ndarna spenderar pĂ„ YouTube. ju mer tid mĂ€nniskor tillbringar pĂ„ webbplatsen, desto fler annonser visas och desto mer pengar tjĂ€nar företaget.

AlgoTransparency

Chaslot Ă€r orolig för att mĂ€nniskor “inte har nĂ„gon aning om vad algoritmen gör.” DĂ€rför utvecklade han AlgoTransparency, som försöker simulera YouTubes algoritm.

Verktyget anvĂ€ndes av för en berĂ€ttelse om hur YouTube leder anvĂ€ndare till extremt innehĂ„ll som de annars aldrig skulle ha sett. Börjar med en slumpmĂ€ssig video pĂ„ plattformen anvĂ€nder den YouTubes “up next” -funktion tusentals gĂ„nger för att se vart systemet tar anvĂ€ndaren. Svaret, upptĂ€ckte Chaslot, var politiskt extremt innehĂ„ll.

AlgoTransparency

rapporten fann att tre av de kanaler som oftast rekommenderades tillhörde den kĂ€nda konspirationsteoretikern Alex Jones, den hyperpartisana Fox News och en kanal som heter “Donald Trump Tal & Presskonferens.”

YouTube instĂ€mmer inte med Chaslots argument. En talesman sa att företagets algoritm Ă€r “optimera[d] för tillfredsstĂ€llelse och informationskvalitet, “inte titta pĂ„ tid, att Chaslot felaktigt presenterade sin position pĂ„ YouTube, och att” ingen del av det rekommendationssystem vi hade pĂ„ plats nĂ€r Mr. Chaslot var anstĂ€lld pĂ„ Google anvĂ€nds i YouTube-rekommendationssystemet idag . “

Chaslot var programvaruingenjör pÄ företaget frÄn oktober 2010 till oktober 2013 och Àr nu en stipendiat pÄ Mozilla, som sponsrade MozFest, förutom sitt arbete med AlgoTransparency.

“Vi har granskat vĂ„ra system, baserat pĂ„ vilket innehĂ„ll som faktiskt Ă€r populĂ€rt (Mr. Chaslot anvĂ€nder subjektiva frökanaler) och tittade sedan pĂ„ om de pekar pĂ„ nisch eller inte och tittade ocksĂ„ pĂ„ specifika kategorier, som platta jordteorier eller andra konspirationsteorier. och fann att Chaslots pĂ„stĂ„enden inte Ă€r sanna, sĂ€ger YouTube.

Chaslot accepterar att det finns brister i hans metod. “Om en video föredras av algoritmen [in that it’s already popular on YouTube], det kommer att rekommenderas flera gĂ„nger, “sa han till oss.” Jag vet inte exakt hur mĂ„nga mĂ€nniskor [a particular] video har visats för. Jag vet bara av hur mĂ„nga olika kanaler som rekommenderas. YouTube kan sĂ€ga att det inte stĂ€mmer. “Det Ă€r fantastiskt”, sĂ€ger jag, “ge mig de verkliga resultaten. Du har uppgifterna, bevisa att jag har fel. ‘”

Sensationellt och provocerande innehÄll FTW

Det finns ocksĂ„ en annan viktig faktor att ta hĂ€nsyn till: innehĂ„ll som Ă€r nĂ€ra att bryta mot YouTubes villkor gör det bĂ€ttre pĂ„ plattformen Ă€n mer vanligt innehĂ„ll, och som sĂ„dan var YouTube tvungen att vidta Ă„tgĂ€rder för att förhindra tvivelaktiga videor frĂ„n att rekommenderas. “Det Ă€r mycket lĂ€ttare att göra clickbait – bra clickbait – nĂ€r du inte bryr dig om sanningen”, sa Chaslot.

YouTube Ă€r inte ensam hĂ€r; 2018 skrev Mark Zuckerberg i ett Facebook-inlĂ€gg att “En av de största frĂ„gorna som sociala nĂ€tverk stĂ„r inför Ă€r att nĂ€r de inte kontrolleras kommer mĂ€nniskor att engagera sig oproportionerligt med mer sensationellt och provocerande innehĂ„ll. VĂ„r forskning tyder pĂ„ att oavsett var vi drar linjerna för vad som Ă€r tillĂ„tet, nĂ€r en del av innehĂ„llet kommer nĂ€ra den linjen, kommer mĂ€nniskor att engagera sig mer i genomsnitt – Ă€ven nĂ€r de sĂ€ger till oss efterĂ„t att de inte gillar innehĂ„llet. “

I intervjuer med Bloomberg fann YouTube-anstĂ€llda enligt uppgift att en hypotetisk “alt-right” -kategori var lika populĂ€r som YouTubes musik-, sport- och spelvertikaler nĂ€r det gĂ€ller engagemang. AnstĂ€llda uppmuntrades ocksĂ„ att inte “vagga bĂ„ten”, eftersom varje uppfattning att YouTube var medveten om extremistiskt innehĂ„ll pĂ„ sin plattform och inte tog ansvar för det skulle minska argumentet att det var en plattform, inte en innehĂ„llsleverantör.

Enligt Chaslots sinne Ă€r den enda lösningen pĂ„ detta problem reglering och transparens – förmĂ„gan för regeringar att begĂ€ra information om hur mĂ„nga gĂ„nger en video har rekommenderats till anvĂ€ndarna och en större förstĂ„else bland allmĂ€nheten om hur videovĂ€rdplattformen fungerar.

“SĂ„ lĂ€nge vi inte vet vad som hĂ€nder pĂ„ YouTube kan vi inte göra förĂ€ndringar. Vad skulle vi be om att Ă€ndra? Vi behöver extremt enkel reglering, till exempel möjligheten att veta hur mĂ„nga gĂ„nger de rekommenderar nĂ„got till nĂ„gon.”