Filtrer boble - Filter bubble

Begrepet filterboble ble laget av internettaktivist Eli Pariser , rundt 2010.

En filter boble eller ideologisk ramme er en tilstand av intellektuell isolasjon som kan følge av personlige søk når en nettside algoritme selektivt gjetter hva slags informasjon en bruker ønsker å se basert på informasjon om brukeren, for eksempel plassering, forbi klikk-atferd og søkeloggen . Som et resultat blir brukerne atskilt fra informasjon som er uenig i deres synspunkter, og effektivt isolerer dem i sine egne kulturelle eller ideologiske bobler. Valgene som tas av disse algoritmene er ikke gjennomsiktige. Gode eksempler inkluderer Google tilpassede søkeresultater og Facebook er personlig nyhetsstrømmen .

Begrepet filterboble ble laget av internettaktivist Eli Pariser rundt 2010 og diskutert i boken hans med samme navn fra 2011. Den bobleeffekt kan ha negative konsekvenser for kommunal tale , ifølge Pariser, men kontraster visninger betrakte effekten som minimal og adresserbare. Resultatene av det amerikanske presidentvalget i 2016 har vært forbundet med innflytelse fra sosiale medier som Twitter og Facebook, og som et resultat har det satt spørsmålstegn ved effekten av "filterboblen" -fenomenet på brukerens eksponering for falske nyheter og ekko kamre , noe som vekket ny interesse for begrepet, med mange bekymret for at fenomenet kan skade demokrati og velvære ved å gjøre virkningene av feilinformasjon verre.

(Teknologi som sosiale medier) “lar deg gå ut med likesinnede, så du blander ikke og deler og forstår andre synspunkter ... Det er superviktig. Det har vist seg å være et mer problem enn jeg, eller mange andre, hadde forventet. ”

-  Bill Gates 2017 i kvarts

Konsept

Sosiale medier, som søker å glede brukerne, kan skyte informasjon som de antar at brukerne vil like å høre, men utilsiktet isolere det de vet til sine egne filterbobler , ifølge Pariser.

I følge Pariser får brukerne mindre eksponering for motstridende synspunkter og er isolert intellektuelt i sin egen informasjonsboble. Han refererte et eksempel der en bruker søkte Google etter "BP" og fikk investeringsnyheter om British Petroleum , mens en annen søker fikk informasjon om Deepwater Horizon oljesøl , og bemerket at de to søkeresultatsidene var "påfallende forskjellige".

Pariser definerte sitt konsept om en filterboble i mer formelle termer som "det personlige økosystemet av informasjon som har blitt ivaretatt av disse algoritmene". En Internett -brukers tidligere surfing og søkehistorikk blir bygget opp over tid når de indikerer interesse for emner ved å "klikke på lenker, se på venner, sette filmer i [deres] kø, lese nyhetshistorier" og så videre. Et internettfirma bruker deretter denne informasjonen til å målrette annonsering mot brukeren, eller få visse typer informasjon til å fremstå mer fremtredende på søkeresultatsider .

Denne prosessen er ikke tilfeldig, siden den opererer under en tretrinns prosess, per Pariser, som sier: "Først finner du ut hvem mennesker er og hva de liker. Deretter gir du dem innhold og tjenester som passer best for dem. Til slutt stiller du inn for å få passformen akkurat. Din identitet former mediene dine. " Pariser rapporterer også:

Ifølge en Wall Street Journal-undersøkelse installerer de femti beste internettnettstedene, fra CNN til Yahoo til MSN, i gjennomsnitt 64 datalastede informasjonskapsler og personlige sporingsfyr hver. Søk etter et ord som "depresjon" på Dictionary.com, og nettstedet installerer opptil 223 sporingskapsler og beacons på datamaskinen din, slik at andre nettsteder kan målrette deg mot antidepressiva. Del en artikkel om matlaging på ABC News, så kan du bli jaget rundt på nettet av annonser for teflonbelagte gryter. Åpne-for et øyeblikk-en side som viser tegn på at din ektefelle kan jukse og forberede seg på å bli hjemsøkt med DNA-farskapstestannonser.

Å få tilgang til dataene for koblingsklikk som vises gjennom målinger av trafikk på stedet, bestemmer at filterbobler kan være kollektive eller individuelle.

Fra 2011 hadde en ingeniør fortalt Pariser at Google så på 57 forskjellige data for å personlig skreddersy en brukers søkeresultater, inkludert data som ikke er informasjonskapsler, for eksempel hvilken type datamaskin som brukes og brukerens fysiske plassering.

Andre termer har blitt brukt for å beskrive dette fenomenet, inkludert " ideologiske rammer " og "den figurative sfæren som omgir deg mens du søker på internett". Et beslektet begrep, "ekkokammer", ble opprinnelig brukt på nyhetsmedier, men brukes nå også på sosiale medier.

Pariser's idé om filterboblen ble populært etter TED -talen han holdt i mai 2011, der han gir eksempler på hvordan filterbobler fungerer og hvor de kan sees. I en test som forsøkte å demonstrere filterbobleeffekten, ba Pariser flere venner om å søke etter ordet "Egypt" på Google og sende ham resultatene. Ved å sammenligne to av vennens første sider med resultater, mens det var overlapping mellom dem om temaer som nyheter og reiser, inkluderte en venns resultater tydelig lenker til informasjon om den da pågående egyptiske revolusjonen i 2011 , mens den andre vennens første resultatside inkluderte ikke slike lenker.

I The Filter Bubble advarer Pariser om at en potensiell ulempe ved filtrert søk er at den "lukker oss for nye ideer, emner og viktig informasjon", og "skaper inntrykk av at vår smale egeninteresse er alt som eksisterer". Etter hans syn er filterbobler potensielt skadelige for både individer og samfunnet. Han kritiserte Google og Facebook for å tilby brukerne "for mye godteri og ikke nok gulrøtter". Han advarte om at "usynlig algoritmisk redigering av nettet" kan begrense eksponeringen vår for ny informasjon og begrense vårt syn. I følge Pariser inkluderer de skadelige effektene av filterbobler skade på det generelle samfunnet i den forstand at de har muligheten til å "undergrave samfunnsdiskurs" og gjøre mennesker mer sårbare for "propaganda og manipulasjon". Han skrev:

En verden konstruert av det kjente er en verden der det ikke er noe å lære ... (siden det er) usynlig autopropaganda, som indoktrinerer oss med våre egne ideer.

-  Eli Pariser i The Economist , 2011

Mange mennesker er ikke klar over at filterbobler til og med eksisterer. Dette kan sees i en artikkel på The Guardian, som nevnte det faktum at "mer enn 60% av Facebook -brukerne er helt uvitende om noen kur på Facebook i det hele tatt, og tror i stedet at hver eneste historie fra vennene sine og fulgte sider dukket opp i deres nyhetsfeed. " En kort forklaring på hvordan Facebook bestemmer hva som skjer på en brukers nyhetsfeed er gjennom en algoritme som tar hensyn til "hvordan du har interagert med lignende innlegg tidligere."

En filterboble er blitt beskrevet som en forverring av et fenomen som har blitt kalt splinternet eller cyberbalkanisering , som skjer når internett blir delt opp i undergrupper av likesinnede som blir isolert i sitt eget nettsamfunn og ikke får eksponering for forskjellige visninger. Denne bekymringen dateres tilbake til de tidlige dagene av det offentlig tilgjengelige internett, med begrepet "cyberbalkanisering" ble laget i 1996.

Lignende konsepter

I nyhetsmedier er ekkokammer en metaforisk beskrivelse av en situasjon der tro blir forsterket eller forsterket av kommunikasjon og repetisjon inne i et lukket system. Ved å besøke et "ekkokammer" kan mennesker oppsøke informasjon som forsterker deres eksisterende synspunkter, potensielt som en ubevisst øvelse av bekreftelsesskjevhet . Dette kan øke politisk og sosial polarisering og ekstremisme. Begrepet er en metafor basert på det akustiske ekkokammeret, der lyder gjentar i et hult kabinett. "Ekkokamre" forsterker individets tro uten saklig støtte. De er omgitt av de som anerkjenner og følger de samme synspunktene.

Barack Obamas avskjedsadresse identifiserte et lignende konsept for å filtrere bobler som en "trussel mot [amerikanernes] demokrati", det vil si "retrett inn i våre egne bobler, ... spesielt våre sosiale medier -feeds, omgitt av mennesker som ser ut som oss og dele det samme politiske synet og aldri utfordre våre forutsetninger ... Og i økende grad blir vi så sikre i boblene våre at vi bare begynner å akseptere informasjon, enten det er sant eller ikke, som passer våre meninger, i stedet for å basere våre meninger på bevisene som er der ute."

Reaksjoner og studier

Mediereaksjoner

Det er motstridende rapporter om i hvilken grad personlig filtrering skjer og om slik aktivitet er gunstig eller skadelig. Analytiker Jacob Weisberg, som skrev i juni 2011 for Slate , gjorde et lite ikke-vitenskapelig eksperiment for å teste Pariser's teori som involverte fem medarbeidere med ulik ideologisk bakgrunn som utførte en rekke søk, " John Boehner ", " Barney Frank ", " Ryan plan " , og " Obamacare ", og sende Weisberg skjermbilder av resultatene deres. Resultatene varierte bare i mindre henseender fra person til person, og eventuelle forskjeller så ikke ut til å være ideologirelaterte, noe som førte til at Weisberg konkluderte med at en filterboble ikke var i kraft, og skrev at ideen om at de fleste internettbrukere "matet" ved trau av en Daily Me "var overblåst. Weisberg ba Google om å kommentere, og en talsperson uttalte at algoritmer var på plass for å bevisst "begrense personalisering og fremme variasjon". Bokanmelder Paul Boutin gjorde et lignende eksperiment som Weisberg blant mennesker med forskjellige søkelogger, og fant igjen ut at de forskjellige søkerne fikk nesten identiske søkeresultater. Intervjuer av programmerere på Google uten rekordjournalist Per Grankvist fant ut at brukerdata pleide å spille en større rolle for å bestemme søkeresultater, men at Google gjennom testing fant ut at søket er den desidert beste determinatoren for hvilke resultater som skal vises.

Det er rapporter om at Google og andre nettsteder opprettholder enorme "dokumenter" med informasjon om brukerne sine, noe som kan gjøre dem i stand til å tilpasse individuelle internettopplevelser ytterligere hvis de velger å gjøre det. For eksempel eksisterer teknologien for at Google kan holde oversikt over brukernes tidligere historier, selv om de ikke har en personlig Google -konto eller ikke er logget inn på en. En rapport uttalte at Google hadde samlet "10 års verdi" av informasjon samlet fra forskjellige kilder, for eksempel Gmail , Google Maps og andre tjenester i tillegg til søkemotoren, selv om en motsatt rapport var at det å prøve å tilpasse internett for hver bruker var teknisk utfordrende for et internettfirma å oppnå til tross for de enorme mengdene tilgjengelige data. Analytiker Doug Gross fra CNN antydet at filtrert søk syntes å være mer nyttig for forbrukere enn for innbyggere , og ville hjelpe en forbruker på jakt etter "pizza" med å finne lokale leveringsalternativer basert på et personlig tilpasset søk og passende filtrere ut fjerne pizzabutikker. Organisasjoner som Washington Post , The New York Times og andre har eksperimentert med å lage nye personlige informasjonstjenester, med sikte på å skreddersy søkeresultater til de som brukerne sannsynligvis vil like eller være enige i.

Academia studier og reaksjoner

En vitenskapelig studie fra Wharton som analyserte personlige anbefalinger , fant også at disse filtrene faktisk kan skape fellesskap, ikke fragmentering, i musikksmak på nettet. Forbrukerne skal angivelig bruke filtrene for å utvide smaken i stedet for å begrense den. Harvard jusprofessor Jonathan Zittrain bestred i hvilken grad personaliseringsfiltre forvrenger Googles søkeresultater og sa at "effekten av søkepersonalisering har vært lett". Videre gir Google brukerne muligheten til å slå av personaliseringsfunksjoner hvis de velger det, ved å slette Googles registrering av søkeloggen og sette Google til å ikke huske søkeordene og besøkte lenker i fremtiden.

En studie fra Internet Policy Review adresserte mangelen på en klar og testbar definisjon for filterbobler på tvers av fagområder; dette resulterer ofte i at forskere definerer og studerer filterbobler på forskjellige måter. Deretter forklarte studien mangel på empiriske data for eksistensen av filterbobler på tvers av fagområder og antydet at effektene som tilskrives dem kan stamme mer fra eksisterende ideologiske skjevheter enn fra algoritmer. Lignende synspunkter kan finnes i andre akademiske prosjekter som også tar opp bekymringer med definisjonene av filterbobler og forholdet mellom ideologiske og teknologiske faktorer knyttet til dem. En kritisk gjennomgang av filterbobler antydet at "filterbobleoppgaven ofte utgjør en spesiell form for politisk menneske som har meninger som er sterke, men samtidig svært formbare" og at det er et "paradoks at folk har et aktivt byrå når de velger innhold, men er passive mottakere når de blir utsatt for det algoritmisk kuraterte innholdet som anbefales dem ".

En studie av forskere fra Oxford, Stanford og Microsoft undersøkte nettleserhistorikken til 1,2 millioner amerikanske brukere av Bing Toolbar- tillegget for Internet Explorer mellom mars og mai 2013. De valgte 50 000 av brukerne som var aktive forbrukere av nyheter, da klassifisert om nyhetsbutikkene de besøkte var venstre- eller høyreorienterte, basert på om flertallet av velgerne i fylkene knyttet til brukerens IP-adresser stemte på Obama eller Romney i presidentvalget i 2012. De identifiserte deretter om nyhetshistorier ble lest etter at de hadde åpnet forlagets nettsted direkte, via Google Nyhet -aggregeringstjenesten, via nettsøk eller via sosiale medier. Forskerne fant at selv om nettsøk og sosiale medier bidrar til ideologisk segregering, besto det store flertallet av online nyhetsforbruk av brukere som besøkte direkte eller venstreorienterte mainstream-nyhetsnettsteder, og følgelig nesten utelukkende ble utsatt for visninger fra en enkelt side av det politiske spekteret. Begrensninger i studien inkluderte utvalgsspørsmål som Internet Explorer -brukere som skjev seg høyere i alder enn den generelle internettbefolkningen; Bruk av Bing -verktøylinjen og frivillig (eller uvitende) deling av nettlesingslogg for brukere som er mindre bekymret for personvern; antagelsen om at alle historier i venstreorienterte publikasjoner er venstreorienterte, og det samme for høyreorienterte; og muligheten for at brukere som ikke er aktive nyhetsforbrukere kan få det meste av nyheter via sosiale medier, og dermed oppleve sterkere effekter av sosial eller algoritmisk skjevhet enn de brukerne som i hovedsak selv velger sin skjevhet gjennom sitt valg av nyhetspublikasjoner (forutsatt at de er klar over publikasjonenes skjevheter).

En studie av forskere fra Princeton University og New York University, hadde som mål å studere virkningen av filterboble og algoritmisk filtrering på polarisering av sosiale medier. De brukte en matematisk modell kalt " stokastisk blokkmodell " for å teste hypotesen deres om miljøene til Reddit og Twitter. Forskerne målte endringer i polarisering i regulariserte sosiale medienettverk og ikke-regulariserte nettverk, spesielt målt de prosentvise endringene i polarisering og uenighet på Reddit og Twitter. De fant at polarisering økte betydelig med 400% i ikke-regulerte nettverk, mens polarisering økte med 4% i regulerte nettverk og uenighet med 5%.

Plattformstudier

Selv om algoritmer begrenser det politiske mangfoldet, er noen av filterboblene et resultat av brukerens valg. En studie av dataforskere på Facebook fant at for hver fire Facebook -venner som deler ideologi, har brukerne en venn med kontrasterende synspunkter. Uansett hva Facebooks algoritme for News Feed er, er det ganske enkelt mer sannsynlig at folk blir venner/følger folk som deler lignende oppfatninger. Algoritmens natur er at den rangerer historier basert på en brukers historie, noe som resulterer i en reduksjon av det "politisk tverrgående innholdet med 5 prosent for konservative og 8 prosent for liberale". Selv når folk får muligheten til å klikke på en lenke som tilbyr kontrasterende visninger, har de imidlertid fortsatt standard for de mest viste kildene. "[U] ser valg reduserer sannsynligheten for å klikke på en tverrgående lenke med 17 prosent for konservative og 6 prosent for liberale." En tverrgående kobling er en som introduserer et annet synspunkt enn brukerens antatte synspunkt, eller det nettstedet har knyttet til brukerens tro. En fersk studie fra Levi Boxell, Matthew Gentzkow og Jesse M. Shapiro antyder at elektroniske medier ikke er drivkraften for politisk polarisering. Avisen argumenterer for at polarisering har blitt drevet av de demografiske gruppene som bruker minst tid på nettet. Det største ideologiske skillet oppleves blant amerikanere eldre enn 75 år, mens bare 20% rapporterte å bruke sosiale medier fra 2012. Derimot rapporterte 80% av amerikanerne i alderen 18–39 år å bruke sosiale medier fra 2012. Dataene antyder at den yngre demografiske er ikke mer polarisert i 2012 enn det hadde vært da elektroniske medier knapt eksisterte i 1996. Studien belyser forskjeller mellom aldersgrupper og hvordan nyhetsforbruket forblir polarisert når folk søker informasjon som appellerer til deres forutsetninger. Eldre amerikanere forblir vanligvis stillestående i sine politiske synspunkter ettersom tradisjonelle medier fortsatt er en primær kilde til nyheter mens elektroniske medier er den ledende kilden for den yngre demografiske. Selv om algoritmer og filterbobler svekker innholdsmangfoldet, avslører denne studien at politiske polariseringstrender hovedsakelig er drevet av eksisterende synspunkter og manglende anerkjennelse av eksterne kilder. En studie fra 2020 fra Tyskland brukte modellen Big Five Psychology for å teste effekten av individuell personlighet, demografi og ideologi på forbrukernes nyhetsforbruk. Basert på studien på ideen om at antall nyhetskilder som brukerne bruker, påvirker sannsynligheten for å bli fanget i en filterboble - med større mediemangfold som reduserer sjansene - tyder resultatene på at visse demografier (høyere alder og mann) sammen med en viss personlighet trekk (høy åpenhet) korrelerer positivt med antall nyhetskilder som forbrukes av enkeltpersoner. Studien fant også en negativ ideologisk sammenheng mellom mediemangfold og i hvilken grad brukerne stemmer overens med høyreautoritarisme. Utover å tilby forskjellige individuelle brukerfaktorer som kan påvirke rollen som brukervalg, reiser denne studien også spørsmål og assosiasjoner mellom sannsynligheten for at brukere blir fanget i filterbobler og brukerstemmeadferd.

Facebook -studien fant at det var "usikkert" om algoritmen spilte en like stor rolle i filtrering av nyhetsfeeds som folk antok. Studien fant også at "individuelt valg", eller bekreftelsesskjevhet, også påvirket det som blir filtrert ut av nyhetsfeeds. Noen samfunnsvitere kritiserte imidlertid denne konklusjonen, fordi poenget med å protestere mot filterboblen er at algoritmene og individuelle valg jobber sammen for å filtrere ut nyhetsfeeds. De kritiserte også Facebooks lille utvalgsstørrelse, som er omtrent "9% av faktiske Facebook -brukere", og det faktum at undersøkelsesresultatene er "ikke reproduserbare" på grunn av at studien ble utført av "Facebook -forskere" som hadde tilgang til data som Facebook ikke gjør tilgjengelig for eksterne forskere.

Selv om studien fant at bare rundt 15-20% av den gjennomsnittlige brukerens Facebook -venner abonnerer på den motsatte siden av det politiske spekteret, teoretiserte Julia Kaman fra Vox at dette kan ha potensielt positive implikasjoner for synsmangfold. Disse "vennene" er ofte bekjente som vi sannsynligvis ikke ville dele vår politikk med uten internett. Facebook kan fremme et unikt miljø der en bruker ser og muligens samhandler med innhold som er lagt ut eller lagt ut på nytt av disse "andre lag" -vennene. Studien fant at "24 prosent av de nyhetene liberale så var konservative og 38 prosent av de nyhetskonservative så liberalistisk." "Venstre har en tendens til å være koblet til færre venner som deler informasjon fra den andre siden, sammenlignet med sine konservative kolleger." Dette samspillet har muligheten til å gi mangfoldig informasjon og kilder som kan moderere brukernes syn.

På samme måte konkluderte en studie av Twitters filterbobler ved New York University med at "Enkeltpersoner nå har tilgang til et bredere spekter av synspunkter om nyhetshendelser, og det meste av denne informasjonen kommer ikke gjennom de tradisjonelle kanalene, men enten direkte fra politiske aktører. eller gjennom sine venner og slektninger. Videre skaper den interaktive naturen til sosiale medier muligheter for enkeltpersoner til å diskutere politiske hendelser med sine jevnaldrende, inkludert de som de har svake sosiale bånd med ". Ifølge disse studiene kan sosiale medier diversifisere informasjon og meninger brukerne kommer i kontakt med, selv om det er mange spekulasjoner rundt filterbobler og deres evne til å skape dypere politisk polarisering .

En driver og mulig løsning på problemet er følelsenes rolle i onlineinnhold. En studie fra 2018 viser at forskjellige følelser av meldinger kan føre til polarisering eller konvergens: glede er utbredt i emosjonell polarisering, mens tristhet og frykt spiller viktige roller i emosjonell konvergens. Siden det er relativt enkelt å oppdage det emosjonelle innholdet i meldinger, kan disse funnene bidra til å designe mer sosialt ansvarlige algoritmer ved å begynne å fokusere på det emosjonelle innholdet i algoritmiske anbefalinger.

Visualisering av prosessen og veksten av to sosiale medier -roboter som ble brukt i Weibo -studien i 2019 . Diagrammene representerer to aspekter ved strukturen til filterbobler, ifølge studien: store konsentrasjoner av brukere rundt enkeltemner og en enveis, stjernelignende struktur som påvirker viktige informasjonsflyter.

Sosiale roboter har blitt brukt av forskjellige forskere for å teste polarisering og relaterte effekter som tilskrives filterbobler og ekkokamre. En studie fra 2018 brukte sosiale roboter på Twitter for å teste bevisst brukereksponering for partiske synspunkter. Studien hevdet at den viste partipolitiske forskjeller mellom eksponering for forskjellige synspunkter, selv om den advarte om at funnene bør begrenses til festregistrerte amerikanske Twitter-brukere. Et av hovedfunnene var at etter å ha blitt utsatt for forskjellige oppfatninger (levert av bots), ble selvregistrerte republikanere mer konservative, mens selvregistrerte liberale viste mindre ideologisk forandring, hvis ingen i det hele tatt. En annen studie fra Folkerepublikken Kina brukte sosiale roboter på Weibo - den største sosiale medieplattformen i Kina - for å undersøke strukturen til filterbobler med hensyn til deres effekt på polarisering. Studien skiller mellom to forestillinger om polarisering. Det ene er hvor mennesker med lignende synspunkter danner grupper, deler lignende meninger og blokkerer seg fra forskjellige synspunkter (meningspolarisering) og det andre er der mennesker ikke får tilgang til mangfoldig innhold og informasjonskilder (informasjonspolarisering). Ved å bruke sosiale roboter i stedet for menneskelige frivillige og fokusere mer på informasjonspolarisering i stedet for meningsbasert, konkluderte forskerne med at det er to viktige elementer i en filterboble: en stor konsentrasjon av brukere rundt et enkelt emne og en enveisstjerne, stjerne -lignende struktur som påvirker viktige informasjonsflyter.

I juni 2018 gjennomførte plattformen DuckDuckGo en forskningsstudie på Google nettleserplattform. For denne studien googlet 87 voksne på forskjellige steder rundt det kontinentale USA tre stikkord samtidig: immigrasjon, våpenkontroll og vaksinasjoner. Selv i privat surfemodus så de fleste resultater som var unike for dem. Google inkluderte visse lenker for noen som den ikke inkluderte for andre deltakere, og infoboksene Nyheter og videoer viste betydelig variasjon. Google bestred disse resultatene offentlig og sa at tilpasning av søkemotorresultatside (SERP) stort sett er en myte. Google Search Liaison, Danny Sullivan, uttalte at “Gjennom årene har det utviklet seg en myte om at Google Search personliggjør så mye at for samme spørring kan forskjellige mennesker få vesentlig forskjellige resultater fra hverandre. Dette er ikke tilfelle. Resultatene kan variere, men vanligvis av ikke-personlige årsaker. "

Når filterbobler er på plass, kan de lage spesifikke øyeblikk som forskere kaller "Whoa" -momenter. Et "Whoa" -øyeblikk er når en artikkel, annonse, innlegg osv. Vises på datamaskinen din som er i forhold til en gjeldende handling eller nåværende bruk av et objekt. Forskere oppdaget dette begrepet etter at en ung kvinne utførte sin daglige rutine, som inkluderte å drikke kaffe, da hun åpnet datamaskinen og la merke til en annonse for det samme kaffemerket som hun drakk. "Satte meg ned og åpnet Facebook i morges mens jeg tok min kaffe, og der var det to annonser for Nespresso . Et slags" whoa "-øyeblikk når produktet du drikker dukker opp på skjermen foran deg." "Whoa" øyeblikk oppstår når folk blir "funnet". Det betyr at annonseringsalgoritmer er målrettet mot spesifikke brukere basert på deres "klikkatferd" for å øke salgsinntektene.

Flere designere har utviklet verktøy for å motvirke effekten av filterbobler (se § Motforanstaltninger ). Den sveitsiske radiostasjonen SRF kåret ordet filterblase (den tyske oversettelsen av filterboble) til årets ord 2016.

Motforanstaltninger

Av enkeltpersoner

I filterboblen: Hva Internett skjuler for deg , fremhever internettaktivisten Eli Pariser hvordan den økende forekomsten av filterbobler ytterligere understreker verdien av ens brodannende sosiale kapital som definert av Robert Putman. Selv om obligasjonskapital på den ene siden tilsvarer etableringen av sterke bånd mellom likesinnede, og dermed forsterker en følelse av sosial homogenitet, representerer broing av sosial kapital på den annen side skapelsen av svake bånd mellom mennesker med potensielt divergerende interesser og synspunkter, og introduserer derfor betydelig mer heterogenitet. I den forstand er det mye mer sannsynlig at høy brokapital fremmer sosial inkludering ved å øke eksponeringen vår for et rom der vi tar opp problemene som overskrider våre nisjer og trange egeninteresser. Å fremme sin brokapital, for eksempel ved å koble til flere mennesker i en uformell setting, kan derfor være en effektiv måte å redusere påvirkningen av filterboblefenomenet.

Brukerne kan faktisk gjøre mange tiltak for å sprenge gjennom filterboblene, for eksempel ved å gjøre en bevisst innsats for å evaluere hvilken informasjon de utsetter seg for, og ved å tenke kritisk om de engasjerer seg i et bredt spekter av innhold. Dette synet argumenterer for at brukerne bør endre psykologien til hvordan de nærmer seg media, i stedet for å stole på teknologi for å motvirke deres skjevheter. Brukere kan bevisst unngå nyhetskilder som ikke er verifiserbare eller svake. Chris Glushko, markedsdirektør i IAB, tar til orde for bruk av faktasjekking for å identifisere falske nyheter. Teknologi kan også spille en verdifull rolle i bekjempelsen av filterbobler.

Noen ytterligere plug-ins , som for eksempel Media Bias Faktasjekk, som mål å hjelpe folk gå ut av sine filter bobler og gjøre dem oppmerksomme på sine personlige perspektiver; derfor viser disse mediene innhold som er i strid med deres tro og meninger. Escape Your Bubble ber for eksempel brukerne om å angi et bestemt politisk parti de vil bli mer informert om. Programtillegget vil deretter foreslå artikler fra veletablerte kilder å lese om det politiske partiet, og oppmuntre brukerne til å bli mer utdannet om det andre partiet. I tillegg til plug-ins finnes det apper som har som oppgave å oppmuntre brukerne til å åpne ekkokamrene. UnFound.news tilbyr en AI ( Artificial Intelligence ) kuratert nyhetsapp til lesere som presenterer dem nyheter fra forskjellige og forskjellige perspektiver, og hjelper dem med å danne en begrunnelse og informert mening fremfor å bukke under for sine egne skjevheter. Det presser også leserne til å lese forskjellige perspektiver hvis lesemønsteret er partisk mot den ene siden/ideologien. Read Across the Aisle er en nyhetsapp som avslører om brukerne leser fra forskjellige kilder som inneholder flere perspektiver eller ikke. Hver kilde er fargekoordinert, og representerer den politiske tilbøyeligheten til hver artikkel. Når brukere bare leser nyheter fra ett perspektiv, kommuniserer appen det til brukeren og oppfordrer leserne til å utforske andre kilder med motsatte synspunkter. Selv om apper og plug-ins er verktøy mennesker kan bruke, uttalte Eli Pariser "absolutt, det er et individuelt ansvar her for å virkelig oppsøke nye kilder og mennesker som ikke er som deg."

Siden nettbasert annonsering kan øke effekten av filterboblene ved å utsette brukere for mer av det samme innholdet, kan brukerne blokkere mye reklame ved å slette søkeloggen, slå av målrettede annonser og laste ned nettleserutvidelser. Utvidelser som Escape your Bubble for Google Chrome tar sikte på å hjelpe til med å kurere innhold og forhindre at brukere bare blir utsatt for partisk informasjon, mens Mozilla Firefox-utvidelser som Lightbeam og Self Destructing Cookies gjør det mulig for brukere å visualisere hvordan dataene deres spores, og lar dem fjerne noen av sporings cookies . Noen bruker anonyme eller ikke-tilpassede søkemotorer som YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect og Searx for å forhindre at selskaper samler inn nettsøkedata. Den sveitsiske avisen Neue Zürcher Zeitung beta-tester en personlig nyhetsmotorapp som bruker maskinlæring til å gjette hvilket innhold en bruker er interessert i, mens den "alltid inkluderer et element av overraskelse"; tanken er å blande inn historier som en bruker neppe har fulgt tidligere.

EU tar tiltak for å redusere effekten av filterboblen. Den Europaparlamentet er sponsorhenvendelser i hvordan filterbobler påvirker folks evne til å få tilgang til diverse nyheter. I tillegg introduserte den et program for å utdanne innbyggerne om sosiale medier. I USA foreslår CSCW -panelet bruk av nyhetsaggregator -apper for å utvide medieforbrukernes nyhetsinntak. Nyhetsaggregator -apper skanner alle nåværende nyhetsartikler og leder deg til forskjellige synspunkter angående et bestemt emne. Brukere kan også bruke en mangfoldig bevisst nyhetsbalanse som visuelt viser medieforbrukeren hvis de lener seg til venstre eller høyre når det gjelder å lese nyhetene, noe som indikerer høyrehendt med en større rød stolpe eller venstre-skjenking med en større blå stolpe. En studie som evaluerte denne nyhetsbalansen fant "en liten, men merkbar endring i leseatferd, mot mer balansert eksponering, blant brukere som ser tilbakemeldingen, sammenlignet med en kontrollgruppe".

Av medieselskaper

I lys av de siste bekymringene for informasjonsfiltrering på sosiale medier, erkjente Facebook tilstedeværelsen av filterbobler og har tatt skritt for å fjerne dem. I januar 2017 fjernet Facebook personalisering fra listen Trending Topics som svar på problemer med at noen brukere ikke så høyt omtalte hendelser der. Facebooks strategi er å reversere funksjonen Relaterte artikler som den hadde implementert i 2013, som ville legge ut relaterte nyheter etter at brukeren hadde lest en delt artikkel. Nå ville den fornyede strategien snu denne prosessen og legge ut artikler fra forskjellige perspektiver om det samme emnet. Facebook prøver også å gå gjennom en kontrollprosess der bare artikler fra anerkjente kilder vil bli vist. Sammen med grunnleggeren av Craigslist og noen få andre har Facebook investert 14 millioner dollar i innsats "for å øke tilliten til journalistikk rundt om i verden og for bedre å informere den offentlige samtalen". Tanken er at selv om folk bare leser innlegg som er delt fra vennene sine, vil i det minste disse innleggene være troverdige.

På samme måte har Google per 30. januar 2018 også erkjent eksistensen av et problem med filterbobler på plattformen. Fordi nåværende Google -søk trekker algoritmisk rangerte resultater basert på "autoritativitet" og "relevans" som viser og skjuler bestemte søkeresultater, søker Google å bekjempe dette. Ved å trene søkemotoren til å gjenkjenne hensikten med en søkeforespørsel i stedet for spørsmålets bokstavelige syntaks, prøver Google å begrense størrelsen på filterbobler. Fra nå av vil den første fasen av denne opplæringen bli introdusert i andre kvartal 2018. Spørsmål som involverer skjevhet og/eller kontroversielle meninger vil ikke bli behandlet før på et senere tidspunkt, noe som forårsaker et større problem som fortsatt eksisterer: om søkemotoren fungerer enten som en sannhetsdommer eller som en kunnskapsrik guide for å ta avgjørelser etter.

I april 2017 dukket det opp nyheter om at Facebook, Mozilla og Craigslist bidro til flertallet av en donasjon på 14 millioner dollar til CUNYs "News Integrity Initiative", som var klare til å eliminere falske nyheter og skape mer ærlige nyhetsmedier.

Senere, i august, kunngjorde Mozilla, produsenter av nettleseren Firefox , dannelsen av Mozilla Information Trust Initiative (MITI). +MITI vil tjene som en kollektiv innsats for å utvikle produkter, forskning og samfunnsbaserte løsninger for å bekjempe effekten av filterbobler og spredning av falske nyheter. Mozillas Open Innovation -team leder initiativet og prøver å bekjempe feilinformasjon, med et spesielt fokus på produktet når det gjelder leseferdighet, forskning og kreative intervensjoner.

Etiske implikasjoner

Etter hvert som skytjenestens popularitet øker, forventes tilpassede algoritmer som brukes til å konstruere filterbobler å bli mer utbredt. Forskere har begynt å vurdere effekten av filterbobler på brukerne av sosiale medier fra et etisk synspunkt , spesielt angående områdene personlig frihet , sikkerhet og informasjonsskjevhet . Filtrer bobler i populære sosiale medier og personlige søkesider kan bestemme det bestemte innholdet som blir sett av brukerne, ofte uten deres direkte samtykke eller bevissthet, på grunn av algoritmene som brukes til å kurere det innholdet. Selvopprettet innhold manifestert fra atferdsmønstre kan føre til delvis informasjonsblindhet. Kritikere av bruken av filterbobler spekulerer i at individer kan miste autonomi over sin egen sosiale medieopplevelse og få identitetene sine sosialt konstruert som et resultat av filterboblers gjennomgående.

Teknologer, ingeniører i sosiale medier og dataspesialister har også undersøkt utbredelsen av filterbobler. Mark Zuckerberg , grunnlegger av Facebook, og Eli Pariser, forfatter av The Filter Bubble , har uttrykt bekymring for risikoen ved personvern og informasjonspolarisering. Informasjonen til brukerne av tilpassede søkemotorer og sosiale medieplattformer er ikke privat, selv om noen mener det burde være det. Bekymringen for personvernet har resultert i en debatt om hvorvidt det er moralsk for informasjonsteknologer å ta brukernes online aktivitet og manipulere fremtidig eksponering for relatert informasjon.

Noen forskere har uttrykt bekymring angående effekten av filterbobler på individuelt og sosialt velvære, det vil si spredning av helseinformasjon til allmennheten og de potensielle effektene av søkemotorer på internett for å endre helserelatert atferd. En tverrfaglig bok fra 2019 rapporterte forskning og perspektiver på rollene som filterbobler spiller med hensyn til feilinformasjon om helse. Hentet fra forskjellige felt som journalistikk, jus, medisin og helsepsykologi, tar boken opp forskjellige kontroversielle helseoppfatninger (f.eks. Alternativ medisin og pseudovitenskap), samt potensielle midler mot de negative effektene av filterbobler og ekkokamre på forskjellige temaer innen helse diskurs. En studie fra 2016 om de potensielle effektene av filterbobler på søkemotorresultater knyttet til selvmord fant at algoritmer spiller en viktig rolle for om hjelpelinjer og lignende søkeresultater vises til brukere eller ikke, og diskuterte hvilke konsekvenser forskningen deres kan ha for helsepolitikk. En annen studie fra 2016 fra det kroatiske medisinske tidsskriftet foreslo noen strategier for å redusere de potensielt skadelige effektene av filterbobler på helseinformasjon, for eksempel: å informere offentligheten mer om filterbobler og tilhørende effekter, brukere som velger å prøve alternative [til Google] søkemotorer. , og mer forklaring på prosessene søkemotorer bruker til å bestemme resultatene som vises.

Siden innholdet som settes av individuelle brukere av sosiale medier er påvirket av algoritmer som produserer filterbobler, er brukere av sosiale medieplattformer mer utsatt for bekreftelsesskjevhet og kan bli utsatt for partisk, villedende informasjon. Sosial sortering og annen utilsiktet diskriminerende praksis forventes også som et resultat av personlig filtrering.

I lys av de amerikanske presidentvalget i 2016 har forskere på samme måte uttrykt bekymring for effekten av filterbobler på demokrati og demokratiske prosesser, samt fremveksten av "ideologiske medier". Disse lærde frykter at brukerne ikke er i stand til å "[tenke] utover [sine] smale egeninteresser" ettersom filterbobler lager personlige sosiale strømmer, og isolerer dem fra forskjellige synsvinkler og omgivelsene rundt dem. Av denne grunn diskuteres det i økende grad muligheten til å designe sosiale medier med mer serendipitet, det vil si å proaktivt anbefale innhold som ligger utenfor filterboblen, inkludert utfordrende politisk informasjon og til slutt å gi bemyndigende filtre og verktøy til brukerne. En beslektet bekymring er faktisk hvordan filterbobler bidrar til spredningen av " falske nyheter " og hvordan dette kan påvirke politisk tilbøyelighet, inkludert hvordan brukerne stemmer.

Avsløringer i mars 2018 om Cambridge Analyticas høsting og bruk av brukerdata for minst 87 millioner Facebook -profiler under presidentvalget i 2016 fremhever de etiske implikasjonene av filterbobler. Medgründer og varsler av Cambridge Analytica Christopher Wylie, forklarte hvordan firmaet hadde evnen til å utvikle "psykografiske" profiler for disse brukerne og bruke informasjonen til å forme deres stemmeatferd. Tilgang til brukerdata fra tredjeparter som Cambridge Analytica kan irritere og forsterke eksisterende filterbobler som brukerne har opprettet, kunstig øke eksisterende skjevheter og ytterligere dele samfunn.

Farer

Filterbobler har stammet fra en økning i personalisering av medier, som kan fange brukere. Bruken av AI for å tilpasse tilbud kan føre til at brukere bare ser innhold som forsterker deres egne synspunkter uten å utfordre dem. Sosiale medier som Facebook kan også presentere innhold på en måte som gjør det vanskelig for brukerne å bestemme kilden til innholdet, slik at de kan bestemme selv om kilden er pålitelig eller falsk. Det kan føre til at folk blir vant til å høre det de vil høre, noe som kan få dem til å reagere mer radikalt når de ser et motsatt synspunkt. Filterboblen kan få personen til å se motstridende synspunkter som feil, og det kan tillate media å tvinge synspunkter på forbrukere.

Forskning forklarer at filterboblen forsterker det man allerede tenker. Det er derfor det er ekstremt viktig å utnytte ressurser som tilbyr ulike synspunkter.

Utvidelser av konseptet

Konseptet med en filterboble er blitt utvidet til andre områder, for å beskrive samfunn som selvskiller seg etter politiske synspunkter, men også økonomiske, sosiale og kulturelle situasjoner. Den boblen resulterer i tap av det bredere fellesskapet og skaper en følelse av at for eksempel barn ikke hører hjemme på sosiale arrangementer med mindre disse hendelsene var spesielt planlagt å være tiltalende for barn og lite tiltalende for voksne uten barn.

Se også

Merknader

Referanser

Videre lesning

Eksterne linker