
Facebook verdoezelt zijn almachtige algoritmes
Waardeloos onderzoek belandt in Science.
De filter bubble is vooral de schuld van de gebruiker zelf, niet van onze algoritmes, 'bewijst' Facebook. Maar het onderzoek rammelt aan alle kanten.

Facebook verdoezelt zijn almachtige algoritmes
De filter bubble is vooral de schuld van de gebruiker zelf, niet van onze algoritmes, 'bewijst' Facebook. Maar het onderzoek rammelt aan alle kanten.
Ja, er is een filter bubble op Facebook, maar daarvoor zijn de gebruikers verantwoordelijk, niet onze algoritmes. Dat is in een notendop de conclusie van een studie van Facebook in samenwerking met de universiteit van Michigan.
Opgesloten door algoritmes
De filter bubble is het fenomeen dat mensen online steeds meer opgesloten raken in een zelfbevestigende omgeving zonder verrassingen of afwijkende meningen, door toedoen van algoritmes die informatie steeds 'persoonlijker en relevanter' maken.
Er is nu onderzoek gedaan naar de politieke voorkeuren van Facebook-gebruikers en hun klikgedrag in de news feed, resulterend in een artikel in het gerenommeerde blad Science.
Maar er zit een fundamentele weeffout in het onderzoek, een echte klassieker: de selectie van de steekproef. Veel leken denken dat als die steekproef maar groot genoeg is, dat je uitkomst wel representatief zal zijn voor de gehele populatie. Maar niets is minder waar. Blijkbaar zijn de onderzoekers ook in deze val getrapt, of, en dat lijkt er meer op, is dit probleem bewust verdoezeld.
Methodologische doodzonde
Ze reppen van miljoenen 'interacties' die zijn onderzocht, dus dat klinkt betrouwbaar. N=veel! Maar pas in de bijlage komt de aap uit de mouw: de onderzochten zijn geselecteerd op hun expliciete politieke voorkeuren en hun bovengemiddelde activiteit op Facebook, melden verschillende kritische wetenschappers.
Daarmee is de steekproef totaal niet meer representatief voor dé Facebook gebruiker. Dit is een absolute doodzonde van de onderzoekers en een blamage voor de reviewers én voor Science. Het is zoiets als onderzoek doen naar rijgedrag onder automobilisten en dan alleen recidiverende hardrijders bestuderen. "Ik dacht dat Science een serieus peer-reviewed tijdschrift was", verzucht Eszter Hargittai.
Nietszeggend
Dat er sprake is van forse invloed van de gebruikers op wat ze klikken en lezen is een nietszeggende dooddoener. Het is bepaald geen nieuws dat mensen voorkeur tonen voor meningen en berichten die overeenstemmen met hun eigen standpunten. De crux en het probleem is juist dat dit voorkeurseffect wordt versterkt door de algoritmes van Facebook. Hierover geeft de studie geen uitsluitsel.
Kortom: de door Facebook geschetste conclusie snijdt geen hout. Maar eigenlijk is dat al een brug te ver en kan het hele onderzoek worden gediskwalificeerd wegens grove methodologische fouten.
Lees meer over de filter bubble:
Dank voor de feedback, ik was er inderdaad te veel vanuit gegaan dat dit bekend is. Nu nog korte uitleg erbij.
@robert-tab bedankt voor de uitleg. Eigenlijk wil ik dus geen filter-bubble hebben.
Jammer dat het artikel niet even verteld wordt wat een filter bubble is. Voor diegenen die het ook niet wisten:
[Link]
Reageer
Preview