Het is weer eens zover. Google is weer in het nieuws met zijn zoekmachine omdat de functie automatisch aanvullen weer eens iets racistisch suggereert. Politici springen daar graag op in om te laten zien dat racisme in hun ogen toch écht niet kan hoor. Google schrapt vervolgens na genoeg ophef de gewraakte suggesties uit zijn algoritme. Maar dat betekent dat Google wordt gedwongen om voor racismepolitie te spelen. Terwijl de zoekmachine zelf geen standpunt inneemt, want Google kaatst terug waar mensen naar zoeken.
Racistisch algoritme
De Britse tabloid The Sun jubelt deze week over zijn overwinning op de racistische zoekmachine. De krant kopt dat Google gedwongen is zijn auto-aanvullen-feature aan te passen, nadat de krant kwalijke termen en ideeën had ontdekt in de zoekmachine. Zo werden mensen die zochten op "Why is Leicester" voorzien van de suggestie "full of Pakis", een denigrerende term voor Pakistanen.
De krant heeft een afgevaardigde van de betrokken stad opgetrommeld die zich geschokt toont over de vuige opmerking van Google. "Dit is volkomen onacceptabel en ik zal dit ter sprake brengen in het parlement", zegt Keith Vaz tegen de krant. Vaz is overigens groot voorstander van het omstreden Britse pornofilter, dat burgers beschermt tegen nare dingen als seksuele voorlichting en de parlementariër toont zich regelmatig bezorgd over gewelddadige videogames.
Bubbelmensen en algortimes
Dit haal ik aan omdat het illustreert dat mensen als parlementariër Vaz het liefst een muur om mensen heen zouden willen opwerpen om ze te beschermen tegen geweld. Of tegen porno. Of tegen racisme. Of tegen informatie. Maar ze gaan daarbij volledig voorbij aan de maatschappelijke realiteit. Onze realiteit is blijkbaar - hou je vast voor de schokkende conclusie - behoorlijk racistisch. En zoekmachines zijn een afspiegeling van die trieste realiteit.
De suggesties die uit automatisch aanvullen voortkomen, zijn natuurlijk geen uitingen van Google zelf, maar worden gebaseerd op wat veel mensen willen weten. Uit deze klacht blijkt dus dat mensen zoeken op waarom er zoveel Pakistanen in Leicester wonen en kiezen daarbij voor een term die niet wordt geaccepteerd door bubbelmensen als Vaz. Het algoritme bemoeit zich niet met sentimenten, maar baseert zich op pure logica: veel mensen wilden dit weten, dus de kans is aanwezig dat jij dit ook zoekt. Maar dat is natuurlijk niet altijd zo. Hallo, cognitieve dissonantie.
Staat van ontkenning
Wat dit soort mensen dus eigenlijk van Google wil, is dat het bedrijf een nóg strakkere filter-bubble maakt, waarin de visies van de ene groep nooit mogen lekken naar de realiteitszin van de andere. Na de klacht van The Sun paste Google zijn suggestie-algoritme aan om de gewraakte suggestie te verwijderen. Maar veel racistische suggesties blijven bestaan, waarschuwt de krant. Natúúrlijk blijven die bestaan. Want die onderliggende ideeën blijven bestaan. Moeten we de zoekmachine aanpakken of het onderliggende sentiment dat leeft?
Onderzoekers stelden vorig jaar dat de zoekmachine met autocomplete homofobie, racisme en stereotypes in stand houdt. Dus als Google zijn autocomplete aanpast, is dat een overwinning in de strijd tegen racisme? Kun je het Google kwalijk nemen dat een algoritme oppikt wat bepaalde groepen mensen willen weten en dat terugkaatst naar mensen in groepen die willen ontkennen dat dit soort racisme bestaat? Wat ik veel zorgelijker vind, is dat sommigen blijkbaar in een krachtige staat van ontkenning leven over de daadwerkelijke bron van racisme. En dat schizofrene wereldbeeld botvieren op een zoekmachine.
Google zou vast ook niet zo gecharmeerd zijn van de meeste zoekopdrachten, maar gelukkig is het een machine en geen mens.






Politiek correcte parlementariers.... Om moe van te worden.
Reageer
Preview