De politieke macht van algoritmes

Twee dagen na de opvallende uitslag van de Amerikaanse verkiezingen zond De Wereld Draait Door een item uit waarin werd gepraat over een incident bij Facebook dat mogelijk de verkiezingen zou hebben beïnvloed. Het betrof een incident waarbij werknemers van Facebook naar Mark Zuckerberg zijn gegaan en hebben gevraagd of ze de algoritmes van de nieuwsfiltering moesten aanpassen omdat presidentskandidaat Donald Trump de verkiezingen weleens zou kunnen gaan winnen.

Wat zijn algoritmes?

Een algoritme is een set van regels die vanaf een beginpunt een einddoel berekenen. In deze algoritmes worden stappen herhaald of vereist een algoritme logica of vergelijkingen om een taak te voltooien. In het geval van Facebook hebben de algoritmes ten doel om de gebruikers zo lang mogelijk aan de applicatie vast te blijven houden. Wanneer een gebruiker langer op de applicatie blijft vergroot de kans dat hij advertenties ziet en daarop klikt waar Facebook dan weer aan verdient. De algoritmes laten zien wat Facebook “denkt” dat de gebruiker wil zien.  De algoritmes passen deze manieren van het vasthouden van de gebruiker aan de app niet alleen toe in de advertenties, maar ook in de nieuwsitems en berichten die gebruikers zien. Dit leidt ertoe dat gebruikers niet meer zien wat de waarheid is, of hoe een tegengeluid klinkt, maar in plaats daarvan enkel zien wat Facebook denkt dat hij of zij wil zien.

Door de algoritmes aan te passen zou Facebook kiezers kunnen beïnvloeden door bepaalde nieuwsitems wel of niet te laten zien. Zo zouden mensen die eventueel op Trump zouden gaan stemmen enkel negatieve berichten over Trump te zien krijgen en positieve berichten over Clinton. Mark Zuckerberg heeft dit plan ondanks zijn negatieve en kritische uitlatingen over Trump, naast zich neergelegd. Desondanks toont het incident wél aan dat we moeten nadenken over de macht van Facebook en onze eigen houding tegenover die macht. Vooralsnog blijven de algoritmes van Facebook politiek ongekleurd, maar de vraag is wanneer dit gaat veranderen.  De huidige nieuwsfiltering, zoals die wordt toegepast door Facebook, zorgt nu al voor problemen: het veroorzaakt een verdere polarisatie van de samenleving en maakt dat onwaarheden voor waar worden aangenomen.

Waarheid

Een gevolg hiervan is dat mensen niet meer weten wat de waarheid is. Hoewel vaak gedacht wordt dat dit een probleem is dat makkelijk te voorkomen is door de echte waarheid op te zoeken, blijkt dit toch keer op keer niet te lukken. Er zijn talloze voorbeelden van momenten waarop de waarheid lastig te vinden blijkt, of genegeerd wordt. Vaak wordt die onwil om de waarheid te achterhalen aangewakkerd door een gevoel van sympathie voor de onwaarheid. Het meest duidelijke voorbeeld hiervan is de fout die Sylvana Simons beging in het programma Pauw. Ze vertelde dat ze had gezien dat Donald Trump in een interview vertelde dat,  mocht hij ooit presidentskandidaat worden, hij dit voor de Republikeinse partij zou worden omdat de Republikeinse kiezers de domste kiezers zijn en makkelijk te beïnvloeden zijn. Simons werd dezelfde uitzending nog vertelt dat dit “feitje” geen “feitje” was maar een grap. Simons verontschuldigde zich en zei dat ze er in getrapt was. Op het moment dat politici al dergelijke onjuistheden als waarheid gaan verkondigen is het voor de gewone burger geen schande dat ook zij geen waarheid meer kunnen vinden in het bos van de sociale media. In het geval van Sylvana Simons werd de waarheid alsnog op tafel gebracht, maar hoe weten we wat waar is wanneer dit niet aangekaart wordt?

Het winnen van discussies op basis van onwaarheden, kan gevolgen hebben voor de verkiezingen. Trump heeft zoveel onwaarheden verkondigd dat vermoedelijk iedereen wel heeft getwijfeld aan de waarheid van zijn uitspraken, maar desondanks heeft hij toch gewonnen. Trump gebruikte een tactiek waarbij de waarheid werd overgeslagen en speelde op het gevoel van de kiezer in. Met een opkomend populisme in veel westerse landen is de vraag interessant of sociale media en de neiging om de waarheid met een korreltje zout te brengen hier aan bijdragen. Op maat gemaakt nieuws bevordert gedachten van de eigen overtuiging en Facebook levert dit precies. Benoem een of meer zondebokken en de waarheid is vaak ondergeschikt aan het gevoel. Trump bestempelde China, Mexicanen en vrouwen allemaal tot zondebokken. Veel van Trumps aanhangers stemden in met zijn extreme uitspraken en toonden hun gevoel. Tegelijkertijd leverde dat een tegenreactie op van de Democrats. Deze strijd werd hevig gevoerd op Facebook (en andere sociale media). Dit alles zorgde voor een grote strijd om het gelijk waarbij de strijd om het gelijk groter was dan de strijd om de waarheid en vaak werden daar óók onwaarheden gebruikt als argumenten.

Doordat mensen geen tegengeluid meer horen raken ze in de illusie dat er één waarheid is en die waarheid ligt bij hen. Het gevolg hiervan is dat mensen sneller en vaker gaan denken in tegenstellingen, wat weer conflict en spanning aanwakkert, zonder dat het ruimte biedt voor consensus. Waar vroeger een nieuwsartikel pas werd gepubliceerd nadat een redactie het stuk had gecontroleerd, kan nu iedereen een eigen ongenuanceerde onwaarheid zomaar op Facebook plaatsen. In combinatie met de werking van algoritmes, en het feit dat er op Facebook geen ruimte is voor een genuanceerde mening die beide kanten belicht, leidt dit tot steeds meer polarisatie. 

Oplossing voor de filterbubbel

Een oplossing voor het probleem rond de algoritmes van Facebook ligt naar mijn mening niet voor het oprapen. Het is een kwestie van bewustwording onder mensen dat Facebook nieuwsfiltering gebruikt in het tonen van haar nieuws. Met name nu, in een tijd waarin steeds meer mensen hun nieuws van Facebook halen. Het blijft immers een eigen verantwoordelijkheid om de waarheid te scheiden van onwaarheid. Ingrijpen door Facebook zelf is ook erg onaannemelijk aangezien Mark Zuckerberg in interviews heeft aangegeven het waanzin te vinden dat mensen Facebook zien als grote invloed op de verkiezingen. Hij beargumenteert dit door te stellen dat mensen met die mening de boodschap van Trump-kiezers niet begrijpen. Hoewel hier een kern van waarheid inzit, kan Zuckerberg niet ontkennen dat Facebook bij heeft gedragen aan de polarisatie en verspreiding van onwaarheden. En gezien de kleine verschillen in de uitslag is het zeker denkbaar dat Facebooks bijdrage in nieuwsvoorziening een impact heeft gehad op de einduitslag. Een deel van de oplossing kan zijn dat Facebook bij de post zet of het bericht waar of niet waar is. Dan kunnen mensen in ieder geval een mening vormen die gebaseerd is op waarheden. Daarnaast zou de gebruiker zelf bewust moeten worden van wat ze zien. Wanneer gebruikers zich realiseren dat nieuwsberichten niet allemaal waar zijn én dat er een tegengeluid is op ieder nieuwsitem, zal een groot deel van het probleem opgelost worden. Het probleem hiermee is echter dat mensen geneigd zijn om het nieuws dat niet waar is alsnog te geloven simpelweg omdat men het wil geloven. De mens is eenmaal geneigd de simpele, duidelijke en veilige weg te kiezen en in het geval van onwaar nieuws en Facebook betekent dat dat onwaar nieuws altijd waarde zal blijven hebben. Vandaar dat deze oplossing maar deels een oplossing is.   

Censuur

Hoewel er niet een directe oplossing voor het probleem is, moet men oppassen voor de gevolgen van de werking van nieuwsfiltering op Facebook en er op toezien dat Facebook en andere sociale media niet een kleur gaan geven aan de nieuwsvoorziening van de gebruikers. We kunnen er niet vanuit gaan dat elke gebruiker even goed ingelicht is. Zo zullen mensen die niet politiek geïnteresseerd zijn sneller nieuws geloven op Facebook als het hen aanstaat. Deze mensen, die naar populisme zullen neigen, dienen op de hoogte  te worden gebracht van de waarheid en gevaren van dit nieuws. Trump heeft een perfecte campagne gevoerd. Hij speelde in op de gevoelens van mensen en gebruikte hier de sociale media (met name Twitter) bij. Waarheden werden verdraaid en er werden zelfs Russische bedrijven ingehuurd die Trump op sociale media hielpen en Clinton in diskrediet brachten.

In een tijd waar steeds meer mensen hun nieuws van sociale media halen moeten we alert zijn op de gevolgen ervan. Een verdere polarisatie van de maatschappij en politiek klimaat waar de discussie louter over leugens en gevoelens in plaats van waarheid en ratio gaat liggen op de loer. Deze gevolgen worden mede veroorzaakt door de sociale media. Daarom moeten we als samenleving iedereen op de hoogte van haar gevaren stellen. De overheid moet echter niet ingrijpen door een Facebook verbod of censuur. Facebook zou zelf kunnen handelen door haar berichten te controleren op waarheid, hetgeen echter niet snel gaat gebeuren. Voor nu moeten we als samenleving proberen het debat terug te brengen naar de realiteit en waarheden en proberen de tegenstellingen in het denken van veel mensen te ontnemen. Een waarheid heeft nooit één waarheid, ook al roept Facebook van wel.

image sources

Laat een reactie achter

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *