Home » Hoe algoritmes ons gijzelen en onze waarheid vormen
We worden gegijzeld door algorimes, geen eigen keuze meer!

Hoe algoritmes ons gijzelen en onze waarheid vormen

In het eerste deel van deze serie beschreef ik hoe Big Tech is uitgegroeid tot onmisbare infrastructuur. We gebruiken hun diensten dagelijks en overstappen blijkt in de praktijk lastig door verwevenheid en vendor lock-in. Maar afhankelijkheid alleen is niet het hele verhaal. De vraag die daarna volgt is misschien nog belangrijker: wat gebeurt er binnen die afhankelijkheid?

Steeds vaker wordt onze blik op de wereld niet gevormd door wat er gebeurt, maar juist door wat de algoritmes ons voorschotelen. Wat begon als gemak en personalisatie, is beetje bij beetje verschoven naar sturing. Het erge is dat we dit niet door hebben.

Van belofte naar beïnvloeding

Algoritmes werden ons ooit gepresenteerd als iets positiefs. Zo zouden ze ons helpen om relevante informatie te filteren in een steeds groter wordende stroom aan content. Minder ruis en meer wat bij je past. En eerlijk is eerlijk: dat werkte. Muziek die aansluit bij je smaak, video’s die je interesseren, nieuws dat aansluit bij je voorkeuren.

Maar die belofte heeft helaas een keerzijde. Want zodra personalisatie de standaard wordt, verdwijnt het gedeelde referentiekader. Iedereen krijgt daardoor zijn eigen selectie van de werkelijkheid te zien. Niet alleen omdat iemand dat expliciet zo heeft besloten, maar vooral omdat optimalisatie dat vanzelf oplevert.

Wat een algoritme wél en niet is

Algoritmes worden vaak nogal mysterieus gemaakt, alsof het ongrijpbare krachten zijn. Dat zijn ze niet. Ze zijn ook geen complotten en geen neutrale spiegels van de werkelijkheid. In de basis zijn het systemen die keuzes maken op basis van doelen.

En dat doel is zelden “goed geïnformeerde burgers”. Meestal is het iets veel simpelers: engagement. Meer tijd doorbrengen op het platform. Interactie. Kliks. Likes. Reacties.

Het belangrijke verschil zit niet in wat jij kiest, maar in wat jou wordt aangeboden. De selectie komt dus altijd vóór de keuze.

Van tijdlijn naar eindeloze feed

Waar sociale media ooit begonnen met chronologische tijdlijnen — berichten van vrienden in volgorde van plaatsing — zijn ze veranderd in eindeloze feeds. Er is geen duidelijk begin en geen natuurlijk einde. Je scrolt niet meer door updates, maar door voorspellingen.

Dit is geen toeval. Een eindeloze feed zonder pauze zorgt er namelijk voor dat je langer blijft kijken. Dat fenomeen kennen we inmiddels als doomscrollen: gedachteloos blijven consumeren, vaak zonder dat het iets toevoegt.

De feed is dus niet ontworpen om je bij te praten, maar om je vast te houden. In feite wordt je gegijzeld zonder dat je het doorhebt.

Engagement als hoogste doel

Content die emoties oproept, scoort beter. Dat is geen waardeoordeel, maar een meetbaar feit. Boosheid, angst en verontwaardiging zorgen voor meer interactie dan nuance of twijfel. Algoritmes leren daarvan en passen zich aan.

Zo ontstaat er een systeem waarin extreme of bevestigende content vaker wordt getoond, simpelweg omdat het beter presteert. Polarisatie is in dat licht geen bug, maar een logisch gevolg van optimalisatie.

Niet omdat platforms polarisatie nastreven, maar omdat het rendeert.

Filterbubbels en eigen waarheden

Langzaam maar zeker belanden we in zogeheten filterbubbels. Kleine interacties hebben grote gevolgen. Klik je een paar keer op vergelijkbare content, dan wordt de selectie smaller. Niet bewust, maar automatisch.

Dit beperkt zich niet tot politiek. Het speelt net zo goed bij gezondheid, opvoeding, wetenschap, voeding of lifestyle. Wat je ziet, bevestigt steeds vaker wat je al dacht. Tegenspraak verdwijnt daardoor uit beeld en je krijgt dus je eigen waarheid.

Zo ontstaan er dus die parallelle werkelijkheden. Niet omdat mensen de waarheid niet willen zien, maar omdat ze die simpelweg niet meer tegenkomen.

Van beïnvloeding naar gevangenschap

In theorie kun je stoppen. Een account verwijderen, een app wissen. In de praktijk is dat lastig. Vendor lock-in speelt een rol, net als sociale druk en gewoontegedrag. Bovendien blijven de algoritmes gewoon actief zolang je meedoet.

Keuzevrijheid bestaat misschien nog wel, maar binnen steeds nauwer afgebakende kaders. Je kiest uit wat beschikbaar wordt gesteld. De illusie van controle blijft, terwijl de sturing steeds subtieler wordt.

Zo verschuift beïnvloeding langzaam richting een soort van gevangenschap.

Maatschappelijke gevolgen

Wanneer iedereen zijn eigen informatie-universum heeft, wordt een gedeeld debat moeilijker. Feiten verliezen namelijk hun gemeenschappelijke basis. Wantrouwen in instituties groeit. Discussies verharden, niet omdat mensen dommer worden, maar omdat ze andere werkelijkheden ervaren.

Een democratie zonder gedeelde feitenbasis staat onder druk. Niet door één grote ingreep, maar door talloze kleine optimalisaties.

Dit is geen individueel falen

Het is belangrijk om dit niet te reduceren tot een individueel probleem. Dit gaat niet over zwakke gebruikers of verkeerde keuzes. Het gaat over systemen die op wereldschaal zijn ontworpen om aandacht vast te houden.

De verantwoordelijkheid ligt niet alleen bij de gebruiker, maar bij het ontwerp, de prikkels en de machtsconcentratie daarachter. De algoritmes sturen je blik, en de vendor lock-in zorgt er vervolgens voor dat je niet wegloopt.

De volgende stap: Kennis als brandstof

Het gijzelen van gebruikers in algoritmes is één van de tactieken die Big Tech hanteert. Inmiddels gaan deze bedrijven een stap verder, door data en gedeelde kennis van mensen in te zetten als brandstof voor het trainen van AI-modellen.

Andy Meerwaldt

Over de auteur

Ik ben Andy, een enthousiaste en ervaren web developer uit het Limburgse Gennep. Geboren in het jaar 1985, getrouwd en vader van vier kinderen.