Algoritmes: magisch, maar gevaarlijk

Frederik De Bosschere laat voor vrtnws.be tweewekelijks zijn licht schijnen over verrassingen of tegenslagen in de wondere wereld van de digitale technologie. Vandaag de magie én het gevaar van de vele algoritmes die in onze hersenen sluipen.

opinie
Opinie

Of u nu opgelet hebt in wiskunde of niet: algoritmes domineren de wereld. Ze bepalen uw Google-zoekresultaten, Wazen u door de ochtendspits, houden uw mailbox spamvrij. Algoritmes leiden ons leven in nagenoeg elk opzicht.

Algoritmes laten wiskundige modellen los op grote hoeveelheden data, en kunnen dus - in theorie - voor meer objectiviteit zorgen. “In God we trust, all others bring data,” zei statisticus W.E. Deming ooit. Vandaag is ons vertrouwen in data bijna godsdienstig: in data we trust.

Dat klinkt heel aannemelijk. Natuurlijk willen we dat belangrijke beslissingen objectief gebeuren. Maar moeten we data dus maar blind vertrouwen?

Vandaag is ons vertrouwen in data bijna godsdienstig: in data we trust.

In de Amerikaanse rechtspraak worden borgstelling en strafmaat voor een groot deel berekend door een 'risk assessment'-algoritme. In plaats van een subjectieve uitspraak kijkt men liever naar historische data om de kans op vluchten of recidivisme in te schatten.

Net daar knelt het schoentje.

Die data zitten vol met oneerlijke uitspraken van racistische rechters. En dus trekken minderheden ook in een zogezegd objectief systeem aan het kortste eind.

Het verleden bepaalt de toekomst. 

Nog een voorbeeld van hoe dat ‘dataïsme’ er stilaan voor zorgt dat we vastgeroest raken in het verleden: de nieuwsfeed-algoritmes van Twitter of Facebook. Die zijn ontworpen om u zo lang mogelijk aan het scherm te lijmen. Dus schotelen ze u steeds meer van hetzelfde voor. En voor je het weet, zit je vast in een ‘bubbel' waar continu dezelfde boodschappen echoën.

Als die boodschappen onwaar zijn en de Facebook-feed de enige bron van informatie wordt, kan dat wel eens gevaarlijk worden. Voor je het weet, zit er een oranje poesjespakker in het Witte Huis, ik zeg zo maar iets.

Die bubbel hóéft niet per definitie te bestaan. Spotify zorgt bijvoorbeeld ook steevast voor nieuwe muzikale ontdekkingen. Waarom rond nieuws ook niet nieuwsgierig zijn?

De kans is groot dat u de omvang van het #fakenews-probleem onderschat.

Niet alle algoritmes moeten we over dezelfde kam scheren. Maar: hoe groter hun impact, hoe meer transparantie zich opdringt over hoe ze werken.

Inzicht in de Facebook-nieuwsfeedalgoritmes zullen we wellicht nooit krijgen. Zicht op wat eruit komt, kunnen we wel afdwingen. Want ook dat is een probleem: door onze eigen persoonlijke nieuwsbubbel zien we niet meer wat anderen op hun bord krijgen.

De kans is dan ook groot dat u de omvang van het #fakenews-probleem onderschat.

Gelukkig worden de tech-reuzen intussen op het matje geroepen in Washington DC. Door die druk lijst Twitter nu bijvoorbeeld alle politieke advertenties op, inclusief door wie ze betaald zijn.

Dat lost het probleem niet helemaal op: de technologie waarmee mensen met microscopische precisie kunnen worden gemanipuleerd, blijft inherent gevaarlijk. Maar: nu kunnen we ten minste zicht krijgen op de omvang van het probleem. 

 Begrijp me niet verkeerd: algoritmes vergemakkelijken onze levens nu al op fantastisch

veel manieren.

Al is dat voer voor een breder debat. Begrijp me niet verkeerd: algoritmes vergemakkelijken ons leven nu al op fantastisch veel manieren. Het lijkt wel magie. Maar daar houdt de vergelijking op.

Ze mogen geen zwarte doos zijn, want daarvoor hebben ze te veel impact. We moeten inzicht durven afdwingen, en de uitkomst kritisch in vraag stellen. Niet alles kan je oplossen met een toverformule.

---

VRT NWS wil op vrtnws.be een bijdrage leveren aan het maatschappelijk debat over actuele thema’s. Omdat we het belangrijk vinden om verschillende stemmen en meningen te horen publiceren we regelmatig opinieteksten. Elke auteur schrijft in eigen naam of in die van zijn vereniging. Zij zijn verantwoordelijk voor de inhoud van de tekst.  

Meest gelezen