Faculteit der Rechtsgeleerdheid
8 May 2023
De algoritmes van social media zorgen ervoor dat je zo lang mogelijk blijft hangen op een pagina. Tijd is geld. Leerssen onderzocht de regulering rond deze software. ‘De aanbevelingssystemen spelen een belangrijke rol in het medialandschap; ze bepalen in grote mate wat populair wordt. Het publieke belang bij regulering is daarom groot’, zegt hij.
Leerssen nam de regulering kritisch onder de loep. ‘Ik zie dat er veel wetten en regels op komst zijn om de transparantie te bevorderen. Maar juristen weten ook dat zorgen voor transparantie makkelijker is gezegd dan gedaan.’
Je blindstaren op algoritmes is volgens Leerssen niet de oplossing. ‘Er ligt nu te veel nadruk op de transparantie van algoritmes achter de aanbevelingssystemen. Het probleem is: je kunt niet begrijpen hoe een systeem werkt als je alleen kijkt naar de technologie. Je moet ook begrijpen hoe mensen die technologie gebruiken. Bij het analyseren van verkeersongelukken kijk je ook niet alleen naar de technische specificaties van een auto, maar net zo goed naar de verkeersomstandigheden en of de chauffeur alcohol gedronken heeft. Het is daarom belangrijk om goed te kijken naar de sociale context waarin een technologie gebruikt wordt.’
Er zit niets in het algoritme van Facebook dat geprogrammeerd is om desinformatie of racisme te belonenThere is nothing in the algorithm programmed to reward disinformation or racism
Om de impact van aanbevelingssystemen in beeld te krijgen, moet je volgens Leerssen verder kijken dan transparantie én de juiste vragen stellen. ‘De machine-learning algoritmes van social media zijn erg complex, dus het is vaak effectiever om naar uitkomsten te kijken. Door simpelere vragen te stellen, krijg je ook antwoorden waar veel mensen wat aan hebben.’
‘Er zijn bijvoorbeeld tools voor ouders om te zien wat hun kinderen allemaal doen op sociale media. Zo hoef je niet het algoritme helemaal te doorgronden, maar zie je wel de uitkomsten.’ Je kunt bijvoorbeeld ook uitzoeken wat de achtergrond is van de mensen die in een rechts-extremistische fuik belanden. Zulke vragen zijn ook lastig te beantwoorden, maar niet zo ingewikkeld als het volledig verklaren van de keuzes van een machine-learning algoritme. ‘Het is belangrijk om de discussie met deze vragen op gang te brengen.’
‘Over Facebook wordt bijvoorbeeld gezegd dat het algoritme racistisch is en dat er desinformatie verspreid wordt. Dat zit niet alleen in het algoritme, maar ook in de voorkeuren van gebruikers. Er zit niets in het algoritme dat geprogrammeerd is om desinformatie of racisme te belonen. Dat effect kun je alleen verklaren door te kijken naar het gedrag van gebruikers, waar het algoritme op reageert. Maar het ligt ook weer niet alleen aan de gebruikers, nuanceert hij. ‘Het is een complexe interactie tussen de gebruikers en de technologie. Dáár moet je als samenleving zicht op krijgen.’
Het is volgens Leerssen hard nodig om meer zicht te krijgen op aanbevelingssystemen. Hij maakt zich zorgen over de vaak onzichtbare greep die sociale media platforms op het medialandschap hebben. Vroeger ging de discussie veel meer over het verwijderen van online content. Dat is een zichtbare keuze waar je iets van kunt vinden. Maar tegenwoordig worden er ook subtielere methodes ingezet om content minder vindbaar te maken in de aanbevelingssystemen. Komt content van LHBTIQ+- YouTubers bijvoorbeeld minder voorbij? Als gebruiker is het moeilijk te constateren of dat een bewuste ingreep van het platform is of een onverwachte gril van het algoritmische systeem. De macht van het platform wordt minder zichtbaar.'
Zorgen voor meer transparantie is daarom óók belangrijk. Het moet volgens Leerssen alleen niet de enige focus zijn van nieuwe regulering. De overheid moet meer tegenmacht bieden aan platforms. 'Transparantie is een middel voor regulering of toezicht, maar geen volledig alternatief. In mijn proefschrift probeer ik een nieuwe impuls te geven: waar liggen de kansen en wat zijn de doodlopende paden?'