Algoritmische verzuiling en filter bubbles: een bedreiging voor de democratie?

Open Access
Authors
Publication date 10-2016
Journal Computerrecht
Article number 173
Volume | Issue number 2016 | 5
Pages (from-to) 255-262
Organisations
  • Faculty of Law (FdR) - Institute for Information Law (IViR)
  • Faculty of Law (FdR)
  • Faculty of Social and Behavioural Sciences (FMG) - Amsterdam School of Communication Research (ASCoR)
Abstract
Beleidsmakers, wetenschappers en anderen vrezen dat gepersonaliseerd nieuws kan leiden tot filter bub- bles, unieke informatieruimtes voor iedereen. Filter bubbles zouden een gevaar vormen voor onze democratie. Op basis van de politieke voorkeuren van een gebruiker kan een gepersonaliseerde nieuwssite bepaalde onderwerpen of meningen bijvoorbeeld een meer of minder prominente plek geven. Er wordt gedacht dat personalisatie tot een nieuwe vorm van verzuiling kan leiden, waarbij gebruikers van online gepersonaliseerd nieuws weinig verschillende politieke ideeën tegenkomen. In deze bijdrage bespreken we empirisch onderzoek naar de omvang en effecten van personalisatie. Hierbij onderscheiden we zelfge- selecteerde personalisatie, waarbij mensen expliciet aangeven over welke onderwerpen zij informatie willen ontvangen, en vooraf geselecteerde personalisatie, waarbij algoritmes bepalen over welke onder- werpen gebruikers informatie ontvangen. We concluderen dat er tot nu toe weinig empirisch bewijs is dat de zorgen over filter bubbles rechtvaardigt.
Document type Article
Language Dutch
Published at http://deeplinking.kluwer.nl/?param=00CC7D93&cpid=WKNL-LTR-Nav2
Downloads
Permalink to this page
Back