Tracking: wat is het, hoe werkt het en wat kun je ertegen doen? (Deel 3)

De week: Facebook-ethics, Google-raters en de toekomst van collaboratiesoftware

We kiezen er in alle vrijheid voor om onze vrijheid op te geven

Een stukje service van ons naar jou toe: mooie, ontroerende, zorgwekkende en/of hilarische linkjes over internetvrijheid die we deze week ontdekten en graag met je delen.

Credits:
Foto: Charmedhpx

De if-I-were-you-I-would-reads

  • Er was heisa rondom Facebook afgelopen week: het Australische advertentie-salesteam had lopen opscheppen naar potentiĆ«le klanten dat Facebook bij tieners precies kan zien wanneer die zich onzeker voelen en dus gevoeliger zouden kunnen zijn voor bepaalde reclames. Olivia Solon vindt dat daarmee echt een grens is overschreden terwijl Antonio Garcia-Martinez, een voormalige advertentiebaas van Facebook, het probleem niet zo ziet, en Wired het de hoogste tijd vindt voor een ethicus in het bestuur.
  • Wist je dat Google ruim 10.000 raters heeft, mensen die helpen bij het verbeteren van de kwaliteit van de diensten van de informatiegigant? Google is hier niet al te publiek over. Volgens Ars Technica, waar een profiel van de raters verscheen, is dit omdat ze vooral willen uitstralen dat Google alles met (neutraal, onfhankelijke, rationele) algoritmes oplost. Niet met mensen die dit vanuit huis en zonder enige vorm van arbeidsbescherming doen.
  • Een wetenswaardig artikel over algoritmes die helpen bepalen of gedetineerden in een aantal staten in de VS vrijkomen of niet. De software (Compas) geeft rechters advies over de kans dat een crimineel in herhaling valt, maar de algoritmes die hiervoor gebruikt worden zijn volgens moederbedrijf Northpointe een handelsgeheim. Waarom moeten rechters vertrouwen op het advies van software waarbij ze geen inzicht hebben in de werking? Zeker omdat het risico bestaat dat deze software meer zwarte Amerikanen benadeelt dan witte.
  • Frank Karlitschek is met Nextcloud verantwoordelijk voor een belangrijk stukje van de technologiepuzzel voor mensen die graag hun data in eigen beheer houden. Op Opensource.com beschrijft hij zijn visie voor de toekomst van collaboratiesoftware.
  • Adrienne Jeffries heeft in een artikel op de Outline nog eens op een rijtje gezet hoe het komt dat veel algoritmes leiden tot racistische resultaten (zie bijvoorbeeld de excuses die FaceApp afgelopen week moest maken). Volgens Jeffries komt die bias voort uit de data die gebruikt wordt om de machine learning algoritmen te trainen, die is te eenzijdig.
  • En tot slot voor de commandline en ASCII-liefhebber: check ascii-cinema, een soort YouTube voor tekst...
  1. Consumentenbondsgenoot

    Collaboratiesoftware, alweer zo’n tactisch woord. Collaborateurs, hm.

    Dat klinkt niet best.

    Maar ach, dat is natuurlijk wel eerlijk en niet verbloemd onder het mom van participatiezoals de VVD dat doet.

    Machine-racsim dat lijkt me ook wel een sterke.
    Wat volgt:
    Nazi-bot?
    StaSiBook?
    Virtual Adolf?

  2. Wir Haben Es Nicht Gewusst

    Google-raters: Analog censorship?
    Niet meer zwart/wit delete, maar ongewenste dingen stilletjes doodzwijgen met algoritmes. Niet bannen maar gewoon onvindbaar maken. Dat is een vorm van censuur die vele malen smeriger is om dat het dan niet meer zichtbaar is. En dit maakt alles nog veel schever en onbetrouwbaarder..

Laat een reactie achter op Wir Haben Es Nicht Gewusst Reactie annuleren

Het e-mailadres wordt niet gepubliceerd.

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.