• Menu

0 recente resultaten

De week: Facebook-ethics, Google-raters en de toekomst van collaboratiesoftware

Een stukje service van ons naar jou toe: mooie, ontroerende, zorgwekkende en/of hilarische linkjes over internetvrijheid die we deze week ontdekten en graag met je delen.

De if-I-were-you-I-would-reads

  • Er was heisa rondom Facebook afgelopen week: het Australische advertentie-salesteam had lopen opscheppen naar potentiĆ«le klanten dat Facebook bij tieners precies kan zien wanneer die zich onzeker voelen en dus gevoeliger zouden kunnen zijn voor bepaalde reclames. Olivia Solon vindt dat daarmee echt een grens is overschreden terwijl Antonio Garcia-Martinez, een voormalige advertentiebaas van Facebook, het probleem niet zo ziet, en Wired het de hoogste tijd vindt voor een ethicus in het bestuur.
  • Wist je dat Google ruim 10.000 raters heeft, mensen die helpen bij het verbeteren van de kwaliteit van de diensten van de informatiegigant? Google is hier niet al te publiek over. Volgens Ars Technica, waar een profiel van de raters verscheen, is dit omdat ze vooral willen uitstralen dat Google alles met (neutraal, onfhankelijke, rationele) algoritmes oplost. Niet met mensen die dit vanuit huis en zonder enige vorm van arbeidsbescherming doen.
  • Een wetenswaardig artikel over algoritmes die helpen bepalen of gedetineerden in een aantal staten in de VS vrijkomen of niet. De software (Compas) geeft rechters advies over de kans dat een crimineel in herhaling valt, maar de algoritmes die hiervoor gebruikt worden zijn volgens moederbedrijf Northpointe een handelsgeheim. Waarom moeten rechters vertrouwen op het advies van software waarbij ze geen inzicht hebben in de werking? Zeker omdat het risico bestaat dat deze software meer zwarte Amerikanen benadeelt dan witte.
  • Frank Karlitschek is met Nextcloud verantwoordelijk voor een belangrijk stukje van de technologiepuzzel voor mensen die graag hun data in eigen beheer houden. Op Opensource.com beschrijft hij zijn visie voor de toekomst van collaboratiesoftware.
  • Adrienne Jeffries heeft in een artikel op de Outline nog eens op een rijtje gezet hoe het komt dat veel algoritmes leiden tot racistische resultaten (zie bijvoorbeeld de excuses die FaceApp afgelopen week moest maken). Volgens Jeffries komt die bias voort uit de data die gebruikt wordt om de machine learning algoritmen te trainen, die is te eenzijdig.
  • En tot slot voor de commandline en ASCII-liefhebber: check ascii-cinema, een soort YouTube voor tekst...

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.

Ik geef graag per maand

Ik geef graag een eenmalig bedrag