Algoritmische wreedheid

Als facebookgebruiker kon je er niet omheen: de zogenaamde ‘Year in review’ die je niet alleen om je heen op de tijdlijn van je vrienden zag opploppen, maar waarvan je continue werd aangemoedigd om deze zelf ook te maken tot het punt dat Facebook zelfs maar zelf een ‘Year in review’ voor je creërde die je alleen nog op je tijdlijn zichtbaar hoefde te maken.

Ik besteedde er weinig aandacht aan – mijn ‘Year in review’ bevatte een of ander plaatje van mijn vakantie naar New York – tot ik dit stuk las. Eric Meyer had een verschrikkelijk jaar achter de rug – hij verloor zijn dochter – dat hij het liefst zo snel mogelijk wilde vergeten, maar werd door het Facebook algoritme er continue aan herinnert tot zelfs onderstaand plaatje verscheen met het gezicht van zijn overleden dochter:

Eric Meyer

Algoritmische wreedheid noemt de schrijver het en zijn voorbeeld maakt op schrijnende wijze duidelijk hoe voorzichtig we moeten zijn met het gebruik van ‘domme’ algoritmes die zonder context functioneren en in die zin generaliseren. Als algoritmes in dergelijke sociale situaties al gebruikt moeten worden, dan moeten ze op z’n minst in staat zijn tot empathie, hoe vreemd dat wellicht ook klinkt om hier zo’n menselijke term te noemen. En empathie begint ermee met te erkennen hoe divers je groep gebruikers is:

The ad’s design was built around the ideal user—the happy, upbeat, good-life user. It didn’t take other use cases into account. It may not be possible to reliably predetect whether a person wants to see their year in review, but it’s not at all hard to ask politely—empathetically—if it’s something they want. That’s an easily solvable problem. Had the ad been designed with worst-case scenarios in mind, it probably would have done something like that.