Zou jij een algoritme je relaties laten managen?

Denk eens in: hoe fijn zou het zijn als iemand een deel van je dagelijkse bombardement aan emails, appjes en social media posts zou overnemen?
En stel nu dat dit niet een persoon is maar een slimme tech? Google’s nieuwe messaging app, Allo, analyseert de inhoud van inkomende correspondentie, inclusief foto’s en suggereert snelle antwoorden om terug te sturen. Als je vriendin een foto van haar kind op een schommel stuurt, dan kan Allo suggereren: ‘Zo schattig!’
broken-heart
Zou jij de communicatie met je vrienden en je collega’s toevertrouwen aan technologie?
En stel nu dat deze slimme tech niet alleen een deel van je communicatie kan overnemen, maar zelfs je communicatie kan verbeteren. Hoe vaak twijfel jij niet of die emoticon wel goed overkomt? Of dat je die email niet te hard of formeel hebt geformuleerd?
Zou jij een plug-in voor Gmail vertrouwen die je emails scant en dingen toevoegt die een email bijvoorbeeld een meer vriendelijke toon geeft?
In dit artikel Would you let an algoritm manage your relationships’ geeft Tim Maughan voorbeelden van dergelijke apps. Dit zijn allemaal kunstwerken of concepten van speculatief design, maar zoals ik al schreef, er zijn dus voorbeelden van apps zoals ‘Allo’ die al echt in gebruik zijn.
Een interessante opmerking in het artikel over een algoritme dat je coacht hoe je je Linkedin contacten beter kunt aanschrijven:
“I haven’t met a single person that uses things like Crystal Knows on a regular basis. It’s too much of an experience that feels inauthentic or like you’re cheating.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in. 

Bezwaren tegen algoritmische beslissingen in 1 diagram

Een uiterst adequate samenvatting van mogelijke bezwaren tegen het nemen van beslissingen op basis van algoritmes:

Trouble with Algorithmic Decision-Making.074

 

Dit diagram is een visuele samenvatting van het paper The Trouble with Algorithmic Decision-Making van prof. Tal Zarsky, een expert op het gebied van rechten rondom big data en algoritmische beslissingen. Hier kun je een samenvatting van het paper lezen.

 

Voel zelf welke moeilijke beslissingen een zelfrijdende auto maakt

Wat zou jij kiezen? De dood van één vrouw die wel braaf door groen voetgangerslicht loopt? Of zou jij de zelfrijdende auto met een oudere vrouw, een baby en drie volwassenen toch tegen de blokkade laten rijden waarmee zij het hoogstwaarschijnlijk niet zullen overleven? Kies je voor het volgen van de verkeersregels of het hoogste aantal overlevenden? En als de vrouw onze premier was, zou je beslissing dan veranderen?
MIT zelfrijdende auto
Ethiek vertaald in een algoritme leidt namelijk vaak tot onmogelijke keuzes. Maar wel keuzes die in de software van de zelfrijdende auto geprogrammeerd moeten worden. Dus de vraag is dan: op basis van welke waarden ga je de zelfrijdende auto programmeren?
Ik schreef een tijdje terug een stuk over de ethische waardensystemen die aan de zelfrijdende auto verbonden kunnen wordenIn het humanistische algoritme wordt bijvoorbeeld gemikt op een zo laag mogelijk aantal slachtoffers, waarbij een auto kan beslissen om de inzittenden op te offeren om anderen te sparen. In het beschermende algoritme kiest de auto er steeds voor de eigen inzittenden te beschermen, ook al gaat dat ten koste van meer mensenlevens in het andere voertuig (of zwakke weggebruikers). En in het op kosten gebaseerde algoritme wordt er berekend welke uitkomst de maatschappij het minst kost.
Simpel toch? Em, nee.
Want stel dat de kopers van een zelfrijdende auto de kans krijgen om zelf te kiezen voor een ethisch waardensysteem. Hoe word je dan berecht bij een dodelijk ongeval: voor doodslag? Of voor moord met voorbedachte rade?
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in. 

Data zijn de nieuwe ‘weapons of math destruction’

“We live in the age of the algorithm. Increasingly, the decisions that affect our lives—where we go to school, whether we get a car loan, how much we pay for health insurance—are being made not by humans, but by mathematical models. In theory, this should lead to greater fairness: Everyone is judged according to the same rules, and bias is eliminated. But the opposite is true.”
De Amerikaanse wiskundige Cathy O’Neil is nogal stellig in haar TED-talk (later dit jaar komt het boek uit waarin ze dit verder uitwerkt): onze omgang met data is net zo gevaarlijk als een atoombom. Waarom?
Omdat een data algoritme een schijn van neutraliteit, logica en eerlijkheid ophoudt, terwijl het niet transparant genoeg is hoe dat algoritme werkt. En aangezien algoritmes worden gebruikt om steeds meer vergaande beslissingen te nemen over de levens van veel mensen gebruikt O’Neil de steengoede metafoor ‘weapon of math destruction’.
Mass destruction

Algoritmische wreedheid

Als facebookgebruiker kon je er niet omheen: de zogenaamde ‘Year in review’ die je niet alleen om je heen op de tijdlijn van je vrienden zag opploppen, maar waarvan je continue werd aangemoedigd om deze zelf ook te maken tot het punt dat Facebook zelfs maar zelf een ‘Year in review’ voor je creërde die je alleen nog op je tijdlijn zichtbaar hoefde te maken.

Ik besteedde er weinig aandacht aan – mijn ‘Year in review’ bevatte een of ander plaatje van mijn vakantie naar New York – tot ik dit stuk las. Eric Meyer had een verschrikkelijk jaar achter de rug – hij verloor zijn dochter – dat hij het liefst zo snel mogelijk wilde vergeten, maar werd door het Facebook algoritme er continue aan herinnert tot zelfs onderstaand plaatje verscheen met het gezicht van zijn overleden dochter:

Eric Meyer

Continue reading