Voel zelf welke moeilijke beslissingen een zelfrijdende auto maakt

Wat zou jij kiezen? De dood van één vrouw die wel braaf door groen voetgangerslicht loopt? Of zou jij de zelfrijdende auto met een oudere vrouw, een baby en drie volwassenen toch tegen de blokkade laten rijden waarmee zij het hoogstwaarschijnlijk niet zullen overleven? Kies je voor het volgen van de verkeersregels of het hoogste aantal overlevenden? En als de vrouw onze premier was, zou je beslissing dan veranderen?
MIT zelfrijdende auto
Ethiek vertaald in een algoritme leidt namelijk vaak tot onmogelijke keuzes. Maar wel keuzes die in de software van de zelfrijdende auto geprogrammeerd moeten worden. Dus de vraag is dan: op basis van welke waarden ga je de zelfrijdende auto programmeren?
Ik schreef een tijdje terug een stuk over de ethische waardensystemen die aan de zelfrijdende auto verbonden kunnen wordenIn het humanistische algoritme wordt bijvoorbeeld gemikt op een zo laag mogelijk aantal slachtoffers, waarbij een auto kan beslissen om de inzittenden op te offeren om anderen te sparen. In het beschermende algoritme kiest de auto er steeds voor de eigen inzittenden te beschermen, ook al gaat dat ten koste van meer mensenlevens in het andere voertuig (of zwakke weggebruikers). En in het op kosten gebaseerde algoritme wordt er berekend welke uitkomst de maatschappij het minst kost.
Simpel toch? Em, nee.
Want stel dat de kopers van een zelfrijdende auto de kans krijgen om zelf te kiezen voor een ethisch waardensysteem. Hoe word je dan berecht bij een dodelijk ongeval: voor doodslag? Of voor moord met voorbedachte rade?
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in.