Zorgrobots: wat houdt zorg nu écht in?

Wat betekent het beoefenen van een techno-morele deugdethiek eigenlijk? En wat kan het ons opleveren? Laten we daarvoor inzoomen op een concreet voorbeeld: de zorgrobot.
alice
Zorgrobots, zoals Alice hierboven, worden op steeds grotere schaal ingezet in de zorg. In landen zoals Japan waar door het grote aantal ouderen de druk op de zorg steeds meer oploopt, gebeurt dit zelfs in zeer rap tempo. De zorgrobots kunnen voor allerlei taken worden ingezet: hulp bij transport/douchen/aankleden/verstrekken van medicatie, het monitoren van de gezondheid of gewoon als gezelschap.
Onomstreden is de inzet van zorgrobots zeker niet, zo beschrijft Vallor in haar boek:
Many ethicists worry that carebots objectify the elderly and other patients as “problems” to be solved by technological means. Others highlight the effects carebots could have on the capabilities, freedom, autonomy, and/or dignity of those being cared for, effects that include possibilities both welcome and worrisome. Another question is whether carebots will enhance or reduce patients’ engagement with their physical and social surroundings, and whether their meaningful contact with families and friends will be reduced.
Bovenstaande biedt al handvaten om de waarde van een zorgrobot aan af te meten. Maar het is onvoldoende, als we niet de invulling van ons concept van zorg meenemen, voor degenen die verzorgd worden én voor de degenen die de zorg geven.
Carebot ethics remains incomplete until we have also considered the possible impact of carebot practices on human habits, virtues, and vices, especially those of caregivers. That is, we must understand how carebots might affect our own abilities to flourish as persons capable of care, creatures whose moral status is deeply rooted in relations of caring virtue.
Wat biedt het beoefenen van de waarde ‘zorg’ ons? Nou, zo schrijft Vallorm, we leren bijvoorbeeld de betekenis en het belang van wederkerigheid. Jij zorgt voor mij als ik dat nodig heb, ik doe dat voor jou. Ook leren we empathie te hebben. En dat zijn dingen die je alleen écht leert begrijpen door het te ervaren: als zorgbehoeftige en als verzorger. We moeten vaak genoeg de waarde ‘zorg’ beoefenen om ons deze lessen eigen te kunnen maken.
Als je zo naar de technologie van zorgrobots kijkt, zie je de gevaren – het ontzorgen op een manier dat we deze belangrijke lessen missen – maar ook de kansen. Robots kunnen ons juist ontzorgen op een manier dat we meer aandacht kunnen besteden aan het beoefenen van de waarde ‘zorg’. Bijvoorbeeld door ‘s nachts te monitoren, of zware fysieke zorgtaken gedeeltelijk over te nemen. Zorgrobots die echt zorgen, volgens onze criteria.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Welke deugden moet de tech-mens hebben?

“We need more than better technologies, we also need better humans: skills, resoning abilities to manage techno-social power. We don’t have that now. How does the set of virtues for 21th century look like?”
boeddha
In haar boek grijp Vallor terug op allerlei deugdethici door de eeuwen heen – van Aristoteles tot Boeddha. En hoewel ethische principes uit het verleden als grondlegger kunnen dienen, moeten we vooral kijken naar voor welke ethische uitdagingen we nu staan, juist in onze specifieke context die door technologie getekend wordt. Zo vindt Vallor eerlijkheid een belangrijke waarde in een samenleving waarin je veel soorten informatie te verwerken krijgt. Of zelfdiscipline om te kiezen voor ‘gezonde technologie in plaats van voor technologie die alleen je aandacht opeist.
Yet precisely because honesty, humility, and moral perspective with regard to one’s own life are such challenging virtues to cultivate, we need to resist media habits that make these valuable qualities any harder to cultivate than they already are.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Tech-tegelwijsheid: Verbeter technologie, begin bij jezelf

Goed, het tijdperk van ongebeiteld techno-optimisme ligt inmiddels wel achter ons. We zijn ons te zeer bewust van alle machtssystemen en ongewenste effecten van onze technologie om nog naïef te kunnen geloven in de democratiserende werking van social media, om maar een voorbeeld te noemen.
better-world
Maar de assumptie dat je met goede tech de wereld kunt verbeteren, blijft vaak doorschemeren bij de opkomst van een nieuwe technologie. Naast het feit dat het natuurlijk een uiterst fijne gedachte is, ligt er een andere oorzaak aan dit soort verborgen denken ten grondslag. Namelijk: technologie wordt nog te weinig aan ONS gekoppeld.
We trappen vaak in de val van ‘solutionism’ om de mooie term van tech-criticus Evgeny Morozov te gebruiken uit zijn boek ‘To save everything, click here. The folly of technological solutionism’ , omdat we technologie als een neutraal gegeven beschouwen, een tool om iets te produceren of een probleem op te lossen, in plaats van een extensie van de menselijke waardencontexten waarbinnen ze opereert. Als je dat laatste wél meeneemt, dan kun je zo zien waarom ‘giving people a new media platform cannot ‘solve’ the ‘problem’ of civic apathy if the platform’s affordances and values are shaped by the same political conditions as the problem.’ En dat is meteen ook de reden van de andere fout in het solutionism-denken: iedereen beschouwen als identiek, waardoor de (uit)werking van een technologie gelijk zou zijn.
Kortom: het wordt de hoogste tijd om in het denken over technologie bij onszelf te starten. Shannon Vallor, professor filosofie, trekt dit zelfs nog verder door in haar boek ‘Technology and the Virtues’, dat net uit is. We moeten onszelf beter leren kennen, weten wat onze normen en waarden zijn én wat deze nog waard zijn in de huidige tech-tijd, en daar onze technologie aan afmeten. Zo kom je er pas achter welke technologie je in je leven wilt, op welke manier en hoe onze technologie ons kan verrijken. We moeten kortom een ‘techno-morele waardenethiek’ gaan bedrijven:
It is not technologies themselves that determine whether or not we flourish socially, but rather the habits, skills, and virtues we have cultivated, with or without their help. Once we acquire those habits, skills, and virtues, we are not only better able to avoid harm in new social media environments, we are able to use new media in ways that further enrich our well-being. [….] without technomoral virtues, we will lack the ability to determine individually or collectively which goals and means of surveillance are wise and worth pursuing.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Het probleem met ethiek voor een zelfrijdende auto

Ik heb al eerder geschreven in deze nieuwsbrief over de morele dilemma’s waar je mee te maken krijgt bij het programmeren van een zelfrijdende auto. Zou jij de zelfrijdende auto in onderstaande situatie (zie afbeelding) tegen een muurtje laten rijden om het plotseling overstekende kind te redden waarmee je wel de inzittende ernstig hersenletsel laat oplopen?
zelfrijdende-auto-ethiek
“In bijna elk ethisch dilemma met zelfrijdende auto’s moet je kiezen tussen het aanrijden van de ene of de andere groep mensen. Of tussen het kind aanrijden of jezelf het ravijn in storten – er zijn telkens maar twee mogelijkheden. Echte verkeerssituaties daarentegen zijn vaak veel ingewikkelder. Hoe je in zo’n situatie handelt, hangt sterk van de situatie af. Neem de omgeving. Hoe ziet de weg eruit, hoeveel grip heb je? Hoe lang is die bocht eigenlijk? Welke verkeersregels gelden hier? Is er een vangrail? Hoe ziet de berm eruit? Om de auto heen zit dus een heel verkeerssysteem dat volledig wordt genegeerd als we het alleen maar over hypothetische dilemma’s hebben.”
Bovendien, stelt van der Veen, denken we vanuit de huidige situatie met de huidige technologische mogelijkheden. Maar zelfrijdende auto’s hebben wellicht heel andere capaciteiten, die we nu nog niet ten volle kunnen overzien, op basis waarvan ethische dilemma’s anders kunnen komen te liggen:
“Tegelijkertijd is er ook veel meer mogelijk dan zo’n dilemma doet vermoeden. De auto reageert sneller dan wij en kan misschien hard genoeg remmen om het kind te redden. De auto kan tegen de vangrail of tegen een rotswand schuren om sneller af te remmen. Misschien past de auto er nog nét langs of kan hij met twee wielen in de berm eromheen rijden. Zo zijn er tientallen mogelijke routes die wij in zo’n kort tijdsbestek niet kunnen overwegen, maar een zelfrijdende auto wel.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Waarom ‘Pokémon Go als goed of fout’ bestempelen de echte vraag mist

Shannon Vallor, hoogleraar ethiek voor emerging technology, beschrijft in haar nieuwste boek ‘Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting’ (2016) dat het échte probleem bij snel opkomende tech is, dat ze niet zo makkelijk te beoordelen is als goed/fout.

goedfout

Emerging technology presenteert ons namelijk met 1. nieuwe problemen van collectieve moraliteit, 2. hebben evenveel of zelfs meer impact op toekomstige personen, groepen en systemen dan op de huidige stakeholders en 3. hebben consequenties die vanuit de huidige technologie en ontwikkeling uit het verleden niet te voorspellen zijn: waar de technologie zich naartoe ontwikkeld is nog mistig.

“But notice that it does not actually help things to reform our questions in action-terms such as, “Is tweeting wrong?” or “Is it wrong to develop a social robot?” The asymmetry is of a different nature. It is not even that one set of problems involves technology and another does not; after all, technology is heavily implicated in modern practices of abortion and capital punishment. The problem is that emerging technologies like social networking software, social robotics, global surveillance networks, and biomedical human enhancement are not yet sufficiently developed to be assignable to specific practices with clear consequences for definite stakeholders. They present open developmental possibilities for human culture as a whole, rather than fixed options from which to choose. The kind of deliberation they require, then, is entirely different from the kind of deliberation involved in the former set of problems.”

 

“Yet it remains the case that very often, the answers for which questions about emerging technology beg are simply not of the ‘yes/no’ or ‘right/wrong’ sort. Instead, they are questions of this sort: ‘How might interacting with social robots help, hurt, or change us?’; ‘What can tweeting do to, or for, our capacities to enjoy and benefit from information and discourse?’; ‘What would count as a ‘better,’ ‘enhanced’ human being?’”

Waarom het internet wel ethisch moet zijn, en een schaar niet

Ethiek. Moeilijk woord, voor wat eigenlijk betekent: wat betekent het voor jou om een goed leven te hebben? En in het geval van tech-ethiek: hoe kan technologie daarbij helpen? Of natuurlijk: hoe weerhoudt technologie je momenteel daarvan?
Leonardo da Vinci
Shannon Vallor houdt zich als hoogleraar bezig met het bestuderen van de ‘ethics of emerging technologies’ en heeft hier enkele dagen geleden een boek over uitgebracht. Want wat betekent het om een goed leven te hebben in een tijd waarin je identiteit, denkwijze en je relaties gemedieerd worden door technologie? En: waarom hoef je niet over de ethiek van een schaar na te denken, maar wel over de ethiek van het internet? (Hint: het heeft te maken met het feit dat de schaar slechts een gebruiksvoorwerp is, terwijl we leven door het internet).
Wat het lastig maakt om samen te leven met technologie, laat staan dit op een ethische en betekenisvolle manier te doen, is de ontwikkelingssnelheid van tech. Het is gewoon ontzettend lastig je voor te stellen welke kant tech op zal groeien, welke soort werkelijkheid het zal creëren. En ethiek veronderstelt een voorspelling of verwachting over deze werkelijkheid.
Maar juist daarom is het noodzakelijk volgens Vallor om ethische normen en waarden te bedenken die niet alleen in de huidige samenleving passen, maar ook flexibel genoeg zijn om een invulling te krijgen in de toekomst. Ze geeft in deze video een voorproefje daarvan, die ik zo interessant vond dat ik een samenvatting daarvan heb gemaakt op m’n blog: ’De 12 deugden voor de tech-mens
  • “Technomoral honesty: how to be honest in a world in which information is mediated through tech. A reliable disposition to express respect for thruth in techno-social context, especially in information practices.  
  • Technomoral selfcontrol: An examplary ability to choose, and to desire for their own sakes, those technosocial goods and experiences that contribute most to human flourishing. Essential for a world in which manipulation of desire and addiction by design are widespread practices.
  • Technomoral humility: recognition of the limits of technosocial knowledge and ability, respect for universe’s retained power to surprise and confound us. Renunciation of blind faith in the human capacity for technical mastery and ability to control the world. Essential for dealing with complex systems that resist human inspection or accurate prediction (e.g. machine learning algoritms, ecosystems, economies).” 

Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Shannon Vallor – 12 deugden voor de tech-mens

Hoogleraar Shannon Vallor, auteur van het boek ‘Technology and the virtues. A philosophical guide to a future worth wanting’ voorziet dat we niet alleen betere technologie nodig hebben, maar vooral ook dat we betere mensen nodig hebben om een goede, duurzame toekomst te creëren.

“We need more than better technologies, we also need better humans: skills, resoning abilities to manage techno-social power. We don’t have that now. How does the set of virtues for 21th century look like? “

In deze video beschrijft ze 12 deugden die de moderne mens nodig heeft, ik heb ze onder de video uitgeschreven.

Technomoral honesty: how to be honest in a world in which information is mediated through tech. A reliable disposition to express respect for thruth in techno-social context, especially in information practices.  

Technomoral selfcontrol: An examplary ability to choose, and to desire for their own sakes, those technosocial goods and experiences that contribute most to human flourishing. Essential for a world in which manipulation of desire and addiction by design are widespread practices.

Technomoral humility: recognition of the limits of technosocial knowledge and ability, respect for universe’s retained power to surprise and confound us. Renunciation of blind faith in the human capacity for technical mastery and ability to control the world. Essential for dealing with complex systems that resist human inspection or accurate prediction (e.g. machine learning algoritms, ecosystems, economies).

Technomoral justice: a reliable disposition to seek a fair distribution of the benefits and risks of new technologies, and a steady concern for how emerging technologies may impact the basis human rights, dignity or welfair of individuals and groups. Essential in a world with great disparities in technoscientific knowlegde, wealth and power.

Technomoral courage: a reliable disposition towards intelligent fear and hope, with repect to the moral and material dangers and opportinities represented by emerging technologies. Strikes the mean between techno-optimism and techno-pessimism – essential for responsible and prudent assesment of technosocial risk and promise.

Technomoral empathy: a cultival openness to being morally moved to caring action by the plight of other members of our technosocial world. Essential for combating moral apathy, passivity and abuses of technosocial power.

Technomoral care: a skillfull, attentive, responsible and emotional responsive disposition to personally meet the needs of those with whom we share our technosocial environment. Essential for a world in which ICT’s increasingly mediate natural caring relations such as parenting and friendship.

Technomoral civility: a sincere disposition to live well with other citizens of a globally networked information society: to collectivily and wisely deliberate about technosocial action and politics, and to work cooperativily toward those goods of technosocial life that we seek and expect to share with others.

Technomoral flexibility: a reliabable and skillull disposition to modulate action, belief and feeling as called for by novel, unpredictable or unstable technosocial conditions. An essential virtue for coping with acute technosocial opacity and increasingly rapid pace of technosocial change.

Technomoral perspective: a reliable disposition to attend and grasp technosocial events as meaningfull parts of a moral whole. Essential for holding in view technomoral concerns that are global in scope and that unfold over many generations. A critical factor in assessing technosocial risks and weighing technomoral trade-offs.

Technomoral magnanimity: a reliable dispistion toward technomoral leadership and nobility of purpose that trancends petty, parochial and temporary interests.

Technomoral wisdom: a general condition of well-cultivated and intregated technomoral expertise that embodies all of the virtues of character that we need, individually and collectively, in order to live well with emerging technologies.

Voel zelf welke moeilijke beslissingen een zelfrijdende auto maakt

Wat zou jij kiezen? De dood van één vrouw die wel braaf door groen voetgangerslicht loopt? Of zou jij de zelfrijdende auto met een oudere vrouw, een baby en drie volwassenen toch tegen de blokkade laten rijden waarmee zij het hoogstwaarschijnlijk niet zullen overleven? Kies je voor het volgen van de verkeersregels of het hoogste aantal overlevenden? En als de vrouw onze premier was, zou je beslissing dan veranderen?
MIT zelfrijdende auto
Ethiek vertaald in een algoritme leidt namelijk vaak tot onmogelijke keuzes. Maar wel keuzes die in de software van de zelfrijdende auto geprogrammeerd moeten worden. Dus de vraag is dan: op basis van welke waarden ga je de zelfrijdende auto programmeren?
Ik schreef een tijdje terug een stuk over de ethische waardensystemen die aan de zelfrijdende auto verbonden kunnen wordenIn het humanistische algoritme wordt bijvoorbeeld gemikt op een zo laag mogelijk aantal slachtoffers, waarbij een auto kan beslissen om de inzittenden op te offeren om anderen te sparen. In het beschermende algoritme kiest de auto er steeds voor de eigen inzittenden te beschermen, ook al gaat dat ten koste van meer mensenlevens in het andere voertuig (of zwakke weggebruikers). En in het op kosten gebaseerde algoritme wordt er berekend welke uitkomst de maatschappij het minst kost.
Simpel toch? Em, nee.
Want stel dat de kopers van een zelfrijdende auto de kans krijgen om zelf te kiezen voor een ethisch waardensysteem. Hoe word je dan berecht bij een dodelijk ongeval: voor doodslag? Of voor moord met voorbedachte rade?
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in.