Zorgrobots: wat houdt zorg nu écht in?

Wat betekent het beoefenen van een techno-morele deugdethiek eigenlijk? En wat kan het ons opleveren? Laten we daarvoor inzoomen op een concreet voorbeeld: de zorgrobot.
alice
Zorgrobots, zoals Alice hierboven, worden op steeds grotere schaal ingezet in de zorg. In landen zoals Japan waar door het grote aantal ouderen de druk op de zorg steeds meer oploopt, gebeurt dit zelfs in zeer rap tempo. De zorgrobots kunnen voor allerlei taken worden ingezet: hulp bij transport/douchen/aankleden/verstrekken van medicatie, het monitoren van de gezondheid of gewoon als gezelschap.
Onomstreden is de inzet van zorgrobots zeker niet, zo beschrijft Vallor in haar boek:
Many ethicists worry that carebots objectify the elderly and other patients as “problems” to be solved by technological means. Others highlight the effects carebots could have on the capabilities, freedom, autonomy, and/or dignity of those being cared for, effects that include possibilities both welcome and worrisome. Another question is whether carebots will enhance or reduce patients’ engagement with their physical and social surroundings, and whether their meaningful contact with families and friends will be reduced.
Bovenstaande biedt al handvaten om de waarde van een zorgrobot aan af te meten. Maar het is onvoldoende, als we niet de invulling van ons concept van zorg meenemen, voor degenen die verzorgd worden én voor de degenen die de zorg geven.
Carebot ethics remains incomplete until we have also considered the possible impact of carebot practices on human habits, virtues, and vices, especially those of caregivers. That is, we must understand how carebots might affect our own abilities to flourish as persons capable of care, creatures whose moral status is deeply rooted in relations of caring virtue.
Wat biedt het beoefenen van de waarde ‘zorg’ ons? Nou, zo schrijft Vallorm, we leren bijvoorbeeld de betekenis en het belang van wederkerigheid. Jij zorgt voor mij als ik dat nodig heb, ik doe dat voor jou. Ook leren we empathie te hebben. En dat zijn dingen die je alleen écht leert begrijpen door het te ervaren: als zorgbehoeftige en als verzorger. We moeten vaak genoeg de waarde ‘zorg’ beoefenen om ons deze lessen eigen te kunnen maken.
Als je zo naar de technologie van zorgrobots kijkt, zie je de gevaren – het ontzorgen op een manier dat we deze belangrijke lessen missen – maar ook de kansen. Robots kunnen ons juist ontzorgen op een manier dat we meer aandacht kunnen besteden aan het beoefenen van de waarde ‘zorg’. Bijvoorbeeld door ‘s nachts te monitoren, of zware fysieke zorgtaken gedeeltelijk over te nemen. Zorgrobots die echt zorgen, volgens onze criteria.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Welke deugden moet de tech-mens hebben?

“We need more than better technologies, we also need better humans: skills, resoning abilities to manage techno-social power. We don’t have that now. How does the set of virtues for 21th century look like?”
boeddha
In haar boek grijp Vallor terug op allerlei deugdethici door de eeuwen heen – van Aristoteles tot Boeddha. En hoewel ethische principes uit het verleden als grondlegger kunnen dienen, moeten we vooral kijken naar voor welke ethische uitdagingen we nu staan, juist in onze specifieke context die door technologie getekend wordt. Zo vindt Vallor eerlijkheid een belangrijke waarde in een samenleving waarin je veel soorten informatie te verwerken krijgt. Of zelfdiscipline om te kiezen voor ‘gezonde technologie in plaats van voor technologie die alleen je aandacht opeist.
Yet precisely because honesty, humility, and moral perspective with regard to one’s own life are such challenging virtues to cultivate, we need to resist media habits that make these valuable qualities any harder to cultivate than they already are.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Tech-tegelwijsheid: Verbeter technologie, begin bij jezelf

Goed, het tijdperk van ongebeiteld techno-optimisme ligt inmiddels wel achter ons. We zijn ons te zeer bewust van alle machtssystemen en ongewenste effecten van onze technologie om nog naïef te kunnen geloven in de democratiserende werking van social media, om maar een voorbeeld te noemen.
better-world
Maar de assumptie dat je met goede tech de wereld kunt verbeteren, blijft vaak doorschemeren bij de opkomst van een nieuwe technologie. Naast het feit dat het natuurlijk een uiterst fijne gedachte is, ligt er een andere oorzaak aan dit soort verborgen denken ten grondslag. Namelijk: technologie wordt nog te weinig aan ONS gekoppeld.
We trappen vaak in de val van ‘solutionism’ om de mooie term van tech-criticus Evgeny Morozov te gebruiken uit zijn boek ‘To save everything, click here. The folly of technological solutionism’ , omdat we technologie als een neutraal gegeven beschouwen, een tool om iets te produceren of een probleem op te lossen, in plaats van een extensie van de menselijke waardencontexten waarbinnen ze opereert. Als je dat laatste wél meeneemt, dan kun je zo zien waarom ‘giving people a new media platform cannot ‘solve’ the ‘problem’ of civic apathy if the platform’s affordances and values are shaped by the same political conditions as the problem.’ En dat is meteen ook de reden van de andere fout in het solutionism-denken: iedereen beschouwen als identiek, waardoor de (uit)werking van een technologie gelijk zou zijn.
Kortom: het wordt de hoogste tijd om in het denken over technologie bij onszelf te starten. Shannon Vallor, professor filosofie, trekt dit zelfs nog verder door in haar boek ‘Technology and the Virtues’, dat net uit is. We moeten onszelf beter leren kennen, weten wat onze normen en waarden zijn én wat deze nog waard zijn in de huidige tech-tijd, en daar onze technologie aan afmeten. Zo kom je er pas achter welke technologie je in je leven wilt, op welke manier en hoe onze technologie ons kan verrijken. We moeten kortom een ‘techno-morele waardenethiek’ gaan bedrijven:
It is not technologies themselves that determine whether or not we flourish socially, but rather the habits, skills, and virtues we have cultivated, with or without their help. Once we acquire those habits, skills, and virtues, we are not only better able to avoid harm in new social media environments, we are able to use new media in ways that further enrich our well-being. [….] without technomoral virtues, we will lack the ability to determine individually or collectively which goals and means of surveillance are wise and worth pursuing.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘CTRL, ALT, DELETE’ waarin ik elke week onderzoek hoe we een betere relatie kunnen krijgen met onze tech. Herontwerp van ons tech én van onszelf: hoe doe je dat? Ook de nieuwsbrief ontvangen? Schrijf je hier in.

Het probleem met ethiek voor een zelfrijdende auto

Ik heb al eerder geschreven in deze nieuwsbrief over de morele dilemma’s waar je mee te maken krijgt bij het programmeren van een zelfrijdende auto. Zou jij de zelfrijdende auto in onderstaande situatie (zie afbeelding) tegen een muurtje laten rijden om het plotseling overstekende kind te redden waarmee je wel de inzittende ernstig hersenletsel laat oplopen?
zelfrijdende-auto-ethiek
“In bijna elk ethisch dilemma met zelfrijdende auto’s moet je kiezen tussen het aanrijden van de ene of de andere groep mensen. Of tussen het kind aanrijden of jezelf het ravijn in storten – er zijn telkens maar twee mogelijkheden. Echte verkeerssituaties daarentegen zijn vaak veel ingewikkelder. Hoe je in zo’n situatie handelt, hangt sterk van de situatie af. Neem de omgeving. Hoe ziet de weg eruit, hoeveel grip heb je? Hoe lang is die bocht eigenlijk? Welke verkeersregels gelden hier? Is er een vangrail? Hoe ziet de berm eruit? Om de auto heen zit dus een heel verkeerssysteem dat volledig wordt genegeerd als we het alleen maar over hypothetische dilemma’s hebben.”
Bovendien, stelt van der Veen, denken we vanuit de huidige situatie met de huidige technologische mogelijkheden. Maar zelfrijdende auto’s hebben wellicht heel andere capaciteiten, die we nu nog niet ten volle kunnen overzien, op basis waarvan ethische dilemma’s anders kunnen komen te liggen:
“Tegelijkertijd is er ook veel meer mogelijk dan zo’n dilemma doet vermoeden. De auto reageert sneller dan wij en kan misschien hard genoeg remmen om het kind te redden. De auto kan tegen de vangrail of tegen een rotswand schuren om sneller af te remmen. Misschien past de auto er nog nét langs of kan hij met twee wielen in de berm eromheen rijden. Zo zijn er tientallen mogelijke routes die wij in zo’n kort tijdsbestek niet kunnen overwegen, maar een zelfrijdende auto wel.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Waarom ‘Pokémon Go als goed of fout’ bestempelen de echte vraag mist

Shannon Vallor, hoogleraar ethiek voor emerging technology, beschrijft in haar nieuwste boek ‘Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting’ (2016) dat het échte probleem bij snel opkomende tech is, dat ze niet zo makkelijk te beoordelen is als goed/fout.

goedfout

Emerging technology presenteert ons namelijk met 1. nieuwe problemen van collectieve moraliteit, 2. hebben evenveel of zelfs meer impact op toekomstige personen, groepen en systemen dan op de huidige stakeholders en 3. hebben consequenties die vanuit de huidige technologie en ontwikkeling uit het verleden niet te voorspellen zijn: waar de technologie zich naartoe ontwikkeld is nog mistig.

“But notice that it does not actually help things to reform our questions in action-terms such as, “Is tweeting wrong?” or “Is it wrong to develop a social robot?” The asymmetry is of a different nature. It is not even that one set of problems involves technology and another does not; after all, technology is heavily implicated in modern practices of abortion and capital punishment. The problem is that emerging technologies like social networking software, social robotics, global surveillance networks, and biomedical human enhancement are not yet sufficiently developed to be assignable to specific practices with clear consequences for definite stakeholders. They present open developmental possibilities for human culture as a whole, rather than fixed options from which to choose. The kind of deliberation they require, then, is entirely different from the kind of deliberation involved in the former set of problems.”

 

“Yet it remains the case that very often, the answers for which questions about emerging technology beg are simply not of the ‘yes/no’ or ‘right/wrong’ sort. Instead, they are questions of this sort: ‘How might interacting with social robots help, hurt, or change us?’; ‘What can tweeting do to, or for, our capacities to enjoy and benefit from information and discourse?’; ‘What would count as a ‘better,’ ‘enhanced’ human being?’”

Damon Young: We laten ons maar wat graag afleiden door technologie

Onze technologie – en dan bedoel ik met name onze smartphones – krijgen vaak de oneigenlijke rol van het zwarte schaap toebedeeld. We worden voortdurend afgeleid van ons werk door alle mailtjes die binnen stromen. Onze sociale relaties worden benadeeld doordat er tussendoor ook gewhatsappt moet worden. Ik verdoe een uur van m’n dag met te lachen om onnozele snapchatfilters in plaats van te werken aan deze blog. (Ja, dit is uit het leven gegrepen..). Maar is technologie nu écht de veroorzaker? Of is het een gewillige handlanger van iets anders?

Het is onze schuld: wij accepteren de invloed van tech op ons leven

De filosoof Damon Young legt in z’n boek ‘Afleiding’ (2008) de bal in elk geval weer bij ons neer: “We kunnen technologie niet de schuld geven van ons eigen vluchtgedrag, onze onoplettendheid of onze bereidheid valse troost te zoeken.[…] Als we ons willen bevrijden van de afleidingen van ons technologisch tijdperk, zijn we niet gebaat bij anti-technologisch extremisme, maar juist bij een ambitieuzere houding ten aanzien van onze werktuigen – één die onze onafhankelijkheid stimuleert in plaats van ondermijnt.”
smartphone distraction

Young haalt in z’n boek de filosoof Herbert Marcuse (1898 – 1979) aan die stelt dat we veel te naïef denken over technologie. Bij een nieuwe technologie, zo stelt Marcuse, hebben we altijd het beeld dat het ons vooruit helpt, ons het leven makkelijker maakt en ons meer kennis geeft. Maar een nieuwe technologie is altijd een dialoog, en één die vaak ook gepaard gaat met ‘geweld, agressie en destructie’. Wat Marcuse hiermee bedoelt is dat we de technologie die we gebruiken in ons opnemen, en deze ons eigen maken. We gaan resoneren volgens het ritme dat de technologie dicteert, spreken in het discours dat het ons oplegt en over onszelf denken in de beelden die het ons verschaft. Dit resulteert in een  “denkwijze die immuun is voor enig andere dan de gevestigde werkelijkheid'[..] Elementaire vragen als ‘wat?’en ‘waarom?’ worden vervangen door een op praktisch nut gericht ‘hoe?’, compleet met oorzaak en effect en de bijbehorende ketens van noodzakelijkheid.”

Toegegeven, dat klinkt enigszins somber en tevens als bewijs van de zwarte schaap theorie. Maar Young maakt een duidelijk onderscheid in de invloed van technologie en de invloed die we toelaten. Volgens hem ligt het werkelijke gevaar in de bereidheid ons leven te laten beheersen door het wezen van technologie. “We buigen het hoofd voor mechanische noodzakelijkheid in plaats van onze eigen noodzakelijkheid te creëren. […] Als we na het checken van een email een vreetbui krijgen, moeten we [red: ipv te mopperen over die slechte email] misschien eens nadenken over ons internetgedrag ”

Nieuw gevoel van eigenaarschap

Wat Young kortom betoogt is een gevoel van eigenaarschap en verantwoordelijkheid. Ik ben geen slachtoffer van de technologie die me omringt, ik ben een actor. Iemand die de dialoog kan aangaan en zelf z’n grenzen kan bepalen, evenals welke rol ik een technologie kan geven in m’n leven.

[…] Om de afleidingen van het technologische tijdperk het hoofd te bieden, is het zaak dat we ons eigen bestaan weer een nieuwe impuls geven. Ook al kunnen we ons niet van technologie bevrijden, we zijn wel in staat de grenzen ervan te bepalen, evenals die van onszelf. We kunnen ons overgeven aan Youtube, of we kunnen op zoek gaan naar momenten van kalme aandacht en bespiegeling. [..] In het belang van de normale, dagelijkse vrijheid moeten we zijn wat machines nooit zullen worden: onze eigen hoeder.”

 

Menselijke waarden inprogrammeren in A.I.: is dat mogelijk?

Veel apps leren van jouw gedrag. Simpel voorbeeld: in je email kun je een email als spam aanmerken, waardoor het algoritme leert wat jouw voorkeuren zijn en jou in het vervolg beter kan dienen.
Society in the loop
Is een dergelijke leercurve ook mogelijk op het niveau van onze maatschappij met bijvoorbeeld een algoritme dat bepaalt hoe de zelfrijdende auto’s in de stad rijden?
“We need to know what types of behaviors people expect from AI, and to enable policy-makers and the public to articulate these expectations (goals, ethics, norms, social contract) to machines. To close the loop, we also need new metrics and methods to evaluate AI behavior against quantifiable human values. In other words: We need to build new tools to enable society to program, debug, and monitor the algorithmic social contract between humans and governance algorithms. […] The Age of Enlightenment marked humanity’s transition towards the modern social contract. Narrowing the SITL gap may bring humanity closer to realizing a new, algorithmic social contract.
Maar, hoewel dit allemaal heel nobel klinkt, is het waard om even kritisch na te denken of dit wel mogelijk is. Wat is een samenleving? Wie maakt daar deel van uit? En wiens waarden worden dus meegenomen in de leercurve van de A.I.? 
Adam Elkus schrijft dat de leercurve van computers altijd samenvalt met de specifieke sociale en politieke context.
“A Japanese elder care personal robot, for example, is only able to act in a way acceptable to Japanese senior citizens because its programmers understand Japanese society. So talk of machines and human knowledge, values, and goals is frustratingly circular.
If only the problem were indeed just how to engineer a system to respect human values; that would make it very easy. The harder problem is the thorny question of which humans ought to have the social, political, and economic power to make A.I. obey their values, and no amount of data-driven algorithms is going to solve it.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Pokémon Go: Bring your own boundaries

Hoewel Pokémon Go inmiddels op z’n retour is, is het spel wel nog interessant om te bekijken vanuit de tech-ethiekhoek als voorbeeld van uiterst ‘persuasive technology’.
James Williams analyseert deze werking door Pokémon met traditionele spellen te vergelijken. Volgens hem verschilt Pokémon in één belangrijk opzicht: het heeft geen grenzen. Je kunt Pokémonnen waar je ook bent en wanneer je wilt. Sterker nog, je wordt zelfs beloond om buiten je routines en gebruikelijke routes te treden.
Pokemon Go driving
Dat betekent dat het aan ons is om te bepalen wanneer je stopt met spelen: ‘You have to Bring Your Own Boundaries’. En dat is lastig om twee redenen:
Ten eerste hebben spellen zoals Pokémon geen ander doel dan gewoon verschrikkelijk leuk te zijn om te spelen. Daarom, schrijft Williams, is het makkelijk voor ons om minder expliciet te zijn over de waarde die we verwachten dat dit spel toevoegt aan ons leven.
Ten tweede gebruiken digitale spellen zoals Pokémon allerlei trucjes om onze aandacht vast te houden: ‘random reward scheduling (als speler weet je niet precies welke handige drankjes of eitjes je krijgt als je aan een Poké-stop draait), the endowment effect (you value a Pokémon more when you think you ‘own’ it), the nostalgia effect (thinking about the past makes you more willing to pay money—so if you played Pokémon growing up, watch yourself when buying PokéCoins!), territoriality, social reinforcement, the fear of missing out’.

Waarom het internet wel ethisch moet zijn, en een schaar niet

Ethiek. Moeilijk woord, voor wat eigenlijk betekent: wat betekent het voor jou om een goed leven te hebben? En in het geval van tech-ethiek: hoe kan technologie daarbij helpen? Of natuurlijk: hoe weerhoudt technologie je momenteel daarvan?
Leonardo da Vinci
Shannon Vallor houdt zich als hoogleraar bezig met het bestuderen van de ‘ethics of emerging technologies’ en heeft hier enkele dagen geleden een boek over uitgebracht. Want wat betekent het om een goed leven te hebben in een tijd waarin je identiteit, denkwijze en je relaties gemedieerd worden door technologie? En: waarom hoef je niet over de ethiek van een schaar na te denken, maar wel over de ethiek van het internet? (Hint: het heeft te maken met het feit dat de schaar slechts een gebruiksvoorwerp is, terwijl we leven door het internet).
Wat het lastig maakt om samen te leven met technologie, laat staan dit op een ethische en betekenisvolle manier te doen, is de ontwikkelingssnelheid van tech. Het is gewoon ontzettend lastig je voor te stellen welke kant tech op zal groeien, welke soort werkelijkheid het zal creëren. En ethiek veronderstelt een voorspelling of verwachting over deze werkelijkheid.
Maar juist daarom is het noodzakelijk volgens Vallor om ethische normen en waarden te bedenken die niet alleen in de huidige samenleving passen, maar ook flexibel genoeg zijn om een invulling te krijgen in de toekomst. Ze geeft in deze video een voorproefje daarvan, die ik zo interessant vond dat ik een samenvatting daarvan heb gemaakt op m’n blog: ’De 12 deugden voor de tech-mens
  • “Technomoral honesty: how to be honest in a world in which information is mediated through tech. A reliable disposition to express respect for thruth in techno-social context, especially in information practices.  
  • Technomoral selfcontrol: An examplary ability to choose, and to desire for their own sakes, those technosocial goods and experiences that contribute most to human flourishing. Essential for a world in which manipulation of desire and addiction by design are widespread practices.
  • Technomoral humility: recognition of the limits of technosocial knowledge and ability, respect for universe’s retained power to surprise and confound us. Renunciation of blind faith in the human capacity for technical mastery and ability to control the world. Essential for dealing with complex systems that resist human inspection or accurate prediction (e.g. machine learning algoritms, ecosystems, economies).” 

Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in