Techbedrijf, voor je winst hoef je ons niet verslaafd te maken

Deze nieuwsbrief staat ook weer in het teken van Nir Eyal. Hij stelt namelijk dat techbedrijven ons helemaal niet verslaafd hoeven te houden om winst te kunnen blijven maken én zelfs in een unieke positie zijn om mensen die écht verslaafd zijn geraakt te helpen. Waar begint de ethische verantwoordelijkheid van techbedrijven bij het ontwerpen van een betere relatie met onze telefoon en waar eindigt deze?

Unieke positie techbedrijven om verslaafden te helpen

Als we nadenken over een meer ethische benadering rondom de diensten die nu in onze smartphone zitten en onze aandacht ongewild opslurpen, dan zit je al snel bij regulering of alternatieve ontwerpen. En dat, zo schrijft Eyal, terwijl techbedrijven juist in de unieke positie zijn om techverslaafden te helpen.
Hij onderscheidt namelijk twee typen van verslavende producten. In de eerste categorie kent de fabrikant z’n klanten niet. De fabrikant van sigaretten weet bijvoorbeeld niet wie z’n stinkstokkies koopt en kan daarom niet veel meer doen dan een algemene waarschuwing op de verpakking zelf plaatsen.
In het tweede type verslavend product kent de maker z’n gebruikers wel, en zelfs zeer goed. De makers van games en social media tracken hun gebruikers bijvoorbeeld in elke klik die ze maken. Ze weten precies hoe lang hun gebruikers per dag doorbrengen in hun digitale omgeving, en hoe vaak ze op een bepaalde link klikken. Ze kunnen precies zien wie er op een ongezonde manier met hun product omgaat.
En juist daarom vindt Eyal dat makers van technologie een ethische verplichting hebben om gebruikers tegen zichzelf in bescherming te nemen:
When it comes to companies that know exactly who’s using, how, and how much, much more can be done. To do the right thing by their customers, companies have an obligation to help when they know someone wants to stop, but can’t. Silicon Valley technology companies are particularly negligent by this ethical measure.
Dat kan bijvoorbeeld door als bedrijf een voorzichtige email naar een gebruiker te sturen om hem/haar bewust te maken van het feit dat z’n gebruik toch wel ver boven het gemiddelde ligt, of de gebruiker de mogelijkheid bieden om voor zichzelf grenzen te stellen (na 2 uur Facebookgebruik sluit de service zich automatisch voor je af).  Daar hoef je dan niet elke gebruiker mee lastig te vallen, maar alleen specifieke gebruikers die het nodig hebben. Eyal bedacht deze voorbeelden:
For example, instead of auto-starting the next episode on Netflix or Amazon Video, the binge-inducing video streaming services could ask users if they’d like to limit the number of hours they watch in a given weekend. Online games could offer players who cancel their accounts the option of blacklisting their credit cards to prevent future relapses. Facebook could let users turn off their newsfeeds during certain times of the day. And rather than making it so fiendishly difficult to figure out how to turn off notifications from particularly addictive apps, Apple and Android could proactively ask certain users if they’d like to turn off or limit these triggers. […]
For example, setting a trigger based on the number of hours spent using an online service could prompt the company to reach out to suggest ways to cut back or deprecate certain features.
Natuurlijk zit hier een fijne grens tussen goedbedoelde hulp en een paternalistische houding – zoals iedereen die wel eens advies heeft gegeven wel weet…

Je hebt hoge participatie nodig, geen verslaafden

Als we het hebben over de technieken die de techindustrie inzet om hun gebruikers ‘hooked’ te krijgen, dan wordt Silicon Valley al snel vergeleken met Las Vegas. Maar dat is juist een vergelijking die we niet meer moeten trekken volgens Eyal als we het hebben over hoe techbedrijven hun ethische verantwoordelijkheid kunnen nemen. Dan mis je namelijk het grote verschil tussen Silicon Valley en Las Vegas: dat Las Vegas voor z’n businessmodel afhankelijk is van verslaafden en Silicon Valley niet.
Casino’s – en ook andere industrieën zoals online games – halen het meeste voordeel uit de mensen die echt verslaafd zijn. Walvissen worden deze mensen genoemd – de 0,15 % van de spelers die 50% van de opbrengsten binnen brengen.
In an industry where the cost of acquiring a player is just barely less than the revenue made per user, whales tip the scales to profitability. Without these extreme customers, their businesses aren’t viable. Similarly, the casino industry depends on a disproportionate share of revenue coming from a small group of likely addicted gamblers, some of whom are known to wear adult diapers to avoid having to stop playing.
Er zijn natuurlijk veel industrieën die leunen op een walvismodel, a.k.a businessmodel, waar ze het leeuwendeel van hun inkomsten door hun meest loyale klanten binnenkrijgen. Zo verkrijgt de fast food industrie 60% van hun inkomsten van de 20% ‘heavy users’ (oh, de ironie).
De vraag is dan natuurlijk: waar begint de ethische verantwoordelijkheid van een bedrijf? Eyal vindt dat het onethisch is als een bedrijf inkomsten accepteert van iemand die eerder heeft aangegeven te willen stoppen met het product, maar dat niet kan. Zo zijn de meeste Amerikaanse casino’s bijvoorbeeld verplicht om ‘self-exclusion’ programma’s te hebben voor spelers die hun verslaving willen breken, maar verwelkomen ze hen tegelijkertijd met open armen als ze weer het casino binnenwandelen.
Casinos escape liability through a legal loophole protecting them from prosecution. Nevertheless, it is unethical to accept patronage from someone a company knows wants to stop using your product but can’t. This moral standard should apply to all industries that collect personal usage data on individuals and therefore have the ability to identify, message, and help problem users.
Het probleem is: dit soort industrieën zijn even verslaafd aan hun verslaafden, als de verslaafden aan hun producten zijn. Je ethische verantwoordelijkheid nemen zou wel eens kunnen betekenen dat je je eigen business onderuithaalt. Het businessmodel van de meeste apps en services op je telefoon steekt echter heel anders in elkaar: je hebt geen walvissen nodig, maar juist zoveel mogelijk kleine (en loyale) visjes.

Maak je product juist meer engaging

Goed, je hebt dus een hoge participatiegraad nodig om je product winstgevend te kunnen houden. Dat betekent dus dat je – wellicht tegen je verwachting in – je product juist meer ‘engaging’ (heeft iemand hier een goede Nederlandse vertaling voor?) moet maken. Niet verslavend, maar wel gewoontevormend.
Wat je namelijk nodig hebt, zo schrijft Eyal in z’n boek ‘Hooked’, is een hoge CLTV – Customer Lifetime Value, wat zoveel betekent als het geld/andere soort waarde die je van een gebruiker krijgt voordat ie om de één of andere reden besluit om te stoppen met je product. En die CLTV stijgt juist hoe meer jouw product gewoontevormend is. Een bekend model hiervoor is het Freemium-model, waarbij een product of dienst gratis wordt aangeboden, met premium functies waarvoor je dan wel moet betalen. Gratis games zoals Pokémon Go bieden bijvoorbeeld gebruikers de kans om extra pokéballs of eitjes te kopen in de shop. En nieuwsbriefservices zoals deze bieden gebruikers in de Pro-variant meer mogelijkheden om het design van de nieuwsbrief aan te passen, of A/B-tests te doen. Gebruikers zijn eerder geneigd om te betalen voor je product als ze het al op regelmatige basis gebruiken (en er natuurlijk tevreden over zijn).
Bovendien zijn gebruikers die echt waarde in je product vinden geneigt om je product te bepleiten bij hun vrienden:
Having a greater proportion of users daily returning to a service dramatically decreases Viral Cycle Time (the amount of time it takes a user to invite another user) for two reasons: First, daily users initianate loops more often (think tagging a friend on Facebook); second, more daily users means more people to react and respons to each invitation. The cycle not only perpatuates the process – with higher rand higher user engagement – it accelerates it.
Maar het echte verschil voor je product gaat pas komen in de laatste fase van het ‘Hooked’ raken, de fase van investeren die ik vorige week beschreef. Als je product zo is gemaakt dat het elke keer z’n waarde vergroot wanneer de gebruiker het gebruikt en er iets in investeert – data, vrienden toevoegen – dan leert het product de gebruiker beter kennen en kan van meer waarde zijn. Zo leert Netflix nauwkeuriger voorspellen (tot op het gênante af) van welke voor films en series je echt houdt. En doordat Gmail elke email die je hebt verstuurd bewaart, is de emailservice niet alleen een tool om mee te emailen (en daarmee inwisselbaar voor welke emailservice dan ook), maar een archief van jaren en jaren emails. En zou jij je verzamelde herinneringen op Instagram zomaar willen inwisselen voor een andere – wellicht privacyvriendelijkere – service?
Switching to a new e-mailservice, social network, or photosharing app becomes more difficult the more people use them. The nontransferable value created and stored in these services discourages users from leaving. […]

So why haven’t more Google users switched to Bing? Habits keep users loyal. If a user is familiar with the Google interface, switching to Bing requires cognitive effort. Although many aspects of Bing are similar to Google, even a slight change in pixel placement forces the would-be user to learn a new way of interacting with the site. Adepting tot he differences in the Bing interface is what actually slows down regular Google users and makes Bing feel inferior, not the technology itself.

Ook het lerende algoritme van Google dat z’n best doet om suggesties aan te bieden op basis van je eerdere zoektochten zorgt dat nu ‘even dit online nazoeken’ synoniem is geworden aan ‘even googlen’.

Waar eindigt verantwoordelijkheid van techbedrijven?

Goed, technologiebedrijven verkeren dus juist in de positie om echt verslaafde gebruikers te helpen, en hebben het dus ook niet nodig voor hun businessmodel om hen verslaafd te houden. Maar waar begint en eindigt deze verantwoordelijkheid eigenlijk?
Eyal stelt dat we allereerst een verschil moeten maken tussen positieve en negatieve manieren van manipulatie. Zo zijn er ook veel industrieën die manipulatie bewust inzetten om hun gebruikers te helpen:
If manipulation is a designed experience crafted to change behavior, then Weight Watchers, one of the most successful mass-manipulation products in history, fits the definition.
Bij manipulatie moet je allereerst het onderscheid maken tussen ‘persuasion’ (overreding) en ‘coercion’ (dwang). In het eerste geval zet je de gebruiker aan tot iets wat hij/zij wel wil, in het tweede geval zet je hem/haar aan tot iets dat JIJ wil, maar de gebruiker eigenlijk niet. Dark patterns is een voorbeeld van deze laatste kwalijke vorm van manipulatie. Trucjes ingebouwd in websites, apps of games die de gebruiker onbedoeld aankopen laat doen of zich laat aanmelden voor diensten of nieuwsbrieven. Deze site verzamelt de veelvoorkomende dark patterns (en de bedrijven die hiervan gebruik maken).
Vervolgens moet je volgens Eyal als maker jezelf de vraag stellen: heb ik het überhaupt voor mijn business nodig om mijn gebruikers hooked te krijgen? Daarvoor ontwierp hij bovenstaande Manipulation Matrix:
The Manipulation Matrix does not try and answer which businesses are moral or which will succeed. Nor does it describe what can and cannot become a habit-forming technology. The matrix seeks to help you answer not, “Can I hook users?” but “Should I attempt to?”
Het model stoelt op twee sleutelvragen: ‘Zou ik het product zelf gaan gebruiken? (of: zou ik het product hebben gebruikt als ik jonger/ouder was?)’ en: ‘Geloof ik dat het product z’n gebruikers helpt om hun leven te verbeteren?’.
Als je voldoet aan deze twee criteria heb je volgens Eyal alle benodigde verantwoordelijkheid genomen. Maar wat nu als een gebruiker vervolgens tóch verslaafd raakt aan je product? Tjsa, vindt Eyal, daar begint dan de eigen verantwoordelijkheid van de gebruiker.
In any normal distribution, a small percentage of people will be on the extremes. If the designers make a product that they would use themselves, and they believe it improves the lives of their users, they have fulfilled their moral obligation.