President Obama on why we need new language to talk about A.I.

From an interesting interview of Scott Dadich for Wired with Joi Ito – head of MIT media lab – and President Obama: 

My general observation is that it has been seeping into our lives in all sorts of ways, and we just don’t notice; and part of the reason is because the way we think about AI is colored by popular culture.

There’s a distinction, which is probably familiar to a lot of your readers, between generalized AI and specialized AI. In science fiction, what you hear about is generalized AI, right? Computers start getting smarter than we are and eventually conclude that we’re not all that useful, and then either they’re drugging us to keep us fat and happy or we’re in the Matrix. My impression, based on talking to my top science advisers, is that we’re still a reasonably long way away from that. It’s worth thinking about because it stretches our imaginations and gets us thinking about the issues of choice and free will that actually do have some significant applications for specialized AI, which is about using algorithms and computers to figure out increasingly complex tasks.

We’ve been seeing specialized AI in every aspect of our lives, from medicine and transportation to how electricity is distributed, and it promises to create a vastly more productive and efficient economy. If properly harnessed, it can generate enormous prosperity and opportunity. But it also has some downsides that we’re gonna have to figure out in terms of not eliminating jobs. It could increase inequality. It could suppress wages.

Joi Ito komt met het voorstel om het ipv artificial intelligence, extended intelligence te noemen:

Everybody needs to understand that how AI behaves is important. In the Media Lab we use the term extended intelligence1. Because the question is, how do we build societal values into AI?

Wat je verliest als je taken delegeert aan tech

Als je nu de helft van je communicatie aan tech zou overlaten, win je dan tijd om lekker een boek te lezen, of naar de film te gaan of dat ene recept eens uit te proberen?
Ja, maar we verliezen ook wat, stellen dezelfde Brett Frischmann en Evan Selinger. Ze waarschuwen tegen de comfortzone die technologie voor ons creëert en hoe dat kan leiden tot verlies van onze menselijkheid:
“If we can be made happy, cheaply, then what could be better? You don’t ask questions, you don’t resist. You want to minimise transaction costs.
But sometimes being human is costly… If we lose our ability to relate to each other along the way, because it’s efficient and cheap, we lose something of who we are.”
to-do-list
In een ander opiniestuk ‘The danger of smart communication’zijn ze iets specifieker over wat dat ‘menselijk zijn’ dan betekent en wat je dus precies verliest:
“When we outsource, we accept assistance and this lessens how much personal effort we need to put into accomplishing our goals. […] Since outsourcing decreases effort, it also reduces our experience of agency.
By abdicating control over a process, we become less responsible for how things turn out. We become less blameworthy (the ordinarily reliable GPS messed up the directions!), but also less entitled to feel proud of positive results.
Because outsourcing involves delegation, it can limit our understanding of how a process works. By diminishing our participation, outsourcing leads to some degree of detachment. The more intense the detachment, the less intimate an experience becomes.”
Kortom: bij het delegeren van een (communicatie)taak aan derden, moet je niet alleen kijken of de taak wel goed wordt uitgevoerd, maar ook of het het wel waard is om eigenaarschap, verantwoordelijkheid, intimiteit en kennis en kunde erover te verliezen. Zo nee, dan gewoon lekker zelf blijven doen.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Zou jij een algoritme je relaties laten managen?

Denk eens in: hoe fijn zou het zijn als iemand een deel van je dagelijkse bombardement aan emails, appjes en social media posts zou overnemen?
En stel nu dat dit niet een persoon is maar een slimme tech? Google’s nieuwe messaging app, Allo, analyseert de inhoud van inkomende correspondentie, inclusief foto’s en suggereert snelle antwoorden om terug te sturen. Als je vriendin een foto van haar kind op een schommel stuurt, dan kan Allo suggereren: ‘Zo schattig!’
broken-heart
Zou jij de communicatie met je vrienden en je collega’s toevertrouwen aan technologie?
En stel nu dat deze slimme tech niet alleen een deel van je communicatie kan overnemen, maar zelfs je communicatie kan verbeteren. Hoe vaak twijfel jij niet of die emoticon wel goed overkomt? Of dat je die email niet te hard of formeel hebt geformuleerd?
Zou jij een plug-in voor Gmail vertrouwen die je emails scant en dingen toevoegt die een email bijvoorbeeld een meer vriendelijke toon geeft?
In dit artikel Would you let an algoritm manage your relationships’ geeft Tim Maughan voorbeelden van dergelijke apps. Dit zijn allemaal kunstwerken of concepten van speculatief design, maar zoals ik al schreef, er zijn dus voorbeelden van apps zoals ‘Allo’ die al echt in gebruik zijn.
Een interessante opmerking in het artikel over een algoritme dat je coacht hoe je je Linkedin contacten beter kunt aanschrijven:
“I haven’t met a single person that uses things like Crystal Knows on a regular basis. It’s too much of an experience that feels inauthentic or like you’re cheating.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in. 

Menselijke waarden inprogrammeren in A.I.: is dat mogelijk?

Veel apps leren van jouw gedrag. Simpel voorbeeld: in je email kun je een email als spam aanmerken, waardoor het algoritme leert wat jouw voorkeuren zijn en jou in het vervolg beter kan dienen.
Society in the loop
Is een dergelijke leercurve ook mogelijk op het niveau van onze maatschappij met bijvoorbeeld een algoritme dat bepaalt hoe de zelfrijdende auto’s in de stad rijden?
“We need to know what types of behaviors people expect from AI, and to enable policy-makers and the public to articulate these expectations (goals, ethics, norms, social contract) to machines. To close the loop, we also need new metrics and methods to evaluate AI behavior against quantifiable human values. In other words: We need to build new tools to enable society to program, debug, and monitor the algorithmic social contract between humans and governance algorithms. […] The Age of Enlightenment marked humanity’s transition towards the modern social contract. Narrowing the SITL gap may bring humanity closer to realizing a new, algorithmic social contract.
Maar, hoewel dit allemaal heel nobel klinkt, is het waard om even kritisch na te denken of dit wel mogelijk is. Wat is een samenleving? Wie maakt daar deel van uit? En wiens waarden worden dus meegenomen in de leercurve van de A.I.? 
Adam Elkus schrijft dat de leercurve van computers altijd samenvalt met de specifieke sociale en politieke context.
“A Japanese elder care personal robot, for example, is only able to act in a way acceptable to Japanese senior citizens because its programmers understand Japanese society. So talk of machines and human knowledge, values, and goals is frustratingly circular.
If only the problem were indeed just how to engineer a system to respect human values; that would make it very easy. The harder problem is the thorny question of which humans ought to have the social, political, and economic power to make A.I. obey their values, and no amount of data-driven algorithms is going to solve it.”
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

Zij denken, dus ik ben

‘Ik denk, dus ik ben’ jubelde Descartes vele jaren geleden. Nou, deze uitspraak heeft zo langzamerhand wel z’n uiterste houdbaarheidsdatum bereikt, zo schrijft hoogleraar cognitieve neurowetenschap Peter Hagoort in een voorpublicatie van het boek ‘Machines die denken.
Brein
Kennis is volgens hem tegenwoordig steeds minder aan een individueel brein gekoppeld is. Wij outsourcen onze kennis aan machines en maken steeds meer gebruik van gecomputeriseerde denkkracht. Gedistribueerde intelligentie, zo noemt Hagenoort het. Een ontwikkeling die hij met de opkomst van kunstmatige intelligentie alleen nog maar groter ziet worden.
“Hoewel kennis ook in het verleden het product was van een gemeenschap van breinen, was de rol van het individu daarbij doorslaggevender dan heden ten dage het geval is. De enkele persoon die het verschil maakt wordt steeds zeldzamer. Doorslaggevende bijdragen van genieën als Newton en Einstein zijn verschijnselen uit een afgesloten verleden. De rol van gedistribueerde intelligentie zal alleen nog maar verder toenemen dankzij het ontstaan van een symbiotische relatie tussen natuurlijke en kunstmatige intelligentie”.
Dit bericht komt uit m’n wekelijkse nieuwsbrief ‘Curated Culture’ waar ik elke week de laatste berichten rondom ‘future affairs’ naar je opstuur: wat zijn dé technologische ontwikkelingen die jouw toekomst gaan bepalen? Elke zaterdagochtend de nieuwsbrief ontvangen? Schrijf je hier in

5 #8

Het concept? 5 tips voor artikelen, boeken of lezingen die in mijn opinie ‘timeless and timely’ zijn. Zaken die het waard zijn om even een slowweb momentje in te lassen in het hectische bestaan waarin alles op tweetspeed moet en blogjes maximaal 400 woorden mogen bevatten.

In deze editie: Thalia Verkade die het gevaar van kunstmatige intelligentie onderzoekt, het nieuwe boek van Naomi Klein over de klimaatcrisis, de sciencefiction tvserie Orphan Black die de ethische implicaties van klonen verbeeldt, het manifest van Ewald Engelen voor een eerlijke stad en de serie van Lynn Berger over de toekomst van het museum.

SLowweb

Continue reading