Lieve CEO – Luis Rodil-Fernández (Gr1p) en Carmen van Vilsteren (TU/e)

“Een chip die vandaag in mijn baby wordt geïmplanteerd, kan over twintig jaar de bron van discriminatie van mijn kind zijn.” [LRF]


In deze conversatie:

Luis Rodil-Fernández, schrijft voor Stichting Gr1p en is kunstenaar, onderzoeker, docent en hacker. Carmen van Vilsteren, Director of Strategic Area Health aan de Technische Universiteit van Eindhoven (TU/e).


Luis Rodil-Fernández - Zondag 24-09-2017 15:15


Beste Carmen,

Dit is een nieuwe vorm voor mij, dus ik hoop dat we een manier kunnen vinden om onze argumenten in zo’n korte tijd diepgaand te bespreken, via het onhandige medium dat e-mail is.

Ik ben geschoold in de kunsten. Ik heb ook compterwetenschappen gestudeerd en werk al enkele jaren als ingenieur. Misschien moet ik wat uitgebreider vertellen over mijn relatie met het bestuderen van het menselijk lichaam met behulp van sensors. In mijn artistieke werk gebruik ik biomedische apparatuur die direct met het lichaam communiceert, dus ik heb een zekere vertrouwdheid met het registreren van lichaamssignalen en het gebruik daarvan voor uiteenlopende doeleinden.

Ik maakte deel uit van BALTAN Labs-programma “Hacking the Body” en ik liep stage bij Philips Research, waar ik experimenten voor biosynchronisch onderzoek bedacht, aan de hand van methodes uit de electrofysiologie. Buiten die meer praktische ervaring ben ik ook privacy-activist en leraar. Al mijn bezigheden voeden elkaar natuurlijk, en hoewel ik een gretig gebruiker van technologie ben, vind ik het moeilijk om niet kritisch te worden als ik een bepaalde tech-ontwikkeling eenmaal in een kader heb weten te plaatsen.

Ik begrijp dat de context van onze mailwisseling wordt geleverd door de titel ‘We Know How You Feel’, en dat de vraagstellling draait om een kunstwerk dat Nick Verstand samen met TNO heeft gemaakt, waarbij EEG-techniek wordt ingezet om gemoedstoestanden af te leiden. De VPRO legt een scenario voor waarin vergelijkbare technologie wordt toegepast in marktonderzoek, zodat media hun content veel gerichter kunnen inzetten. Als ik het goed begrijp is dat scenario het uitgangspunt voor onze conversatie.

Wat me in dat voorgelegde scenario misschien wel het meest opvalt, is het totale gebrek aan voorstellingsvermogen, omdat het is samengesteld uit zaken die allemaal al bestaan. Je hebt geen enorm voorstellingsvermogen nodig om je in te denken hoe fysiologische data zouden kunnen worden opgenomen in de data-pool die nu al wordt gebruikt om mediaconsumenten te profileren, in elk geval door online media.

Het zogenaamde ‘surveillance-kapitalisme’ is het economische model van de meeste mediaplatforms op internet. In één enkele technologische generatie zijn onze televisies veranderd van omvangrijke analoge apparaten, die maar net iets meer konden dan een radio, in uitgebreide computers. Die staan in onze woonkamers en bevatten een schat aan sensoren die zelf ook heel goed data kunnen verzamelen.

In het voorgelelegde VPRO-scenario wordt het economische model van het internet geëxtrapoleerd naar televisie, met toevoeging van een aantal bronnen, namelijk fysiologische data. Dat gebeurt allemaal al, in elk geval in afzonderliijke informatiestromen in diverse bedrijfstakken. Het afleiden van informatie, zoals het VPRO-project voorstelt, is dan ook zeer plausibel en ligt ruim binnen het bereik van de mogelijkheden. Daarom vind ik het de moeite om het diepgaander te verkennen.

Er bestaat al een economische sector die neuromarketing heet, en die past precies toe wat de VPRO in dit scenario schetst: technische middelen inzetten waarmee marketeers producten precies kunnen richten op individuen, gebaseerd op hun onbewuste biofysische activiteit. Antonio Damasio formuleerde een hypothese over somatische indicatoren, die stelt dat ons lichaam continu signalen over onze gemoedstoestand voortbrengt en verwerkt, en daardoor dingen lijkt te ‘weten’ vóór we ze zelf bewust ervaren. Neuromarketing richt zich op de exploitatie van die ruimte tussen bewustzijn en het onstaan van verlangen.

Is er een plaats voor deze technieken in onze mediaconsumptie? Zijn ze ook toe te passen voor iets anders dan ‘meer spullen verkopen’? Wat heeft de individuele mediaconsument aan dit scenario? Ik veronderstel dat Gr1p deel uitmaakt van deze conversatie om tegenwicht te bieden aan dit maar al te plausibele scenario, en om de ethische impicaties van zo’n ontwikkeling te bevragen.

De enorme hoeveelheid data die sommige bedrijven bezitten over ons, internetgebruikers, is omvangrijker dat de meesten van ons vermoeden, en geeft hen reeds inzicht in processen waar wij onszelf als individu niet bewust van zijn. Facebook bijvoorbeeld past al iets toe dat het ‘afgeleide kwalificaties’ noemt, zoals ‘waarschijnlijkheid van verslaafd raken’, waarmee de kans wordt ingeschat dat iemand aan verslaving ten prooi valt. Die afgeleide indicatoren worden opgesteld door het combineren van diverse andere gegevens die Facebook rechtstreeks kan kwantificeren, en de ‘kwalificaties’ worden gebruikt om advertenties en content nauwkeuriger op ons af te stemmen.

Facebook kan dat al doen zonder toegang tot ons lichaam, en daarom zou ik op dit punt een vraag willen opwerpen: in hoeverre is het nog belangrijk om fysieke toegang tot het lichaam van de consument te hebben om zulke informatie te kunnen afleiden? Hebben de kwantitatieve methodes die Facebook en Google gebruiken die ‘toegang tot het lichaam’ niet al onnodig en achterhaald gemaakt? Wat kan het lichaam ons nog vertellen dat we niet al te kunnen afleiden uit expliciete gewoontes en gedragingen die kunnen worden waargenomen met andere methodes dan elektrofysiologie?

Er zijn natuurlijk nog veel meer dingen te bespeken, maar ik hoop dat dit een vruchtbaar begin is en dat we van hieruit verder kunnen gaan. Ik kijk uit naar je antwoord.

Salud,

Luis


Wat kan het lichaam ons nog vertellen dat we niet al te kunnen afleiden uit expliciete gewoontes en gedragingen die kunnen worden waargenomen met andere methodes dan elektrofysiologie?
Luis Rodil-Fernández


Carmen van Vilsteren - Dinsdag 26-09-2017 20:40

Beste Luis,

Bedankt voor het openen van de conversatie. Ook voor mij is de vorm heel nieuw. Ik ben helemaal geen schrijver. Ik heb een technische achtergrond en ik werk al het grootste deel van mijn leven in de medische sector, voor verschillende grote en kleine bedrijven. In de jaren negentig was ik ontwikkelingsmanager voor cardio-vasculaire beeldapparatuur bij Philips, en tot op de dag van vandaag wordt er elke seconde ergens een patiënt behandeld met een systeem dat we in die tijd hebben uitgebracht.

Momenteel combineer ik mijn functie als directeur van het strategisch onderzoeksgebied Gezondheid op de Technische Universiteit Eindhoven (TU/e) met die van directeur bij Microsure, een startup in robotica voor microchirurgie. Op de TU/e werken we aan verschillende nieuwe technologieën. In een daarvan, regeneratieve geneeskunde, proberen we het lichaam er toe aan te zetten zichzelf te helen. Bij Microsure is het onze ambitie om chirurgen bovenmenselijke precisie te geven.

Je brief herinnert me aan een project dat ik een jaar of twee geleden zag. Het heette Probes en was opgezet door Hans Robertus. Mogelijk ken je hem. De resultaten werden gepresenteerd tijdens de Dutch Design Week. Een divers samengestelde groep studenten kreeg de opdracht na te denken over oplossingen voor een samenleving waarin mensen 150 jaar oud zouden worden.

Eén groep kwam met het idee van een implanteerbare chip, die alle gebeurtenissen in het leven en de gezondheid van mensen vastlegt, die dan bijvoorbeeld kunnen worden gebruikt in preventieve en niet-preventieve behandelingen. Dus niet alleen ‘We weten hoe je je voelt’, maar ook ‘We weten hoe je je in de toekomst zult voelen’.

Om dat idee te onderbouwen zetten ze een interessant experiment op. Ze huurden een kantoor in Strijp S (het hart van de DDW) en kochten een levensechte babypop en wat blanco kaarten. Ze boden de pop vervolgens aan mensen op straat aan, en vertelden dat het zogenaamd hun pasgeboren kind was, dat ze vervolgens moesten registreren bij het gemeentelijke kantoor verderop.

De meeste mensen waren bereid mee te werken aan het experiment en bedachten een naam voor hun ‘kind’. Op het kantoor werd hen verteld over de mogeijkheid om de chip te implanteren. De nieuwe ouders moesten ter plekke beslissen of ze wilden dat dit zou gebeuren, omdat het alleen zou werken als de implantatie op de eerste dag zou plaatsvinden.

De studenten verwachtten allerlei discussies en vragen over de bescherming van de gegevens, privacy en de veiligheid van de technologie. Maar wat ze niet hadden verwacht gebeurde. Alle ‘ouders’ openden de ethische discussie: wil ik dit mijn kind aandoen? Zou jij de chip hebben laten implanteren?

Groet,

Carmen

Zou jij de chip hebben laten implanteren?
Carmen van Vilsteren


Luis Rodil-Fernández - Vrijdag 29-09-2017 13:31

Hallo Carmen,

Om je vraag te beantwoorden: alvorens die beslissing te nemen zou ik iets meer moeten weten over die hypothetische chip. Wat doet die precies, waar in het lichaam bevindt hij zich, wat zijn de effecten op het kind en van wie is het implantaat? Is de chip verbonden met een netwerk of niet? Verzamelt hij op de een of andere manier data of worden de gegevens nooit opgeslagen? Welke eerdere tests zijn er gedaan met het implantaat in mensen? Wie maakt de chip? Is het ontwerp bedrijfseigendom of open source?

Uiteraard zou ik wat ernstige zorgen hebben voor ik vrolijk een technologisch object in het lichaam van mijn pasgeboren kind zou implanteren, voor de rest van zijn leven. Maar ik zou niet uit principe tegen zijn. Ik geloof dat technologie een rol heeft in het verbeteren van het leven van mensen. Mijn reactie zou niet technofobisch zijn, maar voorzichtig.

De vragen die jij van mensen verwachtte over privacy, bescherming van de gegevens en veiligheid van de techniek zijn trouwens ook ethische vragen. Voor mij is de vraag ‘zou ik dit in mijn kind implanteren?’ niet de enige over de ethische implicaties van het geschetste scenario.

Er zijn vele voorbeelden van slechte bescherming van data of privacy, waardoor een technologie die aanvankelijk onschadelijk leek potentieel als wapen zou kunnen worden ingezet. Een technologische vinding komt nooit alleen op de wereld, maar brengt altijd een stukje van de toekomst met zich mee. Een toekomst die ons heden worden als we die technologie in ons leven toelaten. We kunnen de verdere ontwikkeling onmogelijk voorspellen.

Een chip die vandaag in mijn baby wordt geïmplanteerd, kan over twintig jaar de bron van discriminatie van mijn kind zijn, of overmorgen het doelwit van een vijandige aanval. Het is van belang te beseffen dat deze scenario’s niet slechts denkbeeldig zijn. Als de technologie voorhanden is en er veel op het spel staat, dan zal die technologie als wapen worden gebruikt.

Ik wil je vragen even stil te staan bij de recente onthullingen in de pers over de rol van Facebook en Twitter bij de Russische inmenging in de Amerikaanse verkiezingen. Om te verdienen aan advertenties bieden beide bedrijven verfijnde instrumenten aan waarmee specifieke delen van hun markt kunnen worden benaderd. Die kunnen zó nauwkeurig worden ingezet dat een advertentie slechts op één enkel individu wordt gericht. Nu blijkt dat Amerikaanse kiezers in de aanloop naar de verkiezingen voor 100.000 dollar aan strategische geplaatste posts te zien hebben gekregen.

In een persverklaring toonde Mark Zuckerberg zich vorige week verontwaardigd over de rol die Facebook heeft gespeeld, en gaf hij toe dat er niet genoeg is gedaan om inmenging in het democratische proces door deze krachten te voorkomen. Degenen die invloed uitoefenden hoefden niet eens bij Facebook in te breken, of gebruik te maken van het soort kwetsbaarheden waar hackers zich gewoonlijk van bedienen. De (vermoedelijk) Russische betrokkenen die invloed wilden kopen, deden dat door gebruik te maken van instrumenten die Facebook aanbiedt aan legitieme adverteerders.

Zij zetten deze instrumenten dus in voor een ander doel dan Facebook had bedoeld. Alle technologieën, zonder uitzondering, zullen op onbedoelde manieren worden gebruikt, omdat de maatschappelijke context waarin ze zich bevinden in beweging is. Zoals William Gibson ooit schreef in zijn boek ‘Burning Chrome’: de straat vindt zijn eigen nut voor dingen. Een technologisch object dat met de beste bedoelingen is ontwikkeld, kan en zal zeer waarschijnlijk onbedoelde toepassingen krijgen.

Terugkomend op de ethische vraag die je stelde, ik zou graag in die richting verder gaan en wat wedervragen stellen: gezien je ruime ervaring met het op de markt brengen van technologische producten neem ik aan dat je hebt gewerkt met een breed scala aan technici en ontwerpers. Hoe wordt er in jouw professionele omgeving omgegaan met zulke ethische vragen? Is er een breed bewustzijn over deze kwesties? Welke rol spelen deze ethische vragen in de ontwikkelingscyclus van een product? Heb je in je lange carrière gemerkt of de opvattingen hierover veranderen?

Salud,

Luis


Als de technologie voorhanden is en er veel op het spel staat, dan zal die technologie als wapen worden gebruikt.
Luis Rodil-Fernández


Carmen van Vilsteren - Dinsdag 6-10-2017 15:34

Beste Luis,

Je wilde mijn mening weten over de advertenties die vorig jaar op Facebook en Twitter zijn geplaatst met de bedoeling de Amerikaanse presidentsverkiezing te beïnvloeden. Om eerlijk te zijn heb je daar zelf al de perfecte analyse van gemaakt. Mensen zullen inderdaad altijd onbedoelde toepassingen voor technologie en andere middelen vinden. En dan is er het directe karakter van posts op Facebook en Twitter. Dingen komen zonder vertraging online, en daardoor er is vrijwel geen ruimte voor tussenkomst of correctie.

Misschien heeft dat te maken met de manier waarop de media in het algemeen werken: erg weinig controle vóór publicatie, maar een evaluatie achteraf, waar dan lessen uit worden getrokken. Ik ontdekte die praktijk toen ik op een dag de lokale krant bezocht om uit te vinden hoe zijn er in slaagden elke dag een nieuw product – de krant – te maken, terwijl wij er meerdere jaren over deden om een nieuw röntgenapparaat te ontwikkelen. Deze benadering heet ‘benchmarking best practices’.

De redacteuren bij de krant vertelden dat ze met een simpele set regels werkten. Bijvoorbeeld: geen negatieve publiciteit over de koninklijke familie. En ze controleerden verhalen bij gebrek aan tijd niet vooraf, maar bespraken ze in plaats daarvan de volgende ochtend. Dat strookt met een citaat van Mark Zuckerberg: ‘We controleren niet wat mensen zeggen vóór ze het zeggen, en eerlijk gezegd denk ik niet dat onze samenleving zou willen dat we dat doen’. In het geval van de omstreden advertenties was de schade lang voor welke evaluatie dan ook aangericht, en daardoor onomkeerbaar.

Over je tweede vraag, omtrent de rol die ethiek speelt in de ontwikkeling van nieuwe medische technologie, moest ik wat langer nadenken. Ik kan me eerlijk gezegd geen diepgaande discussies over het onderwerp herinneren uit de dat tijd dat ik nieuwe cardiovasculaire röntgensystemen ontwikkelde. Verbeteringen aan deze systemen betekenen gewoonlijk ook verbetering van de behandeling voor de patiënt door betere beelden, verlaagde stralingsdoses, etcetera.

De veiligheid van de patiënt is van het allergrootste belang tijdens de ontwikkelingscyclus van deze beeldapparatuur, dus risico-analyses en uitvoerige tests maken altijd deel uit van het proces. Onderdeel van die tests is het bepalen van de optimale manier om de apparatuur rond patiënten te verplaatsen, en hoe hen te beschermen tegen mogelijke botsingen gedurende dat proces.

Tijdens mijn eerste project begon ik aan die tests met mezelf als patiënt op de tafel. In eerste instantie vonden enkele collega’s dat een slecht en onveilig plan. Daar had ik het volgende antwoord op: als wij zelf al niet eens op die tafel durven te gaan liggen, dan kunnen we dat van een patiënt ook niet verlangen. En zo werd het gangbare praktijk voor ontwikkelaars om vrijwillig voor patiënt te spelen tijdens sommige van deze botsproeven.

Nu, op de Technische Universiteit Eindhoven, heb ik met veel meer ethische vragen te maken, bijvoorbeeld over de ontwikkeling van implantaten als pacemakers en hersenimplantaten. Mensen zijn afhankelijk van deze technologieën, en hun kwaliteit van leven kan erdoor in het geding komen. Een van de vier faculteiten die bij deze projecten betrokken zijn heeft een eigen vakgroep ethiek.

Tijdens de ontwikkeling van nieuwe apparatuur en apps worden ook gezonde mensen en patiënten ‘gebruikt’ als proefpersonen. Er is een groeiend aantal regels die deze praktijk in Nederland reguleren. Elk experiment moet voldoen aan deze regels en afspraken, en proefpersonen moeten voor akkoord tekenen alvorens ze mogen deelnemen. Dit alles wordt ook gecontroleerd door een ethische commissie van de universiteit.

Laten we doorschuiven van ethiek naar esthetiek. Kun je me iets vertellen over je kunst?

Vriendelijke groet,

Carmen

Lieve CEO – Tijmen Schep (Gr1p) en Sandor Gaastra (MinEZ)

“In een wereld waarin de druk om perfect te zijn toeneemt, beschrijf ik privacy als het recht om imperfect te zijn.” [TS]


In deze conversatie

Sandor Gaastra, directeur-generaal voor Energie, Telecom en Mededinging bij het Ministerie van Economische Zaken.

Tijmen Schep schrijft als lid van het netwerk van Stichting Gr1p en is technologiecriticus, privacy designer en publiek spreker die inzicht biedt in hedendaagse vraagstukken rondom Big Data.


Sandor Gaastra - Brief 1

Beste Tijmen,

Als we het toch over privacy gaan hebben, kan ik net zo goed iets over mezelf vertellen. Ik ben directeur-generaal voor Energie, Telecom en Mededinging bij Economische Zaken. Ik ben ambtenaar: ik neem geen politieke besluiten. Ik bereid ze voor, voer ze uit en regel dat er toezicht op wordt gehouden.

Eh… vervang ‘ik’ maar door ‘mijn mensen’. En laat ‘mijn’ bij nader inzien weg, want ik ben echt niet de eigenaar van iedereen die werkt aan bij voorbeeld toegankelijke en betaalbare verbindingen voor elektronische communicatie, die bijdragen aan innovatie en economische groei.

Voordat ik verdwijn achter beleidstaal: ooit was ik politiedirecteur, en ik ben nog steeds vader, fietser, lezer en vakantieganger, onder meer. Ik vind technologie, beleid en bestuur leuk en belangrijk, maar mensen nog veel meer. En – toeval of niet – privacy bevindt zich op het grensvlak van technologie, informatie en mens.

Ooit was privacy best overzichtelijk: je mocht niet gluren bij de buren, vertrouwelijke foto’s publiceren of brieven openmaken die niet voor jou waren bedoeld. Dat is wettelijk keurig afgetimmerd met termen als ‘bescherming van de persoonlijke levenssfeer’ en ‘briefgeheim’.

Maar tijden veranderen en door de digitalisering is er ineens veel werk aan de winkel. De grondrechten bleven hetzelfde, maar ze moesten worden uitgebreid naar het digitale terrein. Zo is afgelopen jaar het briefgeheim ook uitgebreid naar digitale communicatie.

Half Nederland ‘betaalt’ voor digitale diensten door privé-informatie te delen. Social media vangen die informatie op en verkopen hem ‘aan de achterkant’ door aan de hoogste bieder. Wie dat is? Geen idee. Het gebeurt in fracties van seconden. In de datasystemen van zowel de platforms als hun afnemers vormen zich steeds gedetailleerdere persoonsprofielen.

Alles wat je koopt, kijkt, liket, roept en fotografeert zit daarin. Waar je bent, waar en bij wie je overnacht en waar je naartoe gaat. Of je ziek bent (‘koopt keeltabletten en paracetamol’), happy (‘bestelt twee witbier op terras’) of in hoger sferen (‘luistert Matthäus Passion’).

Mogelijke gevolgen: je betaalt te veel voor concerttickets, loopt een aanbieding voor een goedkopere zorgverzekering mis, of je wordt gepest of gechanteerd met Facebook-foto’s. Een moeilijk probleem, onder meer omdat je er weinig of niets van merkt. Totdat het mis gaat.

Als er weer eens op grote schaal persoonlijke data op straat liggen, roepen mensen al snel om wetgeving, privacy-politie of strengere straffen. Begrijpelijk dat burgers naar de overheid kijken, en natuurlijk mag het grondrecht privacy niet worden aangetast. Maar we moeten geen nodeloze drempels opwerpen voor een vrij dataverkeer, of belemmeringen voor bedrijven die willen innoveren.

Dus leggen we een wettelijk fundament neer waarmee we iedereen dwingen zorgvuldig met persoonlijke data om te gaan. Vervolgens kijken we wat we kunnen bereiken met lichtere middelen, zoals voorlichting, gedragsbeïnvloeding, en prikkels voor marktpartijen om transparant te zijn over hun omgang met onze gegevens. Of dat genoeg is? Wat denk jij?

Vriendelijke groet,

Sandor,

P.s. Privacy is persoonlijk. Als ik je tegenkom op de fiets groet ik je vriendelijk, maar een foto van mij in fietskleding op een publieke website, daar heb ik moeite mee. Is jouw privacy-grens ooit overschreden?


Half Nederland ‘betaalt’ voor digitale diensten door privé-informatie te delen.
Sandor Gaastra


Tijmen Schep - Brief 1

Hey Sandor,

Leuke brief!

Voor ik er op in ga: tof dat je deze briefwisseling met me wil doen. Bij de uitnodiging sprongen de romantische beelden op in mijn hoofd. Ik moest meteen denken aan de briefwisselingen die mensen als Darwin en andere denkers vroeger hadden. Mensen die een peperdure portretschilder moesten inhuren als ze een selfie wilden maken. Ik besef me ineens dat onze musea eigenlijk volhangen met selfies.

Bij een conferentie over privacy-vriendelijke slimme apparaten hoorde ik deze week een mooi verhaal over Socrates. Hij vond dat denken iets is dat je alleen met z’n tweeën kon doen, dat denken altijd een uitwisseling was. Een boek lezen, vond hij, dat is geen denken. De beste man heeft dan ook nooit een letter op papier gezet, omdat hij woorden een niet te vertrouwen nieuwe technologie vond. Doordat we niks meer hoefden te onthouden zou ons brein lui worden.

Het wantrouwen van nieuwe technologie is van alle tijden. Evenals tomeloos optimisme natuurlijk. De uitdaging is om ergens in een nuchter midden uit te komen. Het poldermodel van het technologiebeleid, wie weet komen we daar samen op uit.

Ik vind het mooi hoe je je brief begint. Grappig: juist doordat we privacy hebben, kan het doorbreken daarvan een band scheppen. Ik hou ook erg van fietsen en lees ook heel graag (sorry Socrates). Ik zit in een wandelclub en ben weerloos tegen zompige hotelcake.

Ik noem mezelf technologie-criticus en privacy designer – een soort digitale mythbuster eigenlijk. Ik ben één van de oprichters van medialab SETUP, een culturele organisatie die humor gebruikt om data-vraagstukken inzichtelijk te maken voor een breder publiek. Mijn levensvraag is: hoe help ik mensen technologievraagstukken genuanceerd te bekijken?

Doordat ik de data-industrie zo lang heb onderzocht, ben ik me zo enorm bewust van de manieren waarop iets moois als deze briefwisseling – twee mensen die rustig de tijd nemen om samen na te denken – tegelijkertijd door algoritmes zal worden opgepeuzeld. Hoe meer moeilijke woorden ik foutloos gebruik, hoe hoger enkele daarin gespecialiseerde algoritmes mijn IQ zullen inschatten. Gebruik ik het woord ‘ik’ teveel? Dan gaat mijn teamplayer score wellicht omlaag.

Ik weet het niet precies, en dat is – zoals je zelf al zegt – het ding: algoritmes die miljoenen mensen vergelijken kunnen patronen zien die we niet kunnen vermoeden. Stel: 10.000 mensen die een ‘gratis’ suikerziekte app hebben geïnstalleerd, blijken tegelijkertijd relatief vaak Snoop Dogg en boetseren te hebben geliked op facebook. Als ik vervolgens op Facebook ook Snoop Dogg en boetseren like, dan is de conclusie: risico op suikerziekte + 3%.

Die gok wordt als kennis verkocht, en zo worden die ‘gratis’ diensten uiteindelijk door bijvoorbeeld je zorgverzekeraar betaald (en daarmee uiteindelijk door jezelf).

Kun je op zoiets anticiperen als je op die ‘I Agree’ knop van Facebook klikt? Ik denk dat het voor de gemiddelde burger niet te overzien is. Wat mij betreft is het tijd voor zwaarder geschut.

Ik stel me voor hoe ik in 2023 bij Philips solliciteer omdat ik daar privacy-vriendelijke slimme thermostaten wil maken. Maar een algoritmisch HR bedrijf houdt de wacht en geeft een negatief advies. Een andere kandidaat uit een beter postcodegebied had volgens het algoritme net een wat emotioneel stabieler taalgebruik, en een net wat beter in de bedrijfscultuur passende verzameling Facebook-likes. Misschien dat ik in 2023 een bedrijf begin in Facebook like-transplantaties.

Om je vraag te beantwoorden: mijn privacy grens wordt voor mijn gevoel eigenlijk non-stop overschreden. Klinkt dat gek? Ik weet denk ik iets te veel van deze markt, van de technologie, en vooral van het maar al te menselijke verlangen om risico’s te beheersen dat dit alles aanjaagt. Voel je wel eens soortgelijke druk? Of herken je het bij de mensen om je heen? En hoe zou jij je eigen vraag beantwoorden?

Tijmen Schep


Algoritmes die miljoenen mensen vergelijken kunnen patronen zien die we niet kunnen vermoeden.
Tijmen Schep


Sandor Gaastra - Brief 2

Hallo Tijmen,

Dat heb ik weer: over complexe begrippen als privacy communiceren met een zompige- hotelcakejunkie… Maar ik stap over mijn weerstand heen, omdat je met dat ‘privacy doorbreken’ een goed punt aansnijdt. Het uitwisselen van persoonlijke informatie, liefst over licht belachelijke kleinigheden, schept een band. En roddelen is een universeel menselijke behoefte, essentieel voor het vormen van vriend- en vijandschappen en het onderhouden van de sociale orde in gemeenschappen. Zoiets als het vlooien van apen, zeggen gedragsdeskundigen.

Rond 1875 dachten ze zelfs bij Bell Labs dat de telefoon nooit bij iedereen in huis zou hangen (laat staan in iedere jaszak zou zitten): wat zouden mensen elkaar te melden hebben? Veel, weten we nu. En het meeste is geklets over kittens, de afwas of de file, of geroddel over rare gewoontes van de buren of de scheiding van BN-ers. Hetzelfde met het internet. Van militair netwerk ontwikkelde het zich tot communicatienetwerk voor wetenschappers, er werden wat gebruiksvriendelijke toepassingen aan toegevoegd en voilà! Nu pict, vlogt en tweet ongeveer iedere puber zich de dag door. Opdat er over je gesproken wordt, of om zelf te kunnen roddelen of kletsen. En omdat ‘schriftelijk’ roddelen raar aanvoelt, werden de emojis uitgevonden, die iedereen tegenwoordig door zijn elektronische communicatie strooit.

Al die online self-exposure lijkt leuk, aardig en meestal weinig wereldschokkend. Maar het is vooral ook een diep menselijke behoefte. En daardoor kan het link worden, of pijnlijk: cyberpesten, privé-foto’s en filmpjes die de hele wereld over gaan, sexting, afpersing, enzovoorts. Dat zijn taaie problemen. Twee harde lessen die we als overheid hebben geleerd: gedragsverandering kun je niet afdwingen. Mensen blijven slordig met wachtwoorden, met wat ze posten en met wie ze hun data delen.

En digitale kwaadwillenden (van pestende pubers tot serieuze criminelen) zijn heel lastig op te sporen en te vervolgen, onder meer omdat ze anoniem kunnen blijven of heel ver weg zitten. Dus proberen we niet alleen de daders aan te pakken, maar ook de potentiële slachtoffers weerbaar te maken. Met campagnes en voorlichting maken we mensen bewuster. Spotjes op tv, lespakketten, websites, advertentiecampagnes enzovoorts. Dat helpt, maar het is helaas maar een deel van de problemenverzameling die digitale privacy heet.

Ik denk dat het onder meer zo’n taai probleem is, omdat mensen onderschatten hoe snel digitale vernieuwingen gaan, niet snappen hoe veranderlijk de digitale wereld is of gewoon niet meer kunnen volgen wat er aan de achterkant van hun apps gebeurt. Je merkt nauwelijks dat je privégegevens weggeeft, want je bent niet direct iets kwijt. Het gaat sneller dan je zelf bedenken kan. Of makkelijker, zeker als het gratis is. Plots deel je je gegevens met de halve wereld, zonder die te kennen. Misschien dat een beter begrip van dergelijke mechanismen mensen helpt bewuster met data en digitale diensten om te gaan? Of dat het helpt voorkomen dat de digitale omgeving voor nare verrassingen zorgt? Je maakt me nieuwsgierig met wat je vertelt over SETUP en over de inzet van humor om data-vraagstukken inzichtelijk te maken voor een breder publiek. Zou dat kunnen helpen?

We zijn nu bezig met het invoeren van van de algemene verordening gegevensbescherming van de Europese Commissie, die ingaat op 25 mei 2018. Met die AVG wordt het huidige EU kader uit de vorige eeuw gemoderniseerd en geschikter gemaakt voor het digitale domein.

Data-verwerkende bedrijven (zeg maar: zo goed als alle bedrijven) moeten een heldere privacyverklaring hebben, duidelijk maken wat ze doen met je data en niet meer data van je vragen dan nodig is voor hun diensten. Bedrijven moeten verantwoording afleggen over hun omgang met data (en daar dus data over bijhouden) en iedereen moet zijn eigen data makkelijk mee kunnen nemen naar een ander bedrijf.

De overheid (vooral de Autoriteit Persoonsgegevens) krijgt een zwaardere toezichthoudende taak. Al met al een majeure operatie, zoals we dat hier in Den Haag zeggen. Als die operatie achter de rug is, hebben we een stevige lijn uitgezet voor het gebruik van persoonsgebonden data, inclusief het doorverkopen daarvan. Maar ik zei het al: het gaat ook om gewoonten en gedrag. Met regels alleen komen we er niet. Want het achterliggende probleem is natuurlijk dat veel er zelf mee instemmen dat hun gegevens in handen van derden komen, bijvoorbeeld door gebruiksvoorwaarden te accepteren en daar verder niet bij na te denken.

Kortom: wetgeving is belangrijk, maar er meer is nodig. Bewuste burgers, ethisch handelende bedrijven, en economische prikkels om op zoek te gaan naar privacy-vriendelijke oplossingen. Bedrijven zitten in een overgangsfase. Ze zien privacyvriendelijk ondernemen steeds minder als iets dat moet, en vaker als iets waarmee je je kunt onderscheiden.

Over jouw sollicitatie in 2023 gesproken: in Amerika is al een bedrijf actief dat aanvragen van leningen beoordeelt met kunstmatige intelligentie en zelflerende machines. Ze verwerken 70.000 signalen per aanvraag (je leest het goed), waaronder de datum waarop je laatste bankrekening is aangevraagd en het taalgebruik in je Facebook updates. Kortom: it’s there and it’s alive. Dit vraagstuk reikt veel verder dan privacy en roept voor de overheid nieuwe vragen op.

Algoritmen beslissen straks over jouw geschiktheid voor een baan of een hypotheek, maar ook over de behandeling van je ziekte. Die beslissingen zijn beter (in theorie dan), maar het voelt niet goed. Want je neemt ze niet zelf. Je ziet ze niet. Dus liggen onzekerheid en wantrouwen op de loer. In de praktijk loopt het in Nederland zo’n vaart niet, overigens: zo is het uitsluiten van verzekerden op grond van data niet toegestaan en ook niet aan de orde.

Over het overschrijden van mijn privacygrens moest ik even nadenken. Ik had zin om te schrijven: ik leid zo’n braaf leven en doe zo weinig met sociale media dat ik daar weinig last van heb. Maar jij doelt op iets anders, iets dat klinkt als aantasting van je autonomie en je recht op zelfbeschikking. Of zie ik dat verkeerd?

De juristen Moerel en Prins zeggen in ‘Privacy voor de homo digitalis’ dat privacy ‘een voorportaal is voor andere fundamentele rechten en vrijheden van het individu die gezamenlijk weer instrumenteel zijn voor het goed functioneren van onze democratische rechtsstaat.’ Bedoel je zoiets? Hoe dan ook: daar kom ik op terug.

Het verrast me wel als jij zegt dat jouw privacy-grens constant wordt overschreden. Ik lees links en rechts dat jongeren privacy-bewuster zijn, maar er ook meer ontspannen mee omgaan. Ben jij een uitzondering of hebben de rapporten het mis? Ik hoor het graag.

Tot snel!

Sandor


Privacy biedt ruimte om anders te denken, iets dat essentieel is als je écht wilt innoveren, en niet alleen Silicon Valley’s ‘hoe meer data, hoe beter’-model wilt kopiëren.
Tijmen Schep


Tijmen Schep - Brief 2

Hey Sandor,

Ik ben het helemaal met je eens: we zijn talige, sociale wezens die de wereld begrijpen door er verhalen over te vertellen. Wat is er mooier dan een sappig verhaal? Als er binnen mijn vriendengroep weer eens schromelijk werd overdreven over avonturen in de liefde, werd er altijd geroepen ‘mooiste verhaal telt!’.

Ik denk dat de positie van jongeren een moeilijke is. Zij zitten vooraan in de golf van technologiegebruik, maar hebben tegelijkertijd weinig anders dan ‘streetsmarts’ (zoals Danah Boyd uitlegt) om er mee om te gaan. De echte issues rondom dataverzameling en het verlies van vrijheden, die doorzien ze niet. Maar ze voelen wel allemaal de druk om erbij te horen.

Ik denk dat we inderdaad nieuwe woorden nodig hebben om de schaduwkant van al dat geklets te begrijpen. Met name door die opkomende sociale druk ontstonden op het schoolplein termen als ‘normcore’ en ‘basic bitch’. Allebei beschrijven ze de trend om je zo normaal en onopvallend mogelijk te kleden.

In één van zijn laatste publieke lezingen stelde filosoof Zygmunt Bauman: ‘Fear of exclusion is the dominant fear of our time. We are not rebelling against the overbearing state, we are rebelling today against being ignored, against being neglected, against being unseen’. Filosofen als Bauman, maar ook Foucault en Deleuze, beschreven hoe de angst om er niet bij te horen, om niet normaal te zijn, één van de sterkste menselijke drijfveren is.

De gigantische kracht ervan werd mooi blootgelegd door enkele VPRO filmmakers, die drie weken lang hun hele leven online wilden streamen. Ze stopten vroegtijdig met het onderzoek: de psychologische druk van het ‘de hele tijd de beste versie van jezelf moeten zijn’ werd te groot.

Tegelijkertijd probeert China die kracht bewust in te zetten. Waarschijnlijk heb je al gehoord van het ‘social credit’ systeem, dat alle Chinese burgers vanaf 2020 een ‘braafheidsscore’ zal geven. Als je een lage score hebt omdat je te Westers denkt of consumeert, dan kun je binnenkort een overheidsbaan, lening of visum wel vergeten.

Diezelfde effecten zie ik ook in het Westen ontstaan, maar bij ons ontstaan ze als bijwerking van de markt. We doorzien dat niet, verblind als we zijn door de ‘mooie verhalen’ uit Silicon Valley. Ik voorzie dat ze ook hier tot zeer sterke sterke chilling effects op de maatschappij kunnen leiden. Ik heb er een term voor bedacht: social cooling – de data-versie van global warming.

Misschien herken je dit: je zit op Facebook en je komt een linkje tegen, maar je twijfelt of je erop zult klikken, omdat je denkt: ‘Dat bezoek wordt vast geregistreerd, en dat zou er later wel eens gek uit kunnen zien’. Wanneer ik op conferenties spreek herkent intussen zo’n tweederde van de mensen dit voorbeeld. Onderzoek wijst op de opkomst van zelfcensuur.

Zo werden Wikipedia-pagina’s over terrorisme minder vaak bezocht na de onthullingen van Edward Snowden. Mensen waren bang dat de NSA hun bezoek zou registreren. Vorige maand zagen we hoe Donald Trump de data opeiste van mensen die tegen zijn beleid hadden geprotesteerd. Zou je dan nog even op je gemak gaan demonstreren?

Leven in een reputatie-economie heeft niet alleen gevolgen voor onze democratische processen, maar ook een serieuze impact op ons innovatie vermogen. Het stimuleert naast zelfcensuur ook een cultuur van risicomijding. Een voorbeeld: toen chirurgen in New York scores kregen voor hun werk, kregen artsen die het risico namen om moeilijke operaties uit te voeren lagere scores – er overleden namelijk meer mensen onder hun mes.

De artsen die geen poot uitstaken hadden hoge scores, ook al werden de levens van hun patiënten geen van allen verlengd. De artsen die wel het risico durfden te nemen, voelden druk om ‘gemiddeld’ te presteren. Wat het effect van dergelijke systemen is op ondernemerschap en innovatie laat zich raden. Dat is voor mij de paradox: op de lange termijn vermindert de creatieve industrie ons creatief vermogen.

Zo kom ik terug bij je analyse dat ik privacy en autonomie als één ding zie. Dat klopt. Ik zie die dingen als fundamenteel met elkaar verbonden. In een sociale wereld is privacy het recht je aan sociale druk en conformisme te onttrekken, je eigen ideeën te vormen, en aan mainstream en populisme te ontsnappen.

In een wereld waarin de druk om perfect te zijn toeneemt, beschrijf ik privacy als het recht om imperfect te zijn. En daarmee eigenlijk het recht om mens te zijn. Privacy biedt ruimte om anders te denken, iets dat essentieel is als je écht wilt innoveren, en niet alleen Silicon Valley’s ‘hoe meer data, hoe beter’-model wilt kopiëren.

Nieuwe begrippen als social cooling helpen dat inzicht hopelijk te verspreiden. Maar ook nieuwe wetten helpen enorm. De GDPR is wat dat betreft een verademing, omdat die de deur open zet voor de zoektocht naar ethische businessmodellen.

Tot slot denk ik dat we goede voorbeelden nodig hebben die de problemen tastbaar en inzichtelijk maken. SETUP ontwikkelt inderdaad humoristische voorbeelden voor een breed publiek. Zo stond er vorig jaar op de Dutch Design Week een koffiezetapparaat, dat je goede of slechte koffie gaf op basis van je postcode. Hoe lager de ‘statusscore’ van de wijk waarin je woont, hoe wateriger de bak. Het maakte tastbaar dat data steeds concretere gevolgen gaan krijgen in je leven.

Ik denk al met al dat ik geen uitzondering ben, maar gewoon iets voorloop omdat ik de werking en invloed van de data-industrie wat beter doorzie dan de gemiddelde Nederlander. Gelukkig zie ik steeds meer kritische vragen bij het brede publiek ontstaan, zoals nu met de roep om een referendum over de sleepwet.

Ik denk dat we de schaduwkanten van data eerder kunnen herkennen, en hoop er met mijn werk voor te zorgen dat we ‘boem is ho’-beleid kunnen voorkomen. Ik wil daarom eindigen met deze vraag: wat is er volgens jou nodig om in een vroeger stadium het kind en het badwater van elkaar te kunnen onderscheiden?

Zwaai,

Hotelcake junkie

PS: ik heb dat Amerikaanse bedrijf met zijn 70.000 signalen toegevoegd aan creepycompanies.com, een website die ik vorig weekend lanceerde om – wederom – het bredere publiek voorbeelden te bieden van deze schaduwkant van data. Dank voor de tip 🙂


Sandor Gaastra - Brief 3

Hallo Tijmen,

Dank voor je brief. Echt. Ik vind dat je werkelijk prachtig uiteenzet waarom privacy belangrijk is. Niet alleen vanwege de last die je er mee kunt krijgen, maar omdat je het nodig hebt om jezelf te zijn, om te voorkomen dat je alleen nog wordt bepaald door wat de buitenwereld, al dan niet voorgeprogrammeerd, van je vindt. Ik moest denken aan ‘De cirkel’ van Dave Eggers. Het meest onheilspellende van dat boek vond ik nog dat big brother daar binnensluipt in een wolk van goede bedoelingen, warme gevoelens en nobele ideeën. Het resultaat daarvan is echter een benauwende wereld, waarin conformisme zaken als authenticiteit, creativiteit en innovatievermogen verdringt.

Ik begon te verlangen naar het rommelinterieur – met rendiergewei-lamp – van de ouders van hoofdpersoon Mae Holland. Hoewel ik toch echt meer van helderheid en strak design houd. Eggers beschrijft een wereld waarin social cooling een epidemie dreigt te worden, begrijp ik nu. Ik zie het maar als een teken van geestelijke gezondheid dat ik daar zo heftig op reageerde. Daar moesten we misschien bij een kop koffie eens over doorpraten (nadat ik de postcode van het Noordeinde heb ingetikt in je koffie-apparaat :-)).

Ook wat je over Silicon Valley zei zette mij aan het denken: Economische Zaken is het ministerie van het stimuleren van economische groei en innovatie, en van de bescherming van consumenten, inclusief hun privacy (en daarnaast van veel meer, van agro tot voedselveiligheid). Onze missie is om Nederland en de Nederlandersnog innovatiever en ondernemender te maken. En dat lijkt te lukken, gezien de bloeiende creatieve industrie, de groeiende startup-cultuur, de innovatieve financiële en technologiesector en de landbouw (we zijn wereldkampioen precisielandbouw, vertelde mijn collega van ‘agro’). Ook jij wijst erop dat alle digitalisering en datagedreven innovatie het ‘echte innovatievermogen’ juist beperkt. Dat lijkt me niet goed, niet voor de economie, maar ook niet voor de mensen zelf. Het lijkt me bovendien een ontwikkeling die maatschappelijke weerstanden oproept.

Ik las laatst toevallig een krantenstuk over norm core. Twee bijna identiek geklede meisjes waren stomverbaasd toen ze te horen kregen dat ze zich zo conformistisch kleedden. Ze hadden allebei zwart-witte sportschoenen aan, maar die van het ene meisje hadden ronde neuzen en dat zou de ander nou bij voorbeeld nooit dragen. Jongeren conformeren zich, maar blijven zichzelf toch volstrekt uniek en authentiek vinden. Misschien ontdekken jongeren in dat ene paar schoenen, als je het juist interpreteert, een hele microkosmos aan mogelijkheden. Misschien verplaats of muteert zelfexpressie zich alleen.

Je waarschuwt in je brief dat zich een reputatie- of censuureconomie aan het ontwikkelen is. Dat moet een mens al snel aan China denken, waar privacy niet, zoals in Westerse landen, in de grondwet is opgenomen. Voer voor nadenken: terwijl China sociale kredietpunten inzet om brave burgers te kweken, zetten wij vergelijkbare mechanismen (waaronder zelfregulering) in om providers die veel illegale content zoals kinderporno en haatzaaierij doorlaten tot beter gedrag te bewegen. Dat is veel efficiënter dan meer wetten en regels maken, die handhaving vereisen en mogelijk grote inspanningen voor , opsporing en vervolging. Het werkt alleen als de providers meewerken. Dat doen ze gelukkig.

En jij houdt de burger scherp met creepycompanies.com. Mooi! Overigens: er zijn genoeg mensen die denken dat zo’n AI-en big data-gedreven kredietbeoordelaar juist een voorbode is van een prachtige toekomst waarin kredieten goedkoper zijn (want lagere beoordelingskosten en grotere markt) en dus breder beschikbaar voor iedereen. Ik begrijp hun punt, maar het blijft creepy dat door derden verzamelde en gecombineerde data op die manier voor of tegen mij gebruikt kunnen worden.

Het kersverse regeerakkoord geeft aardig aan welke richting de regering op wil met zijn privacy beleid. Mensen moeten bij voorbeeld ook per gewone post met de overheid kunnen blijven communiceren. De overheid bewaakt de vertrouwelijkheid van haar burgergegevens: data in basisadministraties en andere privacygevoelige informatie wordt altijd versleuteld opgeslagen en de DigiD wordt veiliger gemaakt.

Mensen krijgen meer zelf de regie in handen over hun eigen persoonsgegevens. Zo kunnen ze maatschappelijk relevante instanties en organisaties aanwijzen waaraan automatisch een beperkt aantal persoonsgegevens mag worden verstrekt. Kortom: de overheid zoekt het evenwicht tussen privacy en gebruiksgemak als het gaat om de data die zij van haar burgers in beheer heeft.

Een andere afweging uit het regeerakkoord is nog veel gevoeliger. Namelijk terrorismebestrijding. Als het op straf of inperkingen van vrijheden aan komt moet “telkens kritisch afgewogen worden in welke mate de privacy en overige vrijheden worden ingeperkt”, zegt het regeerakkoord. Dat wordt spitsroeden lopen voor de komende jaren, denk ik. Die afwegingen moeten we maken veel in samenspraak met bedrijfsleven maken (niet alleen de ‘grote jongens en meisjes’, maar ook innovatieve startups met briljante ideeën).

Mensen die weten hoe je smartphones, slimme thermostaten, of discriminerende koffie-apparaten privacyproof krijgt. Al doende leren we die kind en badwaterles, al doende zwemmen we meer en betere baantjes. Al schuwen we zwaarder geschut niet. Als het nodig is regelen we de aansprakelijkheden, maken we ook nieuwe wettten of passen we ze aan, organiseren we dat ze worden gehandhaafd en dat eventuele sancties stevig genoeg zijn en worden uitgevoerd. Maar dat noemde ik al.

Ik heb zin om nog een heel verhaal te houden over de nieuwe Europese e-pricvacy-richtlijn, die samen met de door jou geprezen GDPR (in het Nederlands Algemene Verordening Gegevensbescherming of AVG) het privacy-beleidskader vormt voor elektronische communicatie. Dat doe ik niet. Je moet oppassen je medemens niet te overvoeren met beleidskaders, want dat is nog veel zwaardere kost dan zompige hotelcake. En we spreken elkaar misschien binnenkort in Eindhoven, in de Effenaar. Toch?

Ik kijk er naar uit. Groet!

Sandor

P.S.

Nog even over de paradox tussen het privacyverantwoord handelen van mensen en bedrijven en hoe dat innovatie en verandering in de weg lijkt te staan.

Zou je die tegenstelling ook met innovatieve technologie kunnen opheffen? Hoe zie jij dat? Of is dat ‘technology fix’-denken?


Tijmen Schep - Brief 3

Hallo Sandor,

Thanks man! Ik vind het ook fascinerend om de werking van de overheid beter te leren begrijpen. Zoals Bauman over mijn generatie schreef: ook ik heb veel vertrouwen in de overheid. Ik twijfel geen seconde aan de goede intenties. Kom maar op met die beleidskaders!

Ik denk dat het verhaal weer rond is door te kijken naar die ‘consent’ vraag. Onze samenleving rust op het idee dat we in staat zijn om de situatie te overzien, en dan een nuchtere afweging te maken. Wat de overheid in theorie zo bijzonder maakt, is dat je er over lange-termijnvragen mag nadenken, en dat je daar zoveel mogelijk stakeholders bij mag betrekken. Maar als ik eerlijk ben zie ik veel signalen dat overheden daar wat technologie betreft niet optimaal toe in staat zijn.

Een schrijver die me de laatste tijd fascineert is C.P. Snow. Hij schreef een berucht artikel over de ‘two cultures’. De meeste problemen in de maatschappij kunnen we niet goed overzien, stelt hij, omdat de beta-wetenschappen en de menswetenschappen zo uit elkaar zijn gegroeid. Dat is waar mijn vraag over het kind en het badwater vandaan kwam: toen ik studeerde viel het me op hoezeer in de menswetenschappen de problemen met technologie al lang werden doorzien, maar dat hun inzichten ook relatief weinig bereik hadden. Het “TEDx McOptimisme” gaat er bij iedereen in als cake, terwijl het verhaal van de menswetenschappen – het is complex en er zijn geen simpele oplossingen – meer als een wortel met hummus is. Ook lekker, maar niet zo smakelijk als hotelcake.

Beleidsmakers denken vaak dat ze meer over de werking van technologie moeten leren om het te kunnen doorzien. Dat is een optie, maar er is een alternatieve route. We kunnen ook beter worden in het begrijpen van menselijke verlangens en dromen, en zien hoe nieuwe technologieën altijd op die verlangens inspelen. Het handige van deze route is dat technologie snel verandert, maar dat die verlangens al eeuwen hartstikke stabiel zijn. Professor Rein de Wilde benoemde bijvoorbeeld de droom van ‘luilekkerland’ (zie het internet of things), en Imar de Vries benoemde de droom van ‘engelencommunicatie’: het verlangen om elkaar perfect te begrijpen, en zo misverstanden te voorkomen.

Etnograaf Grant McCracken beschrijft hoe we onze hoop op een betere wereld altijd ergens veiligstellen, ver buiten de rommelige realiteit van het hier en nu. We doen dat vooral in de toekomst – later wordt alles beter – en hij noemt dat de ‘verwachtingshorizon’. Heel kort door de bocht: in het verleden boden God (middeleeuwen), de politiek (verlichting) en (tot 2008) de ‘onzichtbare hand van de economie’ ons een plek waar we onze hoop durfden te stallen. Vandaag de dag lijkt het vooral technologie die ons die parkeerplek biedt.

Het lastige van mijn werk is dat ik aan iets heel dieps in mensen kom: hun hoop op een betere wereld. Technologie bekritiseren is lastig omdat we eigenlijk niet willen dat de sokkel wankelt – we willen graag blijven geloven in technologie. Ik zie bijvoorbeeld hoe ze buiten de rommelige mensenwereld wordt gehouden door haar voor te stellen als ‘neutraal’ (algoritmes) en als een soort onvermijdelijke natuurkracht die van buitenaf ‘impact op de maatschappij’ heeft.

Mijn punt is niet dat goede bedoelingen altijd klappen of dat hoop irreëel is, verre van. Mijn punt is dat goede bedoelingen moeten worden gecombineerd met nuchter lange-termijndenken. We moeten van ‘mooiste verhaal telt’ naar ‘meest holistische verhaal telt’. Misschien kunnen we het ‘duurzaam optimisme’ noemen. Het mooie is dat het niet alleen gezonder is, maar ook krachtiger. Ik kan de toekomst niet voorspellen, maar dankzij mijn mens-wetenschappelijke bagage kan ik je wel vertellen welke toekomstvoorspellingen stiekem vooral uitingen van ideologie zijn.

Neem bijvoorbeeld de blockchain. Dat is echt een technologie waarbij al mijn alarmbellen afgaan. Je hoort de technologen al denken: ‘Oh shit, het internet bleek een surveillance-machine. Maar versie 2.0, de blockchain, daarin wordt het beter, die is niet te corrumperen.’ Maar doordat er nog steeds te weinig kritisch besef is bouwen ze een technologie met alleen maar meer autoritair potentieel (uitleg hierover staat op technologiebeleid.nl, een site die ik heb gemaakt om beleidsmakers toegang te geven tot de beste inzichten uit de menswetenschappen).

En zo kom ik bij je vraag. Zouden we een markt kunnen maken voor producten die onze menselijke waardigheid respecteren? Jazeker. Maar om daar te komen zullen we die kloof tussen de ‘two cultures’ moeten overbruggen, en de menswetenschappers betrekken: ethici, etnografen, sociologen. Dan pas zal de startup-scene eindelijk volwassen worden in haar denken over de mens, en hopelijk ophouden met het rondzingen van simplistische verhalen, die immers vooral bedacht zijn om investeerders van hun geld te scheiden, en die soms een haast religieus tintje krijgen (singularity).

Ik zie de eerste plantjes al opkomen, en ook grote partijen als Apple – altijd al beter in het doorzien van onze verlangens – zien privacy nu als een feature. Ik hoop heel erg dat Economische Zaken deze markt gaat stimuleren. Ik zie zeker mogelijkheden, en denk dat er veel te leren is van de manier waarop biologisch eten een gigantische markt werd (daar weet je collega bij Agro meer over).

Ik twijfel er niet aan dat die markt er komt. Privacy (lees: autonomie) is ook zo’n een fundamenteel menselijk verlangen. De komende tien jaar gaan mensen doorkrijgen hoe hun data hun kansen verregaand beïnvloeden. Die data-gebaseerde krediet beoordelaar gaat ook mensen afwijzen op hun data, maar dat deel van het verhaal vertellen ze liever niet. We blijven Hollanders: pas wanneer we de nadelen van data in de portemonnee voelen stappen we over op de slimme thermostaat, stad, deurbel, messenger of browser waarbij ‘slim’ ook ethisch betekent.

De vraag die me rest is: gaat Nederland hierin voorop lopen?

Dat lijkt me voer voor bij de koffie in Eindhoven. Hopelijk is er ook cake 🙂

We blijven Hollanders: pas wanneer we de nadelen van data in de portemonnee voelen stappen we over op de slimme thermostaat, stad, deurbel, messenger of browser waarbij ‘slim’ ook ethisch betekent.
Tijmen Schep


Lieve CEO – Harrie van de Vlag & Paulien van Slingerland (TNO) en Linnet Taylor (Stichting Gr1p)

“Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten.” [TNO]


In deze conversatie

Linnet Taylor schrijft voor Stichting Gr1p en is researcher op het gebied van informatierecht, datagedreven ontwikkeling en beleid. Linnet schrijft met Harrie van de Vlag en Paulien van Slingerland, beiden Data Science Consultants bij TNO.


Harrie van de Vlag & Paulien van Slingerland - Donderdag 28-09-2017 17:40

Beste Linnet,

We schrijven je om een nieuwe trend in de data-wetenschap te bespreken: “affective computing”.

Emoties en relaties zijn al langer belangrijk in onze economie. Mensen kopen geen kaartje voor een concert, maar voor een onvergetelijke avond met vrienden. Mensen zoeken niet naar een nieuwe baan, maar naar een positie in een organisatie met een missie die bij hun wereldbeeld en hun principes past.

Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten. Daarom onderzoeken we bij TNO hoe affective states — emoties dus — kunnen worden geïnterpreteerd met gebruikmaking van wearables die kenmerken vastleggen als hartritme, hersenactiviteit (EEG), huidgeleiding (zweet), etcetera.

Uitgangspunt voor ons onderzoek was een vraag van Arnon Grunberg, die wel eens wilde weten hoe zijn lezers zich voelen tijdens het lezen van zijn boeken. Voor dat doel hebben we een onderzoek gehouden in een gecontroleerde omgeving met 200 vrijwillige deelnemers. Om deze technolgie het lab uit en het veld in te krijgen, werken TNO, Effenaar Smart Venue en sofware-ontwikkelaar Eagle Science samen aan nieuwe prototypes van toepassingen die zijn gebaseerd op emotiemetingen.

Het eerste prototype wordt gedemonstreerd tijdens de Dutch Design Week 2017 (21 tot 29 oktober). Samen met Studio Nick Verstand presenteren we daar het audiovisuele kunstwerk AURA, een installatie die emoties weergeeft als organische, pulserende lichtcomposities, die veranderen van vorm, kleur en intensiteit.

Uiteindelijk kan deze technologie bijvoorbeeld worden gebruikt voor de ontwikkeling van nieuwe vormen van marktonderzoek, die het bedrijven mogelijk maken om de emotionele ervaring van vrijwlllig deelnemende klanten te meten, zonder de ervaring zelf te verstoren. Dat laat zien welke delen van de klantbeleving als positief worden ervaren, en welke als vervelend. Door te handelen naar deze inzichten kunnen bedrijven een betere ervaring leveren, bijvoorbeeld tijdens het winkelen, bij een bezoek aan een festival of tijdens het volgen van een training in virtual reality.

Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuen. De vraag rijst dan ook of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant. De komende nieuwe privacywetgeving (GDPR) benadrukt het belang van dit dilemma eveneens. Daarom onderzoekt TNO ook technologieën die het mogelijk maken data-analyses te delen zonder de onderliggende gevoelige gegevens te delen, bijvoorbeeld door die altijd versleuteld te houden. Vanuit een technisch oogpunt is dat dilemma op die manier opgelost, en zou er niet langer hoeven te worden gekozen tussen privacy en gemak.

Tegelijkertijd verwachten we dat dit alleen mogelijk wordt als mensen vinden dat ze zo’n systeem kunnen vertrouwen, en denken we dat er meer nodig is dan alleen een technische oplossing. Daarom zijn we benieuwd naar jouw kijk op de zaak. Wat is er nog meer nodig om dat vertrouwen te vestigen?

Vriendelijke groet,

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science


Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuën. De vraag rijst dan ook of klanten moeten kiezen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant.
Harrie van de Vlag & Paulien van Slingerland


Linnet Taylor - Donderdag 28-09-2017 23:07

Dear Paulien and Harrie,

Ik heb de uitleg over jullie nieuwe project rond het meten van emotionele ervaringen met belangstelling gelezen. Het is spannend om deel te zijn van de geboorte van een nieuwe technologie, en het wonder van innovatie is duidelijk aanwezig in jullie AURA-project, dat gevoelde emoties in licht zal omzetten.

Dit leidt volgens mij tot nieuwe mogelijkheden om het proces van menselijke emoties te onderzoeken, vooral voor de quantified self-gemeenschap, die al druk bezig is zijn eigen beleving van de wereld te meten en te volgen.

Ik betwijfel echter of het volgen van veranderingen in iemands emotionele staat tijdens het consumeren van media, of tijdens wat dan ook, bij ‘klantbeleving’ hoort. Dit gaat niet slechts over voelen, maar over het verkennen van de grens tussen software en “wetware”-technologie die tot doel heeft het menselijk brein te verbinden en te verbeteren.

Het is interessant voor de bedrijven die er geld in steken, omdat het nieuwe ingangen biedt, niet tot ‘de klant’, maar tot mensen an sich, met al onze eigenaardigheden en heel onze lichamelijkheid. Die ingangen zijn niet per se nauwkeuriger dan wanneer je mensen gewoon vraagt wat ze denken, maar ze zullen naadloos en onopgemerkt in ons leven worden opgenomen, en deel gaan uitmaken van wie we zijn, niet van wat we doen.

Jullie vragen je af of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van gepersonaliseerde diensten aan de andere kant. Ik denk dat die vraag de aandacht afleidt van een belangrijkere: kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen, en wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.

Het gekozen taalgebruik klopt hier misschien ook niet: jullie werken bij dit project alleen met vrijwilligers, maar staat het vast of alles wat ze blootgeven ook echt uit vrije wil wordt gedeeld? Jullie technologie heeft volgens proefpersonen een nauwkeurigheidgraad van 70 procent. Maar er is een diepgaand verschil van mening onder hersenspecialisten over wat we nou precies meten als we emoties bestuderen.

William James, een van de grondleggers van de psychologie, betoogde dat onze ervaring van emoties eigenlijk voortkomt uit hun lichamelijke uitdrukkingsvorm: we voelen ons verdrietig omdat we huilen en we zijn blij omdat we glimlachen, en niet andersom. Als dat waar is, zullen de sensors die jullie ontwikkelen meer toegang hebben tot het biologische aandeel in onze emoties dan wijzelf, en dat heeft gevolgen voor — onder meer — onze vrijheid om onze eigen identiteit te scheppen en onszelf te ervaren.

Dat doet me denken aan een project van Facebook waarover onlangs in de media nogat wat te doen was. Onderzoekers van het bedrijf proberen een spraak naar tekst-interface tussen brein en computer te ontwerpen, die het mogelijk moet maken dat mensen berichten op social media plaatsen, direct vanuit het spraakcentrum in hun hersens — wat dat ook moge betekenen, aangezien er geen wetenschappelijke consensus bestaat over de vraag of er wel zoiets bestaat als een ‘spraakcentrum’.

De onderzoeksleider van het bedrijf beweert dat deze techniek de privacy van mensen niet kan schenden, omdat er alleen maar woorden worden ontsleuteld die mensen toch al wilden delen door ze naar dat veronderstelde spraakcentrum te sturen. Interessant genoeg wil het bedrijf niet zeggen dat eenmaal vastgelegde gedachten van mensen niet zullen worden gebruikt voor het genereren van advertentie-inkomsten.

Jullie vragen wat er nodig is om vertrouwen in zo’n systeem te vestigen. Dat is een goede vraag, want als er vertrouwen nodig is, dan is het probleem niet opgelost. Dit is een van de ontelbare initiatieven waarin mensen wordt gevraagd commerciële partijen te vertrouwen, als die zeggen dat ze de macht die we ze over ons geven niet voor commerciële doelen zullen uitbuiten. Maar dat is de bestaansreden van tech- en mediabedrijven. Als het hun opdracht was onze autonomie en individualiteit te voeden, dan waren ze ouders, priesters of onderwijzers geweest.

De basisregel bij nieuwe technologieën is dat ze onderhevig zijn aan “function creep”: ze zullen worden gebruikt voor andere doelen dan hun makers voor ogen hadden of zich zelfs maar hadden kunnen voorstellen. Een systeem als dit kan allerlei gevoelige soorten informatie meten, bijvoorbeeld hoe kinderen reageren op advertenties, of hoe volwassenen seksueel opgewonden raken tijdens de consumptie van media.

Deze informatiebronnen zijn in potentie veel beter te vermarkten dan de uitkomsten van de soorten metingen waarvoor de technologie nu wordt ontworpen. Hoe wordt de grens tussen wat mogelijk wel of niet wordt gemeten vastgesteld en nageleefd, als een technologie als deze straks misschien wel standaard in elke entertainment-apparaat zit? En nu we ons niet alleen meer vermaken met tv en bioscoop, maar ook op onze telefoons, tablets en laptops, hoe moeten we dan beslissen wanneer we gevolgd en onderzocht willen worden?

Technologie die dingen in de gaten houdt produceert data, en het hoofdkenmerk van data is dat het met de tijd meer waard wordt. Het heeft de neiging zich te vermenigvuldigen, uit te lekken en bloot te leggen. Ik weet niet zeker of we commerciële partijen moeten vertrouwen als we hun handelingen niet kunnen toetsen, want vertrouwen zonder toetsing, dat is als religieus geloven.

Met vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)


Harrie van de Vlag & Paulien van Slingerland - Donderdag 05-10-2017 14:45

Beste Linnet,

Dank je voor het delen van delen van je gedachten. De onderwerpen die je aansnijdt onderstrepen hoe belangrijk het is om te praten over de ethiek en de verwachtingen rond nieuwe technologie in het algemeen, en affective computing in het bijzonder.

Aan het eind van je brief schrijf je: ‘Als er vertrouwen nodig is, dan is het probleem niet opgelost’. Dat is waar in het geval dat het vertrouwen slechts is gebaseerd op een belofte door een bedrijf of een andere partij. Er zijn echter nog twee andere niveaus van vertrouwen die in de afweging mee moeten worden genomen: vertrouwen op grond van de wet en vertrouwen op grond van het technische ontwerp.

Om te beginnen met het vertrouwen op basis van de wet: het feit dat een nieuwe technologie nieuwe mogelijkheden opent, betekent nog niet dat de wet die toelaat. Het feit dat een potlood niet alleen kan worden gebruikt om te schrijven en tekenen, maar ook om iemand te vermoorden, betekent nog niet dat de wet het laatste toestaat.

Hetzelfde geldt voor affective computing. Hoewel de mogelijkheden van affective computing en andere vormen van data-analyse snel groeien — en jouw voorbeelden illustreren dat — worden mogelijke daadwerkelijke toepassingen van deze technologie in toenemende mate ingeperkt door de wet. Zo treedt volgend jaar inderdaad nieuwe privacywetgeving (GDPR) in werking. Europa is hierin aanmerkelijk strenger dan Amerika (waar bedrijven als Facebook zijn gevestigd).

Omdat TNO een Nederlandse partij is, mogen wij bijvoorbeeld tijdens de AURA-demonstraties geen data voor ons onderzoek verzamelen zonder expliciete toesteming van de vrijwillige deelnemers. Zij moeten daar een document voor tekenen. Bovendien moeten wij garanderen dat de dataverwerking afdoende is beveiligd. Voor bepaalde informatie, bijvoorbeeld over ras, gezondheid en religie gelden extra strenge regels.

Verder mogen we deze data voor geen enkel ander doel gebruiken dan het onderzoek in kwestie. De VPRO had bijvoorbeeld interesse in het publiceren van onze data. Echter, los van het feit dat we de privacy van onze deelnemers uitermate serieus nemen, staat de wet ons simpelweg niet toe dat te doen. TNO zal de data dan ook niet delen met de VPRO of welke andere partij dan ook.

Alles bij elkaar gelden er wettelijke beperkingen voor zowel toepassingen van affective computing als voor systemen die analyses delen zonder de data te openbaren. We ontwikkelen die tweede categorie juist om praktische implementatie van de wet mogelijk te maken, omdat deze systemen worden ontworpen om technisch te garanderen dat commerciële bedrijven (of wie dan ook) niets nieuws over individuele deelnemers te weten kunnen komen.

Dat is vertrouwen op grond van het technische ontwerp, een nieuw concept dat geen belofte of wet nodig heeft om te werken. Tegelijkertijd beseffen we dat dit voor veel mensen een nieuwe en onbekende manier van denken is. Daarom willen we graag weten wat er nodig is voor zo’n systeem als een accepabele oplossing wordt aanvaard.

Daarom willen we onze oorspronkelijke vraag graag alsvolgt opnieuw formuleren: onder welke omstandigheden zou jij mensen aanbevelen hun data ter beschikking te stellen aan zo’n systeem, met de technische garantie dat geen enkel bedrijf of andere partij de data daadwerkelijk kan inzien, zelfs als ze dat zouden willen?

Vriendelijke groet,

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science


Kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen. En wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.
Linnet Taylor


Linnet Taylor - Zondag 08-10-2017 21:56

Beste Paulien en Harrie,

Dat is een bruikbaar antwoord van jullie. Het heeft me aan het denken gezet over wat we bedoelen als we praten over vertrouwen, en over hoe de betekenis van dat woord wordt opgerekt om te passen in zeer verschillende contexten en processen. Jullie vragen onder welke omstandigheden ik mensen zou aanbevelen hun data ter beschikking te stellen aan een systeem dat hun reactie op media-content aanvoelt, met de technische garantie dat geen enkel bedrijf of partij de data daadwerkelijk kan inzien, ook niet als ze dat zouden willen.

Dat is natuurlijk een lastige vraag. Mensen moeten vrij zijn om elke technologie te omarmen die ze nuttig, noodzakelijk, interessant of stimulerend vinden, en het ligt voor de hand dat ze dat allemaal van toepassing vinden op dit voel-systeem. Maar laten we hier eerlijk zijn — het is geen burgercollectief dat ons heeft gevraagd deze briefwisseling te schrijven.

We wisselen gedachten uit over de toekomstige aciviteiten van mediabedrijven, op verzoek van een mediabedrijf. Als deze technologie uitsluitend zou worden toegepast binnen een sterk begrensde context, waarbij de geproduceerde data op geen enkele manier zou kunnen worden gedeeld, verkocht of hergebruikt, dan weet ik niet of ons verzocht zou zijn deze conversatie te houden.

Ik denk dat ons gevraagd is om van gedachten te wisselen, omdat er enorme implicaties kleven aan een technologie die het bestuderen van emotionele processen bij mensen tot doel heeft. Deze technologie kan mediabedrijven in potentie helpen hun aanbod in persoonlijke ‘filterbubbels’ te gieten, net als bij onze tijdlijnen op de sociale media.

Die bubbels hebben hun eigen voordelen en problemen. Er zijn recent bijvoorbeeld veel analyses gemaakt van hoe populistische partijen die over de hele wereld macht hebben verworven enorm hebben geprofiteerd van digitale filterbubbels, waarin mensen toegang hebben tot gepersonaliseerde content die sterk in het verlengde van hun eigen opvattingen ligt.

Het is inderdaad belangrijk dat het zo’n systeem in overeenstemming met de wet wordt gebruikt. Maar wetten op gegevensbescherming zijn in dit geval een noodzakelijke, maar onvoldoende garantie tegen misbruik van data. De echte kwestie hier is omvang. De meeste mensen produceren vandaag de dag enorme hoeveelheden digitale data, op elk moment dat zij zich in de wereld begeven.

Deze data worden opgeslagen, bewaard, gebruikt en uiteindelijk geanonimiseerd. En dan is de gegevensbescherming niet langer van toepassing, want hoe kan privacy van toepassing zijn op geanonimiseerde data? Het systeem dat jullie ontwikkelen laat echter precies zien hoe. Het is een van de vele technologieën die profilering potentieel kunnen vergemakkelijken. Het zal aanbieders onze zwakke punten tonen, de kenmerken die het mogelijk maken ons te verkopen – en het kan dat zelfs als we het niet gebruiken.

Een voorbeeld: iemand kiest ervoor om zonder filterbubbel te leven, en weigert elke vorm van personalisatie. Maar alle andere data die ze in de loop van het alledaagse leven achterlaat genereert een zeer gedetailleerd commercieel profiel van haar, dat op de vrije markt verkrijgbaar is. De kenmerken die haar gevoelig maken voor sommige vormen van content en niet voor andere zijn waarneembaar: ze heeft kinderen, ze houdt van aardbeien, ze is slachtoffer van huiselijk geweld, ze wordt blij van kattenfoto’s. Een allegaartje van vele duizenden van zulke datapunten vormt ons digitale profiel.

Maar het gaat niet alleen om onze kenmerken, het gaat om die van de mensen om ons heen of van de mensen die op ons lijken. De kenmerkende eigenschappen van gebruikers van systemen als dat van jullie (waarbij de respons op content direct kan worden gemeten) kunnen worden vergeleken met de kenmerkende eigenschappen van niet-gebruikers. Als dat eenmaal gebeurt, wordt het mogelijk om af te leiden dat mijn hart sneller zal gaan slaan bij die ene film en niet bij een andere, dat ik ervoor zal kiezen om naar de content van die aanbieder te blijven kijken, dat mijn aandacht op die plaats en op dat moment te koop zal zijn.

Zo worden instemming en privacy zinloos als er eenmaal genoeg datapunten over ons allemaal bekend zijn. Nieuwe technologieën die precies de vinger weten te leggen op ons gedrag, onze gevoelens en onze zwakke plekken zijn niet waardevol voor direct gebruik, maar wel voor de langere termijn, als aanvulling op die stapel data over ons allemaal. En ze zijn vooral handig als het gaat om de mensen die niet voor personalisering kiezen, en die dus moeilijker vast te pinnen en te voorspellen zijn.

Daarom ben ik sceptisch over het opvoeren van ‘vertrouwen’ als iets dat kan worden gegenereerd door de verzekering dat individuele toepassingen van een bepaalde technologie voldoen aan de wet op de gegevensbescherming. Gegevensbescherming is directe familie van privacy, maar het is absoluut niet hetzelfde. Gegevens kunnen worden beschermd terwijl de privacy niet is gewaarborgd, en het is zeker mogelijk er op te vertrouwen dat onze data volgens de regels van de wet worden behandeld, maar tegelijkertijd vraagtekens te hebben bij het totale plaatje.

Dingen die volkomen toelaatbaar zijn volgens de wet op de gegevensbescherming, zijn vaak ook oneerlijk. Zoals verschillende mensen online verschillende prijzen laten betalen voor dezelfde goederen. Of het volgen van de activiteit van gebruikers op verschillende apparaten, om zo precies te weten te komen waardoor ze op advertenties reageren. Of het doorgeven van onze persoonlijke data door een bedrijf aan een oneindig aantal docherondernemingen. De wet is geen wondermiddel, en we kunnen er ook niet op rekenen dat de wet voorziet wat hierna komt.

Ik voer deze dingen niet op om te betogen dat jullie moeten stoppen met de ontwikkeling van affective computing voor commercieel gebruik. Ik gebruik ze om twee fundamentele werkelijkheden voor te spiegelen: ten eerste dat we niet meer in staan zijn om te overzien wat er op lange termijn voor ons allemaal gebeurt met de data die we achterlaten, en ten tweede dat in die context instemming geen betekenis meer heeft.

Nu ik deze twee problemen en hun relatie met jullie werk aan de kaak heb gesteld, kan ik een wedervraag stellen: kunnen wij, ontwikkelaars en gebruikers van technologieën voor data-analyse, gezamenlijk verder kijken dan het voldoen aan de wet, de vele mogelijke toekomsten van deze technologieën zien en manieren scheppen om die toekomsten vom te geven?

Vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)

Lieve CEO – Geert-Jan Bogaerts (VPRO) en Tessel Renzenbrink (Gr1p)

“Technologie is altijd een uitdrukking van bepaalde normen en waarden. Het is daarom noodzakelijk dat wetenschappers en kunstenaars technologie kritisch bevragen.” [TR]


Geert-Jan Bogaerts is Hoofd VPRO Digitaal en in die hoedanigheid ook verantwoordelijk voor het VPRO Medialab en voor de digitale kanalen, innovatie en distributie strategie bij de VPRO.

Tessel Renzenbrink is schrijver en webredacteur en lid van het netwerk van Stichting Gr1p. Ze is geïnteresseerd in de impact van technologie op de samenleving, met een focus op informatietechnologie en de energietransitie.


Geert-Jan Bogaerts - Zondag 17-09-2017 11:59

Beste Tessel,

Het voelt bijna 19e-eeuws — als in een briefroman van Mary Shelley of Anne Brontë — om een correspondentie te starten met een volslagen vreemde, over een onderwerp dat ons beiden kennelijk na aan het hart ligt. Ik ben erg benieuwd naar de thema’s die je gaat aandragen, en ik kijk ernaar uit om daarover met je van gedachten te wisselen. Tegelijk heeft het natuurlijk iets vreemds: we schrijven naar elkaar, maar we weten ook dat onze briefwisseling publiek wordt en daardoor zet je al gauw — beter gezegd, zet ik al gauw — een beter beentje voor. Het is niet vrijblijvend, wil ik maar zeggen.

Maar hoe dan ook, het ligt in de bedoeling dat we deze briefwisseling van start laten gaan met een kort voorstelrondje. Mijn naam hoef ik niet te noemen, die ken je al, net als mijn functie — hoofd Digitaal bij de VPRO. Maar interessanter dan deze droge feiten is het denk ik om je te vertellen hoe ik mezelf zie, waarmee ik mezelf het meest identificeer. Ik bedoel, uiteraard ben ik zoon, vader, broer, echtgenoot, vriend, collega — dat zijn rollen waarmee we ons allemaal wel min of meer kunnen vereenzelvigen. Maar waarin ben ik anders, wat bepaalt mijn identiteit het meest?

Het eerste woord dat dan in mij opkomt: journalist. Ook al ben ik nu veel meer manager, strateeg en beleidsmaker, in alles wat ik doe adem ik nog steeds een journalistieke achtergrond. Die bepaalt de vragen die ik stel en de blik waarmee ik de wereld bezie en de oplossingen die ik aandraag voor problemen die ik tegenkom. Vijftien jaar redactiewerk, in eerste instantie als freelancer, later als schrijvend journalist bij de Volkskrant (redactie economie, een correspondentschap in Brussel) vormt je voor het leven. In die periode, we praten over eind jaren negentig, schreef ik over EU en NAVO en België vanuit standplaats Brussel, maar ben ik me in mijn vrije tijd gaan verdiepen in de online wereld. De strategische implicaties van alle technologische vooruitgang waren verre van duidelijk, maar dat het internet ons ambacht en de maatschappij grondig zou gaan veranderen, dat was al wel evident. Sinds 2003 houd ik me daar ook beroepsmatig mee bezig: eerst als chef online bij de Volkskrant, sinds 2010 als freelancer, adviseur en docent, en sinds 2014 in mijn huidige job.

Hoe ik nu naar technologische vooruitgang kijk? Niet alleen maar vanuit de strategische opdracht die ik in het kader van mijn baan heb. Maar juist ook vanuit het perspectief van de gevolgen die deze vooruitgang heeft voor onze cultuur, voor ons samenleven, onze economie, onze politiek, ons openbaar bestuur. Ik vind het bij uitstek ook een taak van de publieke omroep om deze gevolgen in beeld te brengen, om ontwikkelingen te duiden en vragen te stellen. Vanuit dat perspectief bezie ik ook ons project “We Know How You Feel”. Als onze gedachten en gevoelens op straat komen te liggen, wat is daarvan dan precies de betekenis? Hoe veranderen wij daardoor? Als individu, in onze relaties, en in onze maatschappelijke verhoudingen?

Ik hoop en verwacht dat dit project ons interessante nieuwe inzichten gaat opleveren.

Hartelijke groet,

GJ Bogaerts
hoofd digitaal VPRO


Als onze gedachten en gevoelens op straat komen te liggen, wat is daarvan dan precies de betekenis? Hoe veranderen wij daardoor?
Geert-Jan Bogaerts


Tessel Renzenbrink - Zondag 24-09-2017 23:55

Hoi Geert-Jan,

Ik moet bekennen dat ik begon als techno-optimist. Ik was er van overtuigd dat de bevrijdende mogelijkheden die informatie- en communicatietechnologie bood, ook daadwerkelijk zouden leiden tot de meest positieve uitkomst. Die mogelijkheden zitten hem vooral in de fundamentele verschuiving van centralisatie naar decentralisatie. Van een wereld die geregeerd wordt door een kleine groep mensen op machtige posities, naar één waarin iedereen een gelijke stem heeft. Die egalisering zou een eroderend effect hebben op de macht van institutionele bolwerken, zo was mijn overtuiging.

Neem de massamedia bijvoorbeeld. Nieuwsredacties van kranten en tv bepaalden zowel wat het nieuws was, als hoe dat werd geframed. De documentaire Page One vertelt hoe New York Times (NYT) aan autoriteit inboet in de tijd dat het internet als informatiebron belangrijker wordt dan de krant.

In de dagen van weleer bepaalde NYT de agenda. Wat in de krant stond, bepaalde het gesprek van de dag. Het wordt gebracht met trots en nostalgie naar betere tijden. De vraag of het wel wenselijk is dat een handvol redacteuren dag in dag uit het publieke debat bepalen, wordt niet gesteld.

Een ander voorbeeld van decentralisatie zijn cryptocurrencies als Bitcoin. Die maken monetaire transacties mogelijk zonder tussenkomst van een centrale autoriteit. Als dat voet aan de grond krijgt, zijn banken niet meer too big too fail. Ze zijn obsoleet.

Zoals bekend liep het anders. Het internet decentraliseerde niet de wereld, de wereld centraliseerde het internet. Nadat het web eenmaal populair was geworden, werd het al snel gedomineerd door commerciële partijen. Bijna tachtig procent van het webverkeer loopt via Google en Facebook. Googles algoritmes bepalen welke informatie bovenkomt als je zoekt op het internet. Facebook heeft zich tussen onze persoonlijke interactie met vrienden en familie gepositioneerd en dwingt ons volgens de FB-regels met elkaar te communiceren. Het doet er alles aan om ons zo lang mogelijk op het platform te houden zodat het onze tijd en aandacht kan verkopen aan adverteerders. En beide bedrijven verzamelen natuurlijk enorme hoeveelheden data over ons.

Inmiddels ben ik gaan inzien dat technologie ons niet noodzakelijkerwijs voorwaarts stuwt naar de meest positieve (of negatieve) uitkomst. Technologie is niet inherent goed of slecht of neutraal. Het is wat wij er van maken.

Het is om die reden dat ik betrokken ben bij het Gr1p netwerk. Stichting Gr1p wil mensen meer grip geven op hun digitale omgeving zodat ze bewust keuzes kunnen maken. Welke technologieën we inzetten en hoe, heeft impact op onze samenleving. Maar de technologische ontwikkelingen worden nu toch vooral gedreven door bedrijven. Binnen Gr1p en in mijn werk als schrijver, zet ik me daarom in voor een grotere betrokkenheid van burgers bij de digitalisering van de samenleving zodat we democratisch kunnen besluiten wat voor een toekomst we willen bouwen met technologie.

Ik ben het dan ook volledig met je eens dat hier een taak ligt voor de publieke omroep. En – specifieker ingaand op het onderwerp van onze briefwisseling – dat het nuttig is dat het VPRO Medialab zich verdiept in opkomende technologieën. Als publieke instelling kunnen jullie met een andere blik kijken dan bedrijven met een winstoogmerk. Mijn eerste vraag aan jou gaat dan ook over hoe jullie invulling aan die taak geven.

Als ik het goed begrepen heb, onderzoeken jullie elk jaar een technologie en de effecten daarvan op het mediaproces. Vorig jaar was dat virtual reality en dit jaar dus wearables. Specifiek richten jullie je op het meten van emoties met draagbare technologie en wat voor een rol dat zou kunnen spelen voor het maken en gebruiken van media.

Een concrete toepassing die wordt onderzocht, is de inzet van emotiedata door de omroepen om mensen een persoonlijke kijkervaring te bieden op basis van hun gemoedstoestand. Met wat voor doel onderzoeken jullie deze applicatie? Wat voor dienst zou jij jullie kijkers met wearables willen aanbieden?

In je brief schrijf je dat het project onderzoekt wat het betekent als onze gedachten en gevoelens op straat komen te liggen. Hoe geven jullie dat vraagstuk concreet vorm? Welke vragen worden gesteld en wat wordt gedaan om antwoorden te vinden? Wat zie jij als de onderscheidende rol van het Medialab in het bevragen van draagbare technologieën?

Met vriendelijke groeten,

Tessel Renzenbrink
Stichting Gr1p


Geert-Jan Bogaerts - Zaterdag 30-09-2017 21:04

Ha Tessel,

Ik ben niet alleen begonnen als een techno-optimist, ik ben het nog steeds. Alleen heb ik nooit geloofd dat technologische vooruitgang alleen een voldoende voorwaarde was voor menselijk geluk, collectief of individueel. Maar wel een noodzakelijke voorwaarde. Zonder technologische vooruitgang zouden we nog steeds onderworpen zijn aan de toevalligheden van de natuur. Maar het zijn de toepassingen uiteraard van die technologie die uiteindelijk de kwaliteit bepalen: positief of negatief. Dus het klopt, technologie is neutraal; het zijn de wetenschappers en de kunstenaars, de designers en de verhalenvertellers, die er uiteindelijk richting en betekenis aan kunnen geven. Zij stellen wat mij betreft een norm – en die norm hebben we weer nodig om te bepalen hoever we ervan afwijken. We kunnen ons kritisch verhouden tegenover de Googles en de Facebooks en de data-drijvers omdat er een heel andere groep mensen is die nadenkt over alternatieve vormen. Zij vormen de subcultuur van de technologische vooruitgang en houden nooit op om kritische vragen te stellen over de toepassingen – of die nou door winstbejag worden gedreven, of door een zucht naar macht en controle (de NSA’s van deze wereld).

Hoe dan ook, de publieke omroep vormt wat mij betreft zo lang mogelijk een veilige omgeving waarbinnen dit kritisch bevragen en vrije denken mogelijk is, waar de alternatieven mogen worden bedacht en waar mag worden geëxperimenteerd met nieuwe technologieën. Binnen de VPRO beschouwen we dat ook als een kerntaak. We doen dat zoveel mogelijk binnen onze programmering, maar op onze titels worden ook gewoon een aantal normen gelegd: we moeten een minimaal aantal kijkers, luisteraars, bezoekers hebben. En die producties mogen maximaal maar zoveel kosten. Het Medialab in Eindhoven hebben we opgezet als een echt vrije omgeving, waarin we proberen juist zoveel mogelijk los te komen van al die opgelegde normen. En het Medialab is dus continu op zoek, zoveel mogelijk gevoed door de kennis die binnen de VPRO maar ook in het brede netwerk van kunstenaars, wetenschappers, designers, auteurs, journalisten beschikbaar is, om relevante ontwikkelingen op te pikken, te bestuderen.

De innovatie binnen de publieke omroep is altijd gericht op media: zowel het maken ervan, als het consumeren. Ook daarom is het een kerntaak: we zien ons publiek bewegingen maken, weg van het zogeheten ‘lineaire’ kijken, en nieuwe platforms omarmen. Die moeten wij dus ook leren kennen. We moeten ermee kunnen omgaan, en kunnen beoordelen of zo’n nieuw platform, zo’n nieuwe technologie, wat voor ons kan zijn. En al doende, leren wij zo’n technologie kennen, en komen we er ook achter wat de positieve en mogelijk ook negatieve toepassingen ervan zijn.

Wij vermoeden dat, naarmate wearable technology populairder wordt, er ook invloed kan zijn op onze mediaconsumptie. We zien dat natuurlijk al bij uitstek in de mobiele apparaten die we bij ons dragen: onze mobiele telefoons, tablets en e-readers. Maar wearable technology ontwikkelt zich snel: van smart watches tot zweetbandjes en ondergoed dat onze hartslag, bloeddruk en lichaamstemperatuur in de gaten kan houden. Zelfs ons seksleven ontkomt er niet aan – bevrediging op afstand vereist geen hoogstandjes meer…

Wearables kunnen worden ingezet om media te maken en om media te gebruiken. We zullen er prachtige dingen mee kunnen creëren. Maar de keerzijde moeten we ook belichten. De grootste zorg die ik hierover heb, heeft betrekking op de data die met wearable technology worden verzameld en kunnen worden uitgewisseld. En dus is daar de inhoud van dit programma, voor een belangrijk deel, op gericht. Welke gegevens over onszelf geven wij prijs zonder dat we dat in de gaten hebben? En hoe kunnen we ons publiek daarvan bewust maken? Wat verraden mijn oogopslag, mijn houding, de manier waarop ik loop, aan de winkel waar ik mijn dagelijkse boodschappen doe? We weten dat er kledingwinkels zijn die al experimenteren met persoonsgerichte display-advertising, na een razendsnelle analyse van mijn persoonskenmerken.

‘We Know How You Feel’ beoogt om het publiek inzicht te geven in deze ontwikkelingen en processen. Vorig jaar deden we een soortgelijk project, ‘We are data’ geheten. De bijbehorende website, clickclickclick.click, werd bijna een miljoen keer aangeklikt. Het onderwerp leeft, dat is evident, het is urgent en het roept om kritische bevraging.

Ik bemerk veel overeenkomsten tussen de doelen die ik hierboven beschrijf, en jouw observaties over Gr1p. Mijn wedervraag is dan: wat is volgens jou de meest effectieve manier om die doelen te bereiken? Is bewustwording van het publiek genoeg? En hoe bereik je die bewustwording dan het beste?

Hartelijke groet,

GJ Bogaerts
hoofd digitaal VPRO


Wearables kunnen worden ingezet om media te maken en om media te gebruiken. We zullen er prachtige dingen mee kunnen creëren. Maar de keerzijde moeten we ook belichten.
Geert-Jan Bogaerts


Tessel Renzenbrink - Zondag 4-10-2017 22:08

Hoi Geert-Jan,

Technologie is noch goed, noch slecht daar zijn we het over eens. Maar anders dan jij, denk ik niet dat technologie neutraal is. Integendeel. Elk technologisch artefact is een uitdrukking van een set culturele waarden. Algoritmen bijvoorbeeld, kunnen de vooroordelen reproduceren die in een samenleving aanwezig zijn.

Om een voorbeeld te geven: sommige rechtbanken in de Verenigde Staten maken gebruik van algoritmen om de strafmaat van veroordeelden te bepalen. Op basis van data wordt het risico berekend dat iemand in de toekomst opnieuw een misdaad zal begaan. Is de score hoog, dan kan de rechter bepalen een hogere straf op te leggen. Uit onderzoek blijkt dat de algoritmen bevooroordeeld zijn: zwarte mensen krijgen vaker een hogere score dan witte mensen. Voormalig procureur-generaal Eric Holder die onder president Obama diende, sprak zich uit tegen zulk gebruik van algoritmen omdat: ‘Ze de onrechtvaardige ongelijkheid kunnen verergeren die al veel te vaak voorkomt in ons justitieel apparaat en in onze samenleving.’

Technologie is altijd een uitdrukking van bepaalde normen en waarden. Het is daarom noodzakelijk – zoals je zegt – dat wetenschappers en kunstenaars technologie kritisch bevragen om die impliciete waarden zichtbaar te maken en waar nodig aan de orde te stellen. Maar het is niet voldoende. Het is namelijk reactief.

Als je reageert nadat de technologie op de markt is gebracht, opereer je al binnen een bepaald paradigma. We zullen al eerder in het proces actief moeten zijn, als mensen, als samenleving, om te bepalen wat we willen met tech. Het maakt uit wat je bouwt. Dat je nadenkt over wat je wil bouwen nog voor je aan de slag gaat. En dat gaat over waarden. In laatste instantie gaat het niet om welke technologie je wil realiseren maar welke waarden je in technologie wil belichamen.

In die zin is het interessant dat Medialab met “We Know How You Feel” niet alleen kritisch vragen stelt over wearables maar er ook mee experimenteert samen met kunstenaar Nick Verstand en TNO. Hiermee eigent Medialab & co zich een scheppende rol toe en de mogelijkheid de waarden te bepalen.

De onderzoeksvraag die daarbij gesteld wordt, is: kunnen we ons media aanbod afstemmen op jouw gemoedstoestand op basis van emotie-data? Maar is dat een interessante vraag? Welke onderliggende waarden beaam je met zo’n doelstelling en welke laat je buiten beschouwing?

Ik snap hoe deze toepassing van emotie-data de omroepen kan dienen. Een gepersonaliseerd media aanbod zou er toe kunnen leiden dat mensen langer op het kanaal blijven hangen. Goed voor de kijkcijfers. Maar hoe wordt daarmee het publieke belang gediend?

Want de jacht op clicks en eyeballs waar veel media door bevangen zijn, vind ik geen doel op zich. Daarnaast doemt natuurlijk de geest van de filterbubbel levensgroot op. Personalisatie op basis van data – emotie of anderszins – leidt per definitie tot een media aanbod dat op jouw interesses en overtuigingen is afgestemd. Daarmee bevestigt en reproduceert het je wereldbeeld. Terwijl het me toch bij uitstek een taak van de publieke omroep lijkt om mensen ook bekend te maken met de leefwereld van andere groepen in de maatschappij.

In je brief vraag je of brede bewustwording genoeg is om de technologische ontwikkeling een kant op te duwen die het algemeen belang dient. Welnu, ik denk niet dat het genoeg is maar het is wel het begin. Het is onder druk van een collectieve overtuiging dat dingen veranderen.

Neem bijvoorbeeld een andere technologische revolutie die nu in volle gang is: de energietransitie. Door de decennia heen groeide het bewustzijn dat de economie, en met name de energievoorziening, moet verduurzamen. Door die bewustwording werd er op steeds meer domeinen actie ondernomen. Overheden kwamen met regelgeving en verdragen. Techneuten gingen innoveren. Er werd belastinggeld vrijgemaakt om die innovatie te bekostigen. Consumenten maakten andere afwegingen. Bedrijven gingen voor groen.

Op je vraag wat dan die beste manier is om bewustwording te bereiken, is mijn antwoord: alternatieven. Zonder alternatief is er geen handelsperspectief en dat leidt tot een zekere gelatenheid. Waarom zou je je druk maken om iets wat je toch niet kan veranderen? Pas toen er levensvatbare duurzame energietechnologieën beschikbaar kwamen, konden mensen hun zorgen omzetten in daden.

Maar die alternatieven zijn natuurlijk niet uit het niets ontstaan. Die zijn gepionierd door mensen en instellingen die naar andere oplossingen zochten, andere vragen stelden omdat ze andere waarden als vertrekpunt namen. Vandaar dus mijn vraag welke waarden aan de AURA kunstinstallatie ten grondslag liggen.

Vriendelijke groeten,

Tessel


Geert-Jan Bogaerts - Zondag 7-10-2017 18:11

Hi Tessel,

Laat ik beginnen met het beantwoorden van je vraag over de waarden die aan ons Medialab-project ten grondslag liggen. De waarde die ik het allerbelangrijkst vind, is inzicht. Je zou een reeks kunnen maken die begint met data, data leiden tot feiten, heb je feiten dan ben je geïnformeerd, en informatie kan op zijn beurt leiden tot begrip of inzicht. Geen van die stappen is vanzelfsprekend; je moet moeite doen om van data te komen tot feiten, en van feiten tot informatie, en van informatie tot inzicht. Met ons project “We Know How You Feel” beogen we uiteindelijk de vanzelfsprekendheid ter discussie te stellen waarmee door sommigen in de mediawereld wordt gedacht over het gebruik van algoritmes en data. Want als we die niet goed gebruiken, lopen we precies die risico’s die jij hieronder benoemt: dat van filter bubbles, van het uitbannen van verrassingen en serendipiteit, het gaan voor de grootste gemene deler in plaats van het opzoeken van de interessante niches waar mensen werkelijk wat nieuws kunnen leren.

Pas als we (als samenleving) echt begrip hebben van de manieren waarop data en algoritmes onze levens beïnvloeden — en dat in steeds grotere mate gaan doen naarmate onze omgeving meer door slimme machines wordt beheerst – kunnen we denken aan alternatieven. Ik prijs mij gelukkig te werken voor een omroep die oog heeft voor die alternatieven en daar regelmatig over bericht, met Tegenlicht als beste voorbeeld daarvan.

Aan elke technologische vernieuwing, aan elke uitvinding, ligt verbeelding ten grondslag. De Amerikaanse auteur Neal Stephenson is samen met de Universiteit van Arizona een interessant project gestart (“Project Hieroglyph”), dat science-fiction auteurs in contact brengt met wetenschappers. Het idee borduurt voort op een gedachte van Carl Sagan, die ooit zei dat de weg voor de meest baanbrekende wetenschap is geplaveid door science fiction – het is de kracht van de verbeelding die de wetenschap de weg wijst. Als we ons niet konden verbeelden dat de mensen niet meer hoefden te overlijden aan pokken of longontsteking, waren het pokkenvaccin en de antibiotica nooit uitgevonden. Arthur C. Clarke bedacht kort na de tweede wereldoorlog al dat wereldwijde communicatie een stuk eenvoudiger zou zijn als er satellieten gelanceerd konden worden die zich op een vaste plek boven de aarde zouden bevinden. Twintig jaar later, halverwege de jaren zestig, werd de eerste geostationaire satelliet gelanceerd, en nu kunnen we niet meer zonder.

Over de neutraliteit van technologie: ik ben het met je eens dat wij mensen technologie scheppen en dat doen vanuit onze eigen behoeften en vooroordelen. In die zin is technologie inderdaad niet neutraal. De nuance zit volgens mij in de observaties van Kevin Kelly: What Technology Wants. Kelly betoogt dat technologie een eigen evolutie kent, en onafhankelijk van de mens zijn eigen voortgang creëert. In dat opzicht trekt technologie zich niks aan van menselijke vooroordelen. Laten we deze gedachte concreet maken: Google kwam recent onder vuur te liggen, omdat een image search op ‘black people’ uiteindelijk ook foto’s toonde van gorilla’s. En even later bleek dat Google’s Adwords veel vaker advertenties voor hoog betaalde banen aan mannen toonde dan aan vrouwen. Dit zijn voorbeelden van hoe technologie niet neutraal werd ingezet. Maar onder deze voorbeelden ligt een instrumentenpaneel van statistische wiskunde, met veel aandacht voor regressie-analyses en standaard-deviaties, in de programmeertalen die Google gebruikt. Wetenschappers gebruikten dit instrumentenpaneel al lang, en het was een kwestie van tijd voordat software-ontwikkelaars het gingen ontdekken om de enorme hoeveelheid data die beschikbaar komen te analyseren. En die analyses staan vervolgens nieuwe toepassingen toe: Siri en Alexa worden slimmer en slimmer, maar tegelijkertijd zijn het nog steeds producten van menselijke verbeelding – en dus ook van menselijke vooroordelen.

Het grote gevaar in deze ontwikkeling schuilt naar mijn idee niet in deze observatie op zich – menselijke vooruitgang is alleen mogelijk omdat we idealen hebben die voortkomen uit onze eigen visie op de wereld. Het gevaar zit hem erin dat de middelen om deze vooruitgang te realiseren in de handen zijn van steeds minder mensen. Het zijn Facebook, Google, Apple, Amazon en Microsoft die onze nieuwe wereld aan het bouwen zijn. En het beangstigt mij dat dit bedrijven zijn die zich onttrekken aan enige vorm van democratische controle, en uiteindelijk maar op één ding worden afgerekend door hun aandeelhouders: de winst per aandeel. En ik ben eerlijk gezegd niet heel optimistisch dat er, zoals jij schrijft, een ‘collectieve overtuiging’ kan ontstaan die uiteindelijk de druk tot verandering teweeg brengt. Dat komt omdat dit wereldwijd opererende ondernemingen zijn, en er geen spoor van politieke wereldwijde consensus is over de juiste aanpak. De EU trekt zijn eigen plan, en introduceert een ‘right to be forgotten’ – en daarbinnen is Duitsland dan weer het enige land dat platforms aansprakelijk stelt voor het toelaten van ‘hate speech’. De politiek van de VS daarentegen is gericht op het instandhouden van de posities van deze ondernemingen en introduceert wetgeving die deze ondernemingen beschermt. En dan hebben we het nog niet eens over de inbreuken op het vrije internet door bijv. Rusland en China.

Maar, geheel in lijn met mijn techno-optimistische visie, denk ik ook dat de techniek uiteindelijk hiervoor een oplossing kan bieden — blockchain FTW!

GJ Bogaerts
hoofd digitaal VPRO


Tessel Renzenbrink - Zondag 4-10-2017 22:08

Hey Geert-Jan,

Je brief bevat drie elementen die ik lastig met elkaar kan rijmen. Technologie drukt altijd vooroordelen uit, zeg je, omdat het is ontsproten uit het nimmer waardevrije menselijk brein. Tot zo ver ben ik het met je eens: technologie is niet neutraal. Vervolgens zeg je dat het werkelijke gevaar er uit bestaat dat technologie wordt ontwikkeld door een kleine tech elite: de Amazons, de Facebooks. Deze bedrijven zijn niet onderhevig aan democratische controle en hun voornaamste sturingsmechanisme is winstbejag. Dat is inderdaad een angstaanjagend gegeven.

Maar tenslotte zeg je dat het allemaal wel goed komt omdat de techniek zelf – in de vorm van blockchain – voor een oplossing zal zorgen. Als een autonome kracht die – los van wat wij mensen doen – de monopolisten van hun troon zal stoten.

Die conclusie staat op gespannen voet met de eerste twee uitspraken. Immers, technologie is altijd een uitdrukking van menselijke waarden. Als technologische ontwikkeling in handen is van een kleine groep mensen, zal het de waarden van die groep distribueren en cultiveren. Daarmee neemt hun controle over het speelveld toe. Het technologische domein zal steeds homogener worden en een vorm aannemen die de belangen van die groep dient.

Toch vertrouw je er op dat blockchain technologie zich in die omgeving autonoom kan ontwikkelen en de machtspositie van de tech elite kan aantasten. Dat optimisme deel ik niet met je. Blockchain is, net als elke andere technologie, onderhevig aan de economische, politieke en maatschappelijke structuren waarin het wordt ontwikkeld. Waarom zou de dynamiek die er toe geleid heeft dat het internet is gemonopoliseerd door een paar bedrijven, blockchain ongemoeid laten?

In je laatste twee alinea’s zeg je weinig vertrouwen te hebben dat maatschappelijke druk tot verandering zal leiden. Die rol van change agent is volgens jou voorbehouden aan blockchain. Ik zie dat totaal anders en zal je een voorbeeld geven waarom.

Deze fascinerende grafiek toont het welvaartsniveau van de mensheid in de laatste tweeduizend jaar en wordt vaak aangehaald als het gaat over technologische vooruitgang.

© Our World in Data

Bron: Max Roser (2017) – ‘Economic Growth’. CC BY-SA licentie.
Our World in Data
© Our World in Data

De grafiek toont dat de welvaart door de eeuwen heen nauwelijks toeneemt. En dan, halverwege de 18eeeuw, schiet de groei opeens exponentieel omhoog. In hun boek The Second Machine Age identificeren Erik Brynjolfsson en Andrew McAfee de oorzaak van dit keerpunt in de geschiedenis. De knik van de hockeystick-curve valt samen met de uitvinding van de stoommachine: het begin van de eerste industriële revolutie.

Niet iedereen werd opgetild op de golven van de welvaartsgroei. Integendeel. De transitie van een agrarische naar een industriële samenleving ging gepaard met verschrikkelijke misstanden. Er was uitbuiting, kinderarbeid, arbeiders werkten 14 uur per dag en leefden in extreme armoede. Pas toen onze voorouders en masse betere leefomstandigheden opeisten, kwam daar verandering in. Maatschappelijke betrokkenheid bij technologische ontwikkeling is daarom wel degelijk van belang. De stoommachine zorgde voor exponentiële welvaartsgroei maar wat er vervolgens met die welvaart gebeurd, ligt niet besloten in de stoommachine. Daar beslissen wij mensen over.

Na staan we aan de vooravond van de derde industriële revolutie, Industrie 4.0 of het tweede machinetijdperk. Hoe je het ook wilt noemen, we moeten er voor zorgen dat de geschiedenis zich niet herhaalt. Dat we de technologische revolutie deze keer op zo’n wijze sturen, dat het iedereen ten goede komt.

Ik geloof niet dat blockchain dat op een of andere miraculeuze wijze voor ons gaat bewerkstelligen. Dat zullen we zelf moeten afdwingen. Want dat is het gevaar van techno-optimisme: het geloof dat technologie als vanzelf tot de meest positieve uitkomst leidt en wij daarom geen verantwoordelijkheid hoeven te nemen.

Vriendelijke groeten,
Tessel


Geert-Jan Bogaerts - Maandag 16-10-2017 15:43

Hi Tessel,

Ik begrijp dat dit mijn laatste woord is – kort dan, en ik zie uit naar het vervolg van onze correspondentie op de Eindhovense avond!

Techno-optimisme ontslaat ons niet van de plicht tot handelen en kritisch bevragen! Dus ook al denk ik dat techniek zowel de oorzaak als de oplossing van veel van onze problemen is, denk ik toch dat partijen als Gr1p en de VPRO ervoor moeten zorgen dat we die techniek kritisch blijven bevragen.

Groet,

GJ Bogaerts


Tessel Renzenbrink - Maandag 16-10-2017 17:01

Hoi Geert-Jan,

Dank je voor de levendige briefwisseling. Het was interessant om met je van
gedachten te wisselen. Leuk om verder te praten op de 25ste!

Vriendelijke groeten,
Tessel