Lieve CEO – Luis Rodil-Fernández (Gr1p) en Carmen van Vilsteren (TU/e)

“Een chip die vandaag in mijn baby wordt geïmplanteerd, kan over twintig jaar de bron van discriminatie van mijn kind zijn.” [LRF]


In deze conversatie:

Luis Rodil-Fernández, schrijft voor Stichting Gr1p en is kunstenaar, onderzoeker, docent en hacker. Carmen van Vilsteren, Director of Strategic Area Health aan de Technische Universiteit van Eindhoven (TU/e).


Luis Rodil-Fernández - Zondag 24-09-2017 15:15


Beste Carmen,

Dit is een nieuwe vorm voor mij, dus ik hoop dat we een manier kunnen vinden om onze argumenten in zo’n korte tijd diepgaand te bespreken, via het onhandige medium dat e-mail is.

Ik ben geschoold in de kunsten. Ik heb ook compterwetenschappen gestudeerd en werk al enkele jaren als ingenieur. Misschien moet ik wat uitgebreider vertellen over mijn relatie met het bestuderen van het menselijk lichaam met behulp van sensors. In mijn artistieke werk gebruik ik biomedische apparatuur die direct met het lichaam communiceert, dus ik heb een zekere vertrouwdheid met het registreren van lichaamssignalen en het gebruik daarvan voor uiteenlopende doeleinden.

Ik maakte deel uit van BALTAN Labs-programma “Hacking the Body” en ik liep stage bij Philips Research, waar ik experimenten voor biosynchronisch onderzoek bedacht, aan de hand van methodes uit de electrofysiologie. Buiten die meer praktische ervaring ben ik ook privacy-activist en leraar. Al mijn bezigheden voeden elkaar natuurlijk, en hoewel ik een gretig gebruiker van technologie ben, vind ik het moeilijk om niet kritisch te worden als ik een bepaalde tech-ontwikkeling eenmaal in een kader heb weten te plaatsen.

Ik begrijp dat de context van onze mailwisseling wordt geleverd door de titel ‘We Know How You Feel’, en dat de vraagstellling draait om een kunstwerk dat Nick Verstand samen met TNO heeft gemaakt, waarbij EEG-techniek wordt ingezet om gemoedstoestanden af te leiden. De VPRO legt een scenario voor waarin vergelijkbare technologie wordt toegepast in marktonderzoek, zodat media hun content veel gerichter kunnen inzetten. Als ik het goed begrijp is dat scenario het uitgangspunt voor onze conversatie.

Wat me in dat voorgelegde scenario misschien wel het meest opvalt, is het totale gebrek aan voorstellingsvermogen, omdat het is samengesteld uit zaken die allemaal al bestaan. Je hebt geen enorm voorstellingsvermogen nodig om je in te denken hoe fysiologische data zouden kunnen worden opgenomen in de data-pool die nu al wordt gebruikt om mediaconsumenten te profileren, in elk geval door online media.

Het zogenaamde ‘surveillance-kapitalisme’ is het economische model van de meeste mediaplatforms op internet. In één enkele technologische generatie zijn onze televisies veranderd van omvangrijke analoge apparaten, die maar net iets meer konden dan een radio, in uitgebreide computers. Die staan in onze woonkamers en bevatten een schat aan sensoren die zelf ook heel goed data kunnen verzamelen.

In het voorgelelegde VPRO-scenario wordt het economische model van het internet geëxtrapoleerd naar televisie, met toevoeging van een aantal bronnen, namelijk fysiologische data. Dat gebeurt allemaal al, in elk geval in afzonderliijke informatiestromen in diverse bedrijfstakken. Het afleiden van informatie, zoals het VPRO-project voorstelt, is dan ook zeer plausibel en ligt ruim binnen het bereik van de mogelijkheden. Daarom vind ik het de moeite om het diepgaander te verkennen.

Er bestaat al een economische sector die neuromarketing heet, en die past precies toe wat de VPRO in dit scenario schetst: technische middelen inzetten waarmee marketeers producten precies kunnen richten op individuen, gebaseerd op hun onbewuste biofysische activiteit. Antonio Damasio formuleerde een hypothese over somatische indicatoren, die stelt dat ons lichaam continu signalen over onze gemoedstoestand voortbrengt en verwerkt, en daardoor dingen lijkt te ‘weten’ vóór we ze zelf bewust ervaren. Neuromarketing richt zich op de exploitatie van die ruimte tussen bewustzijn en het onstaan van verlangen.

Is er een plaats voor deze technieken in onze mediaconsumptie? Zijn ze ook toe te passen voor iets anders dan ‘meer spullen verkopen’? Wat heeft de individuele mediaconsument aan dit scenario? Ik veronderstel dat Gr1p deel uitmaakt van deze conversatie om tegenwicht te bieden aan dit maar al te plausibele scenario, en om de ethische impicaties van zo’n ontwikkeling te bevragen.

De enorme hoeveelheid data die sommige bedrijven bezitten over ons, internetgebruikers, is omvangrijker dat de meesten van ons vermoeden, en geeft hen reeds inzicht in processen waar wij onszelf als individu niet bewust van zijn. Facebook bijvoorbeeld past al iets toe dat het ‘afgeleide kwalificaties’ noemt, zoals ‘waarschijnlijkheid van verslaafd raken’, waarmee de kans wordt ingeschat dat iemand aan verslaving ten prooi valt. Die afgeleide indicatoren worden opgesteld door het combineren van diverse andere gegevens die Facebook rechtstreeks kan kwantificeren, en de ‘kwalificaties’ worden gebruikt om advertenties en content nauwkeuriger op ons af te stemmen.

Facebook kan dat al doen zonder toegang tot ons lichaam, en daarom zou ik op dit punt een vraag willen opwerpen: in hoeverre is het nog belangrijk om fysieke toegang tot het lichaam van de consument te hebben om zulke informatie te kunnen afleiden? Hebben de kwantitatieve methodes die Facebook en Google gebruiken die ‘toegang tot het lichaam’ niet al onnodig en achterhaald gemaakt? Wat kan het lichaam ons nog vertellen dat we niet al te kunnen afleiden uit expliciete gewoontes en gedragingen die kunnen worden waargenomen met andere methodes dan elektrofysiologie?

Er zijn natuurlijk nog veel meer dingen te bespeken, maar ik hoop dat dit een vruchtbaar begin is en dat we van hieruit verder kunnen gaan. Ik kijk uit naar je antwoord.

Salud,

Luis


Wat kan het lichaam ons nog vertellen dat we niet al te kunnen afleiden uit expliciete gewoontes en gedragingen die kunnen worden waargenomen met andere methodes dan elektrofysiologie?
Luis Rodil-Fernández


Carmen van Vilsteren - Dinsdag 26-09-2017 20:40

Beste Luis,

Bedankt voor het openen van de conversatie. Ook voor mij is de vorm heel nieuw. Ik ben helemaal geen schrijver. Ik heb een technische achtergrond en ik werk al het grootste deel van mijn leven in de medische sector, voor verschillende grote en kleine bedrijven. In de jaren negentig was ik ontwikkelingsmanager voor cardio-vasculaire beeldapparatuur bij Philips, en tot op de dag van vandaag wordt er elke seconde ergens een patiënt behandeld met een systeem dat we in die tijd hebben uitgebracht.

Momenteel combineer ik mijn functie als directeur van het strategisch onderzoeksgebied Gezondheid op de Technische Universiteit Eindhoven (TU/e) met die van directeur bij Microsure, een startup in robotica voor microchirurgie. Op de TU/e werken we aan verschillende nieuwe technologieën. In een daarvan, regeneratieve geneeskunde, proberen we het lichaam er toe aan te zetten zichzelf te helen. Bij Microsure is het onze ambitie om chirurgen bovenmenselijke precisie te geven.

Je brief herinnert me aan een project dat ik een jaar of twee geleden zag. Het heette Probes en was opgezet door Hans Robertus. Mogelijk ken je hem. De resultaten werden gepresenteerd tijdens de Dutch Design Week. Een divers samengestelde groep studenten kreeg de opdracht na te denken over oplossingen voor een samenleving waarin mensen 150 jaar oud zouden worden.

Eén groep kwam met het idee van een implanteerbare chip, die alle gebeurtenissen in het leven en de gezondheid van mensen vastlegt, die dan bijvoorbeeld kunnen worden gebruikt in preventieve en niet-preventieve behandelingen. Dus niet alleen ‘We weten hoe je je voelt’, maar ook ‘We weten hoe je je in de toekomst zult voelen’.

Om dat idee te onderbouwen zetten ze een interessant experiment op. Ze huurden een kantoor in Strijp S (het hart van de DDW) en kochten een levensechte babypop en wat blanco kaarten. Ze boden de pop vervolgens aan mensen op straat aan, en vertelden dat het zogenaamd hun pasgeboren kind was, dat ze vervolgens moesten registreren bij het gemeentelijke kantoor verderop.

De meeste mensen waren bereid mee te werken aan het experiment en bedachten een naam voor hun ‘kind’. Op het kantoor werd hen verteld over de mogeijkheid om de chip te implanteren. De nieuwe ouders moesten ter plekke beslissen of ze wilden dat dit zou gebeuren, omdat het alleen zou werken als de implantatie op de eerste dag zou plaatsvinden.

De studenten verwachtten allerlei discussies en vragen over de bescherming van de gegevens, privacy en de veiligheid van de technologie. Maar wat ze niet hadden verwacht gebeurde. Alle ‘ouders’ openden de ethische discussie: wil ik dit mijn kind aandoen? Zou jij de chip hebben laten implanteren?

Groet,

Carmen

Zou jij de chip hebben laten implanteren?
Carmen van Vilsteren


Luis Rodil-Fernández - Vrijdag 29-09-2017 13:31

Hallo Carmen,

Om je vraag te beantwoorden: alvorens die beslissing te nemen zou ik iets meer moeten weten over die hypothetische chip. Wat doet die precies, waar in het lichaam bevindt hij zich, wat zijn de effecten op het kind en van wie is het implantaat? Is de chip verbonden met een netwerk of niet? Verzamelt hij op de een of andere manier data of worden de gegevens nooit opgeslagen? Welke eerdere tests zijn er gedaan met het implantaat in mensen? Wie maakt de chip? Is het ontwerp bedrijfseigendom of open source?

Uiteraard zou ik wat ernstige zorgen hebben voor ik vrolijk een technologisch object in het lichaam van mijn pasgeboren kind zou implanteren, voor de rest van zijn leven. Maar ik zou niet uit principe tegen zijn. Ik geloof dat technologie een rol heeft in het verbeteren van het leven van mensen. Mijn reactie zou niet technofobisch zijn, maar voorzichtig.

De vragen die jij van mensen verwachtte over privacy, bescherming van de gegevens en veiligheid van de techniek zijn trouwens ook ethische vragen. Voor mij is de vraag ‘zou ik dit in mijn kind implanteren?’ niet de enige over de ethische implicaties van het geschetste scenario.

Er zijn vele voorbeelden van slechte bescherming van data of privacy, waardoor een technologie die aanvankelijk onschadelijk leek potentieel als wapen zou kunnen worden ingezet. Een technologische vinding komt nooit alleen op de wereld, maar brengt altijd een stukje van de toekomst met zich mee. Een toekomst die ons heden worden als we die technologie in ons leven toelaten. We kunnen de verdere ontwikkeling onmogelijk voorspellen.

Een chip die vandaag in mijn baby wordt geïmplanteerd, kan over twintig jaar de bron van discriminatie van mijn kind zijn, of overmorgen het doelwit van een vijandige aanval. Het is van belang te beseffen dat deze scenario’s niet slechts denkbeeldig zijn. Als de technologie voorhanden is en er veel op het spel staat, dan zal die technologie als wapen worden gebruikt.

Ik wil je vragen even stil te staan bij de recente onthullingen in de pers over de rol van Facebook en Twitter bij de Russische inmenging in de Amerikaanse verkiezingen. Om te verdienen aan advertenties bieden beide bedrijven verfijnde instrumenten aan waarmee specifieke delen van hun markt kunnen worden benaderd. Die kunnen zó nauwkeurig worden ingezet dat een advertentie slechts op één enkel individu wordt gericht. Nu blijkt dat Amerikaanse kiezers in de aanloop naar de verkiezingen voor 100.000 dollar aan strategische geplaatste posts te zien hebben gekregen.

In een persverklaring toonde Mark Zuckerberg zich vorige week verontwaardigd over de rol die Facebook heeft gespeeld, en gaf hij toe dat er niet genoeg is gedaan om inmenging in het democratische proces door deze krachten te voorkomen. Degenen die invloed uitoefenden hoefden niet eens bij Facebook in te breken, of gebruik te maken van het soort kwetsbaarheden waar hackers zich gewoonlijk van bedienen. De (vermoedelijk) Russische betrokkenen die invloed wilden kopen, deden dat door gebruik te maken van instrumenten die Facebook aanbiedt aan legitieme adverteerders.

Zij zetten deze instrumenten dus in voor een ander doel dan Facebook had bedoeld. Alle technologieën, zonder uitzondering, zullen op onbedoelde manieren worden gebruikt, omdat de maatschappelijke context waarin ze zich bevinden in beweging is. Zoals William Gibson ooit schreef in zijn boek ‘Burning Chrome’: de straat vindt zijn eigen nut voor dingen. Een technologisch object dat met de beste bedoelingen is ontwikkeld, kan en zal zeer waarschijnlijk onbedoelde toepassingen krijgen.

Terugkomend op de ethische vraag die je stelde, ik zou graag in die richting verder gaan en wat wedervragen stellen: gezien je ruime ervaring met het op de markt brengen van technologische producten neem ik aan dat je hebt gewerkt met een breed scala aan technici en ontwerpers. Hoe wordt er in jouw professionele omgeving omgegaan met zulke ethische vragen? Is er een breed bewustzijn over deze kwesties? Welke rol spelen deze ethische vragen in de ontwikkelingscyclus van een product? Heb je in je lange carrière gemerkt of de opvattingen hierover veranderen?

Salud,

Luis


Als de technologie voorhanden is en er veel op het spel staat, dan zal die technologie als wapen worden gebruikt.
Luis Rodil-Fernández


Carmen van Vilsteren - Dinsdag 6-10-2017 15:34

Beste Luis,

Je wilde mijn mening weten over de advertenties die vorig jaar op Facebook en Twitter zijn geplaatst met de bedoeling de Amerikaanse presidentsverkiezing te beïnvloeden. Om eerlijk te zijn heb je daar zelf al de perfecte analyse van gemaakt. Mensen zullen inderdaad altijd onbedoelde toepassingen voor technologie en andere middelen vinden. En dan is er het directe karakter van posts op Facebook en Twitter. Dingen komen zonder vertraging online, en daardoor er is vrijwel geen ruimte voor tussenkomst of correctie.

Misschien heeft dat te maken met de manier waarop de media in het algemeen werken: erg weinig controle vóór publicatie, maar een evaluatie achteraf, waar dan lessen uit worden getrokken. Ik ontdekte die praktijk toen ik op een dag de lokale krant bezocht om uit te vinden hoe zijn er in slaagden elke dag een nieuw product – de krant – te maken, terwijl wij er meerdere jaren over deden om een nieuw röntgenapparaat te ontwikkelen. Deze benadering heet ‘benchmarking best practices’.

De redacteuren bij de krant vertelden dat ze met een simpele set regels werkten. Bijvoorbeeld: geen negatieve publiciteit over de koninklijke familie. En ze controleerden verhalen bij gebrek aan tijd niet vooraf, maar bespraken ze in plaats daarvan de volgende ochtend. Dat strookt met een citaat van Mark Zuckerberg: ‘We controleren niet wat mensen zeggen vóór ze het zeggen, en eerlijk gezegd denk ik niet dat onze samenleving zou willen dat we dat doen’. In het geval van de omstreden advertenties was de schade lang voor welke evaluatie dan ook aangericht, en daardoor onomkeerbaar.

Over je tweede vraag, omtrent de rol die ethiek speelt in de ontwikkeling van nieuwe medische technologie, moest ik wat langer nadenken. Ik kan me eerlijk gezegd geen diepgaande discussies over het onderwerp herinneren uit de dat tijd dat ik nieuwe cardiovasculaire röntgensystemen ontwikkelde. Verbeteringen aan deze systemen betekenen gewoonlijk ook verbetering van de behandeling voor de patiënt door betere beelden, verlaagde stralingsdoses, etcetera.

De veiligheid van de patiënt is van het allergrootste belang tijdens de ontwikkelingscyclus van deze beeldapparatuur, dus risico-analyses en uitvoerige tests maken altijd deel uit van het proces. Onderdeel van die tests is het bepalen van de optimale manier om de apparatuur rond patiënten te verplaatsen, en hoe hen te beschermen tegen mogelijke botsingen gedurende dat proces.

Tijdens mijn eerste project begon ik aan die tests met mezelf als patiënt op de tafel. In eerste instantie vonden enkele collega’s dat een slecht en onveilig plan. Daar had ik het volgende antwoord op: als wij zelf al niet eens op die tafel durven te gaan liggen, dan kunnen we dat van een patiënt ook niet verlangen. En zo werd het gangbare praktijk voor ontwikkelaars om vrijwillig voor patiënt te spelen tijdens sommige van deze botsproeven.

Nu, op de Technische Universiteit Eindhoven, heb ik met veel meer ethische vragen te maken, bijvoorbeeld over de ontwikkeling van implantaten als pacemakers en hersenimplantaten. Mensen zijn afhankelijk van deze technologieën, en hun kwaliteit van leven kan erdoor in het geding komen. Een van de vier faculteiten die bij deze projecten betrokken zijn heeft een eigen vakgroep ethiek.

Tijdens de ontwikkeling van nieuwe apparatuur en apps worden ook gezonde mensen en patiënten ‘gebruikt’ als proefpersonen. Er is een groeiend aantal regels die deze praktijk in Nederland reguleren. Elk experiment moet voldoen aan deze regels en afspraken, en proefpersonen moeten voor akkoord tekenen alvorens ze mogen deelnemen. Dit alles wordt ook gecontroleerd door een ethische commissie van de universiteit.

Laten we doorschuiven van ethiek naar esthetiek. Kun je me iets vertellen over je kunst?

Vriendelijke groet,

Carmen

Lieve CEO – Harrie van de Vlag & Paulien van Slingerland (TNO) en Linnet Taylor (Stichting Gr1p)

“Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten.” [TNO]


In deze conversatie

Linnet Taylor schrijft voor Stichting Gr1p en is researcher op het gebied van informatierecht, datagedreven ontwikkeling en beleid. Linnet schrijft met Harrie van de Vlag en Paulien van Slingerland, beiden Data Science Consultants bij TNO.


Harrie van de Vlag & Paulien van Slingerland - Donderdag 28-09-2017 17:40

Beste Linnet,

We schrijven je om een nieuwe trend in de data-wetenschap te bespreken: “affective computing”.

Emoties en relaties zijn al langer belangrijk in onze economie. Mensen kopen geen kaartje voor een concert, maar voor een onvergetelijke avond met vrienden. Mensen zoeken niet naar een nieuwe baan, maar naar een positie in een organisatie met een missie die bij hun wereldbeeld en hun principes past.

Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten. Daarom onderzoeken we bij TNO hoe affective states — emoties dus — kunnen worden geïnterpreteerd met gebruikmaking van wearables die kenmerken vastleggen als hartritme, hersenactiviteit (EEG), huidgeleiding (zweet), etcetera.

Uitgangspunt voor ons onderzoek was een vraag van Arnon Grunberg, die wel eens wilde weten hoe zijn lezers zich voelen tijdens het lezen van zijn boeken. Voor dat doel hebben we een onderzoek gehouden in een gecontroleerde omgeving met 200 vrijwillige deelnemers. Om deze technolgie het lab uit en het veld in te krijgen, werken TNO, Effenaar Smart Venue en sofware-ontwikkelaar Eagle Science samen aan nieuwe prototypes van toepassingen die zijn gebaseerd op emotiemetingen.

Het eerste prototype wordt gedemonstreerd tijdens de Dutch Design Week 2017 (21 tot 29 oktober). Samen met Studio Nick Verstand presenteren we daar het audiovisuele kunstwerk AURA, een installatie die emoties weergeeft als organische, pulserende lichtcomposities, die veranderen van vorm, kleur en intensiteit.

Uiteindelijk kan deze technologie bijvoorbeeld worden gebruikt voor de ontwikkeling van nieuwe vormen van marktonderzoek, die het bedrijven mogelijk maken om de emotionele ervaring van vrijwlllig deelnemende klanten te meten, zonder de ervaring zelf te verstoren. Dat laat zien welke delen van de klantbeleving als positief worden ervaren, en welke als vervelend. Door te handelen naar deze inzichten kunnen bedrijven een betere ervaring leveren, bijvoorbeeld tijdens het winkelen, bij een bezoek aan een festival of tijdens het volgen van een training in virtual reality.

Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuen. De vraag rijst dan ook of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant. De komende nieuwe privacywetgeving (GDPR) benadrukt het belang van dit dilemma eveneens. Daarom onderzoekt TNO ook technologieën die het mogelijk maken data-analyses te delen zonder de onderliggende gevoelige gegevens te delen, bijvoorbeeld door die altijd versleuteld te houden. Vanuit een technisch oogpunt is dat dilemma op die manier opgelost, en zou er niet langer hoeven te worden gekozen tussen privacy en gemak.

Tegelijkertijd verwachten we dat dit alleen mogelijk wordt als mensen vinden dat ze zo’n systeem kunnen vertrouwen, en denken we dat er meer nodig is dan alleen een technische oplossing. Daarom zijn we benieuwd naar jouw kijk op de zaak. Wat is er nog meer nodig om dat vertrouwen te vestigen?

Vriendelijke groet,

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science


Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuën. De vraag rijst dan ook of klanten moeten kiezen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant.
Harrie van de Vlag & Paulien van Slingerland


Linnet Taylor - Donderdag 28-09-2017 23:07

Dear Paulien and Harrie,

Ik heb de uitleg over jullie nieuwe project rond het meten van emotionele ervaringen met belangstelling gelezen. Het is spannend om deel te zijn van de geboorte van een nieuwe technologie, en het wonder van innovatie is duidelijk aanwezig in jullie AURA-project, dat gevoelde emoties in licht zal omzetten.

Dit leidt volgens mij tot nieuwe mogelijkheden om het proces van menselijke emoties te onderzoeken, vooral voor de quantified self-gemeenschap, die al druk bezig is zijn eigen beleving van de wereld te meten en te volgen.

Ik betwijfel echter of het volgen van veranderingen in iemands emotionele staat tijdens het consumeren van media, of tijdens wat dan ook, bij ‘klantbeleving’ hoort. Dit gaat niet slechts over voelen, maar over het verkennen van de grens tussen software en “wetware”-technologie die tot doel heeft het menselijk brein te verbinden en te verbeteren.

Het is interessant voor de bedrijven die er geld in steken, omdat het nieuwe ingangen biedt, niet tot ‘de klant’, maar tot mensen an sich, met al onze eigenaardigheden en heel onze lichamelijkheid. Die ingangen zijn niet per se nauwkeuriger dan wanneer je mensen gewoon vraagt wat ze denken, maar ze zullen naadloos en onopgemerkt in ons leven worden opgenomen, en deel gaan uitmaken van wie we zijn, niet van wat we doen.

Jullie vragen je af of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van gepersonaliseerde diensten aan de andere kant. Ik denk dat die vraag de aandacht afleidt van een belangrijkere: kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen, en wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.

Het gekozen taalgebruik klopt hier misschien ook niet: jullie werken bij dit project alleen met vrijwilligers, maar staat het vast of alles wat ze blootgeven ook echt uit vrije wil wordt gedeeld? Jullie technologie heeft volgens proefpersonen een nauwkeurigheidgraad van 70 procent. Maar er is een diepgaand verschil van mening onder hersenspecialisten over wat we nou precies meten als we emoties bestuderen.

William James, een van de grondleggers van de psychologie, betoogde dat onze ervaring van emoties eigenlijk voortkomt uit hun lichamelijke uitdrukkingsvorm: we voelen ons verdrietig omdat we huilen en we zijn blij omdat we glimlachen, en niet andersom. Als dat waar is, zullen de sensors die jullie ontwikkelen meer toegang hebben tot het biologische aandeel in onze emoties dan wijzelf, en dat heeft gevolgen voor — onder meer — onze vrijheid om onze eigen identiteit te scheppen en onszelf te ervaren.

Dat doet me denken aan een project van Facebook waarover onlangs in de media nogat wat te doen was. Onderzoekers van het bedrijf proberen een spraak naar tekst-interface tussen brein en computer te ontwerpen, die het mogelijk moet maken dat mensen berichten op social media plaatsen, direct vanuit het spraakcentrum in hun hersens — wat dat ook moge betekenen, aangezien er geen wetenschappelijke consensus bestaat over de vraag of er wel zoiets bestaat als een ‘spraakcentrum’.

De onderzoeksleider van het bedrijf beweert dat deze techniek de privacy van mensen niet kan schenden, omdat er alleen maar woorden worden ontsleuteld die mensen toch al wilden delen door ze naar dat veronderstelde spraakcentrum te sturen. Interessant genoeg wil het bedrijf niet zeggen dat eenmaal vastgelegde gedachten van mensen niet zullen worden gebruikt voor het genereren van advertentie-inkomsten.

Jullie vragen wat er nodig is om vertrouwen in zo’n systeem te vestigen. Dat is een goede vraag, want als er vertrouwen nodig is, dan is het probleem niet opgelost. Dit is een van de ontelbare initiatieven waarin mensen wordt gevraagd commerciële partijen te vertrouwen, als die zeggen dat ze de macht die we ze over ons geven niet voor commerciële doelen zullen uitbuiten. Maar dat is de bestaansreden van tech- en mediabedrijven. Als het hun opdracht was onze autonomie en individualiteit te voeden, dan waren ze ouders, priesters of onderwijzers geweest.

De basisregel bij nieuwe technologieën is dat ze onderhevig zijn aan “function creep”: ze zullen worden gebruikt voor andere doelen dan hun makers voor ogen hadden of zich zelfs maar hadden kunnen voorstellen. Een systeem als dit kan allerlei gevoelige soorten informatie meten, bijvoorbeeld hoe kinderen reageren op advertenties, of hoe volwassenen seksueel opgewonden raken tijdens de consumptie van media.

Deze informatiebronnen zijn in potentie veel beter te vermarkten dan de uitkomsten van de soorten metingen waarvoor de technologie nu wordt ontworpen. Hoe wordt de grens tussen wat mogelijk wel of niet wordt gemeten vastgesteld en nageleefd, als een technologie als deze straks misschien wel standaard in elke entertainment-apparaat zit? En nu we ons niet alleen meer vermaken met tv en bioscoop, maar ook op onze telefoons, tablets en laptops, hoe moeten we dan beslissen wanneer we gevolgd en onderzocht willen worden?

Technologie die dingen in de gaten houdt produceert data, en het hoofdkenmerk van data is dat het met de tijd meer waard wordt. Het heeft de neiging zich te vermenigvuldigen, uit te lekken en bloot te leggen. Ik weet niet zeker of we commerciële partijen moeten vertrouwen als we hun handelingen niet kunnen toetsen, want vertrouwen zonder toetsing, dat is als religieus geloven.

Met vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)


Harrie van de Vlag & Paulien van Slingerland - Donderdag 05-10-2017 14:45

Beste Linnet,

Dank je voor het delen van delen van je gedachten. De onderwerpen die je aansnijdt onderstrepen hoe belangrijk het is om te praten over de ethiek en de verwachtingen rond nieuwe technologie in het algemeen, en affective computing in het bijzonder.

Aan het eind van je brief schrijf je: ‘Als er vertrouwen nodig is, dan is het probleem niet opgelost’. Dat is waar in het geval dat het vertrouwen slechts is gebaseerd op een belofte door een bedrijf of een andere partij. Er zijn echter nog twee andere niveaus van vertrouwen die in de afweging mee moeten worden genomen: vertrouwen op grond van de wet en vertrouwen op grond van het technische ontwerp.

Om te beginnen met het vertrouwen op basis van de wet: het feit dat een nieuwe technologie nieuwe mogelijkheden opent, betekent nog niet dat de wet die toelaat. Het feit dat een potlood niet alleen kan worden gebruikt om te schrijven en tekenen, maar ook om iemand te vermoorden, betekent nog niet dat de wet het laatste toestaat.

Hetzelfde geldt voor affective computing. Hoewel de mogelijkheden van affective computing en andere vormen van data-analyse snel groeien — en jouw voorbeelden illustreren dat — worden mogelijke daadwerkelijke toepassingen van deze technologie in toenemende mate ingeperkt door de wet. Zo treedt volgend jaar inderdaad nieuwe privacywetgeving (GDPR) in werking. Europa is hierin aanmerkelijk strenger dan Amerika (waar bedrijven als Facebook zijn gevestigd).

Omdat TNO een Nederlandse partij is, mogen wij bijvoorbeeld tijdens de AURA-demonstraties geen data voor ons onderzoek verzamelen zonder expliciete toesteming van de vrijwillige deelnemers. Zij moeten daar een document voor tekenen. Bovendien moeten wij garanderen dat de dataverwerking afdoende is beveiligd. Voor bepaalde informatie, bijvoorbeeld over ras, gezondheid en religie gelden extra strenge regels.

Verder mogen we deze data voor geen enkel ander doel gebruiken dan het onderzoek in kwestie. De VPRO had bijvoorbeeld interesse in het publiceren van onze data. Echter, los van het feit dat we de privacy van onze deelnemers uitermate serieus nemen, staat de wet ons simpelweg niet toe dat te doen. TNO zal de data dan ook niet delen met de VPRO of welke andere partij dan ook.

Alles bij elkaar gelden er wettelijke beperkingen voor zowel toepassingen van affective computing als voor systemen die analyses delen zonder de data te openbaren. We ontwikkelen die tweede categorie juist om praktische implementatie van de wet mogelijk te maken, omdat deze systemen worden ontworpen om technisch te garanderen dat commerciële bedrijven (of wie dan ook) niets nieuws over individuele deelnemers te weten kunnen komen.

Dat is vertrouwen op grond van het technische ontwerp, een nieuw concept dat geen belofte of wet nodig heeft om te werken. Tegelijkertijd beseffen we dat dit voor veel mensen een nieuwe en onbekende manier van denken is. Daarom willen we graag weten wat er nodig is voor zo’n systeem als een accepabele oplossing wordt aanvaard.

Daarom willen we onze oorspronkelijke vraag graag alsvolgt opnieuw formuleren: onder welke omstandigheden zou jij mensen aanbevelen hun data ter beschikking te stellen aan zo’n systeem, met de technische garantie dat geen enkel bedrijf of andere partij de data daadwerkelijk kan inzien, zelfs als ze dat zouden willen?

Vriendelijke groet,

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science


Kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen. En wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.
Linnet Taylor


Linnet Taylor - Zondag 08-10-2017 21:56

Beste Paulien en Harrie,

Dat is een bruikbaar antwoord van jullie. Het heeft me aan het denken gezet over wat we bedoelen als we praten over vertrouwen, en over hoe de betekenis van dat woord wordt opgerekt om te passen in zeer verschillende contexten en processen. Jullie vragen onder welke omstandigheden ik mensen zou aanbevelen hun data ter beschikking te stellen aan een systeem dat hun reactie op media-content aanvoelt, met de technische garantie dat geen enkel bedrijf of partij de data daadwerkelijk kan inzien, ook niet als ze dat zouden willen.

Dat is natuurlijk een lastige vraag. Mensen moeten vrij zijn om elke technologie te omarmen die ze nuttig, noodzakelijk, interessant of stimulerend vinden, en het ligt voor de hand dat ze dat allemaal van toepassing vinden op dit voel-systeem. Maar laten we hier eerlijk zijn — het is geen burgercollectief dat ons heeft gevraagd deze briefwisseling te schrijven.

We wisselen gedachten uit over de toekomstige aciviteiten van mediabedrijven, op verzoek van een mediabedrijf. Als deze technologie uitsluitend zou worden toegepast binnen een sterk begrensde context, waarbij de geproduceerde data op geen enkele manier zou kunnen worden gedeeld, verkocht of hergebruikt, dan weet ik niet of ons verzocht zou zijn deze conversatie te houden.

Ik denk dat ons gevraagd is om van gedachten te wisselen, omdat er enorme implicaties kleven aan een technologie die het bestuderen van emotionele processen bij mensen tot doel heeft. Deze technologie kan mediabedrijven in potentie helpen hun aanbod in persoonlijke ‘filterbubbels’ te gieten, net als bij onze tijdlijnen op de sociale media.

Die bubbels hebben hun eigen voordelen en problemen. Er zijn recent bijvoorbeeld veel analyses gemaakt van hoe populistische partijen die over de hele wereld macht hebben verworven enorm hebben geprofiteerd van digitale filterbubbels, waarin mensen toegang hebben tot gepersonaliseerde content die sterk in het verlengde van hun eigen opvattingen ligt.

Het is inderdaad belangrijk dat het zo’n systeem in overeenstemming met de wet wordt gebruikt. Maar wetten op gegevensbescherming zijn in dit geval een noodzakelijke, maar onvoldoende garantie tegen misbruik van data. De echte kwestie hier is omvang. De meeste mensen produceren vandaag de dag enorme hoeveelheden digitale data, op elk moment dat zij zich in de wereld begeven.

Deze data worden opgeslagen, bewaard, gebruikt en uiteindelijk geanonimiseerd. En dan is de gegevensbescherming niet langer van toepassing, want hoe kan privacy van toepassing zijn op geanonimiseerde data? Het systeem dat jullie ontwikkelen laat echter precies zien hoe. Het is een van de vele technologieën die profilering potentieel kunnen vergemakkelijken. Het zal aanbieders onze zwakke punten tonen, de kenmerken die het mogelijk maken ons te verkopen – en het kan dat zelfs als we het niet gebruiken.

Een voorbeeld: iemand kiest ervoor om zonder filterbubbel te leven, en weigert elke vorm van personalisatie. Maar alle andere data die ze in de loop van het alledaagse leven achterlaat genereert een zeer gedetailleerd commercieel profiel van haar, dat op de vrije markt verkrijgbaar is. De kenmerken die haar gevoelig maken voor sommige vormen van content en niet voor andere zijn waarneembaar: ze heeft kinderen, ze houdt van aardbeien, ze is slachtoffer van huiselijk geweld, ze wordt blij van kattenfoto’s. Een allegaartje van vele duizenden van zulke datapunten vormt ons digitale profiel.

Maar het gaat niet alleen om onze kenmerken, het gaat om die van de mensen om ons heen of van de mensen die op ons lijken. De kenmerkende eigenschappen van gebruikers van systemen als dat van jullie (waarbij de respons op content direct kan worden gemeten) kunnen worden vergeleken met de kenmerkende eigenschappen van niet-gebruikers. Als dat eenmaal gebeurt, wordt het mogelijk om af te leiden dat mijn hart sneller zal gaan slaan bij die ene film en niet bij een andere, dat ik ervoor zal kiezen om naar de content van die aanbieder te blijven kijken, dat mijn aandacht op die plaats en op dat moment te koop zal zijn.

Zo worden instemming en privacy zinloos als er eenmaal genoeg datapunten over ons allemaal bekend zijn. Nieuwe technologieën die precies de vinger weten te leggen op ons gedrag, onze gevoelens en onze zwakke plekken zijn niet waardevol voor direct gebruik, maar wel voor de langere termijn, als aanvulling op die stapel data over ons allemaal. En ze zijn vooral handig als het gaat om de mensen die niet voor personalisering kiezen, en die dus moeilijker vast te pinnen en te voorspellen zijn.

Daarom ben ik sceptisch over het opvoeren van ‘vertrouwen’ als iets dat kan worden gegenereerd door de verzekering dat individuele toepassingen van een bepaalde technologie voldoen aan de wet op de gegevensbescherming. Gegevensbescherming is directe familie van privacy, maar het is absoluut niet hetzelfde. Gegevens kunnen worden beschermd terwijl de privacy niet is gewaarborgd, en het is zeker mogelijk er op te vertrouwen dat onze data volgens de regels van de wet worden behandeld, maar tegelijkertijd vraagtekens te hebben bij het totale plaatje.

Dingen die volkomen toelaatbaar zijn volgens de wet op de gegevensbescherming, zijn vaak ook oneerlijk. Zoals verschillende mensen online verschillende prijzen laten betalen voor dezelfde goederen. Of het volgen van de activiteit van gebruikers op verschillende apparaten, om zo precies te weten te komen waardoor ze op advertenties reageren. Of het doorgeven van onze persoonlijke data door een bedrijf aan een oneindig aantal docherondernemingen. De wet is geen wondermiddel, en we kunnen er ook niet op rekenen dat de wet voorziet wat hierna komt.

Ik voer deze dingen niet op om te betogen dat jullie moeten stoppen met de ontwikkeling van affective computing voor commercieel gebruik. Ik gebruik ze om twee fundamentele werkelijkheden voor te spiegelen: ten eerste dat we niet meer in staan zijn om te overzien wat er op lange termijn voor ons allemaal gebeurt met de data die we achterlaten, en ten tweede dat in die context instemming geen betekenis meer heeft.

Nu ik deze twee problemen en hun relatie met jullie werk aan de kaak heb gesteld, kan ik een wedervraag stellen: kunnen wij, ontwikkelaars en gebruikers van technologieën voor data-analyse, gezamenlijk verder kijken dan het voldoen aan de wet, de vele mogelijke toekomsten van deze technologieën zien en manieren scheppen om die toekomsten vom te geven?

Vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)

Lieve CEO – Geert-Jan Bogaerts (VPRO) en Tessel Renzenbrink (Gr1p)

“Technologie is altijd een uitdrukking van bepaalde normen en waarden. Het is daarom noodzakelijk dat wetenschappers en kunstenaars technologie kritisch bevragen.” [TR]


Geert-Jan Bogaerts is Hoofd VPRO Digitaal en in die hoedanigheid ook verantwoordelijk voor het VPRO Medialab en voor de digitale kanalen, innovatie en distributie strategie bij de VPRO.

Tessel Renzenbrink is schrijver en webredacteur en lid van het netwerk van Stichting Gr1p. Ze is geïnteresseerd in de impact van technologie op de samenleving, met een focus op informatietechnologie en de energietransitie.


Geert-Jan Bogaerts - Zondag 17-09-2017 11:59

Beste Tessel,

Het voelt bijna 19e-eeuws — als in een briefroman van Mary Shelley of Anne Brontë — om een correspondentie te starten met een volslagen vreemde, over een onderwerp dat ons beiden kennelijk na aan het hart ligt. Ik ben erg benieuwd naar de thema’s die je gaat aandragen, en ik kijk ernaar uit om daarover met je van gedachten te wisselen. Tegelijk heeft het natuurlijk iets vreemds: we schrijven naar elkaar, maar we weten ook dat onze briefwisseling publiek wordt en daardoor zet je al gauw — beter gezegd, zet ik al gauw — een beter beentje voor. Het is niet vrijblijvend, wil ik maar zeggen.

Maar hoe dan ook, het ligt in de bedoeling dat we deze briefwisseling van start laten gaan met een kort voorstelrondje. Mijn naam hoef ik niet te noemen, die ken je al, net als mijn functie — hoofd Digitaal bij de VPRO. Maar interessanter dan deze droge feiten is het denk ik om je te vertellen hoe ik mezelf zie, waarmee ik mezelf het meest identificeer. Ik bedoel, uiteraard ben ik zoon, vader, broer, echtgenoot, vriend, collega — dat zijn rollen waarmee we ons allemaal wel min of meer kunnen vereenzelvigen. Maar waarin ben ik anders, wat bepaalt mijn identiteit het meest?

Het eerste woord dat dan in mij opkomt: journalist. Ook al ben ik nu veel meer manager, strateeg en beleidsmaker, in alles wat ik doe adem ik nog steeds een journalistieke achtergrond. Die bepaalt de vragen die ik stel en de blik waarmee ik de wereld bezie en de oplossingen die ik aandraag voor problemen die ik tegenkom. Vijftien jaar redactiewerk, in eerste instantie als freelancer, later als schrijvend journalist bij de Volkskrant (redactie economie, een correspondentschap in Brussel) vormt je voor het leven. In die periode, we praten over eind jaren negentig, schreef ik over EU en NAVO en België vanuit standplaats Brussel, maar ben ik me in mijn vrije tijd gaan verdiepen in de online wereld. De strategische implicaties van alle technologische vooruitgang waren verre van duidelijk, maar dat het internet ons ambacht en de maatschappij grondig zou gaan veranderen, dat was al wel evident. Sinds 2003 houd ik me daar ook beroepsmatig mee bezig: eerst als chef online bij de Volkskrant, sinds 2010 als freelancer, adviseur en docent, en sinds 2014 in mijn huidige job.

Hoe ik nu naar technologische vooruitgang kijk? Niet alleen maar vanuit de strategische opdracht die ik in het kader van mijn baan heb. Maar juist ook vanuit het perspectief van de gevolgen die deze vooruitgang heeft voor onze cultuur, voor ons samenleven, onze economie, onze politiek, ons openbaar bestuur. Ik vind het bij uitstek ook een taak van de publieke omroep om deze gevolgen in beeld te brengen, om ontwikkelingen te duiden en vragen te stellen. Vanuit dat perspectief bezie ik ook ons project “We Know How You Feel”. Als onze gedachten en gevoelens op straat komen te liggen, wat is daarvan dan precies de betekenis? Hoe veranderen wij daardoor? Als individu, in onze relaties, en in onze maatschappelijke verhoudingen?

Ik hoop en verwacht dat dit project ons interessante nieuwe inzichten gaat opleveren.

Hartelijke groet,

GJ Bogaerts
hoofd digitaal VPRO


Als onze gedachten en gevoelens op straat komen te liggen, wat is daarvan dan precies de betekenis? Hoe veranderen wij daardoor?
Geert-Jan Bogaerts


Tessel Renzenbrink - Zondag 24-09-2017 23:55

Hoi Geert-Jan,

Ik moet bekennen dat ik begon als techno-optimist. Ik was er van overtuigd dat de bevrijdende mogelijkheden die informatie- en communicatietechnologie bood, ook daadwerkelijk zouden leiden tot de meest positieve uitkomst. Die mogelijkheden zitten hem vooral in de fundamentele verschuiving van centralisatie naar decentralisatie. Van een wereld die geregeerd wordt door een kleine groep mensen op machtige posities, naar één waarin iedereen een gelijke stem heeft. Die egalisering zou een eroderend effect hebben op de macht van institutionele bolwerken, zo was mijn overtuiging.

Neem de massamedia bijvoorbeeld. Nieuwsredacties van kranten en tv bepaalden zowel wat het nieuws was, als hoe dat werd geframed. De documentaire Page One vertelt hoe New York Times (NYT) aan autoriteit inboet in de tijd dat het internet als informatiebron belangrijker wordt dan de krant.

In de dagen van weleer bepaalde NYT de agenda. Wat in de krant stond, bepaalde het gesprek van de dag. Het wordt gebracht met trots en nostalgie naar betere tijden. De vraag of het wel wenselijk is dat een handvol redacteuren dag in dag uit het publieke debat bepalen, wordt niet gesteld.

Een ander voorbeeld van decentralisatie zijn cryptocurrencies als Bitcoin. Die maken monetaire transacties mogelijk zonder tussenkomst van een centrale autoriteit. Als dat voet aan de grond krijgt, zijn banken niet meer too big too fail. Ze zijn obsoleet.

Zoals bekend liep het anders. Het internet decentraliseerde niet de wereld, de wereld centraliseerde het internet. Nadat het web eenmaal populair was geworden, werd het al snel gedomineerd door commerciële partijen. Bijna tachtig procent van het webverkeer loopt via Google en Facebook. Googles algoritmes bepalen welke informatie bovenkomt als je zoekt op het internet. Facebook heeft zich tussen onze persoonlijke interactie met vrienden en familie gepositioneerd en dwingt ons volgens de FB-regels met elkaar te communiceren. Het doet er alles aan om ons zo lang mogelijk op het platform te houden zodat het onze tijd en aandacht kan verkopen aan adverteerders. En beide bedrijven verzamelen natuurlijk enorme hoeveelheden data over ons.

Inmiddels ben ik gaan inzien dat technologie ons niet noodzakelijkerwijs voorwaarts stuwt naar de meest positieve (of negatieve) uitkomst. Technologie is niet inherent goed of slecht of neutraal. Het is wat wij er van maken.

Het is om die reden dat ik betrokken ben bij het Gr1p netwerk. Stichting Gr1p wil mensen meer grip geven op hun digitale omgeving zodat ze bewust keuzes kunnen maken. Welke technologieën we inzetten en hoe, heeft impact op onze samenleving. Maar de technologische ontwikkelingen worden nu toch vooral gedreven door bedrijven. Binnen Gr1p en in mijn werk als schrijver, zet ik me daarom in voor een grotere betrokkenheid van burgers bij de digitalisering van de samenleving zodat we democratisch kunnen besluiten wat voor een toekomst we willen bouwen met technologie.

Ik ben het dan ook volledig met je eens dat hier een taak ligt voor de publieke omroep. En – specifieker ingaand op het onderwerp van onze briefwisseling – dat het nuttig is dat het VPRO Medialab zich verdiept in opkomende technologieën. Als publieke instelling kunnen jullie met een andere blik kijken dan bedrijven met een winstoogmerk. Mijn eerste vraag aan jou gaat dan ook over hoe jullie invulling aan die taak geven.

Als ik het goed begrepen heb, onderzoeken jullie elk jaar een technologie en de effecten daarvan op het mediaproces. Vorig jaar was dat virtual reality en dit jaar dus wearables. Specifiek richten jullie je op het meten van emoties met draagbare technologie en wat voor een rol dat zou kunnen spelen voor het maken en gebruiken van media.

Een concrete toepassing die wordt onderzocht, is de inzet van emotiedata door de omroepen om mensen een persoonlijke kijkervaring te bieden op basis van hun gemoedstoestand. Met wat voor doel onderzoeken jullie deze applicatie? Wat voor dienst zou jij jullie kijkers met wearables willen aanbieden?

In je brief schrijf je dat het project onderzoekt wat het betekent als onze gedachten en gevoelens op straat komen te liggen. Hoe geven jullie dat vraagstuk concreet vorm? Welke vragen worden gesteld en wat wordt gedaan om antwoorden te vinden? Wat zie jij als de onderscheidende rol van het Medialab in het bevragen van draagbare technologieën?

Met vriendelijke groeten,

Tessel Renzenbrink
Stichting Gr1p


Geert-Jan Bogaerts - Zaterdag 30-09-2017 21:04

Ha Tessel,

Ik ben niet alleen begonnen als een techno-optimist, ik ben het nog steeds. Alleen heb ik nooit geloofd dat technologische vooruitgang alleen een voldoende voorwaarde was voor menselijk geluk, collectief of individueel. Maar wel een noodzakelijke voorwaarde. Zonder technologische vooruitgang zouden we nog steeds onderworpen zijn aan de toevalligheden van de natuur. Maar het zijn de toepassingen uiteraard van die technologie die uiteindelijk de kwaliteit bepalen: positief of negatief. Dus het klopt, technologie is neutraal; het zijn de wetenschappers en de kunstenaars, de designers en de verhalenvertellers, die er uiteindelijk richting en betekenis aan kunnen geven. Zij stellen wat mij betreft een norm – en die norm hebben we weer nodig om te bepalen hoever we ervan afwijken. We kunnen ons kritisch verhouden tegenover de Googles en de Facebooks en de data-drijvers omdat er een heel andere groep mensen is die nadenkt over alternatieve vormen. Zij vormen de subcultuur van de technologische vooruitgang en houden nooit op om kritische vragen te stellen over de toepassingen – of die nou door winstbejag worden gedreven, of door een zucht naar macht en controle (de NSA’s van deze wereld).

Hoe dan ook, de publieke omroep vormt wat mij betreft zo lang mogelijk een veilige omgeving waarbinnen dit kritisch bevragen en vrije denken mogelijk is, waar de alternatieven mogen worden bedacht en waar mag worden geëxperimenteerd met nieuwe technologieën. Binnen de VPRO beschouwen we dat ook als een kerntaak. We doen dat zoveel mogelijk binnen onze programmering, maar op onze titels worden ook gewoon een aantal normen gelegd: we moeten een minimaal aantal kijkers, luisteraars, bezoekers hebben. En die producties mogen maximaal maar zoveel kosten. Het Medialab in Eindhoven hebben we opgezet als een echt vrije omgeving, waarin we proberen juist zoveel mogelijk los te komen van al die opgelegde normen. En het Medialab is dus continu op zoek, zoveel mogelijk gevoed door de kennis die binnen de VPRO maar ook in het brede netwerk van kunstenaars, wetenschappers, designers, auteurs, journalisten beschikbaar is, om relevante ontwikkelingen op te pikken, te bestuderen.

De innovatie binnen de publieke omroep is altijd gericht op media: zowel het maken ervan, als het consumeren. Ook daarom is het een kerntaak: we zien ons publiek bewegingen maken, weg van het zogeheten ‘lineaire’ kijken, en nieuwe platforms omarmen. Die moeten wij dus ook leren kennen. We moeten ermee kunnen omgaan, en kunnen beoordelen of zo’n nieuw platform, zo’n nieuwe technologie, wat voor ons kan zijn. En al doende, leren wij zo’n technologie kennen, en komen we er ook achter wat de positieve en mogelijk ook negatieve toepassingen ervan zijn.

Wij vermoeden dat, naarmate wearable technology populairder wordt, er ook invloed kan zijn op onze mediaconsumptie. We zien dat natuurlijk al bij uitstek in de mobiele apparaten die we bij ons dragen: onze mobiele telefoons, tablets en e-readers. Maar wearable technology ontwikkelt zich snel: van smart watches tot zweetbandjes en ondergoed dat onze hartslag, bloeddruk en lichaamstemperatuur in de gaten kan houden. Zelfs ons seksleven ontkomt er niet aan – bevrediging op afstand vereist geen hoogstandjes meer…

Wearables kunnen worden ingezet om media te maken en om media te gebruiken. We zullen er prachtige dingen mee kunnen creëren. Maar de keerzijde moeten we ook belichten. De grootste zorg die ik hierover heb, heeft betrekking op de data die met wearable technology worden verzameld en kunnen worden uitgewisseld. En dus is daar de inhoud van dit programma, voor een belangrijk deel, op gericht. Welke gegevens over onszelf geven wij prijs zonder dat we dat in de gaten hebben? En hoe kunnen we ons publiek daarvan bewust maken? Wat verraden mijn oogopslag, mijn houding, de manier waarop ik loop, aan de winkel waar ik mijn dagelijkse boodschappen doe? We weten dat er kledingwinkels zijn die al experimenteren met persoonsgerichte display-advertising, na een razendsnelle analyse van mijn persoonskenmerken.

‘We Know How You Feel’ beoogt om het publiek inzicht te geven in deze ontwikkelingen en processen. Vorig jaar deden we een soortgelijk project, ‘We are data’ geheten. De bijbehorende website, clickclickclick.click, werd bijna een miljoen keer aangeklikt. Het onderwerp leeft, dat is evident, het is urgent en het roept om kritische bevraging.

Ik bemerk veel overeenkomsten tussen de doelen die ik hierboven beschrijf, en jouw observaties over Gr1p. Mijn wedervraag is dan: wat is volgens jou de meest effectieve manier om die doelen te bereiken? Is bewustwording van het publiek genoeg? En hoe bereik je die bewustwording dan het beste?

Hartelijke groet,

GJ Bogaerts
hoofd digitaal VPRO


Wearables kunnen worden ingezet om media te maken en om media te gebruiken. We zullen er prachtige dingen mee kunnen creëren. Maar de keerzijde moeten we ook belichten.
Geert-Jan Bogaerts


Tessel Renzenbrink - Zondag 4-10-2017 22:08

Hoi Geert-Jan,

Technologie is noch goed, noch slecht daar zijn we het over eens. Maar anders dan jij, denk ik niet dat technologie neutraal is. Integendeel. Elk technologisch artefact is een uitdrukking van een set culturele waarden. Algoritmen bijvoorbeeld, kunnen de vooroordelen reproduceren die in een samenleving aanwezig zijn.

Om een voorbeeld te geven: sommige rechtbanken in de Verenigde Staten maken gebruik van algoritmen om de strafmaat van veroordeelden te bepalen. Op basis van data wordt het risico berekend dat iemand in de toekomst opnieuw een misdaad zal begaan. Is de score hoog, dan kan de rechter bepalen een hogere straf op te leggen. Uit onderzoek blijkt dat de algoritmen bevooroordeeld zijn: zwarte mensen krijgen vaker een hogere score dan witte mensen. Voormalig procureur-generaal Eric Holder die onder president Obama diende, sprak zich uit tegen zulk gebruik van algoritmen omdat: ‘Ze de onrechtvaardige ongelijkheid kunnen verergeren die al veel te vaak voorkomt in ons justitieel apparaat en in onze samenleving.’

Technologie is altijd een uitdrukking van bepaalde normen en waarden. Het is daarom noodzakelijk – zoals je zegt – dat wetenschappers en kunstenaars technologie kritisch bevragen om die impliciete waarden zichtbaar te maken en waar nodig aan de orde te stellen. Maar het is niet voldoende. Het is namelijk reactief.

Als je reageert nadat de technologie op de markt is gebracht, opereer je al binnen een bepaald paradigma. We zullen al eerder in het proces actief moeten zijn, als mensen, als samenleving, om te bepalen wat we willen met tech. Het maakt uit wat je bouwt. Dat je nadenkt over wat je wil bouwen nog voor je aan de slag gaat. En dat gaat over waarden. In laatste instantie gaat het niet om welke technologie je wil realiseren maar welke waarden je in technologie wil belichamen.

In die zin is het interessant dat Medialab met “We Know How You Feel” niet alleen kritisch vragen stelt over wearables maar er ook mee experimenteert samen met kunstenaar Nick Verstand en TNO. Hiermee eigent Medialab & co zich een scheppende rol toe en de mogelijkheid de waarden te bepalen.

De onderzoeksvraag die daarbij gesteld wordt, is: kunnen we ons media aanbod afstemmen op jouw gemoedstoestand op basis van emotie-data? Maar is dat een interessante vraag? Welke onderliggende waarden beaam je met zo’n doelstelling en welke laat je buiten beschouwing?

Ik snap hoe deze toepassing van emotie-data de omroepen kan dienen. Een gepersonaliseerd media aanbod zou er toe kunnen leiden dat mensen langer op het kanaal blijven hangen. Goed voor de kijkcijfers. Maar hoe wordt daarmee het publieke belang gediend?

Want de jacht op clicks en eyeballs waar veel media door bevangen zijn, vind ik geen doel op zich. Daarnaast doemt natuurlijk de geest van de filterbubbel levensgroot op. Personalisatie op basis van data – emotie of anderszins – leidt per definitie tot een media aanbod dat op jouw interesses en overtuigingen is afgestemd. Daarmee bevestigt en reproduceert het je wereldbeeld. Terwijl het me toch bij uitstek een taak van de publieke omroep lijkt om mensen ook bekend te maken met de leefwereld van andere groepen in de maatschappij.

In je brief vraag je of brede bewustwording genoeg is om de technologische ontwikkeling een kant op te duwen die het algemeen belang dient. Welnu, ik denk niet dat het genoeg is maar het is wel het begin. Het is onder druk van een collectieve overtuiging dat dingen veranderen.

Neem bijvoorbeeld een andere technologische revolutie die nu in volle gang is: de energietransitie. Door de decennia heen groeide het bewustzijn dat de economie, en met name de energievoorziening, moet verduurzamen. Door die bewustwording werd er op steeds meer domeinen actie ondernomen. Overheden kwamen met regelgeving en verdragen. Techneuten gingen innoveren. Er werd belastinggeld vrijgemaakt om die innovatie te bekostigen. Consumenten maakten andere afwegingen. Bedrijven gingen voor groen.

Op je vraag wat dan die beste manier is om bewustwording te bereiken, is mijn antwoord: alternatieven. Zonder alternatief is er geen handelsperspectief en dat leidt tot een zekere gelatenheid. Waarom zou je je druk maken om iets wat je toch niet kan veranderen? Pas toen er levensvatbare duurzame energietechnologieën beschikbaar kwamen, konden mensen hun zorgen omzetten in daden.

Maar die alternatieven zijn natuurlijk niet uit het niets ontstaan. Die zijn gepionierd door mensen en instellingen die naar andere oplossingen zochten, andere vragen stelden omdat ze andere waarden als vertrekpunt namen. Vandaar dus mijn vraag welke waarden aan de AURA kunstinstallatie ten grondslag liggen.

Vriendelijke groeten,

Tessel


Geert-Jan Bogaerts - Zondag 7-10-2017 18:11

Hi Tessel,

Laat ik beginnen met het beantwoorden van je vraag over de waarden die aan ons Medialab-project ten grondslag liggen. De waarde die ik het allerbelangrijkst vind, is inzicht. Je zou een reeks kunnen maken die begint met data, data leiden tot feiten, heb je feiten dan ben je geïnformeerd, en informatie kan op zijn beurt leiden tot begrip of inzicht. Geen van die stappen is vanzelfsprekend; je moet moeite doen om van data te komen tot feiten, en van feiten tot informatie, en van informatie tot inzicht. Met ons project “We Know How You Feel” beogen we uiteindelijk de vanzelfsprekendheid ter discussie te stellen waarmee door sommigen in de mediawereld wordt gedacht over het gebruik van algoritmes en data. Want als we die niet goed gebruiken, lopen we precies die risico’s die jij hieronder benoemt: dat van filter bubbles, van het uitbannen van verrassingen en serendipiteit, het gaan voor de grootste gemene deler in plaats van het opzoeken van de interessante niches waar mensen werkelijk wat nieuws kunnen leren.

Pas als we (als samenleving) echt begrip hebben van de manieren waarop data en algoritmes onze levens beïnvloeden — en dat in steeds grotere mate gaan doen naarmate onze omgeving meer door slimme machines wordt beheerst – kunnen we denken aan alternatieven. Ik prijs mij gelukkig te werken voor een omroep die oog heeft voor die alternatieven en daar regelmatig over bericht, met Tegenlicht als beste voorbeeld daarvan.

Aan elke technologische vernieuwing, aan elke uitvinding, ligt verbeelding ten grondslag. De Amerikaanse auteur Neal Stephenson is samen met de Universiteit van Arizona een interessant project gestart (“Project Hieroglyph”), dat science-fiction auteurs in contact brengt met wetenschappers. Het idee borduurt voort op een gedachte van Carl Sagan, die ooit zei dat de weg voor de meest baanbrekende wetenschap is geplaveid door science fiction – het is de kracht van de verbeelding die de wetenschap de weg wijst. Als we ons niet konden verbeelden dat de mensen niet meer hoefden te overlijden aan pokken of longontsteking, waren het pokkenvaccin en de antibiotica nooit uitgevonden. Arthur C. Clarke bedacht kort na de tweede wereldoorlog al dat wereldwijde communicatie een stuk eenvoudiger zou zijn als er satellieten gelanceerd konden worden die zich op een vaste plek boven de aarde zouden bevinden. Twintig jaar later, halverwege de jaren zestig, werd de eerste geostationaire satelliet gelanceerd, en nu kunnen we niet meer zonder.

Over de neutraliteit van technologie: ik ben het met je eens dat wij mensen technologie scheppen en dat doen vanuit onze eigen behoeften en vooroordelen. In die zin is technologie inderdaad niet neutraal. De nuance zit volgens mij in de observaties van Kevin Kelly: What Technology Wants. Kelly betoogt dat technologie een eigen evolutie kent, en onafhankelijk van de mens zijn eigen voortgang creëert. In dat opzicht trekt technologie zich niks aan van menselijke vooroordelen. Laten we deze gedachte concreet maken: Google kwam recent onder vuur te liggen, omdat een image search op ‘black people’ uiteindelijk ook foto’s toonde van gorilla’s. En even later bleek dat Google’s Adwords veel vaker advertenties voor hoog betaalde banen aan mannen toonde dan aan vrouwen. Dit zijn voorbeelden van hoe technologie niet neutraal werd ingezet. Maar onder deze voorbeelden ligt een instrumentenpaneel van statistische wiskunde, met veel aandacht voor regressie-analyses en standaard-deviaties, in de programmeertalen die Google gebruikt. Wetenschappers gebruikten dit instrumentenpaneel al lang, en het was een kwestie van tijd voordat software-ontwikkelaars het gingen ontdekken om de enorme hoeveelheid data die beschikbaar komen te analyseren. En die analyses staan vervolgens nieuwe toepassingen toe: Siri en Alexa worden slimmer en slimmer, maar tegelijkertijd zijn het nog steeds producten van menselijke verbeelding – en dus ook van menselijke vooroordelen.

Het grote gevaar in deze ontwikkeling schuilt naar mijn idee niet in deze observatie op zich – menselijke vooruitgang is alleen mogelijk omdat we idealen hebben die voortkomen uit onze eigen visie op de wereld. Het gevaar zit hem erin dat de middelen om deze vooruitgang te realiseren in de handen zijn van steeds minder mensen. Het zijn Facebook, Google, Apple, Amazon en Microsoft die onze nieuwe wereld aan het bouwen zijn. En het beangstigt mij dat dit bedrijven zijn die zich onttrekken aan enige vorm van democratische controle, en uiteindelijk maar op één ding worden afgerekend door hun aandeelhouders: de winst per aandeel. En ik ben eerlijk gezegd niet heel optimistisch dat er, zoals jij schrijft, een ‘collectieve overtuiging’ kan ontstaan die uiteindelijk de druk tot verandering teweeg brengt. Dat komt omdat dit wereldwijd opererende ondernemingen zijn, en er geen spoor van politieke wereldwijde consensus is over de juiste aanpak. De EU trekt zijn eigen plan, en introduceert een ‘right to be forgotten’ – en daarbinnen is Duitsland dan weer het enige land dat platforms aansprakelijk stelt voor het toelaten van ‘hate speech’. De politiek van de VS daarentegen is gericht op het instandhouden van de posities van deze ondernemingen en introduceert wetgeving die deze ondernemingen beschermt. En dan hebben we het nog niet eens over de inbreuken op het vrije internet door bijv. Rusland en China.

Maar, geheel in lijn met mijn techno-optimistische visie, denk ik ook dat de techniek uiteindelijk hiervoor een oplossing kan bieden — blockchain FTW!

GJ Bogaerts
hoofd digitaal VPRO


Tessel Renzenbrink - Zondag 4-10-2017 22:08

Hey Geert-Jan,

Je brief bevat drie elementen die ik lastig met elkaar kan rijmen. Technologie drukt altijd vooroordelen uit, zeg je, omdat het is ontsproten uit het nimmer waardevrije menselijk brein. Tot zo ver ben ik het met je eens: technologie is niet neutraal. Vervolgens zeg je dat het werkelijke gevaar er uit bestaat dat technologie wordt ontwikkeld door een kleine tech elite: de Amazons, de Facebooks. Deze bedrijven zijn niet onderhevig aan democratische controle en hun voornaamste sturingsmechanisme is winstbejag. Dat is inderdaad een angstaanjagend gegeven.

Maar tenslotte zeg je dat het allemaal wel goed komt omdat de techniek zelf – in de vorm van blockchain – voor een oplossing zal zorgen. Als een autonome kracht die – los van wat wij mensen doen – de monopolisten van hun troon zal stoten.

Die conclusie staat op gespannen voet met de eerste twee uitspraken. Immers, technologie is altijd een uitdrukking van menselijke waarden. Als technologische ontwikkeling in handen is van een kleine groep mensen, zal het de waarden van die groep distribueren en cultiveren. Daarmee neemt hun controle over het speelveld toe. Het technologische domein zal steeds homogener worden en een vorm aannemen die de belangen van die groep dient.

Toch vertrouw je er op dat blockchain technologie zich in die omgeving autonoom kan ontwikkelen en de machtspositie van de tech elite kan aantasten. Dat optimisme deel ik niet met je. Blockchain is, net als elke andere technologie, onderhevig aan de economische, politieke en maatschappelijke structuren waarin het wordt ontwikkeld. Waarom zou de dynamiek die er toe geleid heeft dat het internet is gemonopoliseerd door een paar bedrijven, blockchain ongemoeid laten?

In je laatste twee alinea’s zeg je weinig vertrouwen te hebben dat maatschappelijke druk tot verandering zal leiden. Die rol van change agent is volgens jou voorbehouden aan blockchain. Ik zie dat totaal anders en zal je een voorbeeld geven waarom.

Deze fascinerende grafiek toont het welvaartsniveau van de mensheid in de laatste tweeduizend jaar en wordt vaak aangehaald als het gaat over technologische vooruitgang.

© Our World in Data

Bron: Max Roser (2017) – ‘Economic Growth’. CC BY-SA licentie.
Our World in Data
© Our World in Data

De grafiek toont dat de welvaart door de eeuwen heen nauwelijks toeneemt. En dan, halverwege de 18eeeuw, schiet de groei opeens exponentieel omhoog. In hun boek The Second Machine Age identificeren Erik Brynjolfsson en Andrew McAfee de oorzaak van dit keerpunt in de geschiedenis. De knik van de hockeystick-curve valt samen met de uitvinding van de stoommachine: het begin van de eerste industriële revolutie.

Niet iedereen werd opgetild op de golven van de welvaartsgroei. Integendeel. De transitie van een agrarische naar een industriële samenleving ging gepaard met verschrikkelijke misstanden. Er was uitbuiting, kinderarbeid, arbeiders werkten 14 uur per dag en leefden in extreme armoede. Pas toen onze voorouders en masse betere leefomstandigheden opeisten, kwam daar verandering in. Maatschappelijke betrokkenheid bij technologische ontwikkeling is daarom wel degelijk van belang. De stoommachine zorgde voor exponentiële welvaartsgroei maar wat er vervolgens met die welvaart gebeurd, ligt niet besloten in de stoommachine. Daar beslissen wij mensen over.

Na staan we aan de vooravond van de derde industriële revolutie, Industrie 4.0 of het tweede machinetijdperk. Hoe je het ook wilt noemen, we moeten er voor zorgen dat de geschiedenis zich niet herhaalt. Dat we de technologische revolutie deze keer op zo’n wijze sturen, dat het iedereen ten goede komt.

Ik geloof niet dat blockchain dat op een of andere miraculeuze wijze voor ons gaat bewerkstelligen. Dat zullen we zelf moeten afdwingen. Want dat is het gevaar van techno-optimisme: het geloof dat technologie als vanzelf tot de meest positieve uitkomst leidt en wij daarom geen verantwoordelijkheid hoeven te nemen.

Vriendelijke groeten,
Tessel


Geert-Jan Bogaerts - Maandag 16-10-2017 15:43

Hi Tessel,

Ik begrijp dat dit mijn laatste woord is – kort dan, en ik zie uit naar het vervolg van onze correspondentie op de Eindhovense avond!

Techno-optimisme ontslaat ons niet van de plicht tot handelen en kritisch bevragen! Dus ook al denk ik dat techniek zowel de oorzaak als de oplossing van veel van onze problemen is, denk ik toch dat partijen als Gr1p en de VPRO ervoor moeten zorgen dat we die techniek kritisch blijven bevragen.

Groet,

GJ Bogaerts


Tessel Renzenbrink - Maandag 16-10-2017 17:01

Hoi Geert-Jan,

Dank je voor de levendige briefwisseling. Het was interessant om met je van
gedachten te wisselen. Leuk om verder te praten op de 25ste!

Vriendelijke groeten,
Tessel