We bouwen een dystopie enkel om mensen op ads te doen klikken

In haar TED-talk doet techno-socioloog Zeynep Tufekci uit de doeken hoe we een dystopie aan het bouwen zijn, aangedreven door kunstmatige intelligentie, één klik per keer. Ze vertelt hoe dezelfde algoritmes die bedrijven als Facebook, Google en Amazon gebruiken om je op advertenties te laten klikken, ook worden gebruikt om jouw toegang tot politieke en sociale informatie te organiseren. En de machines zijn volgens haar niet eens de echte bedreiging. Wat we moeten begrijpen is hoe de machtigen der aarde AI kunnen gebruiken om ons te controleren — en wat we als reactie daarop kunnen doen.

We’re building a dystopia just to make people click on ads

Mensen die hun bezorgdheid uiten over kunstmatige intelligentie, gebruiken daarvoor vaak het schrikbeeld van op hol geslagen, mensachtige robots. Terminator en zo. Nou slaat dat de plank niet helemaal mis, maar het blijft nogal vergezocht. Of we vrezen digitale datavergaring aan de hand van oude metaforen. ‘1984’, van George Orwell. Het staat weer in de bestsellerlijsten. Het is een geweldig boek, maar niet de juiste dystopie voor de 21ste eeuw. Wat wij het meest moeten vrezen, is niet wat kunstmatige intelligentie op zich ons zal aandoen, maar hoe de mensen met macht ons middels kunstmatige intelligentie gaan beheersen en manipuleren op ongekende, soms verborgen, subtiele en onverwachte manieren. Veel van de technologie die onze vrijheid en waardigheid bedreigt in de nabije toekomst, wordt ontwikkeld door bedrijven die zich bezighouden met het verzamelen en verkopen van onze data en onze aandacht aan adverteerders en zo. Facebook, Google, Amazon, Alibaba, Tencent.

Kunstmatige intelligentie begint nu ook hun activiteiten te versterken. En het lijkt misschien alsof kunstmatige intelligentie de volgende stap is na internetreclame. Dat is niet zo. Het is een nieuwe categorie. Een volledig nieuwe wereld, met een enorm potentieel. Het zou ons veel kunnen leren in een hoop onderzoeksgebieden. Maar zoals een bekende Hollywood-filosoof al zei: “Ongekend potentieel brengt ongekende risico’s met zich mee.”

Kijk even naar dat basisfenomeen van ons digitale leven: online advertenties. We nemen ze niet helemaal serieus. Ze lijken dom, ineffectief. We zijn allemaal wel eens achtervolgd door een advertentie voor iets wat we eerder zochten of lazen. Je weet wel, je bekijkt een stel schoenen, en die blijven je dan een hele week achtervolgen. Zelfs nadat je bezweken bent en ze kocht, zie je ze overal terug. Dit soort goedkope manipulatie doet ons al niet zoveel meer. Je rolt met je ogen en denkt: “Zoiets werkt dus niet.” Maar de digitale technologieën online bestaan niet alleen uit advertenties. Een voorbeeld uit de fysieke wereld kan dat helpen verduidelijken. Bij de kassa in de supermarkt liggen altijd kauwgum en snoep op de ooghoogte van kinderen. Dat is bedoeld om hen bij hun ouders te doen zeuren wanneer die klaar staan om te betalen. Dat is beïnvloedingstechniek. Niet aardig, maar het werkt redelijk. Daarom heeft iedere supermarkt het. In de fysieke wereld zijn er grenzen aan zulke beïnvloedingstechniek, want je kan immers niet alles bij de kassa neerleggen. En iedereen ziet dezelfde kauwgum en snoep, ook al werkt het voornamelijk bij mensen met zeurende schepseltjes aan hun zijde. In de fysieke wereld leven we met die beperkingen.

Maar in de digitale wereld kan zulke beïnvloedingsmachinerie gebouwd worden op miljardenschaal, zich richten op individuen, en deze duiden en begrijpen. Ze wordt losgelaten op afzonderlijke individuen door je zwakheden te leren kennen, en ze kan gestuurd worden naar ieders persoonlijke telefoonscherm, onzichtbaar voor anderen. En dat is anders. Dat is slechts een van de dingen die kunstmatige intelligentie kan doen.

Nu een voorbeeld. Stel je wilt vliegtuigtickets naar Las Vegas verkopen. Voorheen ging je dan denken hoe je doelgroep er uit zou zien, op basis van ervaring en wat je gokte. Je zou je kunnen richten op mannen tussen de 25 en 35, of mensen met een hoge limiet op hun credit card, of gepensioneerde echtparen. Zo ging dat in het verleden.

Met big data en zelflerende systemen gaat dat anders in z’n werk. Om je dat voor te stellen, kun je denken aan alle data die Facebook van je heeft: elke status update die je ooit intoetste, elke Messenger-conversatie, elke plek vanwaar je inlogde, al je foto’s die je daarheen uploadde. Als je iets begint te typen maar je bedenkt je en verwijdert het, wordt ook dat door Facebook bewaard en geanalyseerd. Stukje bij beetje proberen ze je offline data te achterhalen. Ook kopen ze veel data van datahandelaren. Dat kan alles zijn, van je financiële gegevens tot een flink stuk van je zoekgeschiedenis. In de Verenigde Staten worden zulke data standaard vergaard, geordend en verkocht. In Europa hebben ze strengere regels.

Door zich vervolgens door al die data heen te worstelen, leren deze zelflerende algoritmen — de naam is niet toevallig — aan welke karakteristieken mensen voldoen die eerder tickets kochten naar Las Vegas. Wat ze opsteken uit bestaande data kunnen ze dan toepassen op nieuwe mensen. Als ze een nieuwe persoon voorgeschoteld krijgen, kunnen ze bepalen of die al dan niet een ticket zal kopen naar Las Vegas. Goed. Nu denk je: een ticket naar Las Vegas… dat geeft toch niet. Maar dat is het probleem niet. Het probleem is dat we niet langer echt begrijpen hoe deze complexe algoritmen werken. We begrijpen niet hoe deze categorisering in z’n werk gaat. Het zijn gigantische matrices, duizenden regels en kolommen, wellicht miljoenen regels en kolommen, en noch de programmeurs, noch wie er ook naar kijkt, ook al heb je alle data, begrijpt nog hoe het precies functioneert. Net zo min als dat je zou weten wat ik momenteel denk, wanneer je een doorsnede van mijn brein zou zien. We programmeren als het ware niet meer, maar we ‘telen’ intelligentie die we niet echt begrijpen.

En deze dingen werken alleen met enorme hoeveelheden data, dus ze stimuleren intensieve datavergaring over ons allemaal, opdat de zelflerende algoritmen hun werk kunnen doen. Daarom vergaart Facebook alle mogelijke data over jou. Dan werken de algoritmen beter.

Nog even terug naar dat voorbeeld over Las Vegas. Stel nou dat het systeem dat we niet begrijpen, doorkreeg dat het makkelijker is om tickets naar Las Vegas te verkopen aan bipolaire mensen vlak voor ze de manische fase ingaan. Vaak gaan zulke mensen geld over de balk smijten en dwangmatig gokken. Dat zouden ze kunnen, zonder dat je een clou had wat ze oppikten. Ik gaf dit voorbeeld eens aan een stel computerwetenschappers en achteraf benaderde een van hen me. Hij keek bedrukt en zei: “Daarom kon ik het niet publiceren.” Ik vroeg: “Wat publiceren?” Hij had onderzocht of je een manie kon zien aankomen aan de hand van sociale media-posts, voordat er klinische symptomen waren. Met succes. Het werkte heel goed, zonder dat hij een idee had hoe, of wat er opgepikt werd.

Het probleem is niet opgelost wanneer hij niet publiceert, want er zijn reeds bedrijven die dergelijke technologie ontwikkelen, met makkelijk verkrijgbare middelen. Dit is niet zo moeilijk meer.

Zit je wel eens op YouTube om één video te kijken, en een uur later heb er 27 gekeken? Je kent die rechterkolom op YouTube wel waar staat: “Up next” en het volgende begint automatisch? Dat is een algoritme dat kiest wat het denkt dat jou interesseert en dat je zelf niet zou vinden. Daar zit geen mens achter. Dat doen algoritmen. Die letten op waar jij naar gekeken hebt en waarnaar anderen zoals jij naar keken, en concludeert dat dat moet zijn wat jou interesseert, waar je meer van wilt, en dat schotelt het je voor. Het klinkt als een goedaardige nuttige functie, maar dat is het soms niet.

In 2016 woonde ik bijeenkomsten bij van toenmalig kandidaat Donald Trump om als onderzoeker zijn beweging te bestuderen. Ik bestudeer sociale bewegingen, en daarom ook deze. Toen wilde ik iets schrijven over een van zijn bijeenkomsten, dus bekeek ik die een paar maal op YouTube. YouTube begon me toen ultrarechtse video’s aan te raden en deze automatisch af te spelen. Steeds een graadje extremer. Als ik er eentje keek, kreeg ik er daarna een die nog wat extremer was en die begon ook automatisch. Als je content bekijkt over Hillary Clinton of Bernie Sanders, schotelt YouTube je linkse complotvideo’s voor en van daar gaat het bergafwaarts.

Nou denk je misschien, dat is politiek, maar dat is niet zo. Dit gaat niet over politiek. Het is slechts een algoritme dat menselijk gedrag doorgrondt. Ik keek eens een filmpje over vegetarisme op YouTube en vervolgens kreeg ik een filmpje over veganisme te zien. Voor YouTube ben je nooit hardcore genoeg.

Waarom is dat toch? Nu is YouTubes algoritme niet openbaar, maar ik denk dat het als volgt zit. Het algoritme heeft uitgedokterd dat als je mensen kan laten geloven dat je hen iets kan laten zien dat meer hardcore is, zij geneigd zijn om op de site te blijven om video na video te kijken, vallend door dat konijnenhol, terwijl Google hen advertenties kan tonen. Als er niemand is die op de ethische code let, kunnen deze sites mensen profileren die Joden haten, die vinden dat Joden parasieten zijn en die zulke expliciete antisemitische content tonen, en jou daar gericht laten adverteren. Ook kunnen ze algoritmen mobiliseren om soortgelijk publiek voor je te vinden. Mensen zonder zulke expliciete antisemitische content op hun profiel, maar die volgens het algoritme mogelijk ontvankelijk zijn voor zulke boodschappen, en daar mag je dan ook adverteren. Dat klinkt misschien als een onwaarschijnlijk voorbeeld, maar dit is echt. ProPublica onderzocht dit en ontdekte dat je dit daadwerkelijk kan doen op Facebook, waarbij Facebook behulpzaam suggereert hoe je dat publiek kan verbreden. BuzzFeed probeerde het bij Google en merkte al snel dat het daar ook kan. Het was niet eens duur. De journalist van ProPublica gaf zo’n 30 dollar uit om deze doelgroep aan te spreken.

Verleden jaar onthulde Donald Trumps sociale media-manager dat ze met ‘dark posts’ op Facebook mensen demobiliseerden, niet om ze over te halen, maar om ze te ontmoedigen te gaan stemmen. Om dat te doen, richtten ze zich specifiek op bijvoorbeeld zwarte Amerikaanse mannen in belangrijke steden als Philadelphia. Ik zal voorlezen wat hij zei. Ik citeer.

Ze gebruikten “niet-openbare posts, gericht op een doelgroep die de campagne bepaalt, dus enkel zichtbaar voor wie wij willen dat het ziet. Wij gaven dit vorm. Ze zal hierdoor veel moeite hebben deze mensen voor haar te laten stemmen.”

Wat staat er in deze ‘dark posts’? We hebben geen idee. Dat houdt Facebook geheim.

Facebook gebruikt ook een algoritme voor de ordening van vriendenposts of de pagina’s die je volgt. Ze tonen je niet alles chronologisch. Het algoritme kiest de volgorde die jou naar verwachting het langst op de site zal houden.

Dit heeft zo zijn consequenties. Je denkt misschien dat iemand je negeert op Facebook. Maar misschien toont het algoritme die persoon nooit jouw posts. Het geeft voorrang aan de een en begraaft de ander.

Experimenten laten zien dat wat het algoritme toont, invloed kan hebben op je emoties. Maar niet alleen dat. Het beïnvloedt ook politiek gedrag. In 2010, in de verkiezingen voor het Amerikaanse congres, deed Facebook een experiment met 61 miljoen Amerikanen dat ze achteraf openbaar maakten. Sommige mensen kregen te zien: ‘Vandaag is verkiezingsdag’, de eenvoudige versie, en anderen zagen de versie met die kleine aanpassing, met thumbnails van je vrienden die hadden geklikt op ‘Ik heb gestemd’. Een kleine aanpassing. Die foto’s waren het enige verschil, maar door één enkele vertoning daarvan gingen 340.000 mensen méér hun stem uitbrengen tijdens die verkiezingen, volgens dit onderzoek, en bevestigd door de opkomstcijfers. Toeval? Nee. Want in 2012 herhaalden ze dit experiment en deze keer zorgde één enkele vertoning van die boodschap voor 270.000 extra stembusgangers. Ter vergelijk: in de presidentsverkiezingen van 2016 gaven zo’n 100.000 stemmen de doorslag. Facebook kan met gemak jouw politieke gezindheid achterhalen, al heb je die nooit geuit op de site. Geen enkel probleem voor die algoritmen. Stel nou dat een platform met zulke macht besluit om de opkomst te stimuleren voor een bepaalde kandidaat? Hoe zouden we dat ook maar te weten komen?

We zijn begonnen bij iets dat onschuldig lijkt — online advertenties die ons achtervolgen — en zijn ergens anders aanbeland. Als publiek en als burgers weten we niet meer of we allemaal dezelfde informatie zien, of wat anderen te zien krijgen. Zonder een gedeelde informatievoorziening wordt openbaar debat geleidelijk aan onmogelijk. En dit is nog maar net begonnen. Deze algoritmen achterhalen met gemak dingen als je etnische afkomst, religieuze en politieke gezindheid, intelligentie, welzijn, gebruik van verslavende middelen, gescheiden ouders, leeftijd en geslacht, puur op basis van Facebook-likes. Deze algoritmen kunnen demonstranten identificeren wier gezichten gedeeltelijk bedekt zijn. Deze algoritmen zijn mogelijk in staat iemands seksuele voorkeur te achterhalen op basis van profielfoto’s op datingsites.

Weliswaar op basis van waarschijnlijkheid, dus ze hebben het ook wel eens bij het verkeerde eind, maar ik zie de machtigen der aarde deze technologieën nog niet schuwen enkel vanwege wat valse positieven. Dit creëert uiteraard een geheel nieuwe laag problemen. Stel je voor wat een staat kan doen met de immense hoeveelheid data die hij bezit van zijn burgers. China gebruikt nu al gezichtsherkenningssoftware om mensen te identificeren en arresteren. En het treurige is dit: we bouwen de infrastructuur van een politiestaat enkel om mensen op advertenties te laten klikken. Dit zal geen Orwelliaanse politiestaat zijn. Het is niet ‘1984’. Als een autoritair regime openlijk angst gebruikt als machtsmiddel, zijn we allemaal bang, maar we weten het. We haten het en verzetten ons ertegen. Maar als de machthebbers deze algoritmen gebruiken om ons stiekem te bespieden, te beoordelen en te sturen … te voorspellen wie de dwarsliggers en rebellen zijn, om op grote schaal die beïnvloedingsmachine in te zetten en mensen individueel te manipuleren, gebruik makend van ieders persoonlijke zwakheden, en ze doen dat op grote schaal via onze persoonlijke schermen, zodat we niet eens weten wat onze medeburger of onze buurman ziet … … dat autoritarisme zal ons omsluiten als een spinnenweb, waarvan we mogelijk niet eens weten dat we erin zitten.

Facebooks marktkapitalisatie nadert nu 420 miljard euro. Dat komt omdat het geweldig werkt als beïnvloedingsmachine. Maar die machinerie werkt hetzelfde of je nu schoenen verkoopt of een politieke mening. De algoritmen kennen het verschil niet. Dezelfde algoritmen die op je losgelaten worden om ons dingen aan te smeren, bepalen tevens je politieke, persoonlijke en sociale informatiestromen en dát moet veranderen.

Begrijp me niet verkeerd, we gebruiken digitale platformen omdat die van grote waarde zijn voor ons. Ik gebruik Facebook voor contact met vrienden en familie elders ter wereld. Ik heb geschreven over het enorme belang van sociale media voor sociale bewegingen. Ik heb bestudeerd hoe deze technologieën gebruikt kunnen worden om wereldwijd censuur te omzeilen. Maar het is niet dat de mensen die Facebook en Google en zo runnen kwaadaardig en bewust proberen om het land of de wereld meer gepolariseerd te maken en extremisme aan te wakkeren. Ik heb vele welbedoelde statements gelezen van de hand van deze mensen. Het zijn niet de intentie of de statements van mensen in de technologiesector die ertoe doen, maar de structuren en de bedrijfsmodellen die ze bouwen. Dat is de kern van het probleem. Ofwel Facebook zijn oplichters van bijna een half biljoen met advertenties die niet werken, die niet werken als beïnvloedingsmachine, óf hun beïnvloedingsmacht is reden tot grote zorg. Het is het een of het ander. Google is een soortgelijk verhaal.

Wat kunnen we eraan doen? Dit moet veranderen. Ik kan geen simpel recept geven, want wij moeten de functioneringswijze van onze hele digitale technologie herinrichten. Alles, van hoe de technologie ontwikkeld wordt, tot hoe de stimuli, zowel economisch als anderszins, in het systeem ingebouwd zijn. We zullen een antwoord moeten vinden op het gebrek aan transparantie veroorzaakt door gesloten algoritmen, de ondoorzichtigheid van kunstmatige intelligentie, en die massa’s data die over ons verzameld worden. Er staat ons veel te doen. We moeten onze technologie mobiliseren, onze creativiteit en ook onze politiek, zodat we kunstmatige intelligentie kunnen bouwen die ons ondersteunt in onze menselijke doelen, maar die ook beteugeld wordt door onze menselijke waarden. Ik begrijp dat dit niet makkelijk wordt. Misschien is zelfs al consensus over de betekenis van die termen moeilijk. Maar als we serieus nemen hoe deze systemen opereren waarvan we zo sterk afhankelijk zijn, zie ik niet hoe we deze conversatie nog langer kunnen uitstellen. Deze structuren regelen ons functioneren en ze bepalen wat we wel en niet kunnen doen. Veel van deze advertentie-gedreven platformen pochen dat ze gratis zijn. In deze context betekent dat dat wijzelf de koopwaar zijn. We hebben een digitale economie nodig waar onze data en onze aandacht niet te koop zijn voor de hoogstbiedende machthebber.

Om terug te gaan naar dat citaat uit Hollywood: we willen dat het ongekende potentieel van kunstmatige intelligentie en digitale technologie tot wasdom komt, maar daarvoor zullen we dit ongekende monster onder ogen moeten zien, en wel nu.

Zeynep Tufekci: We’re building a dystopia just to make people click on ads