Civis Mundi Digitaal #117
In deel 1 van dit artikel onderzocht ik wat er mis is met de beeldvorming met betrekking tot AI. Betere metaforen zouden ons volgens Philip Boucher in staat kunnen stellen meer realistische toekomstplannen te schetsen, met bijpassende succescriteria. En meer samenwerking mogelijk maken. Maar waar haal je zulke criteria vandaan? In dit tweede en laatste deel laat ik twee prominente technologiewetenschappers aan het woord. Niet alleen als bron van metaforen, maar ook om te kijken of ze wellicht houvast kunnen bieden bij het opstellen kwaliteitscriteria. Tot slot volgt een presentatie van de fraaiste metaforen. Weinig verrassend zijn die van AI in de sociale media.
4. Evaluatie door Mateo Pasquinelli
In zijn artikel ‘How a Machine Learns and Fails – A Grammar of Error for Artificial Intelligence’ in wetenschappelijk tijdschrift Spheres (2019 no.5), legde Pasquinelli de werking van ‘machine learning’ helder uit. Aan Boucher’s bezwaar tegen de naam ‘kunstmatige intelligentie’ komt Pasquinelli tegemoet door te stellen dat AI beter kan worden opgevat als “logisch vergrotingsinstrument, [...] dat patronen waarneemt buiten het bereik van de menselijke hersenen”. Met zijn beeldspraak ‘noöskoop’ bouwt Pasquinelli voort op de telescoop- en microscoopmetafoor van Leibniz (in 1677) en op Yann LeCun, die stelde dat de huidige AI systemen geen ingewikkelde vorm van kennis zijn, maar eerder van waarneming. ‘Machine learning’ werkt inmiddels niet meer met exacte patronen, maar met de statistische verdeling van patronen.
De metafoor ‘noöskoop’ vestigt de aandacht ook op imperfectie van instrumenten, omdat ook de lenzen in micro- en telescopen nooit perfect kunnen worden geslepen. Door ingebakken fouten en afwijkingen komt bestudering van AI volgens Pasquinelli dan ook vooral neer op de mate waarin informatiestromen vertekend, verstoord of kwijtgemaakt worden.
4.1. AI is vooral mensenwerk
Aan de hand van een algemeen schema voor ‘machine learning’, met drie fasen (‘training data’, het algoritme en toepassing van het statistische model) noemt Pasquinelli alle ingrijpende beslissingen die menselijke ‘operators’ dienen te nemen.
Fase 1: De datatraining
“Het trainingsproces [van het algoritme] stopt wanneer een menselijke operator besluit dat een aanvaardbare foutmarge bereikt is met een test dataset [. . .]. Er is geen wetenschappelijke methode om dat te bepalen”. En dat wringt, omdat de kwaliteit van de training allesbepalend is. De uitleg van de professor, met gebruikmaking van de termen ‘overfitting’ en ‘underfitting’ is verhelderend, want hier manifesteert zich het aloude dilemma van snelheid versus kwaliteit.
“Als een model de trainingdata te goed leert, zal het alleen exacte matches herkennen, maar vergelijkbare patronen over het hoofd zien. Men noemt het ‘overfitting’ wanneer het model alles ‘geleerd’ heeft, niet alleen de patronen maar ook de achtergrond (ruis). Het andere uiterste is ‘underfitting’, waar sprake van is wanneer helemaal geen patronen in de trainingdata kunnen worden geformuleerd.”
“’In geval van ‘overfitting’ is er geen “information compression”, terwijl bij ‘underfitting’ alle waardevolle informatie verloren gaat”, aldus Pasquinelli. En als derde mogelijkheid noemt hij de situatie “waarbij een model de verkeerde patroon associatie heeft geleerd. […] dan ziet het patronen die er helemaal niet zijn, want het vat ruis op als een bestaand patroon”.
Enigszins geruststellend is dat dezelfde techniek ook gebruikt kan worden om de kwaliteit van het statistisch model te meten. Zoals recentelijk de Europese Commissie heeft voorgesteld, zouden zo scherpe normen kunnen worden bepaald voor kritieke toepassingen. Maar het kan geen antwoord geven op ethische vragen over toepassing van AI, bijvoorbeeld in de gezondheidszorg, surveillance of ‘cybersecurity’.
Ik sluit me aan bij Cassie Kozyrkov, die in 2018 advies gaf bij selecteren van geschikte toepassingen voor AI: “Wanneer we ons AI voorstellen als een eiland vol dronken mensen met laptops [...] wordt extra belangrijk dat ’Machine learning’ ons vertrouwen [zou] moeten winnen door goed uit de test te moeten komen. [. . .] Tenzij zakelijke beslissers in staat zijn een goede test op te stellen, is toepassing van ‘machine learning’ af te raden”. Wat haar betreft dus alleen voor welomschreven, repetitieve taken.
Fase 2. Het algoritme
Pasquinelli legt uit: “Een lerend algoritme, dat de kern vormt van de huidige AI systemen, heeft als doel een statistisch model te berekenen van de trainingsdata. Het model is de statistische representatie van een grote en diverse training-dataset in één bestand.”
Omdat de gefabriceerde ‘statistische modellen’ per definitie geen compleet beeld van de werkelijkheid tonen, besteedt de professor vervolgens veel aandacht aan alle mogelijke manieren van verlies van belangrijke details (‘information loss’) en vooroordelen (‘social bias’).
Corona zouden velen later gaan zien als ‘wake-up call’ en opnieuw een kans om de wijze raad van de ‘Club van Rome’, met inmiddels vijftig jaar vertraging, op te volgen en elkaar en andere natuurlijke ‘hulpbronnen’ niet langer uit te putten met onze kapitalistische economie. Accelerationisten menen echter dat we ons ook uit de crisis zouden kunnen knokken door nog efficiënter te gaan werken. Want wie is er nou tegen ‘veel nieuwe banen’ die economisch groeiherstel zouden creëren? Veel begeerlijke banen dragen daar voor alsnog echter niet toe bij, integendeel. Er kwam zelfs een nieuw woord: “bullshitjobs”. Toch blijven zogenaamde “accelerationisten” nog steeds de aanjagers, met Elon Musk nota bene als ‘person of the year’ in Time Magazine.
Fase 3. Toepassing van het statistische model
In technische zin wordt toepassing van AI verdeeld in categorisering en voorspelling. Wanneer en waar mensen in categorieën worden ingedeeld, wordt het spannend en ligt vergelijking met mensenrassen, slavenhandel of antisemitisme op de loer. Met de tweede categorie (voorspellen) hebben we al aanzienlijk minder moeite. Bijvoorbeeld wanneer een online boekhandel ons interessante boeken voorstelt op basis van ons klikgedrag, onze klanthistorie en gekochte of geleende persoonlijke data. Als getrainde online consumenten verwachten we dit nu anno 2021 zelfs.
Met betrekking tot overheidsbeleid voorspelde Dan McQuillan vanaf 2015 drama’s, zoals de Nederlandse Kinderopvangtoeslagengenaffaire, toen hij schreef: “Door de doelgerichte blik van AI zullen [onrecht en] ‘states of exception’ (Giorgio Agamben) van de randen van het sociale leven verschuiven naar het centrum”. Het betreft oorlogsgeweld, dat McQuillan noemt, en in dit geval overijverige fraudebestrijding. Maar onder een neo-liberaal gesternte mocht het helaas allemaal niet baten. Ook voor Corona werden velen al niet vrolijker van digitalisering.
Toepassing van AI mag dan volgens Pasquinelli niet wetenschappelijk zijn, toch hoeft er op zich niks mis te zijn met behoedzaam uitproberen van nieuwe technologie. We hebben er immers al millennia lang van alles aan te danken. Recentelijk heeft AI op grond van de snelheid van brute rekenkracht zijn nut bijvoorbeeld bewezen bij beoordeling van borstkanker. AI versloeg alle radiologen.
Maar alle technologie heeft ook een farmacologisch aspect, waarmee bedoeld is dat ze ‘giftig’ wordt, wanneer aan toepassing ervan onvoldoende zorg wordt besteed (AAGT-AG, vocabulaire, Franstalig).
Sociale media zijn een bijzondere toepassing van kunstmatige intelligentie (fase 3, hierboven) omdat ze eveneens actief zijn op het gebied van ‘data capture’ (fase 1). Vanwege de ongekende grootschaligheid staat ze beter bekend als ‘Big data’. Voordat ik in paragraaf 6 toekom aan metaforen voor sociale meda, laat in paragraaf 5 eerste de beroemdste criticus van sociale media, Bernard Stiegler, aan het woord. Hij en anderen maakten zich flink boos, wat prachtige metaforen opleverde.
4.2. Politieke-economie en burgerrechten
Pasquinelli vestigt uitgebreid de aandacht op de politieke dimensie van AI, met twee grote problemen, veroorzaakt door de huidige organisatie van het verkrijgen van data, op grote schaal door de techgiganten:
Het roept volgens hem en veel andere wetenschappers vragen op over datasoevereiniteit, privacy en burgerrechten. In Nederland promoveerde recentelijk Peter Olsthoorn op dit onderwerp. Tijdens de tweede covid-‘lockdown’, leven we noodgedwongen met een barcodescanner in de zogenaamde ‘corona-app’. De barcode dreigde zelfs als muur te zullen worden gebruikt tussen twee categorieën burgers, gevaccineerd en ongevaccineerd. Een nieuw-normale segregatie, met behulp van technologie, die treffend werd geïllustreerd met een plaatje van kinderen die over een barcodemuur proberen te klimmen.
Eerder plaatste Pasquinelli AI in historisch economische context (met niet mis te verstane voorbeelden). Hij vat nu samen: “Sinds de oudheid zijn algoritmen toegepast als procedures van economische aard, ontworpen om een resultaat te boeken in het kortste aantal stappen, met zo min mogelijk hulpbronnen, zoals ruimte, tijd, energie etcetera”. En, in lijn met de wapenmetafoor:
“In de huidige wapenwedloop tussen AI bedrijven gaat het om het vinden van de snelste algoritmen om statistische modellen te berekenen. Zodoende kan aan de mate van ‘information compression’ niet alleen de winstgevendheid van deze bedrijven worden afgelezen, maar tevens de mate van ‘information loss’ – en dat verlies betekent helaas vaak een wereldwijd verlies van culturele diversiteit.”
Gebaseerd op dit verband schiet mij, in weerwil van het advies van Boucher, toch spontaan een eigen containerbegrip voor AI te binnen: ‘Information Implosion Technology’ (IIT). Gelijkenis met de afkorting voor Informatie en Communicatie Technologie, die juist een informatie-explosie bewerkstelligd heeft, berust op toeval.
5. Filosofische antropologie van Bernard Stiegler
“Stiegler behoort zowel tot de fenomenologische als de filosofisch-antropologische traditie”, stelt Lemmens en “postfenomenologie bouwt voort op Husserl en Heidegger. Specifiek naar de manier waarop technologieën intentionaliteit en de menselijke waarneming en kennis beïnvloeden, en meer algemeen naar de relaties tussen mensen en met de wereld”. De filosofisch-antropologische traditie kende tot het overlijden van Stiegler twee giganten, die voortbouwden op het werk van Heidegger, te weten Peter Sloterdijk en Bernard Stiegler. Lemmens: “De eerste baseerde zijn theorie over de oorsprong van de mens onder andere op de Duitse filosofische antropologie. Ondanks overeenkomsten baseerde Bernard Stiegler zich op de palaeo-antropologie van Leroi-Gourhan”. Het maakt Stiegler volgens Lemmens “zonder enige twijfel de origineelste en meest uitgebreide denker over technologie”.
In zijn boek The Age of Disruption (2016, p. 100) vatte Stiegler zijn gedachten samen over hoe digitalisering van analoge media ‘algoritmisch bestuur’ introduceerde en ernstige gevolgen heeft voor het nöetische leven, d.w.z. het menselijk bewustzijn. Ten eerste heeft het uiteindelijk geleid tot wat Berns en Rouvroy in 2013 “algoritmisch bestuur” hebben genoemd, als term voor “de systematische exploitatie van interindividuele relaties, die dient om de data-economie te voeden” (p 7).
Ten tweede heeft digitalisering van de massamedia volgens Stiegler uiteindelijk geleid tot een ‘algemene kenniscrisis’: “Digitale automaten zijn erin geslaagd de menselijke rede te omzeilen. En een systemische stupiditeit is gevestigd tussen consumenten en speculanten, [. . .] Het gaat nog veel verder dan wat Mats Alvesson and André Spicer ‘functional stupidity’ hebben genoemd. [. . .] Het is veroorzaakt door de meeste recente serie technologische schokken, veroorzaakt door de digitale omwenteling van 1993, te weten met het wereldwijde web, dus niet alleen met het internet” (Nanjing Lectures, 2019, p17).
Bernard Stiegler plaatste de race-metafoor in een heel ander licht, te weten dat van de arbeidsmarkt. Digitalisering versnelde namelijk het proces van proletarisering van (betekenisvol vak-)werk tot arbeid (in loondienst). Na opeenvolgende stadia van industrialisering bleven uiteindelijk ook de hoogste regionen niet gespaard. Bijvoorbeeld Alan Greenspan, oud president van de centrale bank van de VS, gaf ten tijde van de financiele crisis van 2008 toe, weinig meer te begrijpen van financiële markten. Dat gold ook recentelijk voor de voorzitter van onze eigen centrale bank (m.b.t. inflatie).
Naast arbeid met steeds meer ‘burnouts’ is ook onze vrije tijd een uitputtingsrace geworden, want we moeten fit blijven voor de arbeid. En dat moet ook wel, want sinds de uitvinding van sedentaire landbouw zijn we volgens Pierluca d’Amato in plaats van minder, meer uren gaan werken.
In The Age of Disruption stelde Stiegler eerder: “Omdat de basis van gecomputeriseerd kapitalisme wordt gevormd door statistische on-rede [. . .] en AI zelf verbanden legt, ontkent het transhumanisme de entropische grenzen die het proces van ‘organogenesis’ stelt (p. 7 en 101).” Daarmee doelt hij erop, dat we ten gevolge van de ‘algemene kenniscrisis’, die we zelf creëerden, er niet in zullen slagen nieuwe instituties te organiseren, waarmee we kunnen proberen ook verdere digitalisering in goede banen te leiden. In zijn termen: er komt geen succesvolle ‘transindividuatie’ tot stand, dat is de tweede kenmerkende fase in zijn theorie van het komen en gaan technologische tijdperken (‘double epochal redoubling’). De draai-om remedie tegen ongewenste “zogenaamde neveneffecten” en het creëren van verlangen naar, opnieuw verandering.
Deze theorie is weinig verrassend herkenbaar in de huidige vijf ‘opgaven’ van de WRR, te weten demystificatie, contextualisering, engagement, regulering en positionering. In dit bestek beperk ik mij tot de eerste opgave, demystificatie.
Lemmens beschrijft in genoemd artikel tevens over “de toenemende focus op ethische aspecten van technologie”. Dat wil zeggen de zogenaamde “ethische wending”, na een vroegere “empirische wending”. Daardoor dreigen ook techniekfilosofen onderdeel te worden van de algemene kenniscrisis: “Risico van het debat [. . .] is namelijk dat men zich laat afserveren als een soort ‘handmaiden of the technosciences’, een aparte afdeling die de ethische, juridische en sociale frictie wel eventjes zal wegmasseren”. In de beroemde dystopische film ‘The Handmaid’s Tale’ was te zien hoe een vrouw gedwongen werd als seksslaaf te leven in een fundamentalistische theocratische dictatuur.
“Of het nu gaat over ‘ethics of AI, ethics of digital media, ethics of social media, ethics of organ transplants, ethics of genetic modification, ethics of cloning, ethics of surveillance technology, ethics of human enhance-ment, ethics of self-driving cars, computer ethics, robot ethics, drone ethics, etc.,– de lijst is eindeloos”, verzucht Lemmens.
In een volgende paragraaf pik ik sociale media er even uit, vanwege de bijzonder rol die Stiegler eraan toedacht. Stiegler hanteert afgezien van de reeds genoemde “uitputtingsrace”, “on-rede” en “crisis van de kennissfeer” ook nog andere metaforen hanteerde. Spoileralert: met nog twee metaforen stelt hij, in het navolgende, niet teleur!
5.1. Stieglers metaforen voor AI
“Conflicten veroorzaakt door digitalisering vertonen trekken van spel ‘Russische roulette’”, vond Stiegler. “Vervanging van theoretische modellen en causaliteit door intensieve automatisering en deep learning tart het geluk op vergelijkbare wijze” (vertaling door Daniel Ross van Stiegler’s ‘Unvollendete’ Technics and time 4).
In The Age of Disruption memoreerde Stiegler dat Adorno en Horkheimer al in 1944, met de opkomst van televisie een ‘nieuw barbarisme’ zagen aankomen. Hij onderzocht zelf hoe digitalisering dit proces heeft versneld en, belangrijker, hoe we kunnen proberen het tij nog te keren: “Individuen zijn overstelpt door de gigantische hoeveelheid informatie en de snelheid van digitale stromen, wat geresulteerd heeft in een soort Wilde Westen, waarin ze steeds machtelozer zijn geworden, tot gekte aan toe. […] Filosofisch beschouwd leven we in een ‘tijdperk zonder tijdperk’.” Daarmee bedoelde hij dat vooral in het Westen “onze traditie van denken en zijn verloren is gegaan”. Mireille Hildebrandt en Katja de Vries stelden het in de titel van hun bundel in 2013 zo: ‘de filosofie van de technologie en het recht ontmoeten elkaar’.
De verschillende sferen botsen steeds harder, wat spanningen oplevert. Stiegler riep daarom op tot: “inluiden van een nieuw tijdperk gebaseerd op publieke macht. Daarvoor moeten we, buiten de gevestigde algoritmische routes, vorm geven aan nieuwe circuits van betekenis. Want alleen zo zullen vormen van denken en leven kunnen ontstaan die betekenis voor en aspiraties van individuen herstellen.”
Een wereld dus, waarin iedereen opnieuw kan leven in de metaforen die hij kan en wil begrijpen. Dus tussen decentrale utopie en centralistische dystopie in en “voorbij de storytelling die bepaald wordt door de markt” (ENMI 2014). Hij stelde hiertoe een ‘contributieve’ economie voor die, naar het voorbeeld van de natuur, gebaseerd zal zijn op ‘intermitterende vormen van (samen-)leven, als remedie tegen de huidige uitputtingsrace van het huidige ‘always-on’ kapitalisme’. Onder de noemer ‘regeneratieve economie’ denken gelukkig ook steeds meer economen na over aspecten hiervan.
Het Centre for Human Technology onderschrijft de analyse van Stiegler gedeeltelijk. Alleen reserveren zij vreemd genoeg ‘chaos en catastrofe’ voor de ‘utopische gedecentraliseerde’ oplossingsrichting. Maar in hun bowlingbaan-metafoor wordt ‘centralistische dystopie’ toch verbeeld als de andere goot van een bowlingbaan. Willen we de huidige “meta-crisis” oplossen, dan moeten we dus goed mikken!
De metafoor resoneert met het breed gedeelde inzicht dat het bij de Nederlandse “middenpartijen” al lange tijd ontbreekt aan een verhaal, een visie. In het kader van verhitte debatten in de laatste twee jaar over de coronacrisis, stelde bijvoorbeeld Hans Boutellier: “het kabinet is steeds meer een uitvaardiger van regels geworden. Niet autoritair, maar evenmin met een verhaal. Verhalen hoor je alleen nog aan de flanken”.
Volgens zowel Pasquinelli als Stiegler moeten we oppassen, want precies ‘visie’ (gebaseerd op de lens-metafoor voor inzicht of begrip), lijkt volgens hen door AI te worden achterhaald. In dat licht is het verontrustend dat de WRR in de krant verwijst naar Big Tech, Poetin en Xi, als voorbeelden van snelle beslissers. Want vooral met de zoektocht naar een gedeelde visie, geven we als mensen vorm aan sociale gemeenschappen.
5.2. Transhumanisme en interregnum
Ook na de mondiale financiële crisis van 2008 en de huidige coronacrisis worden met de huidige vage containerbegrippen en antropomorfismen van Boucher nog steeds de mythen van het neo-liberale kapitalistisch systeem in stand gehouden. Met nog steeds genoeg ‘cheerleaders van Silicon Valley’ voorop; nota bene in Amsterdam, waar ambtenaren de bouwput van een nieuw kantoor voor Booking/Priceline nog de koosnaam ‘Silicon Island’ meenden te moeten geven.
Zoals we weten, richten de techreuzen uit Amerika zich inmiddels ook op “NBIC-technologieën” (Nanotechnology, Biotechnology, Information technology and the Cognitive Sciences ) en de mogelijkheiden die deze openen voor ‘mensverbetering’. Lemmens: “Volgens sommigen kan het op termijn zelfs leiden tot het overwinnen van de ‘condition humaine’ en creatie van een ‘posthuman entity’ (transhumanisme)”.
Wolfgang Streeck stelde vast dat we hierdoor in een ‘limbo’ en ‘interregnum’ terecht zijn gekomen.
Daniel Ross citeerde: “Voordat het kapitalisme naar de hel gaat, zal het voorlopig eerst nog een tijd in limbo [het voorgeborchte] blijven hangen, dood of bezwijkend aan een overdosis van zichzelf, waarmee ik bedoel dat het geen nieuwe orde zal voortbrengen, maar juist wanorde of entropie” (Streeck, How Will Capitalism End).
En Tom Cohen en Claire Colebrook riepen Peter Sloterdijk’s lezing ‘Regeln für den Menschenpark’ in herinnering met: “Een brede drift naar een de facto tijdperk van beheerde uitsterving breekt aan”. Arnon Grunberg’s ‘intensieve menshouderij’ roept verschrikkelijke beelden op van stallen en ruimingen. Volgens hen raakten we al voor corona verzeild in een “de facto oorlogsgebied dat voeding geeft aan uiteenlopende verschijnselen, zoals escapisme, digitaal gemanagede vooroordelen, de queeste van cosmotechnics, onomkeerbaarheid [...], proletarisering van ons collectieve geheugen, tele-eugenetica en financieel gemanagede genetische manipulatie”.
En zo werd, afgezien van corona, de huidige zogenaamde ‘transitieperiode’ een onaangename tijd, die bondig door Pieter Heerma in de Tweede Kamer werd samengevat met: “kilte van de markt en bureaucratie van de overheid”. Het ontbreekt volgens Stiegler juist aan transitie. Een situatie die we maar beter niet verder overrijp voor hervorming kunnen laten worden. In plaats daarvan zouden we om te beginnen zo gauw mogelijk de eerder door Stiegler als “giftig” gekenschetste sociale media uit kunnen schakelen. Het wordt inmiddels door velen zonder bronvermelding nagekakeld: “Big Tech is de voornaamste aanjager van destructieve innovatie, die louter en alleen gericht is op private record-winsten”. Met voor gewone mensen hooguit een paar procentjes economische groei bij een hopelijk niet nog hogere inflatie (dan in dec 2021).
De volgende paragraaf gaat over de fraaie metaforen die AI-toepassing bij sociale media heeft opgeleverd. Kleurrijk werd ermee geïllustreerd, hoe funest ongeremde toepassing van AI kan uitpakken.
6. Metaforen voor sociale media
Om zijn visie kracht bij te zetten, bezigde Stiegler een bijbelse metafoor: ”Het is veroorzaakt door de meeste recente serie technologische schokken, veroorzaakt door de digitale omwenteling van 1993, te weten met het wereldwijde web, dus niet alleen met het internet. De voornaamste kenmerken ervan en hun consequenties werken bijna letterlijk verdovend – met name in het licht van de ‘vier ruiters van de Apocalyps’ (Google, Apple, Facebook and Amazon), die de industriële samenlevingen welke voortkwamen uit de Verlichting ontmantelen” (Nanjing Lectures, 2019 p17).
De Apocalyps betreft een waarschuwing uit het bijbelboek ‘Openbaringen’. De ruiters “veroorzaken eindtijdgebeurtenissen” (Wikipedia). “De apocalyptische literatuur is van groot belang in de geschiedenis van de joodse, christelijke en islamitische tradities”. Awati Kailash merkt in genoemd artikel op: “Verschillende toehoorders zullen [...] metaforen verschillend beoordelen, afhankelijk van hun belangen en prioriteiten”. Stiegler zag in ieder geval zelf aanleiding om af te stappen van zijn eerdere, meer neutrale aanduiding ‘Big Four’.
Robert Grimm achtte de ruiters zelfs alle vier van toepassing op één bedrijf, te weten zijn voormalig werkgever, Facebook. Hij is zo boos op Facebook, dat hij op grond van ‘vier aspecten die het bedrijf ongekend gevaarlijk maken en onmogelijk te hervormen’, dat hij het daarnaast ook nog vergeleek met ‘De Hoer van Babylon’. Omdat hij in een goed verzorgde video op Youtube een ‘boekje’ voor ons open doet, kunnen we ‘openbaringen’ hier letterlijk nemen.
Onder de dekmantel ‘sociaal’ weet Zuckerberg het verdienmodel van Facebook nog steeds buiten schot te houden. Grimm zal het dus eens zijn met bovengenoemde zorgen van Pasquinelli en Boucher.
Omdat ik denk dat Stiegler gelijk had, schreef ik met betrekking tot onderzoek naar de algoritmen van de huidige ‘sociale media’ platforms eerder: ‘Gooi ze liever gelijk weg en begin opnieuw!’ De huidige online platforms zijn immers net zomin sociaal als AI intelligent is.
Nog even over de koosnaam ‘Big Tech’: inmiddels dingt ook een vijfde technoruiter mee naar nieuwe beursrecords, zodat de Franstalige wereld nu spreekt van ‘GAFAM’ (Google, Apple, Facebook, Amazon en Microsoft). Daarbuiten werden, voordat het neoliberalisme op zijn retour was, vanaf de financiële crisis van 2008, de Techreuzen, na het hierboven vermeldde ‘Big Four’ ook wel aangeduid met, ‘the Big Five’.
En met ‘The Silicon Six’ breidde Sacha Baron Cohen hun aantal nog verder uit, waarmee hij doelde op inmiddels zes niet democratisch gecontroleerde, superrijke de facto wereldleiders uit Silicon Valley. De benaming doet denken aan bandieten uit een eerdere episode van het ‘Wilde Westen’ van Noord Amerika, die ook al door Stiegler werd gememoreerd.
Nu ik dit schrijf, komt in het nieuws binnen dat no. 6, Jack Dorsey van Twitter is opgestapt. Laat Zuckerberg er een voorbeeld aan nemen, zou ik zeggen. Maar de metafoor blijft goedgekozen, want vestigt de aandacht op inmiddels talloze bewijzen van zakelijk cowboygedrag. De inmiddels beruchte zes creëerden op de fusie- en overnamemarkt een ware ‘kill zone’ om zich heen en niemand durfde daar nog de concurrentie met hen aan te gaan.
Volgens de Amerikaanse antitrust deskundige Matt Stoller heeft dit verschijnsel de afgelopen jaren veel durfkapitaal afgeschrokken, waarmee innovatie ernstig is belemmerd. Het is kritiek die Amerikaanse Conservatieven en Republikeinen zich meer aan zouden moeten trekken. Maar ze hebben door de Chicago-economen, tijdens hun opleiding Adam Smith, Schumpeter en Hayek helaas niet volledig uitgelegd gekregen (Daniel Ross), waardoor de economische focus is komen te liggen op destructieve destructie (Douglas Rushkoff), in plaats van creatieve destructie (Jozef Schumpeter). De combinatie met digitalisering van de massamedia heeft zoals hierboven beschreven geleid tot een algemene kenniscrisis.
6.1. Overbelasting van de zintuigen
In het beeldtijdperk waarin we leven hebben ook plaatjes grote invloed. In de vorm van karikaturen of zogenaamde ‘memes’ kunnen ook tekeningen aanzienlijk bijdragen aan ‘framing’ en stigmatisering. Tekenend is helaas dat NRC-ombudsman Sjoerd de Jong onlangs schreef: “We leven in een tijd waarin we er inmiddels allemaal op gespitst zijn”.
In twee onschuldige plaatjes, die volgens een algoritme worden verspreid, zag ook ik wat ik wilde zien: overbelasting ten gevolge van overmatig smartphone-gebruik. Wat de ogen betreft: in 1986 kon ik nog lachen om om de verfkwast van Wiktor Sadowski. En illustrator Peter Thomas Ryan verbeelde overbelasting van de oren, met het nieuwe verschijnsel ‘Podfasting’: versneld afspelen van podcasts. Het beeldt het accelerationisme, waar Stiegler op doelde, treffend uit.
Voormalig Google werknemer Tristan Harris legde uit, dat het orgaan waar het Big Tech echt om te doen is, onze hersenstam is (‘race to the bottom of the brainstem’). Met neurologische (verslavings-)technieken wordt via onze smartphones met name het concentratievermogen aangetast (Michel Desmurget). Het is funest, omdat het een (echte) ‘kenniseconomie’ natuurlijk onmogelijk maakt.
Om nog een reden kunnen we maar beter niet al te lang naar de schermpjes van de sociale media kijken. In zoverre we zelf verantwoordelijk gehouden kunnen worden voor ‘ego boosting’ via de sociale media, is ook de zeventiende eeuwse spiegel-metafoor van Johan de Brune de Oude interssant. Omdat het ‘Hol Gelas’ in zijn ‘Eyghen-min blint ziel en zin’ (Emblemata of Zinne-werck, 1624 p. 173) vertekent, waarschuwde hij: ”Wanneer zijn lauwe glans verzaemt in ’t hol gelas, Verzenght, verkrenght en brand, dat groen en jeughdigh was”. En in de toelichting krijgen we, met vier eeuwen vooruitziende blik, ook nog een beerput-metafoor voorgeschoteld voor de beeldschermpjes van Facebook:
“’t Is dan te verwonderen, hoe zeere zich noch de menschen vleyen en troetelen in zulck een groot broed-quaed; hoe weynighe, jae hoe gantsch gheene van die smettelicke schurftheyd ghenezen werden. Men zoude veel eer de stront-vlieghen ont-leeren dreck-bollekens te maecken, als de menschen uyt deze vuyle mist-put van eyghen-liefde te trecken.”
Naast onze ijdelheid “spiegelen sociale media [ook] onze vooroordelen” (Gerald Moore, ENMI 2021, sessie 1). Daarom vind ik ook de illustratie op de omslag van genoemd WRR advies zo goed. Met een snoeischaar wordt verbeeld hoe we de vorming van filterbubbels kunnen corrigeren. Wat mij betreft alle algoritmisch geselecteerde content die gericht is op jongeren! En dan niet met een snoeischaartje, maar met de botte bijl!
Wat bij deze bescheiden rondgang langs metaforen voor sociale media opvalt, is dat er geen positieve metaforen zijn. Of het zou ‘de dorpspomp’ moeten zijn, waar buurtgenoten vroeger hun hele- en halve waarheden deelden. Maar van een gezellige ‘global village’ mocht het helaas nog niet komen. En ‘The Fabulous Five’ was al bezet door en groepje voorbeeldige schoolmeisjes. Maar exemplarisch gedroegen de Amerikaanse Techbedrijven zich tot nu toe allerminst.
7. Conclusie
Wat hoopvol stemt is dat het Europese Parlement zichzelf vlak voor Covid-19 goed in stelling heeft bracht met een interne reorganisatie rond het AI-dossier. Tevens lijkt dit EP sinds de laatste verkiezingen meer macht te hebben dan ooit. Gezien de hoge opkomst en verschuivingen bij de laatste Europese verkiezingen is volgens Luuk van Middelaar “de zittende macht uitgedaagd, de Brusselse consensus doorbroken”. Het EP kan dus nu laten zien wat het waard is. Laat onze nieuwe-oude regering deze ontwikkeling alsjeblieft niet te veel storen.
Maar combinatie met een ‘ethische wending’ in de wetenschap levert een gevaarlijke cocktail op. Pieter Lemmens zag met lede ogen aan dat er juist in Europa geen subsidie is voor fundamenteel onderzoek naar de betekenis van technologie. Voor zover het bedrijfsleven hiervan de oorzaak is, had het natuurlijk al lang moeten dienen als kanarie in de kolenmijn, maar waar het gemankeerde EU-onderzoeksprogramma’s betreft, is het de olifant in de kamer. En die zal wel blijven zolang nationaal verdienvermogen ‘Leitmotif’ blijft.
Als het waar is dat zogenaamde sociale media en datagraaiende smart-home applicaties slechts een voorproefje zijn van meer uitgebreide communicatie-hulp met AI, dan moeten we oppassen dat wandelende homecomputers (of de knuffels van onze kinderen) straks onze kinderen niet nog ongeduldiger maken en onze ouderen gestaag en buitengewoon efficiënt ontijdig in coma brengen. Want hebben we niet gezien dat ‘intermenselijke’ communicatie (wat anders?) te belangrijk is om te automatiseren, op welke manier dan ook?