Civis Mundi Digitaal #117
Demystificatie en begripsverheldering rond kunstmatige intelligentie
Deel 1 Inleiding en kwaliteitseisen
Dieter van Werkum
Samenvatting
Het recente rapport Opgave AI van de Wetenschappelijke Raad voor het Regeringsbeleid onderschrijft de waarschuwing van Philip Boucher voor slechte metaforen voor AI. Naar aanleiding van veelvuldig gebruik van vage containerbegrippen en antropomorphismen vindt hij dat er betere metaforen moeten worden bedacht. Nu het Europees Parlement moet stemmen over ingrijpende wetsvoorstellen van de Europese Commissie met betrekking totdigitale diensten, digitale markten en AI, is zijn oproep belangrijk. Betere metaforen zouden ons volgens Boucher in staat kunnen stellen meer realistische toekomstplannen te schetsen, met bijpassende succescriteria. En meer samenwerking mogelijk maken.
Maar waar haal je zulke criteria vandaan? Pieter Lemmens schreef dat fundamenteel technologie-onderzoek helaas de laatste decennia niet in het onderzoek-stramien RRI van de EU paste. Waardoor nu inderdaad demystificatie nodig is, omschreven als het “adresseren van onrealistische beelden van de nieuwe technologie”.
Gelukkig waren er toch uitzonderlijke wetenschappers die zich erop hebben toegelegd. In dit artikel laat ik er twee aan het woord, te weten Matteo Pasquinelli, over politieke economie, en Bernard Stiegler over ‘automatiseren van het denken’.
Met kennis van het ’algemene schema voor machine learning’ van Pasquinelli zou voortaan iedereen de waarde van metaforen gemakkelijker kunnen taxeren. Aan de hand ervan toont hij aan, dat technische termen tot nu toe verhullen dat AI vooral mensenwerk is, en niet erg wetenschappelijk is. Dit roept volgens hem vragen op met betrekking tot data-soevereiniteit, privacy en burgerrechten. Eerder verbreedde Bernard Stiegler het debat met zijn filosofische antropologie. Maar in Europa bleek de tijd er nog niet rijp voor, ook niet na de financiële crisis van 2008. Stiegler zette de zijn argumenten kracht bij met heftige metaforen aan het adres van Big Tech en de sociale media.
Wat hoopvol stemt is dat de het Europees parlement zichzelf tijdig in stelling bracht met een interne reorganisatie rond het AI-dossier. En nu de EU machtiger is dan ooit, kan ze laten zien wat ze waard is. Maar combinatie met een ‘ethische wending’ in de wetenschap levert een gevaarlijke cocktail op. Pieter Lemmens zag met lede ogen aan, dat er juist in Europa geen subsidie is voor fundamenteel onderzoek naar de betekenis van technolgie. Voor zover het bedrijfsleven hiervan de oorzaak is, had het natuurlijk al lang moeten dienen als kanarie in de kolenmijn. Maar waar het gemankeerde EU-onderzoeksprogramma’s betreft, is het de olifant in de kamer. En die zal wel blijven zolang nationaal verdienvermogen ‘Leitmotif’ blijft.
Inhoud
Deel 1 Inleiding en kwaliteitseisen
1. Inleiding
1.1. Beeldvorming
2. Slechte metaforen
2.1. Wapenwedloop
3. Kwaliteitseisen
3.1. Criteria van Boucher
3.2. Kritische wetenschappers
Deel 2 Kritische beoordelingen
4. Evaluatie door Mateo Pasquinelli
4.1. AI is vooral mensenwerk
4.2. Politieke-economie en burgerrechten
5. Filosofische antropologie van Bernard Stiegler
5.1. Stiegler’s metaforen voor AI
5.2. Transhumanisme en interregnum
6. Metaforen voor Sociale media
6.1. Overbelasting van de zintuigen
Conclusie
1. Inleiding
Haagse ministeries vonden de tijd rijp voor Nederlands beleid met betrekking tot kunstmatige intelligentie (AI). In WRR rapport Opgave AI wordt nog eens uitgelegd dat AI een zogenaamde ’syteemtechnologie’ is. En bij vijf belangrijke ‘opgaven’ die ze zien “als het gaat om de maatschappelijke inbedding van systeem technologieën” wordt ‘demystificatie’ vooropgesteld, kort aangeduid met ‘‘adresseren van onrealistische beelden van de nieuwe technologie’’.
Dit is waar eerder dit jaar Philip Boucher de aandacht op vestigde, met zijn waarschuwing voor slechte metaforen voor AI. Als onderzoeker bij het Europees Parlement nam hij waar dat metaforen een tweesnijdend zwaard zijn. Immers, net zo goed als ze kunnen helpen begrip te bevorderen inzake complexe verschijnselen, kunnen ze ons bevattingsvermogen ook bevriezen.
1.1. Beeldvorming
We weten dat beeldspraak vaak onvermijdelijk is, wanneer we iets willen uitleggen. Ook ik bezondig mij er in dit artikel meer dan één keer aan. Taalkundigen maken onderscheid tussen metafoor en analogie. Een metafoor is een beeldspraak “waarbij men een woord B zegt in plaats van het woord A terwijl er tussen A en B een verband is van gelijkenis” (Wiktionary). Om het mijzelf makkelijk te maken scheer ik ze in dit artikel over één kam (analogie).
De ’onrealistische beelden’, waar de WRR mee schermt, komen niet uit de lucht vallen. Sinds de opkomst van sociale media zijn politici volgens Pieter Omtzigt zelfs zo bedreven geraakt in beeldvorming, dat het er op begint te lijken, dat men amper nog toekomt aan wetgeving.
Zo waarschuwde Boucher, dat metaforen voor AI bewust worden aangewend om het debat te beïnvloeden. Op grond daarvan pleitte hij voor “nieuwe, betere metaforen voor AI”, omdat die ons in staat zouden stellen tot “het schetsen van meer realistische toekomstplannen, met bijpassende succes criteria”.
En nu in het Europees Parlement (EP) zal worden gestemd over ingrijpende wetsvoorstellen van de Europese Commissie met betrekking tot digitale diensten, digitale markten en AI in het algemeen, kan het belang van Bouchers oproep, nu onderschreven door de WRR, nauwelijks worden overschat. Want “iemand zal uiteindelijk toch moeten zeggen “dit is wel of geen goed idee’’, stelde Lisa Van Ginniken terecht in de nieuwe Tweede Kamercommissie voor ‘Digitale Zaken’. En NRC merkte fijntjes op in een hoofdredactioneel commentaar, dat er in andere Europese landen al eerder over nagedacht was.
In dit artikel onderzoek ik wat er mis is met de beeldvorming met betrekking tot AI en hoe we metaforen voortaan beter op hun waarde zouden kunnen schatten. In deel 1 beschouw ik eerst de kwaliteitseisen voor metaforen. Vervolgens laat ik in deel 2 technologiewetenschappers aan het woord. Niet alleen als bron van metaforen, maar ook om te kijken of ze wellicht houvast kunnen bieden bij het opstellen kwaliteitscriteria. Tot slot volgt een presentatie van de fraaiste metaforen. Weinig verrassend betreffen die de AI van de sociale media.
2. Slechte metaforen
Met de naam ‘kunstmatige intelligentie’ gaat het volgens Boucher al mis. En hetzelfde geldt als andere menselijke eigenschappen en functies van toepassing worden verklaard op AI (antropomorfisme), zoals ‘neurale netwerken’ en ‘machine-vision, -learning, -recognition of -understanding’. Omdat machines de gelijkluidende menselijke functies bij lange na nog niet kunnen vervullen, leidt het volgens hem alleen maar tot:
Awati Kailash maakte onlangs een overzicht van alle metaforen die hij vond voor ‘big data’. Maar de fraaiste exemplaren zag deze auteur helaas over het hoofd. Wat bijvoorbeeld te denken van de volgende termen, in volgorde van verschijnen in dit artikel: ‘race’, ‘wapenwedloop’, ‘lens’, ‘visie’, ‘noöskoop’, ‘Information Implosion Technology’, ‘nieuw barbarisme’, ‘on-rede’, ‘algemene kenniscrisis’, ‘Russische roulette’, ‘gif’, ‘dark patterns’, ‘Het Wilde Westen’, ‘De vier ruiters van de apocalyps’, ‘The Silicon Six’, ‘De hoer van Babylon’, ‘verslaving’, ‘beerput’ of (plaatjes van een) ‘verfkwast’, ‘spiegel’, ‘barcode-muur’ en ‘bowlingbaan’?
Wapenwedloop
Speciale aandacht besteedt Boucher in zijn artikel aan veelgebruikte metaforen in de internationale politieke arena. Ze werken volgens hem te sturend, met nare gevolgen. Als voorbeeld neemt hij de termen ‘race’ en ‘wapenwedloop’, die “suggereren dat er maar één oplossing zou zijn, wat niet zo is”. Zonder dat concurrentie geheel uitgeschakeld hoeft te worden, zou volgens Boucher dan ook vorm gegeven moeten worden aan meer ‘samenwerking, delen en wederzijdse voordelen’.
Boucher houdt het netjes met dergelijke termen, maar dat regeringsadviseurs zoals onze WRR in de praktijk met nieuwe technologie ook kijken naar het nationale ‘verdienvermogen’, helpt volgens mij niet. Maar dan legt hij de vinger op de zere plek: de gepercipieerde ‘wapenwedloop’. Volgens hem is deze er de oorzaak van dat er vaak geen ander alternatief mogelijk lijkt ‘dan er zelf maar aan bij te dragen, waardoor het een zelf vervullende voorspelling wordt’.
De beroemdste metafoor voor AI is waarschijnlijk ‘Weapons of Math Destruction’, titel van de bestseller, in 2016 van Cathy O’Neil. Daarin zette ze overtuigend uiteen dat technologie niet neutraal is en dat onbezonnen toepassing van ‘big data’ en algoritmen gemakkelijk kan leiden tot beslissingen die groepen benadelen of zelfs racisme en ongelijkheid versterken. In het vervolg licht ik dit nader toe aan de hand van Matteo Pasquinelli.
Afgelopen zomer bracht president Biden deze wapenmetafoor in het nieuws in de toelichting bij zijn stelling: ‘Facebook doodt mensen’. Maar onder politieke druk moest hij binnen enkele dagen zijn stelling nuanceren. Men vond die tenlastelegging te zwaar. Toch tekent zich in Washington in het Witte Huis een meerderheid af, die artikel 230 van de Communications Decency Act (CDA) niet langer houdbaar vindt, en dat Big Tech aansprakelijk gesteld moet worden voor de uitingen op de platforms.
De zoveelste klokkenluider, Frances Haugen, gaf daarna het voorlopig laatste zetje. En op grond van interne stukken van Facebook die ze wereldkundig maakte, kunnen we stellen: Facebook doodt mensen . . . langzaam. Maar dit is waarschijnlijk niet waar de WRR met ‘demystificatie’ op doelt.
3. Kwaliteitseisen
3.1. Criteria van Boucher
Op basis van zijn analyse en die van anderen stelt Boucher twee criteria voor metaforen wat betreft AI:
Maar hoe komen we van verhullende metaforen af? Dat is makkelijker gezegd dan gedaan. Te meer daar Lucilla Sioli, Director for Artificial Intelligence and Digital Industry van de Europese Commissie, pleit om definiëring van AI juist “zo neutraal mogelijk te houden [...] om toekomstige nieuwe technologie te kunnen bestrijken”. Het is begrijpelijk dat ze graag haar opties openhoudt, maar onvermijdelijke politieke of juridische conflicten zullen nopen tot verbijzondering van haar voorstel (zie art. 3).
Uit deze impasse kan het ’algemene schema voor machine learning’ van de Italiaanse professor Matteo Pasquinelli misschien uitkomst bieden. Want met deze kennis op tussenniveau zou voortaan iedereen de waarde van metaforen gemakkelijker kunnen taxeren.
3.2. Kritische wetenschappers
Ophef over technologie komt altijd voort uit zogenaamde neveneffecten of, wanneer deze zich grootschalig manifesteren, door kritische wetenschap, omdat deze vaak verder vooruit kijkt dan de waan van de dag. Het is kritische wetenschap die in Nederland Pieter Lemmens van Radboud Universiteit Nijmegen bedrijft. In een artikel, stelt hij:
“Bij ‘Engineering philosophy of technology’ wordt voornamelijk positief gereflecteerd over technologie en bij ‘humanities philosophy of technology’ […] wordt regelmatig kritisch gereflecteerd over technologie en deze is hoofdzakelijk gericht op het interpreteren van de betekenis van technologie”.
Lemmens onderscheidt in de humanities benadering “ruwweg vier belangrijke tradities”. Op volgorde van afnemende populariteit zijn dit:
– sociaal constructivisme
– (post-)fenomenolgie
– dialectische- of kritisch constructivistische traditie
– filosofische antropologie
Lemmens betreurt wat Nederland betreft de populariteit van het sociaal constructivisme (en/of de Actor-Network-Theory (ANT), onstaan uit de zogenaamde “Science and Technology Studies”). “De kern ervan wordt gevormd door de claim dat het ontstaan van technische objecten het resultaat is van de sociale interactie van verschillende ‘stakeholders’, in “the neoliberal jargon du jour”. En “met name de Latouriaanse versie” is volgens Lemmens "niet erg kritisch of politiek bewust". Hij vindt het daarom “onbegrijpelijk dat het ook de postfenomenologie en het kritisch constructivisme zozeer beïnvloed heeft”. Helaas is de ruimte hier te beperkt voor Lemmen’s uitgebreide beschrijving van de andere stromingen.
Lemmens zelf denkt dat we veel kunnen leren van de traditie van de filosofische antropologie, die voortbouwt op het werk van Duitse denkers als Arnold Gehlen, Helmuth Plessner and Paul Alsberg. Ze schreven belangrijke verhandelingen over de ‘human condition’ (een kunstmatige levensvorm). “Bijvoorbeeld Gehlen, die gedetailleerd beschreef hoe technologie compenseert voor het feit dat de mens een ‘Mängelwesen’ is, dat van nature afhankelijk is van cultuur en technologie, die functioneren als vervanging of versterking van menselijke organen. En Plessner definieert de mens als kunstmatig wezen en als“excentric positionality”, die toestaat een relatie te hebben tot zichzelf en zijn positie in de wereld”.
Maar een zogenaamde ‘ethische wending’ gooit volgens Lemmens roet in het eten. De wetenschap speelt volgens Lemmens momenteel helaas een dubieuze rol: “zowel de eerdere empirische wending als de huidige ethische wending in de filosofie van de techniek delen afwijzing van een meer diepgaande (ontologische, metafysische, transcendentale, etc., maar ook politieke of politiek-economische) bevraging van technologie en tonen zich tenminste impliciet tevreden met de tegenwoordige samenvloeien van neoliberaal kapitalisme en de absolute heerschappij van de markt, concurrentie en van ‘corporate-state’ controle over zogenaamde ‘innovatie’, die expliciet gericht is op winst-maximalisering.”
In Nederland werd de eerder genoemde ‘positieve reflectie’ over technologie de afgelopen veertig jaar ingegeven door neo-liberaal beleid, met selectieve uitleg van Adam Smith (en een waterige saus van Hayek). In het WRR rapport lezen we wat je zo uiteindelijk als beleidsruimte overhoudt: nationaal ‘verdienvermogen’. Nota bene in de EU, het meest verregaande multilaterale experiment.
Lemmens: “Academische instituties overleven tegenwoordig als platforms of ‘task forces’ voor kapitalistische innovatie, die louter nog gefocust is op technologieën met directe commerciele waarde (‘commodification’). Met name technologiefilosofen maken volgens Lemmens amper nog kans op subsidie van de EU of nationale instanties, als ze af willen wijken van de RRI agenda [Responsible Research and Innovation, van de EU] en fundamentelere vragen stellen, bijvoorbeeld over de politieke of politiek-economische context waarbinnen technologische innovatie momenteel plaatsvindt. […] Of met betrekking tot de essentie en grenzen van AI, leven in het tijdperk van biotechnologie, automatisering van het denken, het organismische en de menselijke conditie.”
Dat er geen subsidie meer is voor filosofie van technologie is voor Lemmens “ook onderdeel van wat Heidegger ‘het einde van de filosofie’ heeft genoemd”. Bernard Stiegler verwees in dit kader ook naar Chris Anderson’s ‘the end of theory’ (2008). Stiegler financierde daarom veel initiatieven maar zelf, uit de opbrengst van zijn boeken. In paragraaf 5 laat ik Stiegler hierover uitgebreid aan het woord.
Met betrekking tot demystificatie van AI zijn in dit artikel met name de hier genoemde ‘politieke of politiek-economische context’ en ‘essentie en grenzen van AI’ van belang. Gelukkig waren er ook in de EU toch uitzonderlijke wetenschappers die zich hierop hebben toegelegd ondanks genoemde onkrigtische technologische trend. In deel 2 laat ik er twee aan het woord. Matteo Pasquinelli, over politieke economie, en Bernard Stiegler over het genoemde ‘automatiseren van het denken’.