Kan een Intelligente Machine ook een Morele Agent zijn?

Civis Mundi Digitaal #38

door Guido Eekhaut

Definitie van moreel agentschap

Laat ons morele agenten definiëren als intelligente entiteiten die in staat zijn morele keuzes te maken gebaseerd op wat in hun opinie goed en slecht is. Indien ze vervolgens ook verantwoordelijk kunnen gesteld worden voor die daden, is het relatief makkelijk na te gaan of machines ergens in de nabije toekomst onder deze definitie vallen.

Het is evenwel niet makkelijk om een morele agent te zijn. Die wil immers een positieve uitkomst voor elke actie ook al wordt hij geconfronteerd met de meest uiteenlopende dilemma’s. Met name mensen zijn niet in staat alle details van alle mogelijke positieve uitkomensten van dilemma’s en beslissingen te definiëren, zeker niet in het dagelijkse leven. Telkens ontstaan weer nieuwe morele dilemma’s die vervolgens moeten opgelost worden.

Laat me om dat te illustreren een voorbeeld nemen (dat hopelijk niet gauw voorkomt in onze dagelijkse realiteit). Je moeder zit gevangen in een brandend gebouw, en jij kunt haar niet helpen want je bent (bijvoorbeeld) gekluisterd aan je rolstoel. Je wilt dit dilemma opgelost zien met de wens dat je moeder uit dat brandende gebouw kan ontsnappen. Stel dat je een soort machine zou kunnen gebruiken (laten we haar, zuiver bij wijze van experiment, Siri noemen). Siri is intelligent en is in staat jouw wensen om te zetten in realiteit.

Je wilt dus je moeder uit dat brandende gebouw verlost zien, en geeft Siri de opdracht daarvoor te zorgen. Dat gebeurt ook meteen: het gebouw explodeert en het dode lichaam van je moeder wordt in de lucht geslingerd. Je wens is uitgekomen, maar niet zoals je het wilde. Je specificeert aan Siri (die supermachten heeft) dat ze terug moet gaan in de tijd. Deze keer moet je moeder levend uit het gebouw gered worden. Goed, dat kan Siri voor je regelen. Komt een groep brandweerlui aan, die op allerlei manieren proberen je moeder te redden. Uiteindelijk slagen ze daar ook in: je moeder ontsnapt behouden hoewel danig geschrokken uit het gebouw, maar tien brandweerlui komen daarbij om het leven. Je wens is dus opnieuw uitgekomen, maar niet helemaal zoals je dat wil, want is het leven van jouw moeder dat van tien brandweermannen waard?

Het is dus niet mogelijk om alle splitsende paden (om een Borgesiaanse term te gebruiken) van dilemma’s in te bouwen in het verhaal van je morele en andere beslissingen, omdat de hoeveelheid informatie over potentiële toestanden gewoon onoverkomelijk groot is. Daarom is het voor mensen zo moeilijk om ware morele agenten te zijn. Maar wat dan met een intelligente machine?

Mensen werden niet altijd beschouwd als morele agenten, dus als wezens die ethische overwegingen waard waren. Westerse veroveraars die zich diep in Afrika, Azië of het Nieuwe Continent waagden, beschouwden inboorlingen niet noodzakelijk als echte mensen, of alleszins niet als hun gelijken. Binnen de Kerk was er zelfs in de zestiende eeuw een diepgaande discussie aan de gang, over de vraag of de inwoners van de nieuwe kolonies in Amerika wel een ziel hadden.

Nieuw was dat soort discussie toen ook al niet: zo ongeveer alle culturen hadden strikte regels van uitsluiting met betrekking tot groepen mensen. Slaven, barbaren en zelfs vrouwen werden niet gerekend tot de mensheid. Hoewel ze eventueel compassie verdienden, kregen ze geen gelijke behandeling. Eenzelfde lot kregen en krijgen dieren toebedeeld: ondanks onze liefde voor onze huisdieren, hebben we er geen probleem mee andere dieren op te eten (zelfs wanneer die intelligenter zijn dan onze honden en katten).

 

Op de drempel van een nieuw tijdperk met kunstmatige intelligentie als een nieuwe categorie van ‘wezens’ 

Naarmate onze samenleving evolueerde, wijzigde zich ook in positieve zin onze houding ten overstaan van wezens die wij voorheen niet als het onderwerp van morele bezwaren beschouwden. Niet dat het probleem overal opgelost is. De mensheid heeft nog een hele weg te gaan, getuige daarvan de vele culturen waar ook vandaag nog vrouwen niet als de gelijke van mannen beschouwd en behandeld worden. Maar in bredere zin is in een merendeel van de culturen op deze planeet de notie ingeburgerd dat mensen, en soms ook dieren, rechten hebben, en dat ze op een ethische manier moeten behandeld worden.

We bevinden ons echter mogelijk op de drempel van een tijdperk waarin een nieuwe categorie van ‘wezens’ opduikt, waarvan de ‘intelligentie’ en dus de ethische motieven het onderwerp uitmaken van veel filosofische en politieke speculatie. Wat tot voor enkele decennia tot het terrein van de science fiction behoorde, kan binnen een relatief korte tijd realiteit worden: Artificiële Intelligentie.

Ik ga hier voorbij aan de onderscheiden tussen diverse soorten en definities van Artificiële Intelligentie (AI). We nemen, ter wille van de discussie, een eenvoudig standpunt in: met AI bedoelen we alle soorten kunstmatige, machinale (en softwarematige) intelligentie die equivalent is aan deze van de mens of deze overtreft. We noteren tegelijk alle speculaties in verband met wat doorgaans Artificiële Super Intelligentie (ASI) wordt genoemd, die zo ver van onze menselijke intelligentie is verwijderd dat ze voor ons onbegrijpelijk wordt. Daar zijn we nog niet aan toe.

Ongetwijfeld zijn vele lezers bekend met de film 2001, A Space Odyssey, van Stanley Kubrick, uit 1968. In het laatste deel van die film is een ruimteschip onderweg naar Jupiter, met twee wakende en drie in kunstmatige slaap gebrachte astronauten aan boord. Op zeker ogenblik ontdekt de boordcomputer, HAL, dat de astronauten twijfelen aan zijn capaciteiten en van plan zijn hem uit te schakelen. Omdat dit voor hem gelijkstaat aan de dood, en omdat hij oordeelt dat op die manier de missie (de zoektocht naar een bewijs voor buitenaardse intelligentie) in gevaar komt, besluit HAL de bemanningsleden te doden. Slechts één astronaut blijft in leven en schakelt HAL uit, waarna hij de missie alleen verder zet.

De film werpt daarmee een aantal filosofische en morele vraagstukken op. Een daarvan is: kan HAL verantwoordelijk gesteld worden voor zijn daden, en in het bijzonder voor de dood van vier astronauten? Deze vraag is niet geheel hypothetisch, omdat er in onze realiteit reeds incidenten bekend zijn van robots die verantwoordelijk waren voor de dood van mensen. In 1981 komt in een Japanse fabriek een 37-jarige arbeider om het leven. De machine die zijn dood op het geweten heeft, is een AI-robot die de arbeider verkeerdelijk identificeerde als een bedreiging voor zijn (de robot) functioneren. De robot berekende dat de beste manier om met deze bedreiging af te rekenen erin bestond de man in een andere machine te duwen, waarbij die om het leven kwam. Daarna ging de robot gewoon verder met zijn taken. Is deze robot zelf verantwoordelijk?

Gekoppeld aan deze morele vraag is ook deze overweging: moeten toekomstige AI systemen ingebouwde veiligheden en beperkingen meekrijgen, die hen verhinderden mensen te schaden (zoals al in 1942 werd voorgesteld door de Amerikaanse wetenschapper en SF-auteur Isaac Asimov, met zijn zogenaamde Drie Wetten van de Robotica)?

De vraag of de boordcomputer HAL verantwoordelijk is voor zijn daden, en dus voor de dood van de astronauten, staat centraal in de beschouwing over AI systemen als morele agenten. Het is immers goed mogelijk dat deze dood, net zoals de dood van de Japanse technicus, ‘slechts’ het gevolg is van ofwel het verkeerd functioneren van de machine, of de consequentie van een onfortuinlijke tegenstelling in instructies, en dus in software. In dat geval is uiteindelijk de mens verantwoordelijk, in het bijzonder de menselijke ontwerpers en bouwers van de AI.

Maar het geval van HAL stellen toch wel enkele problemen. Hij gaat namelijk over tot het vernietigen van menselijk leven omdat zijn eigen bestaan bedreigd wordt, en omdat de voor hem zo belangrijke missie in gevaar komt. Zijn motieven zijn dus helemaal zelfzuchtig. Zo lang dergelijke problemen zich voordoen met klassieke en dus niet-autonome machines, is de verantwoordelijkheid duidelijk. Mensen die deze machines ontwerpen, bouwen en bedienen, blijven de verantwoordelijkheid dragen voor al wat daarmee gebeurt. Zij stellen immers de gedragsregels op die het functioneren van de machine bepaalt. Maar de evolutie van AI veronderstelt een toenemende autonomie van AI systemen, waarvan het gedrag niet meer door mensen kan voorspeld worden. Waar eindigt dan hun verantwoordelijkheid?

De voorgaande problematiek toont duidelijk aan, dat nieuwe categorieën van verantwoordelijkheid in acht dienen genomen te worden met de opkomst van AI systemen. Deze categorieën hebben voornamelijk betrekking op de invulling van het begrip Agency. In de brede filosofische betekenis wordt daaronder de capaciteit verstaan van een entiteit om onder alle omstandigheden een aangepaste actie te ondernemen. In het Frans wordt veelal gesproken van een capacité d’agir. Ik ga verderop de Engelse termen gebruiken.

Agency veronderstelt een intentie, dus een bewustzijn dat intentioneel in staat is iets te ondernemen, mogelijk gebaseerd op wensen en veronderstellingen. Elk systeem dat in staat is als dusdanig te opereren, en dus ageert vanuit een intentie, is een agent. Dat geldt zowel voor mensen als voor dieren, maar bij uitbreiding geldt het ook voor machines, computers en software. Rotsen en planten daarentegen zijn duidelijk geen agenten.

Het begrip moral agency is dan weer een specifiek onderdeel van Agency, namelijk de capaciteit om moreel correcte beslissingen te nemen op basis van noties van goed en kwaad. Om een morele agent te zijn moet een entiteit de intentionele capaciteiten bezitten om vrij morele keuzes te maken, in het volle besef wat deze zijn, en met de toepassing van morele en ethische regels.

Maar de zaken worden daarna wat ingewikkeld, voornamelijk omdat we hier zonet een aantal metafysische concepten gebruikten om te stipuleren wat morele agenten zijn. We hebben het over vrije keuze en dus vrije wil, over opzettelijkheid en intenties, allemaal begrippen waarvan de betekenis niet bepaald vastligt. Daarenboven is niemand in staat na te gaan wat er zich afspeelt in de geest van andere wezens. Dus kan er niet ingeschat worden in welke mate beslissingen vrij, intentioneel of zelfs maar rationeel zijn. Want in dat opzicht is de actie die HAL onderneemt tegenover de astronauten misschien onderworpen aan een rigoureus rationeel proces, zonder echter moreel verantwoord te zijn in menselijke termen. De diepte van zijn beslissingsproces dreigt daarbij onkenbaar te worden. Artificiële Intelligentie zal, door haar aard alleen al, af te rekenen hebben met heel eigen, voor mensen mogelijk onbegrijpelijke of alleszins onkenbare, dilemma’s.

Het zou makkelijk zijn om de morele verantwoordelijk daarbij af te schuiven naar ontwerpers en bouwers, ook in het hypothetische geval van HAL. Maar zoals eerder aangeduid: zelfs de geest van (toekomstige) AI systemen kan (en zal) in steeds toenemende mate onkenbaar zijn voor mensen. Zeker wanneer niet mensen maar andere (eerdere generaties van) AI systemen verantwoordelijk zijn voor de bouw van AI systemen. De stelling van onderzoekers van Artificiële Intelligentie (zoals onder andere uiteengezet in The Machine Question van David Gunkel), dat menselijke verantwoordelijkheid altijd primeert, is onhoudbaar geworden, ook nu al. Toch blijven een aantal onderzoekers er op wijzen dat AI systemen ‘slechts’ werktuigen zijn.

Het is onvermijdelijk dat het concept van autonome technologie de menselijke verantwoordelijkheid ontloopt. Dat is nu eenmaal het gevolg van het creëren van AI systemen die menselijke capaciteiten overstijgen. Deze systemen ervan weerhouden om in de volle betekenis van het woord lid te worden van onze samenleving, en hen dus morele verantwoordelijkheden te onthouden, zal gaandeweg ondenkbaar worden. Dit impliceert in welke mate AI systemen (onder welke vorm die zich ook manifesteren) als volwassen morele agenten moeten gezien worden, met hun eigen verantwoordelijkheden. De instrumentale visie op technologie, waarbij de werking van machines onvermijdelijk verbonden is aan de verantwoordelijkheid van mensen, wordt hierbij verlaten.

Terug naar het begin van het verhaal, met de oneindige dilemma’s en moeders in brandende gebouwen. We hebben vastgesteld dat de onmogelijkheid om met alle mogelijke uitkomsten van beslissingen rekening te houden, ons ervan weerhoudt werkelijk morele beslissingen te nemen. Maar een machine kan dat wel. Een intelligent systeem kan in alle opzichten een morele agent zijn, omdat combinaties van snelheid en toegankelijkheid aan informatie voor intelligente artificiële systemen geen probleem is. Kennisgewijs is er dus geen limiet voor AI.

Net zoals IBM Watson in staat is Waagstuk te winnen, omdat het toegang heeft tot alle informatie op het World Wide Web, maar ook in staat is de vragen te ontleden, zo kunnen verder gevorderde, Artificiële Intelligentie wel degelijk morele beslissingen nemen. Die zijn immers gebaseerd op een totale kennis van de wereld zoals die zich voordoet en de wereld die zich ontplooit nadat elk van de potentiële beslissingen is genomen. Elke gepubliceerde case study ligt eenvoudigweg ter beschikking voor moraliteit zoekende AI.

Totale en absolute moraliteit dankzij intelligente systemen? In een mechanistische visie van het probleem wel, ja. Maar wat zullen de noties van ‘goed’ en ‘kwaad’ zijn in de geest van die machines? Of met andere woorden: zal je moeder hun beslissingen wel overleven? Om niet van de mensheid te spreken?

Moet de intelligente machine alle morele regels opgesomd en geprogrammeerd krijgen die ze nodig heeft om in de morele wereld van mensen te navigeren? Ongetwijfeld is dit een ondoenbare zaak: er is niet zoiets als een sluitende lijst van morele menselijke regels, om redenen die we eerder al zagen. Er is en kan dus geen ‘top-down’ methode toegepast worden voor het aanleren van morele regels. Veeleer moet de machine dezelfde soort inzichten verwerven die ethici bezitten — in al hun verscheidenheid — net als de methodiek om deze in diverse situaties toe te passen.

Dit alles sluit geen formele vormen van instructie uit. Per slot van rekening leren mensen deze morele regels ook zo. Er is dus een door ideeën en stellingen gevoede leidraad, een soort van flexibel compendium van toepasbaar menselijk gedrag, dat in algemene termen morele regels voorschrijft, ook al bestaat daarover geen wereldwijde consensus. Dat wij andere menselijke wezens niet zondermeer doden, of hen enig ander nadeel berokkenen, is een goede basisregel. Dat die regel met grote regelmaat en om de meest uiteenlopende redenen overschreden wordt, en waarom (gerechtvaardigd of niet), is het soort van discussie die een intelligente machine zich eigen moet kunnen maken. Precies daar zit echter de grootste moeilijkheid voor de ontwikkeling van AI.

Want de menselijke tegenstrijdigheden op ethisch en moreel gebied zijn niet min. We voeren oorlogen en roeien grote groepen mensen uit, allemaal ter wille van een idee, een ideologie, een retoriek. Dit te verklaren aan een intelligente machine zou geen goed idee zijn, omdat we niet kunnen uitmaken welke ideologie of idee deze machine uit zichzelf zou kunnen ontwikkelen. We moeten dus, in alle opzichten, veel strenger zijn voor onze (digitale) kinderen dan voor onszelf. Dus moeten we helemaal terug naar zoiets als een onvervreemdbaar eerste principe (of meerdere principes) die, een beetje zoals de befaamde weten van Asimov, de denkwereld van de intelligente machine overheersen en sturen, in weerwil van de uitspattingen die deze bij mensen waarneemt.

De conclusie is onoverkomelijk: onze digitale kinderen moeten uit heel wat sterker hout gesneden zijn dan wij, en vooral vrij zijn van de vooroordelen en domheden die van ons zo’n verwrongen soort hebben gemaakt.

 

Bibliografie

Bostrom, Nick & Eliezer Yudkowsky. The Ethics of Artificial Intelligence. In: Cambridge Handbook of Artificial Intelligence (draft), eds. W. Ramsey and K. Frankish. Cambridge Univ. Press, 2011.

Gunkel, David J. The Machine Question. Critical Perspectives on AI, Robots, and Ethics. MIT Press, Cambridge MA, 2012.

Muehlhauser, Luke & Louie Helm. Intelligence Explosion and Machine Ethics. In: Singularity Hypotheses: A Scientific and Philisophocal Assessment. Eds. A. Eden, J. Soraker, J. Moor & E. Steinhart. Springer, Berlin, 2012.

Muehlhauser, Luke. Facing the Intelligence Explosion. Amazon Kindle, 2013.

Penrose, Roger. Shadows of the Mind. A Search for the Missing Science of Consciousness. Oxford University Press, Oxford, 1994.

 

(c) 2016. Guidoeekhaut@yahoo.co.uk

Guido Eekhaut is futurist, journalist, schrijver. Hij is actief in de financiële sector als sociaal onderhandelaar en werkt aan innovatieprojecten. Hij geeft presentaties voor bedrijven en organisaties over de noodzaak van veranderingen en de uitdaging van de toekomst. Hij schreef onder andere over internationale politiek, sociologie en de digitale wereld. Hij is een actief gebruiker van diverse sociale media.