Ethiek en robotisering

Civis Mundi Digitaal #112

door Piet Ransijn

Bespreking van Robotica en ethiek, themanummer Filosofie-Tijdschrijft jrg. 31 nr 2 maart-april 2021.

 

Ten geleide

Robotisering houdt in dat taken van mensen door robots worden overgenomen. Het is een geavanceerde vorm van automatisering. “Dat proces roept niet alleen enthousiaste reacties op; ook het onbehagen over een mogelijk door robots gedomineerde toekomst groeit.” Met name als robots ‘intelligenter’ worden dan mensen en onze leefomgeving steeds meer gaan bepalen. Goethe schreef een sprookje over een automatische bezem die het heft in eigen hand nam. Mary Shelley schreef in haar roman Frankenstein al over een wetenschapper die de controle over het door hem geschapen robotachtige wezen kwijtraakte (zie CM 111, deel 4 Britse literatuur). Met robotisering komt dit dichterbij.

Dit themanummer gaat vooral over de relatie tussen robotica en ethiek, en de filosofische reflectie inzake robots. Ethiek houdt zich bezig met waarden, met wat goed en niet goed, dus slecht is. Daarover zijn verschillende visies, verschillende vormen van ethiek. Eenvoudig is deze relatie niet. Een vraag is of robots ‘ethisch geprogrammeerd’ kunnen worden en of er naast ‘industriële robots’ met specifieke productietaken ook ‘sociale robots’ gemaakt kunnen worden, die in interactie met mensen opereren en in de vaak overbelaste zorg kunnen worden ingezet.

 

Sociale robots roepen vragen op

In 1964 werd voorspeld dat de meest huishoudelijke taken binnen twee decennia door robots overgenomen zouden worden. Maar zo’n vaart loopt het niet. De vraag is in hoeverre het gewenst is dat menselijke taken worden overgenomen. In meer genuanceerde termen: welke normatieve en maatschappelijke kwesties gaan gepaard met robotisering, naast de technische beloften en maatschappelijke verwachtingen? Meer specifiek: hoe verhoudt zich de inzet van (sociale) robots met de menselijke waardigheid, zowel in de zorg als in ander werk, de arbeid in het algemeen? Is het wel mogelijk om robots sociale en emotionele vaardigheden te leren?  En in hoeverre kunnen robots in staat gesteld worden tot morele oordeelsvorming of de ondersteuning daarvan?

 

https://oompiestroopiesuresumendisiman.wordpress.com/2017/03/20/de-dehumanisering-van-de-mensheid/

 

‘Robotisering als rationalisering en het probleem van de dehumanisering’

Socioloog Max Weber zag aan het begin van de vorige eeuw naast voordelen wat betreft efficiëntie ook de keerzijde van het proces van rationalisering. Het zou volgens hem mensen niet bevrijden maar beperken in een bureaucratische en technocratische ‘ijzeren kooi’ en in een ‘ontoverde’ wereld. De vrijheid en de menselijke waardigheid zouden onder druk komen te staan. Lambèr Royakkers, hoogleraar Ethiek van de digitale samenleving te Eindhoven en auteur van o.m. Ethics, Technology, and Engineering, gaat in op de consequenties van rationalisering en robotisering voor de menselijke waardigheid op drie gebieden: defensie, zorg en relaties.

Bij defensie wordt al gewerkt met onbemande drones die bestuurd worden door operators. “Het doden van mensen is als het vertrappen van een mier... Het gevaar... is dat operators beslissingen over leven en dood nemen alsof ze een videospelletje spelen” (p5). Het is ook mogelijk militaire robots te laten beslissen over leven en dood. Dit ondermijnt de menselijke verantwoordelijkheid. “Het concept ‘betekenisvolle menselijke controle’ speelt hierbij een centrale rol.” Verantwoordelijkheid en aansprakelijkheid hangen daarmee samen, en kunnen alleen aan mensen worden toegewezen als ze controle blijven houden.

In de zorg is de vraag in hoeverre zorgrobots gemis aan menselijk contact kunnen compenseren. In hoeverre kan bijv. een zorgrobot een cliënt dwingen zijn medicijnen in te nemen? Kan een zorgrobot wel zorg geven, of is dit voorbehouden aan mensen? Wordt zorg door robots niet gedehumaniseerd? Mensen kunnen zich voelen als objecten die behandeld worden door apparaten. “Menselijk contact wordt vaak als noodzakelijk gezien voor... goede zorg, waartoe robots (nog) niet in staat zijn (p6). Zij kunnen wel een belangrijke ondersteuning vormen.

In menselijke relaties wordt vriendschap vaak al gereduceerd tot klikken op een knop en het verzamelen en geven van ‘likes’. Japanse jongeren hebben vaak virtuele vriendinnen. “Een virtuele vriendin is gemakkelijker te leiden... Dus ik bedenk me wel twee keer voor ik uitga met een driedimensionale vrouw.” (p7). Een techniekpsychologe “vreest dat mensen [door de opmars van robotica voor sociale doelen] hun sociale competenties zullen verliezen en eenzamer worden... Hierdoor zullen jongeren minder empathisch worden, omdat intimiteit vermeden kan worden en relaties via internet of met apparaten minder verplichtend zijn.”

De seksrobot kan seks mechaniseren en dehumaniseren, voor zover dat niet reeds het geval is in de seksindustrie. Het zou misschien deels de seksindustrie en –slavernij kunnen vervangen of juist kunnen vergroten door ‘robotische’ seksverslaving en gewenning.

Kortom “rationalisering door robotica kan op gespannen voet komen te staan met de menselijke waardigheid en kan leiden tot objectivering en dehumanisering.” Bij de nieuwe robotica “gaat het niet om de perfecte machine, maar om het welzijn van mensen. Robotica is er niet voor zichzelf, maar voor de samenleving. Robotica dient de mens niet te overvleugelen, maar bij te staan” (p8).

 

https://ethicsandtechnology.eu/news/4tu-ethics-scientific-director-anthonie-meijers-chairs-research-meet-artificial-moral-agents

 

‘Robotica in de zorg vereist zorgvuldige implementatie’

De auteur van dit artikel, Meggi Schuilig-Otten, is bestuurder in de zorg en heeft onderzoek gedaan naar robotica en menselijke waardigheid. Sociale robots doen reeds hun intrede en krijgen een meer prominente rol. Humanoïde robots hebben kenmerken van een menselijk lichaam. Er worden ook al “aaibare nepdieren” ingezet, die troost, ontspanning en plezier bieden, zoals knuffels bij kinderen. Robots kunnen helpen het menselijk welzijn te vergroten, maar kunnen ook haaks staan op de menselijke waardigheid, die centraal dient te blijven staan evenals de kwaliteit van leven. Wat dat betreft zijn er ethische vragen en uitdagingen. Ook hier wordt gewezen op het gevaar van objectivering, dehumanisering en instrumentalisering.

Techniek is niet goed of slecht, maar ook niet neutraal, ook niet in ethisch perspectief. Het hangt af van de toepassing. Die kan ethisch verantwoord zijn of niet. “Menselijke waardigheid en kwaliteit van leven moet dan ook te allen tijde het leidende principe bij de inzet van robotica in de zorg zijn (zie hierover het atikel van Lambèr Royakkers)” (p11). Daarvoor dient een inventarisatie van ethische kwesties te worden gemaakt. Dat gebeurt nu in een beperkt juridisch perspectief gericht op privacy en aansprakelijkheid.

Ethische reflectie en analyse dient breder te zijn dan alleen juridische aspecten en vier centrale waarden te bestrijken: 1. recht op autonomie (en instemming), 2. rechtvaardigheid, 3. schade voorkomen (ook emotioneel en psychisch), en 4. weldoen op het niveau van de zorgvrager en zorgverlener, de zorgorganisatie en de zorgsector. Sluit het invoeren van robots aan bij wensen en behoeften op deze niveaus?

Voor een zorgvuldige en doordachte invoering van robotica is ethische reflectie en inventarisatie van vragen op al deze niveaus nodig Bijv. vragen hoe de robot kan bijdragen tot het welbevinden van de cliënt en of de zorgverlener ermee kan omgaan, en ook een kosten en batenanalyse wat betreft de zorgverlening. “Morele bezinning is nooit af en blijft doorlopend van belang” (p13). De interactie tussen mens en robot dient voortdurend vanuit moreel perspectief te worden beschouwd met in achtneming van bovengenoemde waarden.

 

Robots nemen administratief routinewerk over. https://disruptive.asia/outsourcing-robots-for-office-work/

 

‘Het werkend perspectief van robotica’

Dit artikel van Ton Wilthagen, hoogleraar Institutionele en juridische aspecten van de arbeidsmarkt te Tilburg, gaat in op de consequenties van robotica voor onze arbeid(smarkt). Het woord ‘robot’ komt van het Tsjechische ‘robota’, dat werk betekent dat wordt gedaan door een lijfeigene. Door automatisering en robotisering verdwijnen banen, maar er komen nieuwe voor in de plaats. De verwachting dat dit meer vrije tijd zou opleveren is tot dusver nauwelijks bewaarheid geworden. De zes-daagse werkweek werd vijf-daags, soms vier-daags, en vrouwen zijn massaal gaan werken, zij het vaak in deeltijd. De beleving van de arbeid is in het algemeen wel veranderd.

“Marx beschouwt arbeid in beginsel als vorm van zelfverwerkelijking, maar in het kapitalistische systeem signaleert hij vooral vervreemding, omdat de arbeider geen controle meer heeft over zijn arbeid” (p16). Dat is inmiddels veranderd. Er is meer ruimte voor zelfontplooiing en invloed op het werk dan vroeger meestal het geval was. Volgens Robert Blauner in zijn arbeidssociologische studie Alienation and Freedom ging automatisering samen met meer controle over het werk, met name vergeleken met voorgeprogrammeerd werk, bijv. aan de autoassemblagelijn of de lopende band.

Human relations- en human ressources management (HMR) heeft een belangrijke plaats gekregen in het personeelsbeleid. Sinds Marx zijn er ook allerlei sociale wetten gekomen die de arbeid hebben gehumaniseerd, de rechtspositie, arbeidsomstandigheden, randvoorwaarden en medezeggenschap hebben verbeterd. Arbeid moet voldoen aan vastgelegde normen. Het dient ‘decent work’, ‘fatsoenlijk werk’ te zijn: veilig, met een fair inkomen en een zekere mate van vrijheid, ontplooiingsmogelijkheden en gelegenheid tot paricipatie in de besluitvorming, zodat de arbeid aantoonbaar bijdraagt tot “welzijn, geluk, gezondheid, ontwikkeling, (zelf)ontplooing, sociaal kapitaal en sociale steun” (p16).

Het ziet er niet naar uit dat de kwaliteit van de arbeid en de arbeidstevredenheid minder gaat worden door robotisering, eerder dat oninteressant werk overgenomen gaat worden door robots. Administratieve en andere banen met routinewerk lopen meer kans op robotisering dan meer complex en creatief werk. Nieuwe technologie schiep en schept veel nieuwe banen, zoals het maken, verder ontwikkelen, besturen en implementeren van robots, nieuwe opleidingen en trainingen, enz.

Eerdere verwachtingen dat industrialisering en automatisering zouden leiden tot meer vrije tijd, werden niet bewaarheid. In de jaren ’30 was er meer werkloosheid dan nu. Werkgelegenheid wordt volgens economen als Keynes (zie CM 107) vooral bepaald door de mate van productie, die weer afhangt van de consumptie, de vraag en het te besteden inkomen, niet zozeer van de mate van mechanisering en automatisering. “Het saldo van baandestructie en baancreatie” (p18) is nog niet op te maken, gezien de onbekende consequenties van de komende technologie. Robotisering kan leiden tot ‘job enrichment’, ‘baanverrijking’, door robots routinewerk te laten doen. “Verlies van waardevol , zinvol en ‘decent’ werk dient zoveel mogelijk te worden tegengegaan.” Het nieuwe werk dient te voldoen aan eerdergenoemde normen die sinds Marx c.s. zijn vastgelegd.

“Mens en robot kunnen nog geruimte tijd een gouden duo vormen door hun complementariteit.” Routinewerk voor de robots; creatief, complex, fexibel en intelligent werk voor de mensen. “Zo bezien kan robotisering op allerlei manieren bijdragen aan een wenkend perspectief” (p19). Het hangt af van onze inzet en de mogelijkheden die we creëren en implementeren.

 

https://ethicsandtechnology.eu/news/4tu-ethics-scientific-director-anthonie-meijers-chairs-research-meet-artificial-moral-agents/

 

‘Robots met moreel kompas en compassie’

Artificial Moral Agents (AMA) zijn er op vier niveaus, in gradaties van autonomie, volgens moraalfilosofe Katleen Gabriels, auteur van Regels voor robots: Ethiek in tijden van AI:

  1. ‘morele impact actor’: het hebben van enige ethische invloed; dit geldt voor alle KI systemen
  2. ‘impliciete morele actor’, waarin ethische overwegingen zijn opgenomen bijv. inzake veiligheid
  3. ‘expiciet morele actor’, die moreel gevoeige informatie kan analyseren en beslissingen kan nemen, zoals de vollledig zelfrijdende auto, die er nog niet is
  4. ‘volledige morele actor’, die echt autonoom is, een vrije wil veronderstelt en “er allicht nooit komt”

Moraliteit moet worden aangeleerd. Wat nog ontbreekt is o.m. “consensus over welke ethische theorie de basis moet vormen voor ethische standaarden” (p21). En welke theorie zich daarvoor het beste leent. Het blijkt dat de vrij algemeen geaccepteerde gulden regel als ‘wat gij niet wilt dat u geschiedt, doe dat ook een ander niet’ “moeilijk is over te brengen aan een machine” (p22). Dat geldt ook het utilitaire ethische principe van ‘het grootste geluk voor het grootse aantal mensen’. Een mogelijk meer begaanbare weg is het bevorderen van coöperatief gedrag als evolutionaire vorm van ethisch gedrag en het versterken van samenwerkingsmechanismen.

Bij mensen gaat moraliteit samen met gevoel. “Het is maar de vraag of KI in staat zal zijn om emoties te ontwikkelen; de meningen hierover zijn sterk verdeeld... Volgens [robotontwikkelaar Rodney Brooks] zal het mogelijk zijn om een computer te ontwerpen met zowel emoties als bewustzijn... KI kan ook fundamenteel nieuwe inzichten geven in wat de essentie is van intelligentie of bewustzijn” (p23).

Robots blijven echter “door mensen gemaakte artefacten [...en] vallen onder onze ethische evaluatie en controle, en niet omgekeerd... De mens is de morele mentor van KI. We moeten dus vooral hopen dat de mens verstandig met KI blijft omgaan... Computerwetenschappers en andere ontwikkelaars in spe moeten de kans krijgen zich... de ethische vragen eigen te maken en methoden aan te leren om hierop antwoorden te bieden... Hoe beter de makers zélf de vraagstukken begrijpen, hoe beter hun beslissingen zullen zijn” (p24).

 

 

‘De ethiek van zelfrijdende auto’s’

In dit artikel gaat de Utrechtse universitaire docent Sven Nijholm, auteur van Humans and Robots: Ethics, Agency, and Antropomorphism, over de verantwoordelijkheid voor zelfrijdende auto’s, met name als zij ongelukken veroorzaken. In 2018 was er een ongeluk met dodelijke afloop. Het gaat ook over de kwestie hoe dergelijke auto’s bij een ongeluk de schade zoveel mogelijk kunnen beperken bij onvermijdelijke ongevallen door onvoorspelbare menselijke fouten van andere weggebruikers. Het hangt af van de programmering, die weer afhangt van de wensen van de potentiële gebruikers. Ook hier doet zich de vraag voor welke ethische theorie uitgangspunt zal zijn. “We hebben nog geen goede ethische theorie over hoe zelfrijdende auto’s met ongevalscenario’s moeten omgaan” (p27).

Wat betreft de verantwoordelijkheid: “Waarom houden we niet gewoon de bedrijven die de zelfrijdende auto’s produceren verantwoordelijk? Sommige deskundigen... zijn bezorgd dat dit ten  koste zal gaan van de motivatie van de bedrijven om deze techniek te ontwikkelen” (p28). Een ander argument is dat de makers geen controle hebben over wat de auto doet als hij daadwerkelijk aan het verkeer deelneemt.

Toch is het belangrijk de verantwoordelijkheid vast te stellen bij schade, bij ongevallen. De auto is of heeft (nog) geen rechtspersoon. Ook al hebben mensen geen directe controle, dan hebben ze nog wel indirecte controle over de zelfrijdende auto. “Er is nog veel onontgonnen terrein op dit gebied voor ethici die geïnteresseerd zijn in de wereld van de toekomst waarin autonome technologie steeds vaker taken gaat overnemen die voorheen door mensen werden uitgevoerd, zoals rondrijden in een auto” (p29). Een vergelijkbare kwestie deed zich voor bij het monster van Frankenstein toen dit autonoom zijn gang ging.

 

https://www.icthealth.nl/nieuws/zorgrobotica-biedt-nog-geen-oplossing-voor-personeelstekorten/

 

‘Sociale interactie tussen mens en robot’

Dit onderzoeksgebied is volop in ontwikkeling met belangrijke toepassingen in de zorg, aldus Raymond Cuijpers, hoofddocent Cognitive Robotics en Human-Robot Interaction te Eindhoven. Robots leren steeds beter emoties te herkennen en daarop te reageren met enige autonomie. Herkenning van spraak, gezicht en mimiek is een aspect, ‘sociale cues’ of hints herkennen, zoals bijv. de kijkrichting, waaruit intenties kunne worden afgeleid, is een ander belangrijk aspect.

In de zorg worden robots geacht in staat te zijn tot enige mate van pro-actief en autonoom handelen en eigen initiatief. Daarbij moeten ze sociale cues van mensen kunnen begrijpen, kunnen omgaan met emoties en irrationeel gedrag en dit kunnen interpreteren. Dat is me nogal wat. Toch “zijn er volop ontwikkelingen gaande waarbij sociale robots wel degelijk op een sociale manier met mensen kunnen interacteren” (p34).

 

Kunstmatige intelligentie en totalitarisme

Dit onderwerp komt niet aan de orde in het themanummer, wel in mijn artikelen over George Orwell in CM 103 en 104. Surveillancetechnologie berust op kunstmatige intelligentie en heeft dezelfde basis als robotisering en een ethische kant. Strikt genomen behoort het niet tot het onderwerp robotisering, maar tot het bredere gebied van KI. De potentiële gevaren van misbruik van KI komen bij totalitarisme pregnant naar voren. Het maakt duidelijk dat technologie misbruikt kan worden en dat er ethische en sociale bescherming en veiligheidskleppen dienen te worden geregeld.