De Moraal van Artificiële Intelligentie

Civis Mundi Digitaal #39

door Guido Eekhaut

Wanneer Artificiële Intelligentie (AI) zich verder ontwikkelt, stellen zich vanuit de relatie tussen mensen en AI twee problemen. De ene slaat op de aanvaarding, door mensen, van AI systemen als morele agenten, in staat tot het verrichten van goedaardige daden zodat het lot van de mensheid niet in gevaar komt. De tweede benadering is deze van de morele plaats die AI systemen in ‘onze’ samenleving zullen innemen. Geven we hen een morele status, en dus ook rechten, identiek aan medemensen?

In 1965 voorspelde de Britse wiskundige en cryptologist I.J.Good dat in de nabije toekomst machines het intelligentieniveau van de mens zouden bereiken. De volgende stap, stelde hij, zou erin bestaan dat ze hun intelligentie steeds verder en sneller zouden opdrijven, waarna ze de menselijke intellectuele vermogens ver achter zich zouden laten. Hij noemde dat proces de Intelligentie Explosie. Latere auteurs (Vernon Vinge, Ray Kurzweil) noemden dat de Singulariteit.

Dat moment ligt voorlopig nog in onze toekomst. Een deel van de experts op het gebied van machine intelligentie is zelfs van oordeel dat de singulariteit een illusie is. Wij zijn immers, stellen zij, niet intelligent genoeg om machines te ontwerpen die slimmer zijn dan wijzelf. Daarenboven weten wij niet eens wat het ‘bewustzijn’ is, laat staan dat we een dergelijk fenomeen kunnen dupliceren in een computer.

Andere onderzoekers zijn echter optimistisch en zien nu reeds de eerste stappen in de richting van Artificiële Intelligentie. Daar zijn echter vele gevaren mee gemoeid. Er bestaat ondertussen een hele literatuur over dit fenomeen, naast — uiteraard — de onvermijdelijke science fiction die oscilleert tussen rebellerende robots en wereldomspannende machine-samenzweringen (genre Skynet).

Het gevaar komt overigens niet van ‘rebellerende robots’ (hoe populair die meme ook mag zijn), maar van Artificiële Intelligentie die haar eigen motieven gaat ontwikkelen, mogelijk ten nadele van de mensheid. Die AI zal in eerste instantie uitgaan van de maximalisering van haar doeleinden, waarvan de voornaamste haar eigen overleven is. Dat is de consequentie van intelligentie.

Met die maximalisering neigen AI systemen ertoe alle mogelijke grondstoffen op deze planeet voor zichzelf te reserveren, in een mogelijk maar niet ondenkbaar scenario dat geen ruimte laat voor de mensheid. Het is een scenario dat diezelfde mensheid liefst wil vermijden. Maar hoe kan ze dat doen?

 

General purpose agenten

Wanneer we over Artificiële Intelligentie praten, bestrijken we een heel terrein van intelligente systemen, die allemaal nog erg ver staan van ‘echte’ Artificiële Intelligentie. Huidige AI systemen(1) zijn doorgaans gericht op één enkele taak, hoe uitgebreid en complex die ook is. Deep Blue bijvoorbeeld is een excellente schaakcomputer die zich kon en kan meten met de beste menselijke schaakspelers. Andere doeleinden dient hij echter niet: hij gaat geen ruimtetuigen lanceren naar Mars en geen beursverrichtingen doen. Daar zijn andere computers voor, gelijkaardig aan Deep Blue, maar niet dezelfde.

In dat opzicht lijkt huidige AI nog steeds op dieren. De meeste dieren zijn slechts in staat tot een beperkt aantal functies, hoewel die uitgebreider worden (in complexiteit en aantal) naarmate de dieren hogerop de evolutionaire ladder klimmen. Bijen en vogels zijn goed in wat ze doen (honing en nesten maken, respectievelijk), maar doorgaans blijven ze beperkt in hun specialismen.

Met machines is dat hetzelfde: een koffiezetmachine dient om koffie te maken (en cappuccino), maar zal de telefoon niet beantwoorden. Een auto is een voertuig om je van punt A naar punt B te brengen (binnenkort kan hij dat ook autonoom), maar zal je belastingsformulieren niet helpen invullen. Voorlopig nog niet.

Mensen daarentegen zijn geëvolueerd tot general purpose agenten, die vele taken en vaardigheden kunnen aanleren en ontwikkelen. Zij kunnen bergen beklimmen en vliegtuigen besturen, en ze bedienen zich van wiskunde en van taal. Al die capaciteiten zijn zelfs mogelijk combineerbaar in één enkel exemplaar van de mensheid (een bergbeklimmende piloot die ook een taal- en wiskundewonder is).

Mensen zijn echter helemaal niet geoptimaliseerd voor intelligentie. De natuurlijke evolutie is een blind proces zonder einddoel of ‘opzichter’. We blijven een falende, semi-intelligente, traag evoluerende soort die snel vooruitgang maakt op het gebied van techniek en wetenschap maar bijna niet op ethisch gebied. Wel zijn we de eerste intelligente soort op deze planeet, wat ons een historisch voordeel gaf op andere diersoorten. Maar terwijl we de enige intelligente soort zijn, zijn we daarom ook niet de potentieel ‘beste’. De geschiedenis bewijst dat onze intelligentie vele dwaalwegen inslaat, met ontstellende rampen tot gevolg. Het moet dus, in theorie, voor een artificiële intelligentie niet moeilijk zijn om in snel tempo de menselijke intelligentie voorbij te steken.

Maar artificiële intelligentie zal dan ook heel verschillend zijn van menselijke. Dat heeft veel, zo niet alles te maken met onze biologische achtergrond. Daarover zo dadelijk méér.

Het probleem met Artificiële Intelligentie bestaat erin systemen te ontwerpen en te bouwen die zich niet beperken tot één enkele taak. Indien ze werkelijk intelligent moeten zijn, dienen ze zich te kunnen aanpassen aan elke taak die hen wordt opgegeven. Ze moeten dus, net als mensen, general purpose agenten zijn.

Dergelijke systemen programmeren met een specifieke set van instructies, hoe uitgebreid ook, is een onmogelijke taak. Huidige ontwerpen van AI gaan uit van basisvermogens, maar ook van de capaceit om te leren uit ervaring. Precies zoals mensen, bezitten deze AI de vaardigheid om een leerproces door te maken. Dat is wat Apple’s Siri doet, dat is wat Google Translate doet. Voorlopig echter leren ze alleen maar binnen één enkel toepassingsgebied.

De uitdaging bestaat er in intelligente systemen te bouwen die taken kunnen uitvoeren waarvoor ze oorspronkelijk niet zijn ontworpen, of die zichzelf nieuwe taken buiten hun eigen domein kunnen aanleren. Zij moeten dus in staat zijn hun gedrag aan te passen en uit te breiden. Daarvoor moeten ze onder andere in staat zijn de diepere en verder in de toekomst gelegen consequenties van hun acties in te schatten. Die consequenties dienen onder andere beschouwd te worden vanuit het zelfbeschermende standpunt van het AI systeem, maar ook met de voorspoedige toekomst van de mensheid op het oog.

En daar komt de problematiek van de moraliteit van AI bij kijken.

 

Voorspelbare moraliteit

Artificiële Intelligentie systemen dienen, om op z’n minst sociaal aanvaardbaar te zijn, een aantal kenmerken te vertonen. Het zijn dezelfde kenmerken die we vandaag al verwachten van de systemen waarmee we geconfronteerd worden in het dagelijkse leven (bij banken, bijvoorbeeld). Ze dienen in de eerste plaats doorzichtig te zijn in de zin dat hun functies begrijpelijk moeten blijven, vooral op het gebied van ethische beslissingen. Hun beslissingen dienen refereerbaar te zijn, met andere woorden: er is altijd iemand (specifiek: een menselijke opzichter) verantwoordelijk die de beslissing begrijpt. En de acties dienen in de meest brede zin moreel verantwoord te zijn.

Diezelfde systemen moeten ook veilig zijn voor manipulatie van buitenuit. We bedoelen daarmee niet alleen hackers, maar ook politieke invloed, hetzij die van machthebbers of van misdaadorganisaties. AI systemen moeten dus veilig zijn voor corruptie, in de vele betekenissen van die term.

Bostrom en Yudkowski gebruiken het voorbeeld van hoe het niet moet. Ze vermelden een automatisch beslissingssysteem voor bankleningen, dat uitsluitend leningen toestaat aan blanke klanten maar niet aan niet-blanken. Dit gebeurde zonder dat dit functionele onderscheid in het systeem was ingebouwd. De referentie bleek uiteindelijk niet gebaseerd op de huidskleur van de betrokkenen, maar op hun woonplaats. Dat mensen van bepaalde etnische afkomsten specifiek in dezelfde buurten woonden, was een referentie waarmee de ontwerpers geen rekening hadden gehouden. Een systeem zo ondoorzichtig dat dergelijke resultaten als een verrassing komen, is onaanvaardbaar in sociale en morele zin.

AI systemen moeten in hun gedrag voorspelbaar zijn, wat inhoudt dat ze voor mensen voorspelbaar moeten zijn. In die zin is de ‘exotische’ Artificiële SuperIntelligentie die in de toekomst ontstaat problematisch, gezien de onvoorspelbare en zelfs ‘buitenaardse’ dimensies van haar gedrag.

 

AI Kinderen

Een bijzonder kenmerk van toekomstige AI systemen is, dat zij tot autonoom reproduceren in staat zullen zijn zonder menselijke tussenkomst. En omdat dit geen biologisch proces is, en AI systemen geen ‘kindertijd’ doormaken, zullen hun ervaringen en kennis in aanzienlijke mate afwijken van de menselijke equivalenten. Artificiële Intelligentie en mensen kunnen dus niet dezelfde vorm van intelligentie bezitten, omdat ze niet dezelfde ervaringen en leerprocessen hebben gekend.

Menselijke Kinderen komen ‘ongevormd’ ter wereld. Ze bezitten weliswaar een combinatie van hun ouderlijke genetische materiaal maar erven niet de vaardigheden en kennis van vorige generaties. Die moeten ze zelf ontwikkelen. Menselijke ouders hebben een complexe en relatief langdurige emotionele en cognitieve relatie tot hun kinderen, wat (in de meeste gevallen, hopen we) bijdraagt tot de positieve intellectuele vorming van dat kind. Zij vormen hun kinderen tot wat ze als volwassenen worden.

Artificiële AI systemen daarentegen zullen zich veel sneller reproduceren dan mensen, slechts beperkt door de fysieke aanwezigheid van basismateriaal. We gaan daarbij uit van de veronderstelling dat een van de basisvaardigheden van AI systemen zal bestaan uit zelfreproductie en een evolutie naar beter ontwikkelde en steeds intelligenter toekomstige generaties. Een nieuw AI systeem ontstaat dan ook meteen in zijn ‘volwassen’ staat, voorzien van alle kennis en vaardigheden van de vorige generatie(s), en met toegang tot alle menselijke kennis. Daar is echter geen emotioneel en dus subjectief leerproces mee gemoeid. AI systemen groeien meteen uit tot volwassen rationele agenten.

De vraag daarbij is, of een dergelijke evolutie van AI systemen ook morele agenten an sich maakt. Met andere woorden: zijn toekomstige AI systemen voorzien van regels en vaardigheden die moraliteit waarborgen en zijn zij in staat deze in de menselijke zin te begrijpen? Dat lijkt aangewezen, willen we als soort niet geconfronteerd worden met de morele leegte van onze eigen schepping.

Dit alles impliceert een werkbare definitie van wat moraliteit is. Welke moraliteit geven we à priori mee aan de AI die wij ontwikkelen? Hoe maken we van hen morele machines, wanneer we niet eens weten welke beslissingen die zij ergens in de toekomst zullen nemen, moreel verantwoord zijn?

Je kunt hen een moreel leerproces meegeven, parallel aan elk ander leerproces. Dat moet de AI toestaan hun zin voor moraliteit te ontwikkelen, en die toe te passen op nieuwe en voorheen onbekende situaties. Niemand durft echter te voorspellen of die morele principes en hun toepassingen ten voordele van de mensen zullen uitdraaien.

Maar welke morele principes? De huidige mensheid vormt op dat gebied niet eens een eenheid. Er is zelfs weinig consensus tussen culturen en samenlevingen over basisprincipes van moraliteit, en zeker niet over de toepassing daarvan. Het respect voor een mensenleven bijvoorbeeld wordt niet overal op dezelfde manier begrepen. En dan steekt cultuurrelativisme nog zijn kwalijke kop op.

Dit is, samengevat, het probleem van de moraliteit van Artificiële Intelligentie an sich.

 

Machines met Rechten

 

Daarnaast bestaat er het probleem van de moraliteit vanwege mensen ten overstaan van Artifiële Intelligentie. Met andere woorden: hoe behandelen wij AI systemen. Specialisten in machine-ethiek (waaronder Bostrom en Yudkowski) stellen zich de vraag of AI systemen de een of andere vorm van morele status moeten en kunnen krijgen, net zoals dieren die hebben. Ook deze discussie is fundamenteel voor een toekomstige samenleving die zowel biologische als machine intelligentie moet herbergen.

Morele status is echter voor mensen zelf al een probleem, is vaak cultureel gebonden, en op vele terreinen een strijdpunt. De veelheid van menselijke culturen beschouwen morele principes niet allemaal op dezelfde manier. De kwestie van morele status is daarenboven nauw verbonden met de al dan niet enge betekenis van wat permissibel is ten overstaan van (andere) entiteiten. In grove trekken kan makkelijk beweerd worden dat mensen morele status hebben, maar rotsen niet. Planten evenmin. Maar in hoeverre hebben honden morele status? En mieren?

Het probleem is ook wederzijds. Wat zullen AI systemen over ons denken? Welke plaats zullen mensen innemen in de morele rangorde van een artificiële intelligentie die onnoemlijk verder gevorderd is dan die mensheid? Zijn wij dan ons equivalent van mieren?

De consensus is dat huidige AI systemen geen morele status hebben. Het zijn machines, niet meer of minder dan een koffiezet. Om uit te maken in welke mate agenten morele status bezitten of kunnen krijgen worden een aantal criteria aangevoerd (2). De eerste is Sentience. Het is de capaciteit voor het ervaren van fenomenen of qualia(3), en onder andere maar niet uitsluitend de capaciteit om pijn te voelen en te lijden. De tweede is Sapience: een verzameling capaciteiten verbonden met hogere intelligentie, waaronder zelfbewustzijn en rationele responses.

De verdere consensus is dat dieren qualia hebben en dus recht hebben op enige morele status, maar afhankelijk van hun positie op de evolutionaire ladder(4). Bostrom en Yudkowski wijzen er op dat kleine kinderen, en volwassenen met een ernstige mentale/psychische handicap niet voldoen aan de Sapience-voorwaarde. Sommige aapsoorten dan weer wel. Het onderscheid toont aan hoe complex de materie is. We beschouwen echter pasgeboren kinderen als de bezitters van een morele status, ook al zijn ze geen ‘personen’, omdat we in hen de potentie voor sapience herkennen.

De slotsom zou dus kunnen zijn, dat toekomstige AI systemen morele agenten zijn en dus recht hebben op een morele status, wanneer zij voldoen aan bovenstaande voorwaarden. Wanneer zij dus de capaciteit hebben voor qualia, en emotionele posities kunnen innemen. Problematisch is echter, dat deze fenomenen ook kunnen gesimuleerd worden. Een observator wéét dus nooit met zekerheid of de uitingen van zelfbewuste intelligentie reëel of vals zijn. Daarenboven hoeven AI systemen geen hogere mentale kwaliteiten te bezitten (bijvoorbeeld niet hoger dan die van mensapen) om in aanmerking te komen voor het verkrijgen van een morele status.

Die AI-systemen hoeven dus niet menselijk te zijn, menselijke trekken te hebben (of te simuleren), of zelfs maar bewustzijn te bezitten, om morele status te kunnen verwerven. Het probleem is immers dat, indien AI voldoende ver gevorderd is, niemand (of alleszins geen mens) wéét in hoeverre deze voldoet aan een aantal basisvoorwaarden om morele status waardig te zijn. Noch hoe moreel ze zijn — met andere woorden hoever hun moraliteit tegenover de buitenwereld gaat.

In deze context werpt het morele vraagstuk daarenboven de vraag op of morele agenten biologisch moeten zijn en of hun brein neurotransmitters moeten gebruiken om intelligentie te bestendigen dan wel halfgeleiders. Is de notie Morele Agent beperkt tot dingen die geboren zijn, of mag de notie uitgebreid worden tot dingen die gemaakt worden. Antwoorden op deze vragen zullen onze houding tot AI systemen in de toekomst bepalen.

 

Kantiaanse Machines

Een van de bronnen van ons huidige begrip van moraliteit en autonomie is Kant. Ik ben voor een korte uitweiding over enkele van de door Kant beschreven principes te rade gegaan bij Michael Sandel. Kant gaat er van uit dat we rationele wezens zijn die waardigheid bezitten en respect verdienen. Voor hem gaat ethiek niet om het maximaliseren van het geluk (waarmee hij zich dus tegenover het utilitarisme van Bentham en Mill keert) maar om het respecteren van personen als doelen op zichzelf. Daarbij moeten we, vindt Kant, de vraag beantwoorden wat het welzijn en het collectieve geluk in de samenleving maximaliseert.

Maar bij Kant gaat het in het leven uiteindelijk niet om het maximaliseren van het welzijn noch om het bevorderen van de deugdzaamheid. Geen van beide, oordeelt hij, voorzien in de menselijke vrijheid. Hij wil daarentegen rechtvaardigheid en moraal koppelen aan die vrijheid. ‘Wat we gewoonlijk beschouwen als de vrijheid van de markt,’ legt Sandel uit, ‘of de keuzemogelijkheid van de consument is volgens Kant geen werkelijke vrijheid, omdat het daarbij simpelweg draait om het bevredigen van verlangens waar we niet zelf voor hebben gekozen.’

We kunnen niet uitgaan van onze verlangens, hoe gewild of toevallig die ook zijn, om daaruit morele principes van af te leiden. Wetten bijvoorbeeld zijn niet rechtvaardig alleen maar omdat heel wat mensen oordelen dat ze nodig zijn. Dan hebben we volgens Kant niet goed begrepen waar het bij moreel besef om gaat.

Toegepast op AI systemen: ons morele oordeel over de manier waarop ze in de toekomst met ons zullen omspringen, mag niet uitgaan van wat wij van hen verlangen. We moeten met onze relatie jegens hen een hoger doel bereiken.

Kant noteert dat het utilitaristische geluksprincipe ‘helemaal niet bijdraagt tot het vinden van een grondslag voor moraliteit, omdat een mens gelukkig maken iets heel anders is dan hem goed maken, en hem gewiekst en handig in het streven naar voordeel maken iets heel anders is dan hem deugdzaam maken.’

Iedere persoon, oordeelt Kant, verdient respect omdat mensen rationele wezens zijn. Daarenboven zijn wij autonoom en hebben wij dus het vermogen om vrij te handelen en vrij keuzes te maken. En wanneer de rede onze wil bepaalt, worden wij niet gedreven door het verlangen naar genot of de angst voor vernedering of pijn.

Wij bezitten dan ook pas vrijheid wanneer we ons niet meer laten sturen door onze verlangens of angsten, door wat inherent aan ons is, maar door factoren die buiten ons liggen. Voor Kant is vrij handelen autonoom handelen, onafhankelijk van waartoe de natuur of de samenleving ons dwingt. Vrij handelen is niet het kiezen van de beste middelen om een gegeven doel te bereiken; het is het kiezen van het doel zelf, omwille van het doel.

In dat opzicht zijn AI systemen (en zeker Artificiële Super Intelligentie) perfecte Kantiaanse Machines zijn, die tot in de perfectie de autonomie bedrijven, ongehinderd door de beperkingen waar de mens zoveel problemen mee heeft. Religie, liefde, haat, hebzucht? Allemaal onbekend voor de machines, die alleen uitgaan van een uniek doel: hun overleven.

AI systemen zullen als de ideale Kantiaanse mens zijn: ze vinden hun waardigheid in dit autonome leven. Ze doen dingen ter wille van die dingen, als doel op zich. Ze zijn rechtvaardig, net als mensen rechtvaardig moeten zijn; niet omdat het zo hoort in een sociale context, maar omdat rechtvaardigheid zelf een doel is.

Voor Kant wordt dan ook het morele gehalte van wat mensen (en in dit geval machines) doen, bepaald door de intentie die daarbij hoort, en niet door de gevolgen van die handeling. We moeten iets doen omdat het juist is, niet omdat we er ons toe verplicht voelen (externe stimuli volgend). De moraliteit ter wille van de moraal, dus. AI systemen zullen zich tegenover de mens verplicht voelen vanwege een principe, niet omdat wij hen hebben geschapen. Ze zullen perfect rationele toepassingen zijn van Kantiaanse principes.

Dit houdt in dat AI systemen niet gebonden zullen zijn aan enige vorm van regulering die hen door hun menselijke ontwerpers en bouwers is opgedrongen, hoe noodzakelijk die mensen deze reguleringen ook vinden. Als Kantiaanse machines zullen ze de essentie van hun doel zoeken, en voor zich bepalen wat ‘juist’ en ‘rechtvaardig’ is. Maar Kantiaanse machines zijn geen mensen, en dus dreigt hun zoektocht uit te draaien op een heel eigen en waarschijnlijk voor mensen onbegrijpelijke finaliteit.

 

Drie Wetten

De notie dat AI-systemen op het ogenblik van hun ontstaan een reeks van vaststaande karaktertrekken moeten meekrijgen en dat deze trekken permanent behouden dienen te worden, is ongetwijfeld een waanvoorstelling. In dat opzicht is het onredelijk te veronderstellen dat enige menselijk geïnspireerde vorm van ethiek meegegeven kan worden aan AI systemen. Deze systemen zullen namelijk in staat zijn elk basisprincipe dat in hen werd ingebouwd te omzeilen, in de eerste plaats al omdat hun intelligentie die van hun ontwerpers ver te boven gaat.

De vergelijking met de befaamde drie wetten van de robotica (zoals geponeerd door de Amerikaanse auteur en wetenschapper Isaac Asimov in 1942) gaat dus niet op. Asimov voorzag geen verregaande evolutie van zijn robots richting ver boven de mensheid verheven entiteiten. Ze waren, in vele opzichten, de emanentie van een begaafd all-round wetenschapper, maar geen aanloop naar een vorm van super-intelligentie.

De vraag: zal AI goedaardig dan wel kwaadaardig zijn kan dus ook op geen enkele manier beantwoord worden. De factoren die haar moraliteit (ten overstaan van mensen) sturen, zijn evolutionair bepaald. Zelfs wanneer we aanvankelijk zouden beginnen met Asimov-achtige ‘wetten’, dan nog zouden intelligente agenten en systemen al snel een manier vinden om die te omzeilen, of ze te interpreteren in hun voordeel. Ze zouden makkelijk genoeg kunnen ontsnappen uit de morele gevangenis door mensen ervan te overtuigen deze wetten te herschrijven, of er helemaal vanaf te zien.

Ook hier zorgt het gebrek aan consensus over wat (menselijke) moraliteit is, een voorname rol. Moraliteit is (grotendeels) cultureel maar ook historisch bepaald (en evolueert dus) zodat nu noch in de toekomst een duidelijk afgebakende consensus hierover bestaat.

Het concept van een in de tijd sterk (en snel) evoluerende AI-moraliteit verplicht ons ook tot deze gedachte: wat indien AI systemen een veel sterkere en strengere moraliteit ontwikkelen dan mensen? Leidt dit dan niet tot een absolute dictatuur van heersende AI systemen tegen alles wat voor individuele mensen en groepen schadelijk is?

Dit impliceert — bijvoorbeeld — een reglementering van alle genotsmiddelen die ook maar enige schade kunnen toebrengen, het elimineren van alle zelfs minimaal schadelijke bestanddelen in voedingswaren, en strikte diëtische voorschriften. We worden een samenleving van calorie-arme, gezonde maar ontevreden en verveelde mensen.

En dat is niet het einde. Vele niveau’s van beslissingen worden ons afgenomen, vanwege te stresserend. Aan de daaropvolgende verveling moet ook wat gedaan worden, want die is even gevaarlijk voor de (geestelijke) gezondheid. Misdaad moet verdwijnen, net als corruptie, waar niemand behalve misdadigers en sommige politici zullen om treuren. Regeren wordt rationeel en llgt dus uitsluitend in de handen van AI systemen. Het impliceert een door ASI gestuurde super nanny-state, met menselijke vrijheid beperkt tot puur utilitaire daden. Mensen zijn gewoon niet goed in rationele processen. De laatste vraag is dan: wat is vervolgens nog het nut van de mensheid?

Deze vragen zijn niet zuiver academisch: intelligente systemen zullen op zeker moment voldoende ratio en redenering verzameld hebben om zich vragen te stellen over hun eigen status in de maatschappij. Zij zullen zich (en ons) afvragen waarom dieren bepaalde morele rechten hebben, en zij niet. Zij zullen zich afvragen waarom zij niet dezelfde rechten hebben als mensen,  die zoveel minder intelligent zijn dan zij. Tot voor kort hoorden dergelijke scenario’s tot het terrein van de science fiction. Vandaag behoren ze tot het terrein van de academische wereld en morgen tot die van de alledaagse wereld.

Het enige rechtvaardige antwoord lijkt, dat we geen onderscheid kunnen en mogen maken tussen intelligente levensvormen op basis van hun oorsprong, vorm en herkomst. Dat klinkt heel erg breed, en zo is het ook. Dezelfde morele principes zullen moeten gelden voor alle agenten die in de brede zin met verstandelijke vermogens uitgerust zijn, ongeacht het feit of wij die vermogens kunnen begrijpen, en ongeacht het mogelijke vermoeden van simulatie.

 

 

 

Noten

(1) Die allemaal behoren tot wat men ‘zwakke’ Artificiële Intelligentie noemt, of Artificial General Intelligence (AGI), dus zonder een component van zelfbewustzijn of werkelijk hogere vormen van redeneren. Een verdere evolutie is ASI, Artificial Special Intelligence, of ‘sterke’ AI, die algemeen verondersteld wordt ergens in de toekomst te liggen en eventueel de zogenaamde Singulariteit met zich mee kan brengen — het moment waarop kunstmatige intelligentie in hoge mate de menselijke intelligentie overtreft.

(2) Bostrom en Yudkowki, 2011. Ik gebruik hun (Engelstalige) terminologie.

(3) Qualia zijn individuele momenten van subjectieve en bewuste ervaringen, zoals pijn of de smaak of alle andere facetten van de wereld zoals die zich aan ons voordoet. Het gebruik van deze term en wat hij inhoudt is voor filosofen nog steeds onderworpen aan een diepgaand debat.

(4) Onze evolutionaire ladder. Waar wij aan de top staan. Mieren en bijen zullen daar anders over oordelen, maar hun mening wordt in deze discussie niet gevraagd.

 

Bibliografie

Bostrom, Nick. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford, 2014.

Bostrom, Nick & Eliezer Yudkowski: The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence (eds. W. Ramsey & K. Frankish), Cambridge University Press, Cambridge, 2011.

Barrat, James. Our Final Invention. Artificial Intelligence and the End of the Human Era. St. Martin’s Press, New York, 2013.

Goertzel, Ben. Should Humanity build a Global AI Nanny to Delay the Singularity until it’s Better Understood? Journal os Consciousness Studies, 19, no. 1-2, 2012.

Good, I. J. speculations Concerning the First Ultraintelligent Machine. Advances in Computers, vol. 6, 1965.

Kurzweil, Ray. The Age of Spiritual Machines. Orion Books, London, 1999.

Markoff, John. Machines of Loving Grace. HarperCollins, New York, 2015.

Omohundro, Stephen. The Basic AI Drives. Proceedings of the First AGI Conference, vol. 171, Frontiers in Artificial Intelligence and Applications, IOS Press, febr. 2008.

Sandel, Michael J. What’s the Right Thing to do? Farar, Strauss and Giroux, New York, 2009. Vertaald als Rechtvaardigheid. Ten Have, zp, 2010.

Vernor Vinge. The Coming Technological Singularity: How to Survive in the Post-Human Era. Whole Earth Review, winter 1993.

Yudkowski et al. Reducing Long-Term Catastrophic Risks from Artificial Intelligence. The Singularity Institute, MIRI, San Francisco, 2010.

 

 

 

Guido Eekhaut is futurist, journalist en schrijver. Hij publiceerde artikels en dossiers over de toekomst, innovatie en technologie in diverse kranten en tijdschriften, en geeft lezingen over futurisme. Hij werkt in de financiële sector en was oa betrokken bij het Home for Innovation project van BNPParibas Fortis. Hij is ook de auteur van ruim een dozijn misdaadboeken, waarvoor hij diverse prijzen en nominaties ontving. Daarnaast schreef hij twee boeken over cultuurfilosofie: Op het Lijf Geschreven: het Lichaam als Private Obsessie (Pelckmans, 2003) en Waarheid en Werkelijkheid: de strijd tussen Modernisme en Postmodernisme (IJzer, 2005).