Direct naar artikelinhoud
InterviewKatleen Gabriels

‘Je kunt machines geen ethische gedragscode meegeven’

Ook Siri, de virtuele assistent van Apple, toont dat technologie nooit neutraal is.Beeld apple

Ethische spelregels voor robots en technologen, daar ijvert moraalfilosoof Katleen Gabriels in haar nieuwste boek voor. ‘Studenten denken nog te vaak dat technologie simpelweg neutraal is. Filosofen moeten de complexiteit zichtbaar maken.’

Siri, de virtuele assistent van Apple, was bij de lancering een ontdekking. Ze hielp je met van alles. Ze wees je moeiteloos de weg naar een prostituee of het dichtstbijzijnde verkooppunt van viagra. Maar je moest haar niet de weg vragen naar een abortuskliniek, want die kende ze niet.

Technologie is nooit neutraal, wil Katleen Gabriels maar zeggen met dit voorbeeld. Er kruipen meningen en voorkeuren in het ontwerp. Soms met opzet, om een commercieel doel te dienen, maar vaak zonder dat de maker zich ervan bewust is. Openbare toiletten zijn de afgelopen jaren geautomatiseerd, met de beste bedoelingen. Je hoeft in die toiletten niets meer aan te raken, alles reageert op de bewegingen van je lichaamsdelen. Je handen onder de handzeep doen die stromen. Heel hygiënisch, prachtig. Tot een paar zwarte mannen in een filmpje lieten zien dat het met hun handen niet werkt. De sensor van de zeep reageerde alleen op blanke handen.

Katleen Gabriels is assistent-professor aan de Universiteit Maastricht en bekleedde het afgelopen jaar bovendien de Calewaert-leerstoel aan de Vrije Universiteit in Brussel. De Vlaamse filosoof deed in dat jaar onderzoek naar techniekethiek en kunstmatige intelligentie. Het resultaat is een bijzonder lezenswaardig boek, Regels voor robots, dat zopas verscheen.

Het boek begint met de verhouding tussen mens en technologie, die soms een heel ander karakter krijgt dan de ontwerper dacht. Gabriels: “Sprekend voorbeeld is Twitter-ontwikkelaar Chris Wetherell, de man die de retweetknop heeft bedacht. Die heeft daar spijt van. Hij dacht dat het een mogelijkheid was om de stem van minderheden te laten klinken. Maar de retweetknop werd de motor van razendsnelle hetzes op Twitter. Wetherell betreurt dat nu, en vergelijkt de retweetknop met het geven van een geladen wapen aan een vierjarige.”

Sociale dynamiek

Dat zijn bedenkingen achteraf. “Inderdaad. Het was beter geweest als hij dat tevoren had ingezien. Een ontwerper heeft altijd te maken met morele keuzes en met een sociale dynamiek die zijn ontwerp zal krijgen. Je moet heel goed onderlegd zijn om die te doorzien. En je kunt niet alle gebruik voorspellen. Maar op die retweetknop had hij bijvoorbeeld een plafond kunnen zetten, een maximum voor het aantal keren dat een bericht doorgestuurd kan worden.”

Ontwerpers en ingenieurs vallen vaak terug op de stelling dat zij een technologie slechts ontwikkelen, en niet bepalen hoe die wordt gebruikt. De stelling is onhoudbaar, zegt Gabriels, en haar boek is een pleidooi voor waardegedreven ontwerpen op basis van een degelijke scholing in techniekethiek. “Daar wordt in Nederland veel meer aandacht aan besteed dan in Vlaanderen. Daarom werk ik aan een Nederlandse universiteit. Nederland heeft het Rathenau Instituut, dat goed onderzoek doet op dit gebied. En de technische universiteiten (Delft, Eindhoven, Twente en Wageningen) hebben een gezamenlijk onderzoekscentrum voor techniekethiek.”

Eerlijk en eerlijk

Dat wil nog niet zeggen dat ontwerpers en ingenieurs een filosoof met open armen ontvangen. “Ik heb al een hele ontwikkeling meegemaakt, die begon met de typische vraag van eerstejaarsstudenten: waarom moeten wij dit leren? Eerstejaars denken veelal dat technologie simpelweg neutraal is. Wij filosofen zijn geschoold om de achterliggende complexiteit zichtbaar te maken. Neem een begrip als eerlijkheid. Lijkt helder. Maar wat als jou in vertrouwen wordt verteld dat je beste vriendin door haar vriend wordt bedrogen? Eerlijk zijn en het haar vertellen betekent dat vertrouwen schenden.”

Inmiddels komt er aandacht voor de lastige vragen van de filosoof, zegt Gabriels: “Ik werd twee jaar geleden gevraagd om op een congres over machine learning in Berlijn de openingslezing te geven. Want de organisatie wilde dit keer wat aandacht voor ethiek. Ik was zenuwachtig, want daar zat een zaal vol gestaalde technologen. Maar na afloop bleven de vragen komen, en hebben we een extra werksessie moeten beleggen. De ingenieurs waren blij dat ze hierover konden praten. Ze zaten met een knagend geweten.”

“Het is misschien de tijdgeest: we moeten hier aandacht aan besteden. Een technoloog heeft de neiging om te zeggen: geef handvatten, geef me spelregels. Maar ethiek is geen checklist. ­Filosofie werkt zo niet.”

Basisregels

In de vroege dagen van de kunstmatige intelligentie was er de hoop dat je voor machines een soort ethische code kon programmeren. Pionier Isaac Asimov legde de basis met een paar simpele regels voor robots:

Regel 1: een robot mag een mens niet verwonden.
Regel 2: een robot moet bevelen van mensen uitvoeren, tenzij hij daarmee regel 1 schendt.
Regel 3: een robot moet zijn eigen voortbestaan beschermen, tenzij dat botst met regel 1 of regel 2.

Iets van deze basis is terug te vinden in de code die Duitsland recent heeft opgesteld voor de meest besproken robot van dit moment: de zelfrijdende auto. De Duitse code, een koploper, komt in het boek van Gabriels uitgebreid aan bod. Ze is er vrij positief over, omdat die wel enkele duidelijke regels bevat à la Asimov (zoals de regel dat het leven van een mens boven het leven van een dier gaat), maar tegelijk uitsluit dat een ethische code volledig geautomatiseerd kan worden.

“Er worden allerlei denkoefeningen gedaan met dramatische verkeerssituaties”, zegt Gabriels. “De zelfrijdende auto moet dan bijvoorbeeld uitwijken voor een tegenligger en kan naar links, waar een bejaarde loopt, of naar rechts, waar een kind speelt. Pas op: dit is nog lang geen realiteit hè, de zelfrijdende auto ziet op dit moment met moeite het verschil tussen een mens en een boom. Maar als je dit dilemma gaat testen, stuit je direct al op culturele verschillen. In Europa hebben we de neiging het kind te sparen, dat nog een leven voor zich heeft. Maar in Japan krijgt eerbied voor de oudere de voorrang.”

Geen blauwdruk

“Systemen moeten worden ontworpen om ongevallen te vermijden. Maar je kunt dat onmogelijk standaardiseren tot op het niveau van beslissingen die een menselijke bestuurder moet nemen. En waarom? Omdat er geen morele blauwdruk voor is. Ken jij iemand die dat zou kunnen zijn? Niemand kan die blauwdruk zijn. Moraliteit is altijd afhankelijk van de context. De mens heeft zijn geboden. Maar zelfs het gebod om niet te doden is rekbaar; in het geval van zelfverdediging mag het wel. Hoe zouden we dan ooit moraliteit in een machine kunnen programmeren?”

“Ik zie een wedstrijd voor me op televisie”, zegt Gabriels. “Een wedstrijd waarin mensen kunnen strijden om de eer om het beste model van moraliteit te zijn. De winnaar gebruiken we dan om een machine te programmeren. En dan zien hoe die machine gaat handelen. Het zou een verhaallijn kunnen zijn in Thuis of zo, om het debat te stimuleren.” 

Dat je niet alles kunt programmeren, weten de makers van kunstmatige intelligentie ook. Daarom zijn ze zelflerende systemen gaan bouwen, die worden getraind met voorbeelden. In het begin maken die veel fouten, maar ze gaan steeds beter presteren.

Dat kan heel goed werken, maar er schuilt een ethisch gevaar in, zegt Gabriels. “De Europese wetgeving voor gegevensbescherming geeft mensen het recht op explainable artificial intelligence. De maker moet kunnen uitleggen wat het systeem doet. Computerwetenschappers schrikken als ze dat horen. Want, zeggen ze, veel systemen nemen zelf hun beslissingen, en we weten niet precies hoe. Maar dat leidt tot moral disengagement; je laat de verantwoordelijkheid los voor de technologie die je hebt ontwikkeld.”

Rijbewijs blijft nodig

Maar, dat doe je met een kind toch ook? Je voedt het op tot het zijn eigen beslissingen kan nemen en laat het dan los. Gabriels: “Je zou die gedachte op lerende machines kunnen toepassen. Maar doe je dat ook voor een commercieel systeem, voor de machine van een groot bedrijf als Facebook of Google, niet openbaar en gemaakt om advertentie-inkomsten te genereren? De transparantie die in de Europese wetgeving werd verankerd, is nodig om te zien wat kunstmatige intelligentie doet en om van elkaar te leren.

“We gaan nooit mogen zeggen: we weten niet hoe de computer tot zijn slotsom is gekomen, maar u mag deze woning niet huren. Ik spreek mensen die zeggen: die zelfrijdende auto wordt fantastisch, we hebben straks geen rijbewijs meer nodig. Maar natuurlijk wel! De mens moet altijd zelf het stuur in handen kunnen nemen.”

Katleen Gabriels, Regels voor robots. Ethiek in tijden van AI, Uitg. VUBPRESS, 172 p., 17,95 euro.

Kathleen Gabriels.Beeld Thomas Sweertvaegher