Overslaan en ga naar inhoud

AI en ethiek: ho ho, kunnen we die robot wel vertrouwen?

Kunstmatige intelligentie (AI) creëert allerlei nieuwe kansen, maar ook forse uitdagingen. Hoe houden we de AI-systemen eerlijk, transparant en verantwoordelijk? Op basis van menselijke waarden en rechten?

Bij al het enthousiasme over de mogelijkheden moet er ook aandacht zijn voor de bias in de ‘large language systemen’, de privacy van persoonlijke data en de transparantie. Dit artikel legt uit waarom.

Onderzoek door Joy Buolamwini van het MIT Media Lab toont aan dat sommige software voor gezichtsherkenning significant slechter presteert op niet-witte en vrouwelijke gezichten. Het is een belangrijke bias, die de software minder nauwkeurig maakt voor deze demografische groepen. Dat kan leiden tot ongelijke of zelfs onrechtvaardige uitkomsten.

AI-systemen verzamelen enorme hoeveelheden persoonlijke data. De systemen analyseren die data vervolgens, waardoor ze de privacy mogelijk op twee manieren schenden. Dat geldt bijvoorbeeld voor de inzet van AI in steden, om burgers en hun gedrag in de gaten te houden.

Lees ook: 'De vier manieren waarop AI ondernemen gaat veranderen'

AI en ethiek: ho ho, kunnen we die robot wel vertrouwen?

Recht op uitleg

Het is voor de gezonde ontwikkeling van AI belangrijk dat we transparante systemen gebruiken, waarvan de beslissingen begrijpelijk en uitlegbaar zijn voor mensen. De Europese privacywet GDPR bevat namelijk bepalingen die het recht op uitleg benadrukken. Ook van AI-systemen moet uit te leggen zijn hoe ze tot  beslissingen komen, op basis waarvan keuzes worden gemaakt.

Zowel de GDPR als OESO-principes (Organisatie voor Economische Samenwerking en Ontwikkeling) proberen negatieve implicaties van AI-toepassingen te voorkomen. De GDPR vereist bijvoorbeeld dataminimalisatie en doelbinding. Dit dwingt AI-ontwikkelaars om alleen noodzakelijke gegevens voor een specifiek doel te verzamelen. Bovendien moeten ze de beveiliging en privacy hoog in het vaandel houden. De OESO-principes benadrukken ook het belang van inclusiviteit voor AI-systemen. Ze moeten bijdragen aan inclusieve groei en welzijn, door rekening te houden met de hele samenleving en door ongelijkheid te vermijden. 

Ook interessant: 'Stoomcursus AI: hoe schrijft u de slimme, effectieve prompt'

AI en ethiek: ho ho, kunnen we die robot wel vertrouwen?

Als het misgaat, zoals bij Uber

In maart 2018 vond er een tragisch ongeval plaats in Tempe, Arizona in de Verenigde Staten. Een autonoom voertuig van Uber reed ’s nachts een voetganger aan. Het was de eerste dodelijke aanrijding waarbij een volledig autonoom voertuig. Het voertuig was uitgerust met geavanceerde sensoren zoals radar en lidar en met een aantal camera’s. Toen het ongeval plaatsvond reed de auto volledig autonoom, al zat er een bestuurder achter het stuur als veiligheidsmaatregel. Zowel de sensoren als de bestuurder detecteerden de vrouw te laat, dus konden het ongeval niet voorkomen. 

De National Transportation Safety Board (NTSB) in de Verenigde Staten onderzocht het ongeval. Zij stelde vast dat het autonome besturingssysteem van het voertuig de voetganger 6 seconden voor de botsing detecteerden. Maar, het systeem slaagde er niet in de voetganger correct te classificeren en haar pad te voorspellen. De veiligheidsbestuurder was afgeleid en keek naar beneden, vlak voor het ongeval.

Gemist? Kijk het hier terug: 'Tech4Business ontdekt de toekomst van werk (met AI)'

AI en ethiek: ho ho, kunnen we die robot wel vertrouwen?

Wie is er verantwoordelijk?

Wie is er in zo’n geval verantwoordelijk, dus aansprakelijk? Ligt de verantwoordelijkheid uiteindelijk bij de veiligheidsbestuurder? Of bij Uber, als bedrijf dat de technologie implementeerde? Of bij de fabrikant, die de AI-technologie ontwikkelde? Werden er te weinig veiligheidstests gedaan? Waren de protocollen niet strikt genoeg? Het zijn belangrijke vragen, met ethische implicaties. Hoe zorgen we er namelijk voor dat we autonome voertuigen op basis van AI veilig kunnen inzetten. Mogen we een bepaalde marge aan ernstige ongevallen accepteren?

Het onderstreept hoe complex de verantwoordelijkheid en aansprakelijkheid in elkaar zit, als het gaat om AI bij bedrijven. De autonome technologieën ontwikkelen zich in hoog tempo, maar het is niet altijd duidelijk hoe dat ethisch zit. De ethiek lijkt de technologische vooruitgang niet bij te kunnen houden.

De vraag rijst of we vooral behoefte hebben aan een sterke veiligheidscultuur met doeltreffende risicobeoordelingen. Of we de voorkeur geven aan duidelijke richtlijnen voor het implementeren en testen van deze technologieën. Of dat we aan de andere kant vooral snel vooruit willen, met innovatieve technologieën die nieuwe mogelijkheden creëren.

ChatGPT voor het MKB: 10 tips om er echt mee aan de slag te gaan

Wat zijn de volgende uitdagingen?

De uitdagingen op het gebied van AI en ethiek worden de komende tijd alleen maar groter. Dat heeft bijvoorbeeld te maken met de ontwikkelingen in deep learning en generatieve AI. 

Deep learning - Deep learning is een doorontwikkeling van machine learning, op basis van kunstmatige neurale netwerken. Dat levert indrukwekkende resultaten op het gebied van beeld- en spraakherkenning. Ook blijkt het bijzonder goed geschikt voor natuurlijke taalverwerking.Tegelijkertijd zijn het ontwikkelingen in de ‘black box’ van diepe neurale netwerken. Zelfs ontwikkelaars kunnen de besluitvorming vaak niet volledig uitleggen. Wat betekent dat voor de transparantie en uitlegbaarheid, die we zo belangrijk vinden? Hoe ontwikkelt zich dat als het gaat om kritieke toepassingen, zoals medische diagnoses en de rechtspraak? 

Generatieve AI - Ook generatieve AI brengt uitdagingen met zich mee. De systemen (Generative Adversarial Networks, GAN’s) creëren inhoud die bijna niet te onderscheiden is van menselijk werk. Dat opent deuren op het gebied van kunst, design en entertainment. Andersom roept het ethische vragen op. Hoe gaan we om met de authenticiteit, het auteursrecht en de verspreiding van nepinformatie? Wat doen we concreet aan realistische deepfakes en de gevolgen die dat kan hebben? Bijvoorbeeld op het gebied van propaganda of om individuen te schaden?

Aan de slag met Microsoft 365 Copilot: is het een gamechanger?

AI en ethiek: ho ho, kunnen we die robot wel vertrouwen?

Het AI-mes snijdt aan twee kanten

Kunstmatige intelligentie kan een enorme bijdrage leveren aan de duurzame ontwikkeling van slimme technologie. Aan de andere kant kent het ethische uitdagingen, waarover we zullen moeten nadenken.

AI is bijvoorbeeld heel kansrijk bij het aanpakken van klimaatverandering. Slimme systemen kunnen het energieverbruik optimaliseren en industriële processen verduurzamen. Daarnaast dragen ze bij aan smart cities of de ontwikkeling van precisietechnieken voor de landbouw. Daarmee verminderen we bijvoorbeeld het verbruik van water, meststoffen en pesticiden.

Aan de andere kant vereist de training van deze modellen enorme rekenkracht. Dat leidt tot een aanzienlijk energieverbruik en veel CO2-uitstoot. Ook kan de implementatie van AI leiden tot meer gebruik van elektronische apparaten en hardware. Dat resulteert in meer elektronisch afval.  

Hoe gaan we daar duurzaam mee om? En wat zijn de ethische overwegingen? En de keuzes die we maken? Door daar regelmatig bij stil te staan voorkomen we dat kunstmatige intelligentie ons (te ver) voorbij rent. Een verstandige benadering kan deze zijn: maak het bespreekbaar en durf te twijfelen. Dan houden we de ontwikkelingen beter in de hand. 

Lees verder: 6 AI-apps waarvan uw bedrijf direct profijt heeft

AI en ethiek: kunnen we die robot wel vertrouwen?

Schrijf u in voor de nieuwsbrief

Lees ons volledige Privacy Statement