Universitair docent privaatrecht en postdoctoraal onderzoeker bij Studio Europa Maastricht Catalina Goanta sprak op Al Jazheera televisie over kunstmatige intelligentie (AI). Naast Goanta, schoven ook Eddy Borges-Rey (Universitair docent digitale journalistiek en nieuwe media aan NorthWestern University in Qatar) en Caroline Sinders (senior fellow Mozilla Foundation) aan.

In het tv fragment spreken de experts over de verschillende problematische en veelbelovende aspecten van AI. Allereerst onderstreept Goanta dat er vaak in algemene termen wordt gesproken over AI, maar dat AI in de praktijk vooral beschouwd moet worden als een set tools om bepaalde taken uit te voeren zoals gezichts- of spraakherkenning.

Gepaste juridische kaders voor kunstmatige intelligentie
Daarnaast is, volgens Goanta, het juridische kader waarin deze tools zijn ingebed van groot belang. Omdat AI niet nieuw is, bestaan er al veel regels die zeer goed aansluiten op het gebruik ervan. De impact van AI kan alleen worden gemeten aan de hand van haar nauwkeurigheid (in hoeverre levert de AI datgene waarvoor het is ingezet?) en het wettelijke kader waarin AI is ingebed.

Wat de toepassing van wettelijke kaders betreft, benadrukt Goanta dat het belangrijk is om de verschillende contexten waarin AI wordt gebruikt, in perspectief te plaatsen. AI-systemen die in oorlogsvoering worden gebruikt, zoals drones, vallen onder het humanitair recht. Consumentenproducten met ingebedde AI vallen onder de wetgeving inzake consumentenbescherming.

Economische prikkels van AI
Goanta voegt eraan toe dat het van belang is dat de businessmodellen die rond AI ontstaan, onderzocht worden. Als voorbeeld noemt ze de “data enrichment companies”; bedrijven die verantwoordelijk zijn voor het verzamelen van data van bedrijven. Hoe werken deze zogenoemde ‘makelaars’ voor datasets, wat zijn de economische prikkels die aan hun verdienmodellen ten grondslag liggen en welke economische prikkels hebben ze als gevolg?

“De businessmodellen die rond AI ontstaan, moeten nog verder onderzocht worden”

Het risico van vooroordelen in AI
De datasets die als input dienen voor AI kunnen ingebedde vooroordelen meedragen. Caroline Sinders noemt als voorbeeld de gezichtsherkenning in voorspellende politiesystemen. Louisiana, waar ze vandaan komt, heeft het hoogste aantal gevangenen in de VS en donkere mensen zijn daarin oververtegenwoordigd. Als de datasets van Louisiana worden gebruikt voor voorspellende politiesystemen, dan zullen deze op basis van deze informatie voorspellingen maken voor politie – met alle gevolgen van dien.

Schade van AI en opt-outs
Sinders spreekt ook over het belang van een betere “legibility” (leesbaarheid) bij het gebruik van AI. Wat gebeurt er met fouten in de AI? Wanneer moet iets worden beschouwd als een fout of schade als gevolg van het gebruik van een AI-tool? Wie beslist of de tool kan worden toegepast of niet? Moeten gebruikers begrijpen hoe de verschillende AI-tools werken en moet de gebruiker de keus krijgen om niet deel te zijn of gebruik te maken van een AI-tool (opt-out)?

“Betere technische geletterdheid, maar ook het verbeteren van de leesbaarheid van AI beleid en ontwerpen voor een breder publiek, zijn essentieel voor het respecteren van de rechten en de bescherming van consumenten en de bevolking in het algemeen.”

Samengevat: de noodzaak van technologische geletterdheid is groot
Alle sprekers waren het erover eens dat er veel meer moet worden gedaan op het gebied van technologische geletterdheid van de bevolking. Betere technologische geletterdheid, maar ook het verbeteren van de leesbaarheid van AI beleid en ontwerpen voor een breder publiek, zijn essentieel voor het respecteren van de rechten en de bescherming van consumenten en de bevolking in het algemeen. Op dit gebied is er nog veel werk aan de winkel…

Het volledige gesprek is hier te zien.

Leave a Reply