Algoritmes worden zo geprogrammeerd om continue te leren van hun uitkomsten en zichzelf te verbeteren. Dit proces vindt plaats zonder menselijke tussenkomst waardoor er weinig controle en transparantie aan te pas komt, terwijl er op deze manier vaak belangrijke beslissingen worden genomen. Het inzetten van algoritmes leidt soms tot onduidelijke en gevaarlijke situaties die verstrekkende gevolgen kunnen hebben, zoals bijvoorbeeld in de toeslagenaffaire in Nederland, waar op basis van algoritmes werd bepaald wie verdacht werd van fraude. Een ander voorbeeld is de politieke beïnvloeding die online plaatsvond rondom het Brexit-referendum, waarbij mensen op social media op basis van hun online gedrag en kwetsbaarheden gerichte onwaarheden te zien kregen die uiteindelijk zelfs hun politieke voorkeuren stuurden.
Het besef dat er op AI streng moet worden toegezien is ook in Europa doorgedrongen. De Europese Commissie komt daarom op woensdag 21 april met plannen om op kunstmatige intelligentie met zogenaamd hoog-risico, waarbij de impact grote gevolgen kan hebben voor mens, maatschappij en democratie, toe te zien.
Kim van Sparrentak houdt zich in het Europees Parlement bezig met dit onderwerp en grijpt deze gelegenheid aan om vijf voorstellen te doen om het gebruik van AI aan banden te leggen:
1. Een verbod op manipulatie door algoritmes
Manipulatie van mensen door technologie moet verboden worden. Denk daarbij bijvoorbeeld aan de algoritmes van grote social media platforms als Facebook, die bijvoorbeeld haat, schokkende content en clickbait vaker promoten dan inhoudelijke berichten of journalistiek nieuws. Wat men te zien krijgt bepalen deze algoritmes op basis van gedetailleerde persoonlijke informatie over de individuele gebruiker, waarmee ze precies inschatten waar diegene op klikt of reageert. Alle AI-systemen die mensen op deze manier indirect beïnvloeden om ander gedrag te vertonen, andere keuzes te doen maken of andere meningen te vormen moeten worden verboden.
2. Een verbod op onethische AI-toepassingen, zoals social scoring, herkennen van gender of seksualiteit of surveillance
Technologie in strijd met fundamentele rechten moet verboden worden. In Europa willen we geen dystopische toepassingen van technologie. Denk hierbij aan gezichtsherkenning software die wordt gebruikt om gender of seksualiteit te ‘herkennen’ of ‘social scoring’ systemen, waar burgers worden gevolgd en beoordeeld op hun gedrag door de overheid, zoals in China. Maar hierbij moeten we ook denken aan onethische toepassingen die in Europa reeds gebruikt worden, zoals gezichtsherkenning in de publieke ruimte of surveillance software op werk of in onderwijs. De EU moet een duidelijke keuze maken en haar burgers beschermen door dit te verbieden.
3. Keurmerk voor AI met grote impact op mensenlevens, maatschappij of milieu
Algoritmes die een grote impact kunnen hebben op mensenlevens, de maatschappij of het milieu moeten getest en gecontroleerd worden voor gebruik en hierbij een ‘hoog-risico’- keurmerk krijgen. Op die manier kunnen deze algoritmes regelmatig worden gecontroleerd op schendingen van fundamentele rechten. Ook de datasets die zo’n algoritme verwerkt, of waarmee AI vooraf ‘getraind’ is, moeten worden gecontroleerd om te garanderen dat de data niet discriminerend is. Het gebruik van classificeringen als nationaliteit, etniciteit en geboorteplaats om als variabele voor risicomodellen en zwarte lijsten in de publieke sector te dienen moet verboden worden. Algoritmes moeten tot slot door toezichthouders ingezien kunnen worden, bijvoorbeeld om te zien of ze stelselmatig discrimineren of dat zij misleidende of schokkende informatie bevoordelen en zo mensen manipuleren.
4. Menselijke controle
Het is belangrijk om algoritmes niet klakkeloos en zonder controle toe te passen op mensen. Beslissingen op basis van AI moeten altijd door een mens worden gemaakt en kunnen worden beargumenteerd. Bovendien moeten de mensen die controle uitoefenen op AI daarvoor gerichte expertise hebben. Wanneer degene op wie zo’n beslissing van toepassing is het niet eens is of de argumentatie onvoldoende is, moet er altijd ergens in beroep kunnen worden gegaan om opheldering te eisen.
5. Transparantie
Er moet altijd transparantie zijn over het gebruik van algoritmes. Alleen dan kunnen overheden, bedrijven en mensen verantwoordelijk gehouden worden voor het gebruik van AI. Dat betekent in de eerste plaats dat het altijd helder moet zijn wanneer er een algoritme wordt gebruikt. Gebruikers moeten worden ingelicht op het moment dat hun data wordt verwerkt in AI systemen en er moet een publiek register komen voor AI-toepassingen met hoog risico. Daarnaast moeten mensen het recht hebben te weten op basis van welke factoren algoritmes keuzes maken en hoe algoritmes worden beïnvloed. Je moet kunnen begrijpen waarom je te zien krijgt wat je ziet of op welke basis een beslissing wordt genomen.