Zo wil GroenLinks dat mensen de optie krijgen om klachten over het gebruik van AI in te dienen bij autoriteiten als bedrijven of overheden de wet overtreden, dat ontbreekt nu in het voorstel. Daarnaast moet duidelijker worden wat bedoeld wordt met de ‘verboden onethische gebruiken’ van AI.
Kunstmatige intelligentie wordt steeds vaker en op steeds meer plekken ingezet. Algoritmes worden geprogrammeerd om te leren van hun uitkomsten en zichzelf te verbeteren. Dit proces gebeurt automatisch, zonder menselijk overzicht, terwijl er op deze manier vaak belangrijke beslissingen worden genomen. De Commissie komt daarom met een plan voor een verplicht certificaat voor algoritmen met een zogenaamd ‘hoog risico’. Dit is AI die invloed heeft op de maatschappij, iemands financiële situatie, of op democratische processen. Ook AI op de werkvloer en het gebruik van AI in het onderwijs valt hieronder.
Het voorstel verbiedt AI-gebruik in strijd met fundamentele rechten, zoals manipulatie, surveillance en social scoring, waarbij je gedrag wordt bijgehouden en beoordeelt. Van Sparrentak vindt dit een goede eerste stap, maar vindt de tekst nog te vaag: “De Commissie zegt te kiezen voor een Europese weg voor de ontwikkeling van AI, waarbij duurzaamheid en ethiek hoog in het vaandel staan. Ze claimt dat het niet de richting op wil gaan van dataverzameling, manipulatie, surveillance en schending van privacy, zoals bij de VS of China. In het huidige voorstel is helaas nog niet duidelijk genoeg hoe we hier precies voor zorgen. Deze onduidelijkheid ondermijnt de bescherming van mensen, dus daar ga ik werk van maken.”
Van Sparrentak is ook positief over het feit dat de Commissie menselijk toezicht en controles op datakwaliteit tegen discriminatie heeft meegenomen voor AI met hoog risico: “Dit zijn revolutionaire stappen. Net zoals dat bijvoorbeeld je manager je niet mag discrimineren en je niet zonder duidelijke reden mag ontslaan, mag dat ook niet door een algoritme gebeuren. Dit moeten we wel kunnen controleren.” De regels over transparantie moeten dan ook nog sterker. Van Sparrentak: “Er moet niet alleen transparantie zijn over wanneer AI gebruikt wordt, maar ook hoe het wordt ingezet, waardoor het algoritme wordt beïnvloedt en waar je naartoe kan als je het niet met een beslissing eens bent.”