Schriftelijke vragen : Het gebruik van AI-systemen door de overheid en de risico’s daarvan waar niet naar wordt gekeken.
Vragen van het lid Ergin (DENK) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het gebruik van AI-systemen door de overheid en de risico’s daarvan waar niet naar wordt gekeken (ingezonden 30 oktober 2024).
Vraag 1
            
Bent u bekend met het bericht van de NOS getiteld «Overheid maakt volop gebruik van
               AI, maar kijkt vaak niet naar risico’s»?1
Vraag 2
            
Hoe beoordeelt u het feit dat bij meer dan de helft van de systemen die gebruikmaken
               van kunstmatige intelligentie (AI) binnen de overheid geen gedegen risicoanalyse wordt
               uitgevoerd, zoals blijkt uit het onderzoek van de Algemene Rekenkamer (ARK)?
            
Vraag 3
            
Welke stappen neemt u om ervoor te zorgen dat alle overheidsinstanties de risico's
               van AI-gebruik adequaat in kaart brengen volgens de geldende wet- en regelgeving,
               met bijzondere aandacht voor mensenrechten en privacy?
            
Vraag 4
            
Kunt u uitleggen waarom slechts vijf procent van de AI-systemen is opgenomen in het
               openbare algoritmeregister, terwijl dit register juist werd opgezet naar aanleiding
               van de Toeslagenmisdaad? Zo nee, waarom niet?
            
Vraag 5
            
Hoe gaat u ervoor zorgen dat alle hoogrisico-AI-systemen voor de deadline van 2026
               in het register zijn opgenomen, zoals vereist door Europese regelgeving?
            
Vraag 6
            
Welke maatregelen neemt u, gezien de Toeslagenmisdaad en de waarschuwing van de ARK
               over mogelijke discriminatie door AI-systemen, om te garanderen dat AI-systemen van
               bijvoorbeeld de Belastingdienst en het Uitvoeringsinstituut Werknemersverzekeringen
               (UWV) voldoen aan de vereisten van nauwkeurigheid en non-discriminatie?
            
Vraag 7
            
Deelt u de zorg van de ARK dat er een prikkel bestaat om AI-systemen niet als hoogrisico
               in te schatten, zodat men niet hoeft te voldoen de strengere Europese regelgeving?
            
Vraag 8
            
Hoe wordt bij de inzet van AI-toepassingen, zoals de inzet van robothonden voor celinspecties
               bij de Dienst Justitiële Inrichtingen (DJI), gewaarborgd dat de privacy en rechten
               van gedetineerden worden beschermd en worden er risicoanalyses uitgevoerd?
            
Vraag 9
            
Hoe wordt ervoor gezorgd dat er een duidelijke standaard is voor het testen en monitoren
               van AI-systemen, met betrekking tot nauwkeurigheid en non-discriminatie, gezien het
               groeiende gebruik van AI in overheidsdiensten?
            
Vraag 10
            
Bent u bereid om extra toezicht of huidige controlemechanismen in te stellen om ervoor
               te zorgen dat AI-systemen niet alleen efficiënt werken, maar ook rechtvaardig en veilig
               zijn voor burgers?
            
Vraag 11
            
Welke stappen gaat u ondernemen om in de toekomst getroffen burgers snel en rechtvaardig
               te compenseren wanneer de overheid discriminerende beslissingen heeft genomen door
               het gebruik van AI-systemen?
            
Vraag 12
            
Is er op dit moment een procedure ontwikkeld om burgers die zijn benadeeld door discriminerende
               AI-beslissingen actief te helpen bij het herstellen van hun rechten?
            
Vraag 13
            
Bent u bereid meer transparantie te bieden over welke AI-systemen in het algoritmeregister
               als hoogrisico worden ingeschat, specifiek met betrekking tot het risico op discriminatie?
            
Vraag 14
            
Op welke manieren kunnen burgers worden geïnformeerd over de specifieke risico's van
               deze AI-systemen en hoe zij zich hiertegen kunnen beschermen?
            
Vraag 15
            
Welke maatregelen gaat u nemen om ervoor te zorgen dat burgers, en met name kwetsbare
               groepen, worden beschermd tegen discriminerende algoritmes die door de overheid worden
               ingezet, zoals aangegeven door de ARK?
            
Vraag 16
            
Hoe zorgt u ervoor dat AI-systemen, zoals die van het UWV en de Belastingdienst, die
               direct van invloed zijn op burgers, niet leiden tot discriminerende keuzes of ongelijke
               behandeling op grond van etniciteit of nationaliteit?
            
Vraag 17
            
Hoe wordt voorkomen dat AI-systemen, zoals die in het algoritmeregister, onrechtmatige
               beslissingen nemen die burgers onterecht benadelen en schade toebrengen?
            
Ondertekenaars
- 
              
                  Eerste ondertekenaar
 Doğukan Ergin, Tweede Kamerlid
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.
 
          