Er moet een deltaplan komen voor algoritmes en kunstmatige intelligentie (AI), zodat de overheid, bedrijven en burgers die verantwoord kunnen gebruiken.
Daarvoor pleit de Autoriteit Persoonsgegevens. Volgens de privacywaakhond nemen de
risico’s van
AI en algoritmes toe en is het van groot belang om daar meer grip op te hebben.
“Hoe meer AI en algoritmes worden ingezet in de samenleving, hoe meer incidenten plaatsvinden”, zegt voorzitter Aleid Wolfsen van de Autoriteit Persoonsgegevens. Als voorbeeld noemt hij foute adviezen van chatbots, gezichtsherkenningssystemen die minder goed werken voor mensen van kleur of scanauto’s van de gemeente die niet goed werken.
Vooral de opkomst van generatieve AI, waarmee mensen zelf teksten of beelden kunnen genereren, kan risico’s met zich meebrengen, aldus de waakhond. “Desinformatie, manipulatie en discriminatie zijn risico’s die om aandacht vragen.”
Volgens de Autoriteit Persoonsgegevens moeten mensen zich beter bewust zijn van de werking en risico’s van AI, waarmee vrijwel iedereen volgens de toezichthouder in de nabije toekomst “veelvuldig” mee in aanraking zal komen.
“De inzet van AI en algoritmes kan bijdragen aan duurzame welvaart en welzijn”, zegt Wolfsen. “En het is mogelijk om dit op zo’n manier te doen dat grondrechten goed beschermd zijn. Maar incidenten schaden wel het vertrouwen. Daarom zijn goede regelgeving en robuust toezicht noodzakelijke voorwaarden.”