Permanente link
Naar de actuele versie van de regeling
http://lokaleregelgeving.overheid.nl/CVDR744150
Naar de door u bekeken versie
http://lokaleregelgeving.overheid.nl/CVDR744150/1
AI en algoritmes beleid Gooise Meren
Geldend van 18-09-2025 t/m heden
Intitulé
AI en algoritmes beleid Gooise MerenUitgangspunten voor het gebruik binnen de gemeente
1. Inleiding
Artificial Intelligence (vanaf nu AI) is met een enorme opmars bezig. Tools als ChatGPT (OpenAI) en Copilot (Microsoft) maken het gebruik ervan voor iedereen toegankelijk. AI is gebaseerd op complexe algoritmes maar ook algoritmes in een bredere zin en zijn steeds meer vertegenwoordigd in de samenleving en in de gemeentelijke organisatie. Het biedt veel kansen maar brengt ook risico’s en ethische dilemma’s met zich mee.
Het doel van dit beleid is om kaders te stellen waarbinnen wij deze kansen kunnen benutten en dit op een verantwoorde, veilige en ethisch manier kunnen uitvoeren.
1.1 Aanleiding
- •
De Europese AI-act die vanaf augustus 2024 in werking is getreden.
- •
De snelle ontwikkelingen in de samenleving op het gebied van Generatieve AI (GenAI).
- •
De behoefte aan kaders voor het gebruik van AI binnen onze organisatie: wat willen we wel en wat niet?
1.2 Leeswijzer
Dit beleid van de gemeente beschrijft het gebruik van AI en Algoritmes. Er wordt een schets gemaakt van de context, waarin de belangrijkste trends en ontwikkelingen worden besproken, zoals de opkomst van Generatieve AI, de EU-regelgeving rondom AI en de verplichting tot transparantie over algoritmes binnen de overheid. Daarnaast wordt ingegaan op de communicatie van dit beleid binnen de gemeente en de relatie van dit beleid tot andere documenten, waaronder het programma digitalisering en beleidskaders zoals het strategisch IB&P- en I&A-beleid.
Vervolgens wordt in het kader hoofdstuk uitgelegd hoe de gemeente AI en algoritmes wil benutten. Het beleid richt zich op het veilig en verantwoord inzetten van deze technologieën, door te investeren in vaardigheden en kennis, collega’s bewust te maken van de risico’s, en passende AI-oplossingen te zoeken die voldoen aan wet- en regelgeving. Ook wordt het belang van transparantie benadrukt door het publiceren van impactvolle algoritmes in het algoritmeregister.
In de uitvoeringsstrategie wordt dieper ingegaan op de achtergrond en risico’s van AI en algoritmes.
De opkomst van Generatieve AI, evenals de risico’s zoals datalekken, betrouwbaarheid van de output, en ethische kwesties. Maatregelen zoals bewustwordingstrainingen, juridische toetsen en het naleven van wetgeving worden beschreven. Het beleid legt ook uit hoe de gemeente de mogelijkheden van AI-tools beoordeelt, waarbij gebruiksvoorwaarden en beveiliging van data centraal staan.
Tot slot wordt het gebruik van algoritmes nader toegelicht, inclusief de risico’s zoals black-box problematiek, fouten en inbreuken op privacy. Hieraan gekoppeld worden maatregelen en transparantie uitgewerkt, inclusief het gebruik van het algoritmeregister. Het beleid sluit af met een monitoring- en evaluatiestrategie, waarin jaarlijks de voortgang wordt beoordeeld door informatiemanagement en Team IB&P.
2. Context
2.1 Trends en ontwikkelingen
- •
Opkomst van Generatieve AI (GenAI)
- •
Regulering van AI (Regulation - EU - 2024/1689 - EN - EUR-LEX, z.d.) binnen de EU
- •
Transparant maken van (hoog risico) algoritmes binnen de overheid (Handreiking Algoritmeregister, 2023)
2.2 Communicatie en participatie
- •
Dit beleid wordt actief gecommuniceerd binnen onze gemeente op een voor de betreffende doelgroep passende wijze
2.3 Afhankelijkheden
- •
Nieuwe ontwikkelingen op het gebied van (Gen)AI worden aangestuurd en geïmplementeerd vanuit het programma digitalisering
- •
Strategisch IB&P Beleid
- •
I&A Beleid 2025 – 2029
3. Kader
Als gemeente willen wij gebruik maken van de kansen die AI en Algoritmes ons bieden. De gemeente wil dit op een veilige en verantwoorde manier, daarom:
- •
investeren we als gemeente in de AI-vaardigheden en kennis van onze medewerkers;
- •
maken we als organisatie onze medewerkers bewust van de risico’s en geven ze handvatten mee;
- •
communiceren we dit beleid actief aan onze medewerkers (gezien de hoge impact van de technologie);
- •
zoeken we als organisatie naar passende AI-oplossingen welke voldoen aan wet- en regelgeving;
- •
identificeren we de risico-classificatie van (nieuwe) AI-toepassingen binnen onze IT-omgeving;
- •
publiceren we als transparante gemeente hoge impact algoritmes in het algoritmeregister.
4. Uitvoeringsstrategie
4.1 Artificial intelligence (AI)
4.1.1 Achtergrond
AI bestaat al sinds de vorige eeuw, maar sinds de uitvinding van de zogenaamde Transformers (Wikipedia contributors, 2024d) nemen Large Language Models (LLM’s) (Wikipedia contributors, 2024a) in 2022 een flinke stap vooruit wanneer ChatGPT uitkomt (Wikipedia contributors, 2024c).
Met deze Generatieve AI (GenAI) (Wikipedia contributors, 2024b) hebben we opeens de mogelijkheid om nieuwe content (tekst, video, foto en audio) op basis van een beschrijving (prompt) te genereren.
Naast de verschillende losstaande oplossingen die er zijn om deze Generatieve AI te gebruiken, hebben de grote Tech-bedrijven (Microsoft, Google, Apple) de strategie om deze Generatieve AI in hun producten te bouwen.
4.1.2 Risico’s en maatregelen
|
# |
Risico |
Maatregel |
|
1 |
Datalekken Het lekken van (onbedoeld) vertrouwelijk informatie of persoonsgegevens. |
|
|
2 |
Betrouwbaarheid Output Op dit moment wil GenAI nog wel eens hallucineren, waardoor de output niet altijd klopt. |
|
|
3 |
Inbreuk op intellectueel eigendomsrecht Bij GenAI is het niet altijd duidelijk waar de informatie vandaan komt, waarmee het model getraind is. Soms is dit onrechtmatig verkregen (zonder toestemming van de eigenaar). |
|
|
4 |
Privacy Verlies van controle over (persoons)gegevens. |
|
|
5 |
Ethiek AI kan discriminerende algoritmes bevatten, daarnaast zitten er vaak Amerikaanse normen die mogelijk afwijken van de lokale normen en waarden. |
Ethische toets Doorloop een DEDA (de ethische data-assistent) (Schäfer et al., 2018) waardoor het helder moet worden of we als gemeente dit algoritme kunnen/moeten willen inzetten. |
|
6 |
Hoog Risico AI gebruik AI kan discriminerende algoritmes bevatten, daarnaast zitten er vaak Amerikaanse normen die mogelijk afwijken van de lokale normen en waarden. |
IAMA Bij het gebruik van hoog risico AI is het IAMA (impact assessment voor mensenrechten bij de inzet van algoritmen) verplicht. (Ministerie van Algemene Zaken, 2024) |
4.1.3 Toepasbaarheid
Als gemeente willen we de Generatieve AI tools omarmen, wanneer het onze collega’s kan ondersteunen in hun processen of werkzaamheden. De verschillende Generatieve AI-tools worden niet uitgesloten van gebruik, zolang er maar:
- 1.
Geen koppeling is met ons IT-landschap, of;
- 2.
Een koppeling met ons IT-landschap is (bijvoorbeeld wanneer er gebruik wordt gemaakt van vertrouwelijke informatie, persoonsgegevens of bij integratie met systemen van de gemeente) de toepassing gecontracteerd is, of
- 3.
een interne risicoafweging is gemaakt.
|
Goed om te weten AI-tools uit landen met een offensief cyberprogramma (Nationaal Cyber Security Centrum) tegen Nederland worden nooit toegestaan. |
Aanschaf en eisen AI-producten
Wanneer er een nieuw AI-product wordt aangeschaft dan wordt er eerst contact gezocht met de informatiemanager. Door middel van een risicoanalyse vanuit Team IB&P wordt beoordeeld welke eisen er nodig zijn om aan relevante wetgeving zoals de EU AI-Act, AVG, NIS2 en BIO te voldoen. Onderdelen uit deze wetgeving die specifiek voor AI-toepassingen extra aandacht verdienen zijn Security by design, Security by default, ISO-27001, ISO-24028 & ISO-25027. Gooise Meren hanteert hier een best effort principe waar zo veel mogelijk gebruik wordt gemaakt van gestandaardiseerde methodieken en (internationale) standaarden. Bij het afnemen van producten en diensten kan (afhankelijk van het risicoprofiel) door Gooise Meren worden verlangd dat de wijze waarop Security-by-design is vormgegeven inzichtelijk wordt gemaakt via een onafhankelijke (code)review of audit.
Ontwikkeling door Gooise Meren
Wanneer een AI-toepassing door Gooise Meren of in opdracht van Gooise Meren wordt ontwikkeld, moet deze aan dezelfde eisen voldoen als een gecontracteerde toepassing.
4.2 Algoritmes
4.2.1 Achtergrond
Een algoritme wordt gezien als een reeks instructies of regels om tot een resultaat te komen, we kunnen het ook wel vergelijken met een recept. Algoritmes zitten in praktisch alle software die wij als gemeente gebruiken.
|
Goed om te weten Een AI is opgebouwd uit verschillende algoritmes, maar niet iedere algoritme is een AI. Dit is ook de reden dat we AI en algoritmes apart behandelen in dit beleid. |
Interne ontwikkeling algoritmes
Binnen onze gemeente worden ook eigen algoritmes ontwikkeld. Deze algoritmes behandelen we op dezelfde manier als algoritmes die niet door onze gemeente zijn ontwikkeld.
4.2.2 Risico’s en maatregelen
|
Risico |
Maatregel |
|
Black Box Een toepassing met een complex algoritme kan een Black-box (ondoorzichtig) zijn, waardoor het niet duidelijk is wat er gebeurd door het algoritme. |
Ethische toets De gemeente zal indien dit noodzakelijk is een DEDA (de ethische data-assistent) doorlopen (“Proces Dataproduct”, 2024), waardoor het helder wordt of we als gemeente dit algoritme kunnen/moeten willen inzetten. |
|
Ethiek Een algoritme kan discriminerende vooroordelen bevatten. |
Ethische toets De gemeente zal indien dit noodzakelijk is een DEDA (de ethische data-assistent) doorlopen (“Proces Dataproduct”, 2024), waardoor het helder wordt of we als gemeente dit algoritme kunnen/moeten willen inzetten |
|
Privacy Wanneer algoritmes toegang hebben tot persoonsgegevens kunnen deze leiden tot schending van privacy wanneer ze niet goed beveiligd worden. |
Voldoen aan AVG De gemeente zorgt ervoor dat de algoritmes voldoen aan de AVG (denk aan dataminimalisatie, gegevensanonimisatie/pseudonimisatie, beveiligingsmaatregelen). |
|
Fouten in algoritmes Het kan voorkomen dat er fouten in algoritmes zitten, dit kan in het ergste geval resulteren in een verkeerd gemaakt besluit voor de burger. |
Correctie mogelijk maken De gemeente zal ervoor zorgen dat de b etrokkenen bij een (persoonlijk) besluit (welke gevolgen heeft voor hen) zich kunnen beroepen op “het recht op een menselijke blik”. De gemeente moet dan een nieuw besluit nemen waarbij een medewerker (een mens) hun gegevens opnieuw moet beoordelen |
Adviescommissie Digitale Ethiek
Er wordt een Adviescommissie Digitale Ethiek in het leven geroepen, welke het college gevraagd en ongevraagd adviseert over het gebruik van nieuwe digitale technologieën (zoals algoritmen, AI en sensoren) in de Gemeente Gooise Meren. De commissie bestaat uit commissieleden met kennis en affiniteit op het gebied van (digitale) ethiek.
4.2.3 Toepasbaarheid
Als gemeente zijn we voor transparantie van het gebruik van algoritmes binnen de gemeente, dit brengen we ten uitvoer door gebruik te maken van het Algoritmeregister (Handreiking Algoritmeregister, 2023). In het algoritmeregister maken we onderscheid in de volgende te publiceren algoritmes:
- 1.
Hoog-risico algoritme
- 2.
Impactvol algoritme
Algoritmes die voldoen aan een van deze classificaties (Handreiking Algoritmeregister, 2023) publiceren wij als gemeente in het algoritmeregister (Handreiking Algoritmeregister, 2023).
5. Monitoring en evaluatie
5.1 Monitoring en evaluatie
- •
Iedere januari (of vaker indien nodig) wordt het AI en Algoritme bij Gooise Meren – beleid geëvalueerd door informatiemanagement en Team IB&P.
Ondertekening
Literatuurlijst
Handreiking algoritmeregister (1.0). (2023). Geraadpleegd op 7 januari 2025, van https://aienalgoritmes.pleio.nl/attachment/entity/f1a35292-7ea6-4e47-93fa-b3358e9ab2e0
Ministerie van Algemene Zaken. (2024, 20 augustus). Impact assessment mensenrechten en algoritmes. Rapport | Rijksoverheid.nl. https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes
Proces dataproduct. (2024). In Engage. Gemeente Gooise Meren. Geraadpleegd op 23 januari 2025, van https://viewer.engageprocess.com/?did=9a1376a7-7a2f-40c5-87a5-3bd98a96770f&state=4
Regulation - EU - 2024/1689 - EN - EUR-LEX. (z.d.). https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Schäfer, M. T., Franzke, A., Utrecht Data School, & Universiteit Utrecht. (2018). Handleiding Inventarisatie van ethische kwesties rond data projecten bij overheden (D. Van Der Hoek & M. Krijgsman, Reds.). https://deda.dataschool.nl/wp-content/uploads/sites/415/2022/11/DEDA-NL.handbook.V3.1.pdf
Turk, K., Pol, N., De Graaf, D., Koops, S., Van Dijk, R., & Vereniging van Nederlandse Gemeenten. (2020). Proeftuin actieve openbaarmaking.
Wikipedia contributors. (2024a, oktober 19). Large language model. Wikipedia. https://en.wikipedia.org/wiki/Large_language_model
Wikipedia contributors. (2024b, oktober 20). Generative artificial intelligence. Wikipedia. https://en.wikipedia.org/wiki/Generative_artificial_intelligence
Wikipedia contributors. (2024c, oktober 21). ChatGPT. Wikipedia. https://en.wikipedia.org/wiki/ChatGPT
Wikipedia contributors. (2024d, oktober 21). Transformer (deep learning architecture). Wikipedia. Geraadpleegd op 21 oktober 2024, van https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture)
Ziet u een fout in deze regeling?
Bent u van mening dat de inhoud niet juist is? Neem dan contact op met de organisatie die de regelgeving heeft gepubliceerd. Deze organisatie is namelijk zelf verantwoordelijk voor de inhoud van de regelgeving. De naam van de organisatie ziet u bovenaan de regelgeving. De contactgegevens van de organisatie kunt u hier opzoeken: organisaties.overheid.nl.
Werkt de website of een link niet goed? Stuur dan een e-mail naar regelgeving@overheid.nl