Beleid gebruik AI binnen de ODMH

Geldend van 12-06-2025 t/m heden

Intitulé

Beleid gebruik AI binnen de ODMH

Ondertekening

  • 1.

    Inleiding

De opkomst van ChatGPT, Copilot en vergelijkbare technologieën hebben kunstmatige intelligentie (AI) onder de aandacht van het brede publiek gebracht. Ook bij de overheid leeft het onderwerp. Het slim toepassen van AI, door bijvoorbeeld in te zetten op intensieve automatisering, kan een oplossing bieden voor de bezuinigingsvraagstukken, arbeidsmarkttekorten en maatschappelijke opgaven waarmee overheden worden geconfronteerd.

Er is daarnaast veel discussie over de inzet van AI. Het biedt inderdaad aanzienlijke kansen voor dienstverlening. Maar het brengt ook risico’s en ethische vraagstukken met zich mee.

Het gaat daarbij om vragen als:

  • 1.

    Als we bedrijfsinformatie delen met een chatbot, is dit wel veilig?

  • 2.

    Is het als overheid verantwoord om een taalmodel in te zetten, waarvoor op grote schaal auteursrechtelijk beschermde teksten en privacygevoelige informatie zijn gebruikt?

  • 4.

    Hoe zorgen we ervoor dat we kwalitatief goede output krijgen? En dat er geen desinformatie wordt verspreid?

  • 5.

    Willen we met onze duurzaamheidsdoelstellingen wel investeren in oplossingen die veel energie verbruiken om te laten functioneren, met bijbehorende CO2-uitstoot?

  • 6.

    Hoe zorgen we ervoor dat denkvermogen en vaardigheden van medewerkers bij frequent gebruik van AI niet afnemen?

  • 7.

    Wat vinden wij ethisch verantwoord gebruik?

Op 12 juli 2024 is de Europese AI-Act gepubliceerd in het Publicatieblad van de EU. De verordening is van kracht sinds augustus 2024, maar treedt gefaseerd in werking. Het doel van AI-Act is het vergroten van het vertrouwen in AI-systemen en het waarborgen van de bescherming van fundamentele rechten. Het Rijk publiceerde op 22 april 2025 de Overheidsbrede handreiking Generatieve AI.

In dit beleidsdocument beschrijft de ODMH hoe de komende jaren invulling wordt gegeven aan de innoverende mogelijkheden van AI en de (wettelijke) aandachtspunten daarbij. Dit beleid sluit aan bij bovengenoemde handreiking. We realiseren ons dat de ontwikkelingen snel gaan en dat toepassingen zoals Copilot al binnen onze organisatie worden gebruikt. Er gelden daarom nu al interne richtlijnen. Om verantwoord gebruik van generatieve AI te stimuleren en te ondersteunen, leggen we een aantal spelregels voor het gebruik van AI binnen de ODMH vast. Deze spelregels kunnen indien nodig worden bijgesteld.

Leeswijzer

Een overzicht van de spelregels is te vinden in hoofdstuk 2. Hoofdstuk 3 bevat een korte uitleg van wat we verstaan onder AI en wat de visie van de ODMH over AI is. Hoofdstuk 4 omschrijft de risico’s die het gebruik van AI met zich meebrengt en de maatregelen om die te beperken. In hoofdstuk 5 zijn de wettelijke kaders en richtlijnen weergegeven. In hoofdstuk 6 omschrijven we de diverse rollen en leggen we de werkwijze voor het besluiten over de inzet van AI binnen de ODMH vast.

Dit beleidsdocument gaat niet over robotisering (RPA). Dat is het door een machine laten uitvoeren van menselijke handelingen, zonder zelf iets te creëren. Dit in tegenstelling tot generatieve AI, waarbij wel iets inhoudelijks wordt gecreëerd.

2. Spelregels

  • 1.

    Ga na of het inzetten van generatieve AI echt noodzakelijk is. Zo voorkomen we een hoog energieverbruik. Voor het vinden van informatie kan vaak een goede zoekfunctie via Google of een andere zoekmachine ook voldoende zijn.

  • 2.

    Als je een generatieve AI-toepassing wilt inzetten voor pilotprojecten of structureel voor de uitvoering van processen, neem dan altijd contact op met FAB. Op deze manier waarborgen we dat alle nodige disciplines (informatiemanagement, privacy, beveiliging, etc.) worden betrokken en een integrale risicoanalyse kan worden uitgevoerd.

  • 3.

    Gebruik alleen oplossingen waar de ODMH een contract mee heeft en die voldoen aan de vereisten voor zakelijk gebruik. Momenteel is dat alleen Microsoft Copilot, onderdeel van ons zakelijke Microsoft 365 contract (dus géén ChatGPT), of gebruik via FAB aangeboden specifieke oplossingen (zie punt 2).

  • 4.

    Verwerk alleen openbare of algemene informatie in Copilot (en andere generatieve AI-toepassingen), en dus geen persoonsgegevens en andere vertrouwelijke informatie. Gegevens die je niet op internet zou zetten, voer je ook niet in in een AI-toepassing.

  • 5.

    Verwerk geen publicaties, foto’s of tekeningen waarop auteursrechten of ander intellectuele eigendomsrechten van toepassing zijn.

  • 6.

    Genereer alleen inhoud waarvan je zelf in staat bent de juistheid en actualiteit te beoordelen. Beoordeel de verstrekte antwoorden en corrigeer indien nodig. Tip: vraag welke bronnen gebruikt zijn. Dat maakt controle makkelijker.

  • 7.

    AI stelt geen documenten of besluiten vast. Er is altijd een mens verantwoordelijk.

  • 8.

    Wees transparant wanneer je generatieve AI inzet, bijvoorbeeld door in een opgesteld beleidsstuk te vermelden dat tekst is genereerd door AI.

  • 9.

    Realiseer je dat met AI gegenereerde documenten, net als zelfgeschreven documenten, onder de Archiefwet en Wet open overheid vallen en opvraagbaar zijn.

  • 10.

    Gebruik door AI gegeneerde teksten bij voorkeur niet direct in stukken, maar gebruik de tekst als inspiratie of richting. Maak er jouw eigen verhaal van en pas de tekst aan naar de ODMH-stijl.

  •  

  • 3.

    Wat is AI en waar kan de ODMH AI voor gebruiken?

  • 3.1

    Wat is AI?

AI (of kunstmatige intelligentie) is de wetenschap die zich bezighoudt met systemen die taken kunnen uitvoeren die normaal gesproken menselijke intelligentie vereisen, zoals leren, redeneren, problemen oplossen, perceptie, en taalbegrip. Kortgezegd: Al is het nabootsen van menselijke vaardigheden met een computersysteem.

Er zijn verschillende vormen van technologieën te onderscheiden: Algoritmen, Machine Learning, Deep Learning en Large Language Models (LLMs). AI is de overkoepelende term voor deze technieken. Hieronder worden deze verschillende vormen verder uitgelegd.

AI volgens de AI-Act:

AI is een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.

Algoritmen

Een reeks instructies of regels om een taak te voltooien of een probleem op te lossen. Zelfs het bereiden van een maaltijd volgens een recept is bijvoorbeeld al een algoritme. Binnen de computerwetenschap vormen algoritmen de basis van alle soorten software, inclusief AI-systemen: ze worden gebruikt om gegevens te manipuleren, berekeningen te maken, of geautomatiseerde redeneringen uit te voeren.

Machine Learning

Machine Learning is een tak van Kunstmatige Intelligentie en is gebaseerd op het idee dat systemen kunnen leren van data, dat ze patronen kunnen herkennen en dat ze beslissingen kunnen maken zonder tussenkomst van mensen. Machine Learning leunt sterk op statistische wetenschap.

Deep Learning

Deep Learning is een onderdeel van Machine Learning, gebaseerd op meerdere lagen neurale netwerken. Het combineert de vooruitgang in rekenkracht en de speciale soorten neurale netwerken om gecompliceerde patronen in grote hoeveelheden data te leren herkennen. Deep Learning technieken worden bijvoorbeeld gebruikt om objecten in afbeeldingen en woorden in geluiden te kunnen herkennen.

Large Language Models (LLMs)

Dit is een specifiek type van Machine Learning, dat getraind wordt met grote hoeveelheden data en in staat is om menselijke taal te begrijpen en te genereren. LLMs gebruiken Machine Learning technieken - met name Deep Learning - om patronen in gegevens te leren.

  • 3.2

    Visie van de ODMH

De ODMH ziet de potentie van de inzet van AI om de efficiëntie van de dienstverlening te verhogen, betere beslissingen te nemen en verbeterde diensten te leveren aan en voor inwoners, bedrijven, opdrachtgevers en andere stakeholders. Tegelijkertijd realiseert de ODMH zich dat AI menselijke intelligentie niet volledig kan vervangen en dat er risico’s zijn die moeten worden beheerst.

De ODMH wil digitaal doorontwikkelen. De ODMH ziet AI daarbij als belangrijk hulpmiddel, niet als doel op zich. Menselijk contact, menselijke toetsing en de menselijke maat blijven belangrijke uitgangspunten voor de dienstverlening van de ODMH. Dit betekent dat we menselijke interacties niet volledig weg automatiseren en dat we ons blijven realiseren dat ons handelen gevolgen heeft voor mensen.

De komende jaren wil de ODMH ontdekken op welke wijze en waarvoor AI het beste ingezet kan worden en daarin verder groeien. De technologie ontwikkelt snel; het is voor de ODMH van groot belang om bij te blijven, te leren en te zorgen dat tools op een effectieve (waardevolle) en ethisch verantwoorde manier in processen worden geïntegreerd.

  • 3.3

    Waar kan de ODMH AI voor gebruiken?

De ODMH gebruikt al AI voor het anonimiseren van persoonsgevoelige gegevens in documenten. De ODMH kan AI gaan gebruiken om ingewikkelde teksten te versimpelen, zoals de standaardbrieven, beleidsstukken en teksten op de website.

Daarnaast kan in de vorm van pilots worden onderzocht of het bijvoorbeeld mogelijk is om ingediende stukken, zoals asbest- of bodemrapporten, snel te kunnen beoordelen en kan het worden ingezet voor data-analyse en het op basis daarvan maken van keuzes, zoals het aanbrengen van prioritering in de uitvoering van toezicht.

Ook kan een combinatie van AI met robotisering in de toekomst mogelijk het vergunningenproces verbeteren, of helpen om het klantencontact te verbeteren, bijvoorbeeld met een actuele FAQ of een chatbot op ODIN of de website.

Kortom: de inzet van AI door de ODMH kan leiden tot allerlei innovatieve en efficiënte oplossingen.

  • 4.

    Risico’s en maatregelen

Het gebruik van AI-toepassingen kan verschillende risico’s met zich meebrengen. De ODMH erkent deze risico’s en neemt maatregelen om ze te beheersen. Voorafgaand aan de inzet van een AI-toepassing maakt de ODMH altijd een bewuste keuze. Is AI de beste oplossing voor dit probleem? Is de informatiehuishouding van voldoende kwaliteit? Welke risico’s brengt de inzet met zich mee en welke maatregelen zijn nodig om die risico’s te beheersen?

Het beheersen van de risico’s van AI-toepassingen vereist een combinatie van technische, organisatorische en ethische maatregelen. Verantwoorde inzet van AI kan feitelijk alleen vanuit een integrale benadering waarbij onderwerpen als privacy, informatiebeveiliging, ethiek, etc. bij elkaar komen.

Door onderstaande maatregelen te na te leven of te treffen, kan de ODMH de risico’s van AI-toepassingen effectief beheersen en zorgen voor een waardevol, verantwoord en ethisch gebruik van AI.

De belangrijkste risico’s en maatregelen zijn:

  • 1.

    Privacy en Gegevensbescherming 

AI-systemen verwerken vaak grote hoeveelheden persoonlijke gegevens. Onvoldoende beveiliging kan leiden tot datalekken en schendingen van de privacy.

Maatregelen:

De ODMH zorgt voor dataminimalisatie waar dat kan, anonimisering en beveiligingsmaatregelen. Dit zijn enkele uitgangspunten die zijn opgenomen in het privacybeleid van de ODMH. In de primaire processen van de ODMH worden geen gegevens over ras, seksuele geaardheid, politieke voorkeur, godsdienst e.d. verwerkt. Dergelijke bijzondere persoonsgegevens spelen geen rol in de besluitvorming bij de ODMH. Dat verkleint het risico op ernstige datalekken.

De ODMH realiseert zich dat alle gegevens die worden ingevoerd in een AI-toepassing in potentie openbaar kunnen worden en voert daarom geen persoonsgegevens en andere vertrouwelijke gegevens in in Copilot en andere open generatieve AI-toepassingen. Als basisregel geldt dat gegevens die niet op internet worden geplaatst, ook niet worden ingevoerd in een AI-toepassing.

Wanneer we gaan werken met een gecontracteerde open-source AI-toepassing op het eigen netwerk (lokaal), kan deze strikte basisregel worden versoepeld. Er ontstaan dan meer mogelijkheden om gegevens in te voeren, aangezien de gegevens intern blijven.

  • 2.

    Bias en Discriminatie

AI-algoritmen kunnen onbedoeld vooroordelen bevatten die leiden tot discriminerende beslissingen. Dit kan gebeuren als de trainingsdata niet representatief of bevooroordeeld is.

Maatregelen:

De ODMH gebruikt actuele, diverse en representatieve datasets en evalueert AI-algoritmen en -systemen regelmatig en betrekt daarbij diverse disciplines, zoals Ict’ers, privacy officers, juristen en medewerkers uit het primaire proces.

  • 3.

    Transparantie en Uitlegbaarheid

Veel AI-systemen, vooral die gebaseerd zijn op machine learning, functioneren als een “black box”. Dit betekent dat het moeilijk kan zijn om te begrijpen hoe beslissingen worden genomen, wat kan leiden tot een gebrek aan vertrouwen en acceptatie.

Maatregelen:

De ODMH is transparant over de inzet van AI en legt indien nodig uit hoe een AI-systeem werkt. De ODMH legt de nadruk op het gebruik van modellen die een hoog uitleggend vermogen hebben en transparant zijn in hoe ze tot hun uitkomsten komen. Bij de inkoop van een AI-systeem stelt de ODMH daarom eisen met betrekking tot transparantie en verantwoording. Leveranciers moeten inzicht bieden in de herkomst van de gebruikte data, de werking van het algoritme en de impact van de technologie.

Ter verhoging van de transparantie vult de ODMH het landelijk Algoritmeregister.

  • 4.

    Verantwoordelijkheid en Aansprakelijkheid

Het overmatig vertrouwen op AI en algoritmen kan leiden tot verminderde menselijke betrokkenheid en verantwoordelijkheid. Het kan onduidelijk zijn wie verantwoordelijk is voor de beslissingen en acties van een AI-systeem, vooral als er fouten of ongewenste uitkomsten zijn.

Maatregelen:

Het uitgangspunt van de ODMH is en blijft dat altijd een mens verantwoordelijk is voor de invoer en de interpretatie of aanpassing van de uitkomst van een AI-systeem (mens-machine-mens). AI wordt gezien als een hulpmiddel.

Wanneer er fouten worden gemaakt, dan worden die als incident geregistreerd en opgelost indien nodig.

  • 5.

    Veiligheid en Beveiliging

AI-systemen en de gegevens die ze verwerken, kunnen kwetsbaar zijn voor cyberaanvallen, waarbij kwaadwillenden de systemen kunnen manipuleren of misbruiken.

Maatregelen:

De ODMH zorgt voor cyberbeveiligingsmaatregelen en voert regelmatig audits en pentesten uit. De ODMH moet voldoen aan de BIO en heeft hiervoor informatiebeveiligingsbeleid opgesteld. Bij de inkoop van systemen stelt de ODMH eisen en voorwaarden die overeenkomen met de uitgangspunten van de ODMH. De ODMH verklaart bij inkoop van een informatiesysteem de GIBIT van toepassing. Dit is vastgelegd in het Inkoopbeleid van de ODMH en verwerkt in de inkoopprocessen.

  • 6.

    Ethiek en Moraal

Het gebruik van AI roept ethische vragen op, zoals de mate waarin AI beslissingen mag nemen die mensenlevens beïnvloeden en afwegingen over milieukosten.

Maatregelen:

De ODMH betrekt juristen, privacy officers, beleidsmedewerkers en medewerkers uit het primaire proces bij de implementatie en het gebruik van AI en zorgt voor training van medewerkers. Dit zorgt voor een brede en professionele blik op toepassingen. De inzet van AI is niet alleen een aangelegenheid van de afdeling Bedrijfsvoering.

  • 7.

    Betrouwbaarheid en Nauwkeurigheid

AI-systemen zijn afhankelijk van de kwaliteit van de data waarmee ze zijn getraind. Onjuiste of verouderde data kan leiden tot onnauwkeurige of onbetrouwbare resultaten. Er kan sprake zijn van desinformatie. Dat hoort niet bij een betrouwbare overheid. Wanneer een Al- toepassing een fout maakt, zijn we veel kritischer dan wanneer een mens een fout maakt. Mogelijk verliezen we het vertrouwen in de toepassing en raakt de ODMH het vertrouwen van stakeholders kwijt.

Maatregelen:

De ODMH zorgt voor een goede informatiehuishouding. Bij het ontwikkelen van een AI-oplossing wordt beoordeeld of de gebruikte data geschikt is voor het gebruik (fitness for use). Bij het gebruiken van een bestaand AI-systeem controleren we de uitkomst. Zo zorgen we ervoor dat het gebruik van AI daadwerkelijk waardevol is en het vertrouwen in de ODMH niet schaadt.

Het is van belang om voorafgaand aan de inzet van Al na te denken over de te verwachten nauwkeurigheid, waarbij een bewuste afweging wordt gemaakt welke foutmarge acceptabel is. Er worden procedures ingericht voor fouten (zie ook onder 4).

  • 8.

    Kennis en vaardigheden medewerkers

Door frequent gebruik van AI kunnen kennis en vaardigheden van medewerkers afnemen.

Maatregelen:

Medewerkers worden regelmatig bijgeschoold in hun vakgebied. De ODMH stimuleert dat AI wordt gebruikt als hulpmiddel en zorgt ervoor dat medewerkers niet volledig afhankelijk worden van AI. Medewerkers worden in staat gesteld op de hoogte te blijven van de nieuwste ontwikkelingen in hun vakgebied door afstemmingsoverleg en kennisuitwisseling intern en extern en het volgen van nieuwsbrieven en vakbladen.

  • 9.

    Verlies van functies

Op de langere termijn gaan sommige taken of zelfs functies mogelijk verloren. Dat heeft gevolgen voor medewerkers.

Maatregelen:

De ODMH zorgt voor goed strategisch personeelsbeleid. Medewerkers kunnen mogelijk doorstromen naar andere functies of worden ingezet voor de afhandeling van complexere zaken, die een uitgebreidere menselijk toetsing vergen.

  • 5.

    Wettelijk kader en richtlijnen 

    5.1 Wetten en regels

Bij het gebruik van AI moet rekening worden gehouden met allerlei wet- en regelgeving en richtlijnen. Om het gebruik van AI en de impact op de samenleving te reguleren, is door de Europese Commissie de AI-Act vastgesteld. Dit is een Europese verordening die rechtstreeks werkt in alle lidstaten. De AI-Act gaat over zowel het ontwikkelen als het gebruiken van AI-systemen.

Daarnaast zijn onder andere de AVG, de BIO, het Informatiebeveiligingsbeleid van de ODMH, de Awb en bepalingen over auteursrechten van toepassing en gelden ethische en duurzaamheidsrichtlijnen.

5.2 AI-Act

De AI-Act bevat diverse verplichtingen waaraan overheden moeten voldoen. Een belangrijke verplichting uit de AI-Act is het bevorderen van AI-geletterdheid. Medewerkers die met AI werken, moeten AI geletterd zijn. De AI-Act vereist daarnaast transparante procedures rond het gebruik van AI en stelt strengere eisen aan risicobeperking. Overheden moeten voldoen aan een reeks verplichtingen, waaronder risicobeoordelingen, registratie, transparantie, menselijk toezicht en hoge kwaliteit van de data. De ODMH vult deze verplichtingen op de volgende manier in:

  • 1.

    Bewustwording en training

De ODMH beschouwt het als essentieel dat medewerkers AI, de AI-act en het potentiële effect ervan op hun activiteiten begrijpen. De ODMH heeft daarom in 2024 voor alle medewerkers een interne workshop georganiseerd en stelt medewerkers, waar mogelijk en nodig, in de gelegenheid aanvullende trainingen of cursussen te volgen op dit gebied. Alle medewerkers worden gestimuleerd een basistraining AI te doen via Goodhabitz.

De ODMH maakt voor het vergaren van kennis daarnaast gebruik van de bestaande fora van de VNG, zoals AI en Algoritmes · Kennisnetwerk Data en Samenleving en informeert medewerkers over mogelijkheden en risico’s via berichten op ODIN.

  • 2.

    Risicobeoordeling

De ODMH beoordeelt elke AI-toepassing die de ODMH gebruikt of overweegt te gebruiken vooraf op potentiële risico’s. Dit betekent een grondige analyse van de technische kenmerken van het systeem en de situaties waarin het zal worden gebruikt.

  • 3.

    Actieplan

Op basis van de risicobeoordeling stelt de ODMH indien nodig een actieplan op voor het beheren en verminderen van risico’s. Dit kan garanties omvatten voor menselijk toezicht op AI-systemen en duidelijke procedures voor het omgaan met eventuele problemen.

  • 4.

    Kwaliteit van de data

Het is essentieel dat de gebruikte data in AI-systemen van hoge kwaliteit is en voortdurend wordt gecontroleerd. Als data gebruikt wordt om een model te trainen en door te ontwikkelen, worden afspraken gemaakt met de eigenaar (beheerder) van de data over datakwaliteit (waaronder actualiteit).

  • 5.

    Juridische en ethische aspecten

De ODMH is zich bewust van de juridische en ethische implicaties van het gebruik van AI. Dit omvat zowel naleving van bestaande regelgeving (zoals de AVG) als de principes van ethische AI. Deze aspecten worden meegewogen in besluiten over de inzet of implementatie van AI.

  • 6.

    Continue monitoring en aanpassing

De ODMH zorgt voor regelmatige (menselijke) controles op AI en herbezinning op de activiteiten. Dit zorgt er ook voor dat eventuele wijzigingen in de wetgeving tijdig worden geïmplementeerd.

5.3 Ethische richtlijnen

Ethische richtlijnen bij het gebruik van AI zijn essentieel om ervoor te zorgen dat AI-systemen op een verantwoorde en rechtvaardige manier worden ingezet.

  • 1.

    De ODMH is transparant over het gebruik van AI en in hun werking en beslissingen. Dit bevordert vertrouwen en begrip. De ODMH legt het gebruik van AI-modellen vast in het algoritmeregister, zodat er altijd inzicht is in welke modellen worden gebruikt en wat hun functie is binnen de ODMH.

  • 2.

    De medewerker die AI gebruikt realiseert zich dat hij verantwoordelijk is voor de uitkomsten van AI-systemen. De medewerker controleert uitkomsten om fouten of ongewenste uitkomsten te corrigeren. Er is altijd een mens betrokken die een document of beluit vaststelt. Dit zorgt ervoor dat de systemen (en de ODMH) betrouwbaar en rechtvaardig blijven.

  • 3.

    De ODMH zorgt ervoor dat AI-systemen geen discriminerende effecten hebben op basis van ras, geslacht, leeftijd, religie of andere beschermde kenmerken.

5.4 Auteursrechten en privacybescherming

Bij het ontwikkelen of gebruiken van AI respecteert de ODMH de auteursrechten en intellectuele eigendomsrechten van derden. Persoonsgegevens worden geanonimiseerd of gepseudonimiseerd om de privacy van medewerkers, inwoners en contactpersonen van bedrijven te beschermen.

5.5. Duurzaamheid en CO2-voetafdruk

De inzet van AI-systemen vraagt veel energie. De ODMH heeft als overheidsinstelling en als toezichthouder een voorbeeldfunctie als het op energiebesparing aankomt.

De ODMH zet AI daarom alleen in daar waar het een duidelijke meerwaarde heeft en zorgt ervoor dat onnodig gebruik van AI, zoals het stellen van irrelevante vragen aan AI-systemen, wordt voorkomen om zo niet onnodig energie te verbruiken. Daarnaast gebruikt de ODMH bij voorkeur specifieke AI modellen (met beperkte complexiteit) in plaats van generieke AI modellen (die vaak veel complexer zijn dan nodig).

6. Wie zijn er betrokken bij de inzet van AI?

6.1 Rollen en functies

Eerder gaven we het al aan: de inzet van AI is niet alleen een aangelegenheid van de afdeling Bedrijfsvoering. Het is belangrijk om een multidisciplinaire aanpak te hebben met vertegenwoordigers uit verschillende afdelingen en expertisegebieden om voor een succesvolle AI-implementatie te zorgen. Samenwerking tussen deze verschillende belanghebbenden is essentieel om de technische, juridische, ethische en organisatorische aspecten van AI op een evenwichtige en verantwoorde manier aan te pakken.

De belangrijke rollen en functies zijn:

  • 1.

    Privacy officers en FG: AI-systemen maken gebruik van grote hoeveelheden gegevens en kunnen complexe verwerkingen uitvoeren, waardoor de privacy van individuen in het geding kan komen. De FG en de PO spelen dus een belangrijke rol.

  • 2.

    Inkopers: Moeten eisen stellen en (laten) controleren bij nieuwe of gewijzigde contracten voor software en/of Saas diensten waarin gebruik wordt gemaakt van algoritmen of AI.

  • 3.

    Data Scientists en AI-specialisten: Deze medewerkers hebben expertise op het gebied van data-analyse, machine learning en AI. Ze zijn verantwoordelijk voor het ontwerpen, ontwikkelen en trainen van AI-modellen en het analyseren van de resultaten.

  • 4.

    ICT en FAB: Deze teams zijn verantwoordelijk voor het beheren, beveiligen en onderhouden van de IT-infrastructuur die nodig is voor het uitvoeren van AI-toepassingen. Ze zorgen voor de installatie en configuratie van de benodigde systemen en applicaties. Daarnaast zorgen zij voor het databeheer.

  • 5.

    Juridisch adviseur/concernjurist: Juridische adviseurs spelen een belangrijke rol bij het beoordelen van de juridische en ethische aspecten en het waarborgen van de compliance met wet- en regelgeving met betrekking tot AI-implementaties. Ze kunnen helpen bij het interpreteren van wetgeving op het gebied van gegevensbescherming, intellectueel eigendom en ethische kwesties.

  • 6.

    Management en medewerkers uit het primaire proces: Deze personen zijn verantwoordelijk voor het identificeren van de behoeften en doelstellingen vanuit het primaire proces.

  • 7.

    Stakeholders en gebruikers: Dit omvat degenen die direct betrokken zijn bij of worden beïnvloed door de implementatie van AI-toepassingen, zoals medewerkers en andere belanghebbenden. Hun input, feedback en acceptatie zijn van cruciaal belang voor het succesvol implementeren en adopteren van AI binnen de organisatie.

6.2 Werkwijze besluit inzet AI

Een wens of behoefte voor een AI-toepassing zal in de meeste gevallen starten bij medewerkers uit het primaire proces. Uiteraard kan een wens of behoefte ook komen van medewerkers uit de bedrijfsvoeringsprocessen. Samen met de Data scientists en/of FAB zal worden gekeken wat de mogelijkheden zijn. FAB neemt daarin de leiding.

Zodra een idee een concreter plan wordt, betrekt FAB de andere medewerkers vanuit hun rollen en expertise bij de beoordeling van het plan en de wijze van uitvoering en implementatie. Zij worden, waar nodig, verzocht om advies te geven over de mogelijkheden om AI waardevol, veilig en volgens de regels in te zetten. Het uitgangspunt daarbij is niet om het gebruik van AI te verbieden of te ontmoedigen.

FAB voert, waar nodig met behulp van de hierboven genoemde vertegenwoordigers, een risicobeoordeling (analyse) uit naar de werking, de risico’s en de waarborgen. Deze risicobeoordeling, met een eventueel actieplan om benodigde maatregelen te borgen, wordt vastgelegd. Tevens wordt vastgelegd hoe de toepassing wordt gemonitord.

Wanneer sprake is van hoge risico’s of grote veranderingen voor medewerkers besluit het MT over de gewenste AI-toepassing. Risicobeoordelingen en mitigerende maatregelen, in de vorm van een actieplan, worden in het MT-voorstel opgenomen.

De AI-toepassingen binnen de ODMH worden door FAB geregistreerd zodat de rol die AI in de processen van de ODMH speelt inzichtelijk en transparant is. Deze registratie is voor alle medewerkers in te zien.

7. Slot

Dit beleidsdocument geeft de richting aan hoe de ODMH op een waardevolle en verantwoorde manier kansen wil creëren met AI. De ODMH maakt ruimte voor het zorgvuldig leren, experimenteren en toepassen van kunstmatige intelligentie, waarbij de belangen van de inwoners, bedrijven en andere klanten van de ODMH én de leefomgeving niet uit het oog worden verloren.

Duidelijk is dat er een spanningsveld ligt tussen mogelijkheden, wensen en daadwerkelijk doen en dat een zorgvuldige aanpak is vereist om AI waardevol en verantwoord in te zetten.

De ODMH maakt bewuste keuzes om AI wel of niet in te zetten. De volgende vragen worden daarbij gesteld: Is AI de beste oplossing voor dit probleem? Is de informatiehuishouding van voldoende kwaliteit? Welke risico’s brengt de inzet met zich mee en hoe kunnen we die beperken of zijn we bereid die te accepteren?

Vastgesteld in de vergadering van het dagelijks bestuur van 12 juni 2025

T. van Vugt

Voorzitter

A. Mutter

Secretaris