De digitalisering van de samenleving zorgt bij vrijwel elke overheidsinstantie voor een ophoping van informatie die sneller groeit dan dat hij weggewerkt kan worden. Door vergrijzing in enerzijds, en een toenemende stroom aan informatie anderzijds, is er een gat aan het ontstaan tussen de data die de overheid gebruikt en de kennis die nodig is om deze data te verwerken. Door deze groeiende kloof wordt het inzetten van Artificial Intelligence een noodzaak gaat zijn om deze groeiende kloof te overbruggen. Toch is het belangrijk om te realiseren dat het gebruik van AI bepaalde risico’s met zich meebrengt. Het is dus van belang om bekend te zijn met de risico’s om deze te kunnen mitigeren om AI op een verantwoordelijke manier in te zetten binnen uw organisatie.
Door de zorgdragende rol die de overheid in de samenleving bekleedt, is deze data vaak van gevoelige aard. Dit betekent dat onzorgvuldig met deze data omgaan desastreuze gevolgen kan hebben. Het bekendste recente voorbeeld hiervan is de toeslagenaffaire. Onder andere door het inzetten van wiskundige modellen werden burgers, die vaak tot kwetsbare groepen behoorden, ten onrechte van fraude verdacht, waardoor toeslagen teruggevorderd werden. Achteraf bleek dat deze wiskundige modellen discriminerende vooroordelen hadden. De financiële en emotionele schade hiervan wordt door de slachtoffers tot vandaag de dag gevoeld.
AI zal dus een oplossing kunnen bieden voor de overheid, maar dit zal nooit ten koste mogen gaan van de gewone burger. Daarom is ethisch verantwoord inzetten van AI bij de overheid van essentieel belang. Maar hoe kunnen we dit waarborgen? Dat vraagstuk zullen we in dit blog verder behandelen.
Wat is Ethische AI?
Ethische AI gaat over hoe AI ingezet kan worden op een verantwoordelijke manier, die in overeenstemming is met ethische principes.
De drie belangrijkste pijlers van ethische AI zijn .
- Fairness: Onder het principe van eerlijkheid wordt verstaan dat AI-modellen geen oneerlijke vooroordelen mogen hebben die groepen (of individuen) kunnen benadelen. Het is belangrijk om hiervoor te waken, want ook wanneer een AI-model geen bewust ingebouwde bias (vooroordeel) heeft, kunnen ze toch discriminerend gedrag vertonen, doordat het model bijvoorbeeld vooroordelen uit de data haalt waar het op getraind is.
- Transparency: transparantie is gericht op uitlegbaarheid en begrijpbaarheid van het AI-systeem dat ingezet wordt. De stakeholders die met het systeem te maken hebben, moeten kunnen begrijpen hoe het systeem beslissingen maakt en wat de mogelijke risico’s zij, zodat zij een geïnformeerde keuze kunnen maken over of ze wel of niet dit systeem willen gebruiken.
- Accountability: Verantwoording voor de beslissingen die door een AI-system gemaakt worden is de laatste belangrijke pijler. Dit gaat niet alleen om je eigen verantwoordelijkheid nemen, maar ook wie er aansprakelijk is wanneer het fout gaat.
AI-systemen worden veel ingezet om taken of besluitvormingsprocessen te automatiseren, maar ze zullen het niet altijd bij het juiste eind hebben.
Het belang van Ethische AI binnen de overheid:
De overheid is verantwoordelijk over het welzijn en algemeen belang van de burger, en omdat zij handelt vanuit een positie van macht, staat daar tegenover ook een plicht om ethisch en zorgvuldig met die machtspositie om te gaan. De rol die de overheid bekleedt en de informatie die ze bezit van haar burgers zorgen ervoor dat ze directe, blijvende invloed uit kan oefenen op iedere burger.
Dit is precies wat kwesties als de toeslagenaffaire zo ernstig maken. Er hoeft maar één bevooroordeeld AI-model ingezet te worden en er kan schade aangericht worden die duizenden families uit kwetsbare milieus ten onrechte financiële en daaropvolgende emotionele schade aanricht.
De overheid staat in dienst van de burger, en heeft een ethische plicht om dit soort discriminatie te mitigeren in plaats van te versterken. Wanneer de overheid hierin faalt, en dus niet aan het eerlijkheidsbeginsel kan voldoen, moet zij hierover ter verantwoording geroepen kunnen worden. Er is dus accountability nodig, zodat deze misstanden zich niet kunnen voortzetten. Hier is transparancy de verbindende factor, omdat dit de overheid in staat stelt een weloverwogen keuze te maken of het AI-systeem op ethisch verantwoorde wijze ingezet kan worden, en het de burger in staat stelt om te begrijpen wanneer zij in haar rechten geschonden wordt, zodat zij de overheid aansprakelijk kan stellen.
De uitdagingen rondom Ethische AI:
Ethische AI is dus van groot belang, maar er zijn een aantal uitdagingen waardoor het lastig is om te realiseren.
- Hoe meet je eerlijkheid?
Een eerlijk AI-systeem is vrij van vooroordelen, maar wanneer is iets een vooroordeel en hoe kan je dit kwantificeren?
Vooroordelen in AI-systemen volgen vaak uit een inherente bias die al in de data zit, die door het AI-systeem overgenomen wordt.Een bias bijvoorbeeld kan ontstaan door ongebalanceerde data, wat betekent dat bepaalde groepen te veel of te weinig gerepresenteerd zijn in de dataset. Een bias kan echter ook in de data bestaan, omdat dezelfde vooroordelen ook in de samenleving aanwezig zijn. In zulke gevallen is het moeilijk om te bepalen hoe groot de bias echt is, en is het dus moeilijk om ervoor te compenseren. - Hoe maak je een AI-model uitlegbaar?
Hoe complexer het model, hoe moeilijker het is om de individuele stappen die aan een eindbeslissing bijgedragen hebben te begrijpen.
Daarnaast wordt AI voor steeds complexere taken ingezet, maar dat betekent ook dat het lastiger wordt om de resultaten te interpreteren.
Bij het genereren van tekst, wat modellen als ChatGPT doen, zijn de resultaten vaak subjectief, en is het dus ook moeilijker om te bepalen of er vooroordelen in de resultaten zitten. - Hoe bepaal je wie verantwoordelijk is?
Door de snelheid waarmee AI in de afgelopen jaren ontwikkeld is, zijn wet- en regelgeving achtergebleven. Ook is het van tevoren niet altijd te voorspellen wat voor invloed de technologie zal hebben, en kan de impact zelfs achteraf soms lastig te bepalen zijn. Hierdoor kan het moeilijk zijn om te bepalen waar de verantwoordelijkheid zou moeten liggen als er fouten gemaakt zijn.
Hoe kunnen we deze uitdagingen aanpakken?
Ondanks de hiervoor geschetste uitdagingen, geloven we bij One Fox in een proactieve aanpak als het op Ethische AI aankomt. Juist doordat wij ons goed bewust zijn van de uitdagingen, vinden wij het belangrijk om de bovengenoemde pijlers van Ethische AI zo goed mogelijk na te streven.
- Risicoanalyse en afstemming
Dit begint met een vroegtijdige risicoanalyse en afstemming met de stakeholders. Het is hiervoor mogelijk om gezamenlijk een protocol als het Impact Assesment Mensenrechten en Algoritmes (IAMA)[1] te doorlopen of om samen met de stakeholders een aanpak op te stellen die specifiek toegespitst is op het project in kwestie.Hiermee zorg je ervoor dat alle stakeholders bewust zijn van de mogelijke risico’s en kan er een gezamenlijke definitie van eerlijkheid gehanteerd worden. - Goede datakwaliteit
Daarnaast moet er actief gemonitord worden op bias in de dataset en de output van het AI-systeem. Dit begint bij een goed gebalanceerde dataset, waar bijvoorbeeld ook gelet wordt op dat er geen dubbele data in staat die ten onrechte het systeem het idee kunnen geven dat bepaalde informatie vaak voorkomt. - Uitlegbaarheid boven complexiteitWaar mogelijk, is het wenselijk om minder complexe, makkelijker uitlegbare modellen te gebruiken. Modellen als LLMs blijven een Black Box, die vooroordelen kunnen bevatten. Rule-based methoden en simpele modellen als Decision zijn transparanter en makkelijker te interpreteren. Door processen op te splitsen in kleinere stappen en eenvoudigere modellen in te zetten, is het makkelijker te herleiden waneer dingen fout gaan.Als er dan toch complexere modellen ingezet moeten worden, zijn er methoden als SHAP, die ontwikkeld zijn om de output van Machine Learning modellen uit te leggen.
- Transparantie tegenover stakeholdersNa de initiële risicoanalyse blijft transparantie tegenover stakeholders belangrijk. Er zijn hier vanuit de overheid landelijke initiatieven voor, zoals het algoritmeregister[2], waar (AI) algoritmes die gebruikt worden door overheidsinstanties gepubliceerd worden. Dit register bevat informatie over de werking van het algoritme, de impact die het algoritme heeft, de afwegingen die gemaakt zijn om voor dit algoritme te kiezen en de aanpak van risicobeheer.
- Supervisie en verantwoordelijkheidEr moeten altijd goede afspraken gemaakt moeten worden over menselijke supervisie en verantwoordelijkheid. Dat kan bijvoorbeeld door de resultaten (steekproefsgewijs) door een mens te laten controleren. Zo voorkom je dat het AI-systeem grootschalig fouten kan maken.Om deze controleslag te vereenvoudigen, is het mogelijk om bijvoorbeeld makkelijk doorzoekbare metadata mee te geven op basis waarop de beslissing van het model gebaseerd is.
Conclusie
Hopelijk heeft deze blog je een beter beeld gegeven van de uitdagingen rondom ethische AI en hoe je hiermee om zou kunnen gaan. Er is natuurlijk nog één belangrijk punt wat we hier niet hebben behandeld, namelijk: Hoe ga je om met data-privacy en beveiliging? Meer hierover in ons volgende blog.
[1] https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes
[2] https://www.digitaleoverheid.nl/overzicht-van-alle-onderwerpen/algoritmes/algoritmeregister/