Met gezond verstand Ai gebruiken: werk met democratische modellen

Ai kan steden beter maken als we het verstandig inzetten. In een artikel dat in de Telegraaf verscheen, noem ik vier randvoorwaarden: democratie, eerlijkheid, autonomie en behoud van lokale identiteit. In een serie van 4 blogs werk ik ze wat dieper uit. Tijdens de City Deal over Ai gaan we er nog dieper op in. Want Ai is een krachtig hulpmiddel, maar de regie moet bij ons blijven.

In deze blog: Werk met Ai-modellen die democratisch geborgd zijn

Ai is niet de waarheid. Het zijn modellen en het werkt, in het geval van generatieve Ai, met kansberekeningen. Om bij het laatste te beginnen: alles wat generatieve Ai creëert, is een voorspelling van wat de waarheid zou kunnen zijn. Maar het is niet de waarheid zelf. Dat geldt voor teksten die Copilot schrijft, voor video’s die Sora maakt, maar ook voor de voorspellingen die worden gedaan in digital twins die worden gebruikt door gemeenten en bedrijven. Dat is geen probleem, zolang de gebruikers zich daarvan bewust zijn en de onzekerheidsmarge transparant is.

Biases

Ai-modellen (of het nu gaat om machine learning in brede zin of specifiek om generatieve Ai) zijn daarbij altijd geprogrammeerd door mensen. En die gebruiken datasets die ook weer door mensen worden samengesteld. De manier waarop zij programmeren, de data die ze gebruiken bepaalt de uitkomsten van het model. De samenstelling van de groep heeft invloed op het programmeren, al dan niet bewust. Een voorbeeld is DeepSeek, dat bewust vragen over Taiwan niet wil beantwoorden. Maar ook onbewust ontstaan biases. Bij een digital twin van een gemeente die wordt ontwikkeld door een team met alleen maar witte mannen van middelbare leeftijd, bestaat het risico op onbedoelde tunnelvisie, waardoor de uitkomsten van het model minder betrouwbaar zijn. Hierdoor kunnen bijvoorbeeld mobiliteitsmodellen minder rekening houden met de behoeften van ouderen, kinderen, vrouwen of mensen met een beperking.

En tenslotte is het borgen van de democratie niet alleen een principiële, maar ook een technische en juridische vraag. Waar, op welke servers, in welk land, onder welk recht, draaien onze Ai-modellen? Waar staat de data? Waar staan de uitkomsten? Wie mag daarbij? Wie kan het beïnvloeden? Het eerlijke antwoord is dat onze digitale soevereiniteit grotendeels in handen ligt van Amerikaanse big tech. Dat moet anders. Het is niet voldoende dat er wetten zijn die dit verbieden. Europa moet sneller investeren in eigen Ai-infrastructuur, anders blijven we structureel afhankelijk van de VS.

Lees ook:

>> Wees eerlijk

>> Blijf de baas, blijf autonoom denken

>> Zorg voor verschillen

Laatste nieuws

Met gezond verstand kan AI betere stad maken

Dit is een doorgeplaatst opiniestuk geschreven door Jan-Willem Wesselink...

Met gezond verstand Ai gebruiken: wees eerlijk

Ai kan steden beter maken als we het verstandig...

Met gezond verstand Ai gebruiken: denk autonoom

Ai kan steden beter maken als we het verstandig...

Vacature: Wij zoeken een startende Community- en Programmacoördinator Slimme stad en Ai

Bij ELBAREC werken we aan de toekomst van de stad. We informeren, inspireren en verbinden professionals die zich inzetten voor duurzame, slimme en leefbare...

Met gezond verstand kan AI betere stad maken

Dit is een doorgeplaatst opiniestuk geschreven door Jan-Willem Wesselink in De Telegraaf van vrijdag 14 maart 2025. Geabonneerden lezen hier het stuk in De...

Met gezond verstand Ai gebruiken: wees eerlijk

Ai kan steden beter maken als we het verstandig inzetten. In een artikel dat in de Telegraaf verscheen, noem ik vier randvoorwaarden: democratie, eerlijkheid,...