Hoe houden we grip op algoritmes die ons dagelijks leven beïnvloeden?
Hoewel kunstmatige intelligentie (AI) ons leven makkelijker kan maken, roept het ook belangrijke vragen op. Wist je dat de overheid al meer dan 120 AI-systemen gebruikt, terwijl de gevolgen voor privacy vaak onduidelijk zijn? Denk aan misstanden zoals bij DUO en de Toeslagenaffaire. Tegelijkertijd helpt AI ons bij het sneller vinden en maken van werk, maar hoe houden we grip op algoritmes die ons dagelijks leven beïnvloeden?
In Europa wordt gewerkt aan wetgeving om de invloed van grote techbedrijven te beperken, maar hoe zorgen we voor een digitale transitie die eerlijk, duurzaam en ethisch verantwoord is? En wat doen we met de enorme energieverspilling van datacenters?
In deze aflevering praten we met jurist en hoogleraar Global ICT Law Lokke Moerel en hoogleraar AI Eric Postma. In de rubriek 'De wandeling' vertelt socioloog Joan Baaijens waarom ethiek onmisbaar is in deze transitie.
De AI-bubbel: waarom wetenschappelijke modellen onmisbaar blijven
Van ChatGPT tot zelfrijdende auto's: AI belooft een revolutionaire toekomst. Maar is deze technologie werkelijk zo baanbrekend als vaak wordt beweerd? Een gesprek met Caspar van Lissa, universitair hoofddocent Social Data Science, over de 'AI-bubbel' en waarom wetenschappelijke modellen nog altijd onmisbaar zijn.
Van Lissa is niet tegen het gebruik van AI, maar vindt het belangrijk om er kritisch naar te blijven kijken. "Als statisticus en onderzoeker is een van de belangrijkste vragen: welk model is het juiste gereedschap voor de klus?" legt hij uit. “Taalmodellen zoals ChatGPT maken indrukwekkende tekstvoorspellingen mogelijk, maar hebben beperkingen.”
Het probleem zit in de overtuigingskracht. “Als je een algoritme hebt dat teksten kan opstellen van een niveau waar je zelf misschien niet eens aan kan tippen, dan ben je geneigd om dat te zien als een soort autoriteit. Dit leidt ertoe dat mensen er blindelings op vertrouwen zonder te beseffen dat antwoorden niet altijd waar zijn.”
Wetenschappelijke modellen als alternatief
"Wetenschap gaat over antwoord geven op hele specifieke vragen. Je wilt kunnen berekenen hoe nauwkeurig de antwoorden zijn die je krijgt," verklaart Van Lissa. "Dat kan helemaal niet bij taalmodellen, maar wel bij wetenschappelijke modellen.” Zelf ontwikkelde hij een model dat kan voorspellen welke jongeren risico lopen op emotionele problemen. "Dat zijn specifieke taken. We weten dat die modellen dat goed kunnen," benadrukt hij.
Van wetenschap naar praktijk
Om wetenschappelijke modellen toegankelijker te maken, pleit Van Lissa voor openheid: "Ik breek al langer een lans voor het open en deelbaar maken van alle materialen die wetenschappers genereren. In de ideale wereld zou je het model uit de analyse-omgeving halen en in een reproduceerbare productie-omgeving zetten, waar andere mensen het kunnen gebruiken."
Investeren in de toekomst
Van Lissa benadrukt dat het cruciaal is te investeren in de professionalisering van wetenschappers op dit vlak. "Door de komst van AI zien we dat we heel goed in staat zijn om allerlei taken te automatiseren. Wetenschappers maken bij uitstek modellen die dat heel goed en betrouwbaar doen.”