Waarom moet ik er iets mee?
Algoritmes en AI worden volop toegepast om te helpen bij het maken van beslissingen. Dit zie je terug in de meest uiteenlopende gebieden. Bij maatschappelijke vraagstukken, in klimaatonderzoek, bij de energietransitie en in de gezondheidszorg.
De kans is dan ook groot dat jij met AI te maken krijgt, in je werk, opleiding, het nieuws of in je persoonlijke leven. Bekijk voorbeelden in de thema’s:
Je moet misschien beslissingen maken over het gebruik van algoritmes, of meedenken over de kansen en risico’s ervan. Om dit op een verantwoorde manier te doen, is het belangrijk om inzicht te hebben in hoe deze algoritmes en AI werken.
Inzicht begint met vragen stellen. Maar welke vragen kun jij stellen over AI om het inzicht te krijgen dat je nodig hebt? Wij helpen je hierbij door een breed onderwerp als ‘datawetenschap’ op drie niveaus te bekijken, aan de hand van onze hoofdvragen.
Bron: waar komt de data vandaan?
Analyse: wat wordt er met de data gedaan?
Uitkomst: hoe worden bron en analyse gebruikt?
Hoe denk jij over algoritmes en AI?
Als je erover nadenkt, is het eigenlijk best vreemd. De hoeveelheid data en de complexiteit van data-analyse en -gebruik neemt steeds verder toe. Terwijl aan de andere kant onze communicatie, ook over dit soort complexe onderwerpen, juist steeds korter is geworden. Hoeveel kun je nog uitleggen in een tweet van twee regels of een filmpje van een paar seconden? Soms zie je over hetzelfde onderwerp positieve, optimistische berichten. De andere keer juist negatieve en kritische berichten. Een paar van die tegenstellingen willen we beter bekijken. Dit helpt ons om vragen te blijven stellen en inzicht te krijgen.
‘AI is overal en wordt veel gebruikt’
‘AI staat in de kinderschoenen en kan nog haast niks’
Hoewel de uitspraken met elkaar in strijd lijken, is het natuurlijk best mogelijk dat AI zowel veelgebruikt is als volop in ontwikkeling. Wel belangrijk is het om op te letten hoe de term ‘AI’ wordt gebruikt. Gaat het om een algoritme dat zelfstandig één taak heeft leren uitvoeren. Of om een discussie over wat werkelijk kunstmatige intelligentie mag heten?
AI-algoritmes zoals zelflerende algoritmes (machine learning) worden op veel verschillende manieren gebruikt en breed toegepast. Maar zelflerend is niet hetzelfde als intelligent. Een werkelijk intelligent algoritme bestaat nog niet. Intelligentie kan je definieren als het vermogen om te leren, geschikte technieken te gebruiken om problemen op te lossen en doelen te behalen. Rekening houdend met de context, in een onzekere, steeds veranderende wereld. In veel AI-onderzoek werden machines geprogrammeerd door mensen om zich slim te gedragen, bijvoorbeeld om te kunnen schaken. Tegenwoordig wordt de nadruk meer gelegd op machines die kunnen leren, op een manier die enigszins lijkt op hoe mensen leren.
AI onderzoeker professor Antal van den Bosch van het Meertens Instituut (KNAW) is een van de wetenschappers die gefascineerd is door dit onderwerp. Wat is intelligentie en hoe ‘maak’ je het? “Ik zie vaak dat een vorm van diepe of algemene intelligentie wordt toegekend aan algoritmes die op z’n best één taak heel goed hebben geleerd. Dit heeft in mijn ogen meer te maken met marketing dan dat het daadwerkelijk iets zegt over de intelligentie van het algoritme. Echte intelligentie zoals we die herkennen in mensen, die kunnen we nog lang niet namaken. Hoe lang dat nog duurt? Tja, we staan echt nog aan het begin. Als het ooit lukt duurt dat nog zeker tientallen jaren.”
‘Algoritmes zijn objectief’
‘Algoritmes zitten vol vooroordelen’
Door een algoritme te gebruiken om een keuze te maken, weet je zeker dat de beslissing niet op basis van menselijke emotie is gemaakt. Het algoritme kent geen emotie. Het algoritme zal de keuze elke keer op dezelfde manier maken. Het is reproduceerbaar en traceerbaar, eigenschappen die we associëren met objectief.
Maar welke cijfers het algoritme gebruikt en welke keuzes er aan de hand van bepaalde cijfers worden gemaakt zijn instellingen afkomstig van mensen. Aan de hand van die instellingen worden door het algoritme aannames gedaan. Het inzichtelijk maken van die aannames en inschatten hoe (on)wenselijk ze zijn, is wederom een taak voor mensen. Juist doordat een algoritme reproduceerbare en traceerbare keuzes maakt, is het mogelijk om vooroordelen aan het licht te brengen en – nog belangrijker – te verwijderen.
Professor Sennay Ghebreab is AI-wetenschapper aan de Universiteit van Amsterdam en werkt aan het ontwikkelen van AI zodat deze gelijkheid in de samenleving bevordert: “Hoe zorgen we ervoor dat AI niet dezelfde fouten maakt als wij? Dit is de vraag die centraal staat in mijn werk. De mens leeft en leert in een wereld vol aannames, die bewust en onbewust bepaalde vooroordelen bevatten. Juist een technologie als AI maakt het mogelijk om onze maatschappij een spiegel voor te houden en die vooroordelen bloot te leggen. Pas als we ze zichtbaar maken, kunnen we gaan werken aan het oplossen ervan. Zodat we er uiteindelijk voor kunnen zorgen dat AI niet dezelfde fouten maakt als wij.”
‘Datamodellen voorspellen de toekomst’
‘Datamodellen zijn speculatief en onbetrouwbaar’
Een rekenmodel probeert op basis van veel verschillende grote datasets met behulp van algoritmes uit te rekenen hoe deze data elkaar beïnvloeden. De precieze waardes in de berekeningen – gewichten of parameters genoemd – worden aangepast zodat de uitkomsten van het model zo goed mogelijk overeenkomen met de uitkomsten die in de dataset geregistreerd staan. Het algoritme leert om patronen in de data te herkennen, op basis waarvan het steeds nauwkeuriger kan voorspellen wat de juiste uitkomst is. Het model maakt dus gebruik van data uit het verleden om achter bepaalde ‘regels’ of verbanden te komen. Vervolgens kan het deze regels toepassen om voorspellingen te doen over toekomstige scenario’s.
De kracht zit erin dat het rekenmodel complexe verbanden kan ontdekken en gebruiken. Natuurlijk is ook een zeer complex rekenmodel nooit zo volledig dat het alle variabelen bevat. Met zekerheid de gehele toekomst voorspellen is onmogelijk. Zelflerende algoritmes bieden geen garantie dat ze volledige en juiste patronen leren. Zo verwarden zelfrijdende auto’s een tijd lang de volle maan met een oranje stoplicht en kunnen volledig nieuwe situaties ook problematisch zijn voor algoritmes. Diverse en betrouwbare datasets zijn dus belangrijk en maken het waarschijnlijker dat ook het algoritme en daarmee rekenmodel betrouwbaarder is.
Onderzoeker Stefan Buijsman werkt aan het inzichtelijk maken van AI. “Bij zelflerende algoritmes, die van grote hoeveelheden data leren, is het vaak onduidelijk waarom ze een bepaalde uitkomst geven. Waarom markeert het model de ene persoon wel aan als fraudeur, en de andere niet? Door de vele berekeningen die eraan voorafgaan, geleerd uit de data, kunnen we daar geen goed antwoord op geven. Dus ontwikkelen wij nieuwe technieken, binnen ‘explainable AI’, waarmee we proberen toch te kunnen zeggen waarom het algoritme dat antwoord geeft. Dat brengt verantwoorde AI een stapje dichterbij. Met meer transparantie over algoritmes krijgen we meer inzicht in de keuzes en hoe acceptabel die zijn. Zo hopen we dat met meer informatie er ook meer grip komt op het gebruik van algoritmes”
Ook Cynthia Liem werkt als onderzoeker aan technieken die ons vertrouwen in AI kunnen versterken. “AI-systemen zijn gebaseerd op wiskunde en informatica. De ’taal’ van wiskunde en informatica is veel meer rigide dan taal zoals mensen die gebruiken. We moeten dus goed opletten of problemen die mensen uitdrukken wel met voldoende nuance in data, algoritmes en AI terechtkomen. In diensten als Spotify en Netflix zijn aanbevelingsalgoritmes, die automatisch proberen te suggereren wat jij als gebruiker leuk zou vinden, cruciaal. Vaak wordt dit gebaseerd op ‘engagement’, hoe vaak mensen een item bekijken. Maar dat kan ook tot onvoorziene prikkels leiden, waarbij clickbait het ultieme soort content zou zijn. Ik denk dat we toch wel meer willen zien dan dat, jij ook?”
Heb jij een vraag of wil je in gesprek met een AI-onderzoeker? Mail dan naar info@inzicht-in-ai.nl.