In dit artikel (een publicatie uit AI, voorbij de hype) is er aandacht voor de beperkingen van AI. Welke risico lopen we als we AI alternatieven laten overschaduwen?
Slimme oplossingen voor een slimme wereld
In 2011 gaf Robert Weinberg, kankerbioloog aan het gerenommeerde MIT, een lezing in opdracht van de KNAW en DNB. Ondanks dat hij zijn hele werkzame leven onderzoek deed naar de biologische aspecten van kanker, kwam hij in deze lezing tot de conclusie dat kanker vooral bestreden kon worden buiten de biologie, namelijk door burgers te motiveren om gezondere keuzes te maken. De helft van de kankergevallen valt te herleiden tot ongezond gedrag zoals roken, te weinig bewegen en ongezond eten. Die gewoonten vinden hun oorsprong in de jeugd of puberteit. Daarom bedachten Gigerenzer en Weinberg een lesprogramma voor leerlingen, zodat Nederlandse kinderen tijdig hun gedrag aanpassen en minder risico lopen op kanker. Dat is best bijzonder. Weinberg is een gerenommeerd wetenschapper, die academische onderscheidingen ontving uit de VS, Japan, Zwitserland en een prijs won met de veelbelovende titel ‘Albert Einstein World Award of Science’. Hij werkte samen met Gigerenzer, die een stuk of tien boeken op zijn naam heeft staan en door het instituut achter het blad Science een prijs ontving voor zijn onderzoek naar gedragswetenschap. Samen zetten ze zich in om Nederlandse jongeren gezonder te maken. Dat is best wel een big deal.
Het lesprogramma van de wetenschappers was niet belerend, maar juist motiverend van aard. Kinderen leerden bijvoorbeeld hoe leuk (gezond) koken was. Het programma werd gepresenteerd op diverse kankerconferenties in Nederland, waarna de voorzitter van Het Nederlands Kanker Instituut aangaf geïnteresseerd te zijn om het lesprogramma te financieren. Er is een reden waarom je nog nooit van dit programma hebt gehoord. Het is er nooit gekomen. De reden? Het Nederlands Kanker Instituut besloot uiteindelijk om te investeren in AI, volgens Gigerenzer uit angst om achterop te lopen bij andere organisaties die flink investeerden in big data-onderzoeken. Gigerenzer: “Dat was het einde van ons project om jongeren bewuster te maken van hun gezondheid. Al het beschikbare geld ging naar de [tech, AM] industrie”, zo valt te lezen in Gigerenzers boek How to stay smart in a smart world.
Overschatten we AI niet?
De vraag is welke impact AI zou kunnen maken op het terugdringen van het aantal kankergevallen in Nederland. Er zouden betere analyses gedaan kunnen worden, waardoor ontdekt wordt welke factoren kanker veroorzaken. Maar dat weten we al. Ongeveer de helft van de kankergevallen in Nederland heeft te maken met levensstijlkeuzes, zoals roken, (onvoldoende) bewegen en (ongezond) eten. Zorgen dat er betere keuzes gemaakt worden door meer jongeren zou je in managementjargon dus ‘laaghangend fruit’ kunnen noemen, een quick win of voor wie normale-mensentaal-spreekt: een logische eerste stap.
Laat er geen misverstand over bestaan: de voordelen van AI zijn onmiskenbaar. Maar soms overschaduwt de hype van AI zinnigere alternatieven. In dit geval overschaduwen de beloftes van AI een minder sexy oplossing als een campagne om burgers gezonder te laten leven. Deze campagne was al zo goed als klaar en werd ontwikkeld door gerenommeerde wetenschappers. Waarom valt de keuze dan toch op een investering in AI? Verwarren we iets nieuws soms met iets goeds? Is het nadeel van sommige ideeën misschien dat ze in de mode zijn, waardoor ze aantrekkelijker lijken dan ze zijn? Kan het zo zijn dat AI in meer gevallen overschat wordt en andere oplossingen overschaduwt? Die vragen legde ik voor aan een aantal experts, ondernemers en docenten.
Is AI überhaupt nodig?
In sommige gevallen wordt er voor AI gekozen, terwijl de situatie eigenlijk vraagt om een minder complexe oplossing. Dat vertelt Marc van Meel, die zich bij KPMG bezighoudt met verantwoord gebruik van AI. Tijdens zijn opleiding als engineer leerde hij om een probleem te vertalen naar technische specificaties en te bedenken wat er precies nodig is om het probleem op te lossen. In stapjes verkennen techneuten hoe complex de oplossing zou moeten zijn. “Zo voorkom je dat je een kanon afvuurt op een mug”, legt Van Meel uit. “Neurale netwerken, waar AI gebruik van maakt, zijn zo’n kanon, want het zijn de meest geavanceerde netwerken die we kunnen maken. Soms is het gebruik van AI een soort overkill. Als je wil weten in welk jaar Napoleon geboren is, dan is ChatGPT daar dus niet het ideale middel voor.”
Dat AI soms een te complexe oplossing blijkt te zijn ontdekte ook Rutger Bremer, directeur van eventsoftwarebedrijf Momice: “We waren bij Momice enthousiast over de mogelijkheden van AI en brainstormden om te bepalen welke nieuwe functionaliteiten we met behulp van AI aan onze eventtool konden toevoegen. Enthousiast deelden we onze ideeën met onze IT-collega’s. Ze vertelden ons dat het geen probleem was om die nieuwe functies te ontwikkelen, maar dat we dat al jaren geleden hadden kunnen doen. Voor onze ideeën was namelijk geen AI nodig. Misschien dat we pas sinds de komst van AI buiten de gebaande paden durfden te denken.” Het is flauw om in deze context te spreken over een placebo-effect van AI, maar het zou niet ver van de waarheid zijn. AI zorgde ervoor dat Bremers team buiten de gebaande paden durfde te denken. Daar was echter geen kunstmatige, maar alleen menselijke intelligentie voor nodig.
Het ontwikkelen van een technologische oplossing (zoals AI), heeft volgens Van Meel pas zin als het beter presteert dan huidige oplossingen: “Stel je voor dat je fraudegevallen wil ontdekken en daar een algoritme voor ontwikkelt. Dan heeft dat algoritme pas toegevoegde waarde als het meer fraudegevallen ontdekt dan als je met de hand willekeurig dossiers controleert.” De vraag die we ons zouden moeten stellen: is een computer hier beter in dan een bestaand systeem of een mens en heeft het dus überhaupt zin om het te automatiseren? “Ook is de vraag relevant wat het ‘kost’ als een systeem niet goed blijkt te werken. Wat is erger: dat een systeem een ambulance stuurt als het niet nodig is of dat een systeem een ambulance niet stuurt als dat wel nodig is? Maak deze vragen expliciet, zodat je weet of je dit werk wil automatiseren met behulp van AI.”
Niet elk probleem vraagt om AI
Sommige zaken laten zich daarbij überhaupt niet automatiseren. Lizzy Prins geeft ChatGPT-trainingen en is optimistisch over AI. Maar ook zij wijst op de beperkingen: “Het is een hulpmiddel, geen wondermiddel. Er zijn dingen die je niet kan automatiseren of door robots wil laten overnemen, zoals menselijke interactie. Als HR-afdeling kan je het hele personeelshandboek laten schrijven door een AI-tool of een chatbot maken die voor je uitzoekt hoeveel vakantiedagen je hebt. Maar een deel van HR is mensenwerk. Sommige collega’s willen met mensen sparren en hebben aandacht nodig.”
Prins signaleert dat er op dit moment een aantal ontwikkelingen elkaar kruisen, waardoor steeds meer taken aan AI worden overgelaten. “Er is schaarste op de arbeidsmarkt en door de vergrijzing houdt die nog wel even aan. Daarnaast kan er steeds meer werk gedaan worden door technologie. Daarom is het logisch dat er steeds meer werk wordt uitbesteed aan AI-tools. De vraag is of je mens-tot-mens contact ook kan automatiseren, want aandacht van een chatbot is niet hetzelfde als van een collega. Organisaties zouden daarom beide opties moeten aanbieden, een collega en een chatbot. Net zoals er in de supermarkt zelfscankassa’s en normale kassa’s zijn.”
De onbedoelde bijwerkingen van AI
AI is in sommige gevallen niet alleen overbodig, maar zelfs ook schadelijk, omdat het gebruik ervan onbedoelde bijeffecten kan hebben. Dat vertelt Van Meel, die weer het voorbeeld van de fraudecontrole aanhaalt: “Als werknemers formulieren verkeerd invullen dan is dat problematisch, dus wordt dat gecontroleerd. Dat kan handmatig, met behulp van steekproeven. Maar sommige bedrijven kiezen ervoor om daar een AI-model voor te gebruiken. Dat model is bepaald niet kosteloos en zorgt ervoor dat er veel gegevens moeten worden verzameld. Toch levert de inzet van AI iets op, namelijk de ontdekking dat de meeste fouten worden gemaakt door nieuwe medewerkers en door medewerkers die werken met nieuwe producten. Tja. De vraag is of je een AI-model nodig hebt om te ontdekken dat iemands ervaring (met bepaalde producten) voorspelt wat de kwaliteit is van zijn of haar werk of dat je dat met enig logisch verstand zelf ook had kunnen beredeneren.”
Het algoritme uit dit (fictieve) voorbeeld toont in een oogopslag hoe goed een collega presteert. De vraag is of die informatie gebruikt mag worden door managers. “Als leidinggevenden bericht krijgen dat een collega wel erg veel fouten maakt, dan kan hij die informatie gebruiken bij evaluaties. Dat kan ervoor zorgen dat werknemers te voorzichtig te werk gaan, onnodig lang over het werk doen of liever niet met nieuwe producten aan de slag gaan. Zo verandert AI – of eigenlijk: de controle door AI – de aard van het werk. Het laat volgens mij goed zien dat technologie nooit neutraal is, maar op een bepaalde manier impact heeft op de omgeving.” Joop Snijder, host van de podcast AIToday Live, haakt in met een voorbeeld dat doet denken aan dit fraude-algoritme: “Een bedrijf wilde met AI-tools vergaderingen automatisch laten notuleren. Het klinkt als een logische keuze om iets geestdodends als notuleren te laten automatiseren door AI. Maar de praktijk bleek weerbarstiger. Veel collega’s spraken niet meer vrijuit, omdat ze doorhadden dat hun inbreng tijdens vergaderingen werd opgenomen en door iedereen viel terug te lezen. Zo schiet een middel zijn doel voorbij.”
AI is geen wondermiddel
Snijders bedrijf Aigency maakt AI-toepassingen en blijkt last te hebben van de hype die er rondom AI is. Hij noemt de verwachtingen van AI op dit moment ronduit onrealistisch: “Soms wordt gedacht dat je alles met AI kan oplossen, wat gegarandeerd resulteert in teleurstelling. Ook wij maken die fout nog wel eens. Een voorbeeld om dat te illustreren: Een logistiek bedrijf vroeg ons om te helpen om de codes op zeecontainers automatisch uit te laten lezen. Als een tekst horizontaal staat, dan kan AI dat goed uitlezen. Maar de codes staan verticaal op de containers en daar zijn de modellen niet op getraind. De achterliggende gedachte is: mensen kunnen prima van boven naar beneden lezen, dus machines die kunnen lezen moeten dat ook kunnen. Maar dat blijkt niet het geval te zijn. Dat zijn nuances die in de praktijk problematisch blijken en lastiger te verhelpen zijn dan menigeen denkt. Dat komt doordat de standaard AI-modellen op een beperkt aantal taken zijn getraind. Daar hielden we onvoldoende rekening mee.”
Snijder wijst erop dat het werken met AI meer tijd en inspanning van mensen vraagt dan vaak gedacht wordt: “Allereerst heb je kwalitatief goede data nodig, met een voorspellende waarde en in de juiste hoeveelheden. Die data moet je soms zo ‘kneden’ dat het algoritme er iets van snapt.” Dat kneden houdt in dat gegevens met elkaar overeen moeten komen, zodat er analyses op losgelaten kunnen worden. “Vervolgens moet je de fouten uit het algoritme herstellen, zodat het algoritme daarvan leert. Dat werk is tijdrovend en wordt niet door computers, maar door mensen gedaan. Daar is weinig kunstmatigs aan. Net zoals ChatGPT getraind is door menselijke experts om de antwoorden uit het model te beoordelen, zo moet je andere AI-modellen ook trainen. Data wordt vaak als wondermiddel gezien: je geeft data aan een AI en kan vervolgens achteroverleunen. Maar dat is niet zo.”
AI voor het lerarentekort
Ook in het onderwijs wordt AI soms als zaligmakend gezien, vertelt Barend Last: “Er zijn bestuurders geweest van middelbare scholen die ik vertelde over de mogelijkheden van AI, waarna hun ogen oplichtten en ze me voorzichtig vroegen of het een rol kan spelen bij het nijpende lerarentekort.” Er leven ideeën dat bepaalde aspecten van lesgeven vervangen kunnen worden door AI.
De vraag is: is AI echt de beste oplossing voor het lerarentekort? Van Meel wees ons erop we ons altijd de vraag moeten stellen of de technologische oplossing even goed is als de oplossing die het vervangt. Is een chatbot even goed in lesgeven als een docent van vlees en bloed? Remco Pijpers, strategisch adviseur digitale geletterdheid en ethiek bij Kennisnet, denkt van niet. Hij vertelt over een AI-tool van Microsoft die leerlingen leert lezen: “Maar uit onderzoek blijkt dat leerlingen beter leren lezen uit echte boeken met rijke taal en met echte mensen in plaats van met een digitale, gepersonaliseerde leerervaring. In plaats van te investeren in AI, zouden scholen ook kunnen investeren in leesmaatjes of de Voorleesexpres. Scholen worden door softwarebedrijven bestookt met beloftes over AI, het zou effectief en gemakkelijk zijn, waardoor andere oplossingen minder aantrekkelijk lijken.”
Dit stuk begon met een verhaal over hoe AI andere oplossingen voor het voorkomen van kanker overschaduwt. Dat geldt ook voor het oplossen van het lerarentekort. Wie fantaseert over een chatbot voor het klaslokaal, vergeet al snel dat er andere oplossingen mogelijk zijn. Denk aan meer salaris, uitdaging en waardering, voorrang op woningen in steden, betere arbeidsomstandigheden, minder administratief werk of (micro-managende) managers. De kans dat die oplossingen geïmplementeerd worden, wordt door de aandacht voor De Ongekende Mogelijkheden van AI steeds kleiner.
Technologie als oplossing
Iemand die al langer wijst op alternatieven voor technologische oplossingen is tech-filosoof Rens van der Vorst. Dat is opvallend, want hij geeft aan de Fontys-hogeschool les aan IT-studenten. “Mijn studenten krijgen bijvoorbeeld de opdracht om een oplossing te bedenken voor patiënten die chemotherapie hebben gehad en eenzaam zijn. Wat doen de studenten? Ze maken een app waarmee patiënten verbonden worden met andere patiënten. Maar wat is het eigenlijke probleem? Ziekenhuizen kampen met een personeelstekort, dus hebben verplegers te weinig tijd voor contact met patiënten. Misschien moeten we dat probleem eerst oplossen, voor we besluiten of een app of AI-model de oplossing is.”
De tech-filosoof ziet in deze medische app een symptoom van een groter probleem. AI-toepassingen zijn volgens hem in feite een oplossing op zoek naar een probleem. Hij vraagt zich af welke maatschappelijke uitdagingen generatieve AI-tools überhaupt oplossen: “Was het echt een probleem dat we niet in staat waren om automatisch teksten te produceren, zoals ChatGPT kan? Of zijn er andere problemen die belangrijker zijn voor de mensheid? Begrijp me niet verkeerd: ik heb niets tegen AI, ik vind het een handige technologie. Ik kijk ernaar uit dat AI in de toekomst kan uitrekenen welk medicijn het beste bij mijn ziektebeeld past. En het is fijn dat dyslectische kinderen foutloze teksten kunnen maken dankzij AI. Maar als je ChatGPT zomaar inzet, dan ben je niet kritisch genoeg. Je werkt met een systeem dat onbetrouwbare antwoorden geeft, gebouwd is door een radicale gek als Sam Altman en gebruikmaakt van gestolen materiaal.”
AI is een zelfversterkend proces
De opkomst van AI heeft daarbij een zelfversterkend effect en zorgt ervoor dat AI (of andere technologie) steeds vaker gebruikt wordt als oplossing voor (bedrijfs)problemen. Kunstmatige intelligentie maakt het namelijk makkelijker om technologische oplossingen te ontwikkelen. ChatGPT kan gebruikt worden om automatisch een stuk code te laten schrijven of men gebruikt speciale AI-tools om een app te ontwikkelen. Doordat het makkelijker wordt om een app te ontwikkelen, wordt het lastiger om niet-technologische oplossingen te overwegen. Met andere woorden: hoe meer technologie we ter beschikking hebben, hoe vaker we technologie als oplossing overwegen, hoe meer technologie we ontwikkelen, hoe meer technologie we tot onze beschikking krijgen. Als je een filosofische bril opzet zou je technologie geen product noemen, maar een proces en dat proces zou zelfversterkend van aard zijn.
Het gebruik van technologie is overigens niet zonder risico. Het kan namelijk verslavend werken en daar moet voor gewaakt worden. “Dankzij AI is het makkelijker om gebruiksvriendelijke technologie te ontwikkelen. Gebruiksvriendelijke technologie: dat klinkt als iets waar je onmogelijk tegen kan zijn. Toch leer ik studenten nou juist om gebruiksonvriendelijk te ontwerpen. Een app die makkelijk te gebruiken is, wordt erg veel gebruikt. Als je elke minuut van de dag de opbrengst van je zonnepanelen kan checken, kan de app onbedoeld verslavend werken. Waarom zou je niet elke maand een mailtje ontvangen met de opbrengst van de zonnepanelen en als gebruiker enige moeite moeten doen om de opbrengst live te kunnen volgen? Ontwikkelaars van technologie moeten er dan ook voor zorgen dat gebruikers niet te veel dingen doen omdat ze makkelijk zijn, zodat ze tijd kunnen investeren in dingen die de moeite waard zijn.” De vraag is of ontwikkelaars van populaire apps daarin slagen. Denk eens terug aan het onderzoek dat ik in de inleiding van dit boek aanhaalde. Een op de drie Nederlanders heeft liever nooit meer seks, dan hij of zij zijn smartphone inlevert. 36 procent van de jongeren levert zelfs liever zijn pink in, dan zijn smartphone. Klinkt dat als het stellen van de juiste prioriteiten?
Zoek naar het probleem achter het probleem
We leven in een tijdperk van technologie die slim genoemd wordt, maar we moeten ervoor zorgen dat wij als gebruikers slim omgaan met die technologie. Laten we ervoor zorgen dat wij de baas blijven over onze apparaten in plaats van dat zij de baas worden over ons. Het maakt in dat opzicht weinig uit of het gaat over smartphoneverslaafde Nederlanders die liever hun pink inruilen dan hun smartphone, instituten die AI verkiezen boven lesprogramma’s of scholen die docenten willen inruilen voor chatbots. De rode draad in al deze thema’s is: technologie of AI lijkt dé oplossing, maar zorgt ervoor dat het eigenlijke probleem uit het zicht raakt, waardoor andere oplossingen niet aan bod komen. Tijdens lezingen stel ik vaak de retorische vraag: is AI een tool of een doel?
Wellicht is de aanpak van een peuter de oplossing voor dit soort problemen. Stel jezelf drie keer de waaromvraag, net zoals een jengelend kind dat doet. Zo ontdek je het probleem achter het probleem. Patiënten die chemotherapie hebben ondergaan, blijken eenzaam te zijn. Waarom? Omdat verplegers te druk zijn. Waarom? Omdat ze te veel administratieve last hebben. Waarom? Omdat we regels hebben opgesteld die uitgaan van controle in plaats van vertrouwen. Aha! Dan is een AI-model of een flitsende app misschien niet de oplossing. Nou maar hopen dat er ziekenhuizen zijn die de regeldruk durven te verminderen en het lef hebben om achter te lopen in investeringen in AI.