Aaron Mirck

Populair misverstand over AI: AI is neutraal

Een van de populaire misverstanden over AI, is dat AI neutraal zou zijn. Een algoritme zou bijvoorbeeld beter in staat om een objectief oordeel te vellen dan een rechter. Maar is AI echt neutraal?

AI is niet neutraal

AI wordt gezien als een neutrale oplossing voor allerhande problemen. Daar zijn twee kanttekeningen bij te plaatsen. Allereerst kennen alle toepassingen van AI bepaalde waarden. Denk eens aan de supermarkt-app. Als blijkt dat jij vaker wijn koopt in de zomermaanden, dan kan de supermarkt-app je in juli een fles rosé aanbieden. Zo stijgt de kans dat je een fles wijn koopt. Maar die keuze heeft consequenties. Alcohol is weliswaar onderdeel van onze maatschappij (of cultuur), maar niet zonder risico. Alcohol verhoogt de kans op nare ziektes, is verslavend en kost de maatschappij miljarden euro’s.

Als een supermarkt data verzamelt van zijn klanten en op basis van die data weet wanneer de app wijn moet aanbieden, dan handelt het volgens bepaalde waarden. De supermarkt vindt commerciële doelstellingen belangrijker dan maatschappelijke kosten. Het aanbieden van wijn via een app lijkt dus neutraal, maar is dat niet. AI toepassingen zijn altijd vanuit bepaalde waarden geprogrammeerd.

Data is niet neutraal

Een van de andere redenen waarom populaire vormen van AI zoals ChatGPT niet neutraal zijn, is het feit dat ze getraind wordt op basis van data. Die data kent bepaalde vooroordelen. Laten we het maken van afbeeldingen als voorbeeld gebruiken. Er zijn verschillende tools die indrukwekkende afbeeldingen kunnen genereren. Die tools zijn getraind op openbare data; wat er op het internet te vinden is. Hoe ziet dat eruit?

Midjourney kreeg de opdracht om een afbeelding van een advocaat te genereren. Bij bovenstaande afbeeldingen valt je vast iets op. Alle advocaten zijn bijvoorbeeld man. En wit. De content die AI genereert kent bepaalde vooroordelen, omdat deze vooroordelen tot uiting komen in de data waarmee AI is getraind. Het is het bekende verhaal van garbage in, garbage out. Wie online zoekt naar hoe een advocaat eruitziet – of wie waarschijnlijk advocaat wordt – krijgt bovenstaande afbeeldingen voorgeschoteld. Generatieve AI baseert zich op die input.

Waarom is dit belangrijk?

Nog te vaak wordt verkondigd dat AI neutraal is. AI wordt vergeleken met een hamer: je kan het gebruiken om een spijker in de muur te slaan, maar ook om iemand pijn te doen. Na het lezen van dit stuk weet je dat dat niet klopt. Populaire AI-tools worden getraind op basis van data die bepaalde vooroordelen kent, omdat het een afspiegeling is van wat online te vinden is. De algoritmes die worden losgelaten op die data, dienen een bepaald doel. Dat maakt ze ook niet objectief of neutraal.

Bij de toeslagenaffaire zagen we de uiterste consequenties van het geloof in de neutraliteit van AI. Een racistisch algoritme van de Belastingdienst baseerde het risico op fraude op basis van iemands nationaliteit of uiterlijk voorkomen. Dat verwoestte het leven van onschuldige mensen. AI is geen hamer en het is niet objectief. Het is belangrijk om kritisch te zijn op de data waarmee AI getraind wordt en voor welke doelen het gebruikt wordt

Je kan geen krant of tijdschrift openslaan zonder bericht over AI. Helaas wordt er ook veel onzin over AI verspreid. Ik help je feit van fictie onderscheiden met een gratis e-book, waarvan dit een van de hoofdstukken is. Je leest dit boekje in 30 minuten en die tijdsinvestering is het enige wat dit boekje je kost. Download het boekje hier of via het formulier hieronder. Wil je in een lezing of keynote meer te weten komen over AI? Hier vind je meer informatie over mijn lezing Wegwijs in AI.

Volg Aaron

Neem contact op voor een lezing, keynote of quiz:
info[apenstaart]aaronmirck.com / 06 3438 3309

Nieuwsbrief