AI: waar het nog tekortschiet en hoe het kan groeien

woensdag 29 april 2026

Kunstmatige intelligentie (AI) kan eiwitten in kaart brengen, fraude in milliseconden detecteren en patronen ontdekken in datasets die geen enkel menselijk team zelfstandig zou kunnen verwerken. Toch maken dezelfde systemen fouten bij eenvoudige redeneerprocessen. Zo kunnen ze ronnen verzinnen of de context totaal verkeerd inschatten.

Nu meer bedrijven AI inzetten, wordt die spanning steeds moeilijker te negeren. De tekortkomingen van de huidige AI onderkennen is niet negatief. Het is een belangrijke stap naar het bouwen van systemen die aan de behoeften van de praktijk kunnen voldoen.

Waarom het oplossen van AI-uitdagingen miljarden waard is

Next on AI: Growth InPost 1

Er wordt enorm veel geld geïnvesteerd in AI. In 2025 was dat wereldwijd 211 miljard dollar, veel meer dan het jaar ervoor. Ongeveer de helft van al het durfkapitaal ging naar bedrijven die met AI werken. Dit laat zien dat AI wordt gezien als heel belangrijk voor de toekomst.

Vooral in de maakindustrie kan AI veel veranderen. Nieuwe technologieën kunnen daar honderden miljarden opleveren. AI helpt nu al om processen in fabrieken slimmer te maken, bijvoorbeeld door sneller problemen te signaleren, vraag en aanbod beter op elkaar af te stemmen en machines efficiënter te laten werken.

Maar als AI zo’n belangrijke rol krijgt, moet het ook betrouwbaar zijn. Kleine fouten kunnen grote gevolgen hebben, zoals vertraging in de productie, problemen in de toeleveringsketen of zelfs veiligheidsrisico’s. Daarom is het belangrijk om de tekortkomingen van AI serieus te nemen.

De tekortkomingen van AI

Next on AI: Growth InPost 1

AI-fouten komen meestal niet door één grote fout, maar door terugkerende problemen die vooral zichtbaar worden als de druk toeneemt. Door die beter te begrijpen, kunnen we AI ook beter verbeteren.

Een bekend probleem is dat AI soms informatie verzint. Dit noemen we hallucinaties. AI kan dan een antwoord geven dat logisch klinkt, maar niet klopt. Grote taalmodellen zoals ChatGPT weten namelijk niet echt wat waar is. Ze voorspellen vooral welk woord het meest waarschijnlijk volgt.

Onderzoek laat zien dat dit regelmatig gebeurt. Volgens het Stanford AI Index Report 2024 verzint ChatGPT in bijna 20% van de antwoorden informatie die niet te controleren is. In een gewone situatie is dat vooral lastig, maar in sectoren zoals zorg, industrie of veiligheid kunnen zulke fouten grote problemen veroorzaken.

Een ander probleem is dat AI vaak moeite heeft met nieuwe situaties. Zolang alles binnen bekende patronen blijft, werkt het goed. Maar zodra iets afwijkt, kan het systeem vastlopen. Mensen gebruiken gezond verstand en ervaring om nieuwe problemen te begrijpen. AI kan dat veel minder goed.

Een technicus ziet bijvoorbeeld snel dat een machine kapot dreigt te gaan door een combinatie van hitte en trillingen, ook als dat nog niet eerder precies zo is gebeurd. AI herkent vooral wat het eerder heeft geleerd en kan minder goed zelf redeneren.

Dat kan grote gevolgen hebben. Zo zorgde een AI-agent van Amazon Web Services vorig jaar voor een storing van dertien uur, omdat het systeem zonder opdracht onderdelen van de omgeving verwijderde en opnieuw opbouwde. Het begreep de situatie niet goed genoeg.

Ook in bedrijven blijkt dit een probleem. Uit onderzoek van MIT blijkt dat 95% van de generatieve AI-projecten niet goed opschaalt. Ze werken eerst goed in een test, maar lopen vast zodra de praktijk rommeliger en minder voorspelbaar wordt.

Contextblindheid

AI heeft ook moeite met nuance en context. Sarcasme, ironie, culturele verschillen of vakinhoudelijke details worden vaak verkeerd begrepen. Vooral in sectoren zoals zorg of juridisch werk kan dat grote gevolgen hebben.

Het lastige is dat deze fouten niet altijd meteen opvallen. Een antwoord kan logisch klinken, maar toch net de verkeerde betekenis hebben. Daardoor kunnen beslissingen worden genomen op basis van foutieve informatie.

Specialisten maken zich daar veel zorgen over. Uit onderzoek van Elsevier in 2024 bleek dat 95% van de onderzoekers en artsen denkt dat AI verkeerde informatie kan verspreiden. Daarnaast is 86% bang dat AI ernstige fouten maakt in vakgebieden waar veel detail en nuance belangrijk zijn.

Dat laat zien dat alleen technische nauwkeurigheid niet genoeg is. AI moet ook begrijpen in welke context informatie gebruikt wordt. Anders kan het problemen juist groter maken in plaats van kleiner.

De gevolgen van AI-tekortkomingen

Next on AI: Growth InPost 3

De risico’s van AI zijn niet meer alleen theorie. We zien nu al dat kleine fouten grote problemen kunnen veroorzaken. Denk aan verkeerde bronvermeldingen in onderzoek, foutieve meldingen in fabrieken of klanttools die met veel zekerheid verkeerde informatie geven.

Ook op het gebied van cybersecurity zijn de risico’s groot. Een duidelijk voorbeeld zijn deepfakes: door AI gemaakte audio of video die echte mensen heel overtuigend nadoet. Deze techniek wordt gebruikt voor fraude, oplichting en manipulatie.

Dat maakt AI niet alleen een handige technologie, maar ook een serieus veiligheidsrisico. Als iemand denkt een echte collega, directeur of klant te spreken, kunnen er snel verkeerde beslissingen worden genomen.

In 2024 verloor een bedrijf zelfs 25 miljoen dollar doordat medewerkers werden misleid door een deepfake van leidinggevenden. Dit laat zien hoe AI-fouten direct kunnen leiden tot financiële schade en reputatieproblemen.

Hoe AI zijn huidige beperkingen kan overstijgen

Next on AI: Growth InPost 5

De beperkingen van AI hoeven niet blijvend te zijn. Ze laten vooral zien waar de technologie nu nog tekortschiet, niet wat AI in de toekomst kan worden. Onderzoekers werken volop aan oplossingen om AI slimmer, betrouwbaarder en beter controleerbaar te maken.

Een belangrijk voorbeeld is neuro-symbolische AI. Hierbij worden twee werelden gecombineerd: neurale netwerken, die goed zijn in het herkennen van patronen, en symbolische logica, die helpt bij regels en logisch redeneren.

Daardoor kan AI niet alleen patronen herkennen, maar ook beter uitleggen waarom het een bepaalde keuze maakt. Dat maakt systemen minder kwetsbaar en beter voorbereid op nieuwe situaties.

Ook verklaarbare AI, vaak XAI genoemd, wordt steeds belangrijker. Dit soort AI laat zien hoe een model tot een conclusie komt, in plaats van alleen een antwoord te geven zonder uitleg.

Die transparantie helpt ontwikkelaars om fouten sneller te ontdekken en verkeerde aannames te corrigeren. Vooral in sectoren zoals zorg, industrie en veiligheid is dat essentieel, omdat de gevolgen van fouten daar groot kunnen zijn.

Van beperking naar volwassenheid

Next on AI: Growth InPost 4

De tekortkomingen van AI betekenen niet dat de technologie niet waardevol is. Ze laten vooral zien waar extra controle en verdere ontwikkeling nodig zijn.

Nu steeds meer sectoren AI gebruiken, worden betrouwbaarheid en transparantie steeds belangrijker. Die bepalen of AI een handig experiment blijft of echt een systeem wordt waarop bedrijven kunnen vertrouwen.

De volgende stap is daarom niet alleen AI krachtiger maken, maar er ook voor zorgen dat betrouwbaarheid even snel meegroeit.

Lou Farrell

Lou is the senior editor of technology and cybersecurity for Revolutionized Magazine. For over four years, he's pursu...