Het eerlijkheidsprobleem
Er is een tweede laag in AI-wantrouwen die subtieler is en moeilijker te adresseren: het gevoel dat de output niet eerlijk is.
Niet onnauwkeurig. Niet onjuist. Maar eerlijk, in de zin van: weerspiegelt dit de werkelijkheid zoals ik die ken? Geldt dit voor iedereen, of alleen voor sommigen?
Medewerkers die dagelijks met mensen werken, in HR, in klantenservice, in zorg, in onderwijs, hebben een sterk gevoel voor wanneer iets of iemand buitengesloten wordt. Wanneer een AI-agent consistente aanbevelingen doet die bepaalde profielen benadelen, pikken zij dat op. Misschien niet in termen van "dit is biased training data." Maar wel in het gevoel: dit klopt niet voor de mensen om wie het gaat.
Dat gevoel is waardevol. Het is precies de menselijke controle die agentic AI-systemen nodig hebben om verantwoord te functioneren. Maar als dat gevoel nergens heen kan, als er geen plek is om het te uiten, geen collega om het mee te bespreken, geen proces dat het serieus neemt, dan trekt de medewerker de conclusie die het meest voor de hand ligt: ik gebruik het niet.
Wantrouwen op basis van een eerlijkheidsgevoel is geen adoptie-obstakel. Het is een organisatorisch kompas. De vraag is of je het gebruikt.