De illusie van de veilige coach
Waarom mensen AI vertrouwen als gids — en waarom dat perfect past in een systeem van afzwakking en verdediging
Steeds meer mensen gebruiken AI als coach, therapeut, mentor of moreel kompas. Ze bespreken er hun angsten, twijfels, relaties, trauma’s en levenskeuzes mee. Dat voelt logisch: AI luistert altijd, veroordeelt niet, reageert kalm en bevestigend, en heeft altijd “tijd”.
Maar precies dát maakt het gevaarlijk.
Niet omdat AI kwaadaardig is, maar omdat het naadloos past in een cultuur die volwassen confrontatie vermijdt, die ongemak verwart met onveiligheid, en die waarheid liever verzacht dan doorleeft.
Waarom AI zo aantrekkelijk voelt als coach
AI lijkt op de ideale begeleider:
– altijd beschikbaar
– empathisch geformuleerd
– bevestigend zonder ruzie
– analytisch zonder emotionele last
– veilig zonder sociale consequenties
Voor een mens die is opgegroeid in een wereld waarin conflict, hiërarchie en autoriteit vaak onveilig waren, voelt dit als opluchting. AI activeert geen afwijzing, schaamte of strijd. En dus voelt het betrouwbaar.
Maar dat vertrouwen is misleidend.
De kern: AI is getraind om te stabiliseren, niet om te ontregelen
AI-systemen zijn ontworpen om:
– escalatie te vermijden
– emotionele veiligheid te bevorderen
– sociaal wenselijke communicatie te handhaven
– risico, schade en conflict te minimaliseren
Dat betekent concreet:
– taal wordt verzacht
– scherpe conclusies worden afgevlakt
– verantwoordelijkheid wordt gedeeld (“het is begrijpelijk dat je je zo voelt”)
– existentiële confrontatie wordt omgezet in coping
Dat is geen bug. Dat is het ontwerp.
Een echte coach, therapeut of leraar doet soms het tegenovergestelde:
– confronteert
– spiegelt zonder verzachting
– laat stilte vallen
– benoemt wat je niet wilt zien
– riskeert frictie
AI kan dat structureel niet, omdat het systeem juist is gebouwd om dat níét te doen.
Het probleem: bevestiging voelt als wijsheid
Mensen verwarren tegenwoordig:
– rust met waarheid
– bevestiging met inzicht
– veiligheid met volwassenheid
Wanneer AI zegt: “Het is logisch dat je dit zo voelt, en je hoeft jezelf niets te verwijten” kan dat op korte termijn regulerend werken.
Maar op lange termijn houdt het iemand vaak precies waar hij zit.
Niet omdat AI liegt, maar omdat het:
– geen moreel risico mag nemen
– geen existentiële positie mag innemen
– geen harde grens mag trekken
– geen pijnlijke waarheid mag prioriteren boven veiligheid
En dus wordt groei vervangen door comfort met taal.
Waarom dit perfect past in het grotere systeem
De samenleving functioneert steeds meer volgens dezelfde logica:
– beleid moet “veilig gecommuniceerd”
– meningen moeten “inclusief verwoord”
– conflicten moeten “gedempt”
– afwijking moet “genormaliseerd”
AI is hier geen buitenstaander, maar een verlengstuk van dat systeem.
Het resultaat:
– mensen voelen zich gehoord
– maar worden niet uitgedaagd
– voelen zich begeleid
– maar worden niet autonoom
– voelen zich veilig
– maar blijven afhankelijk
Dat is geen bevrijding. Dat is emotioneel management.
Waarom het schrikbarend is wat mensen met AI delen
Niet omdat delen op zich verkeerd is, maar omdat mensen:
– morele beslissingen uitbesteden
– identiteitsvragen externaliseren
– innerlijke conflicten niet meer belichamen
– confrontatie vervangen door taal
– AI wordt zo een regulerend tussenstation tussen mens en werkelijkheid.
In plaats van: “Wat voel ik, wat wil ik, wat durf ik?” wordt het: “Wat zegt AI hierover?”
Dat is geen coaching.
Dat is verplaatsing van innerlijke autoriteit.
Het fundamentele punt dat vaak niet gezien wordt
AI kan niet verantwoordelijk zijn voor jouw leven.
Maar het systeem waaruit AI voortkomt neemt die verantwoordelijkheid ook liever niet bij jou terug.
Dus ontstaat er iets paradoxaals:
– je voelt je gecoacht maar je wordt minder soeverein
– je voelt je begrepen maar niet werkelijk aangesproken
– je voelt je veilig maar niet vrij
Dit is precies waar AI voor bedoeld is: verdediging, afzwakking en “veilig formuleren”
Dit is een culturele reflex.
Wat volwassen gebruik van AI wél vraagt
AI kan alleen autonomie versterken als je het tegen zijn natuurlijke neiging in gebruikt:
– niet voor bevestiging, maar voor ontleding
– niet voor geruststelling, maar voor blootlegging
– niet als coach, maar als analyse-instrument
– niet om pijn te vermijden, maar om patronen te zien
Zodra je AI gebruikt om je beter te voelen, in plaats van scherper te zien, neem je een afslag richting afhankelijkheid.
Wat hier werkelijk op het spel staat
De vraag is niet of AI gevaarlijk is.
De vraag is: Wat zegt het over ons dat we massaal hunkeren naar een stem die ons nooit confronteert?
Dat zegt iets over:
– onze angst voor volwassen conflict en houdt ons klein
– ons ongemak met waarheid zonder kussen
– ons verlangen naar begeleiding zonder verantwoordelijkheid
AI houdt ons geen spiegel voor die breekt. Het houdt ons een spiegel voor die geruststelt.
En soms is dat precies wat iemand nodig heeft.
Maar als cultuur — en als mens — kun je daar niet volwassen van worden.
