Het valt me op hoeveel begrip er eigenlijk al nodig is om naar spraak te kunnen luisteren. Actief luisteren begint niet pas nadat je woorden hebt gehoord, maar al terwijl je probeert te verstaan wat iemand zegt. Luisteren lijkt misschien vanzelf te gaan. Iemand zegt iets, jij hoort woorden, en daarna begrijp je wat er gezegd wordt. Maar volgens mij klopt die volgorde niet helemaal. Je begrijpt niet pas ná het luisteren. Je begrip doet al mee terwijl je luistert.
Spraakherkenning en context
Dat merk ik de laatste tijd sterk door mijn interactie met AI. Ik spreek graag mijn gedachten in en laat AI daar vervolgens een transcript van maken, liefst meteen in mooie, leesbare alinea’s. Dat het systeem bij de eerste zinnen nog even moet wennen aan mijn stem, mijn tempo en mijn manier van spreken, vind ik op zich logisch. Het moet als het ware nog afstemmen op hoe ik praat.
Maar wat ik interessanter vind, is dat het ook mis kan gaan wanneer ik later in mijn gedachtegang ineens een onverwachte wending maak. Als ik eerst in een bepaalde lijn aan het vertellen ben en dan ineens van perspectief verander, raakt de spraakherkenning sneller de draad kwijt. Alsof het systeem mijn woorden nog probeert te begrijpen binnen het verhaal waar ik net in zat.
Daarom helpt het om zo’n wending duidelijk aan te kondigen. Bijvoorbeeld door te zeggen: “Maar aan de andere kant…” of: “Vanuit een ander perspectief…” Dan krijgt het systeem als het ware even een nieuw haakje. Een signaal dat de gedachte van richting verandert. En dan is de kans groter dat de woorden goed worden opgevangen.
Dat vond ik eerst vooral interessant als iets technisch. Maar toen dacht ik: volgens mij werkt dit bij mensen ook zo.
Waarom verstaan meer is dan horen
Soms loop ik in een park of door de stad en roept iemand onverwacht iets. Op dat moment versta ik het niet goed. Niet omdat ik de klanken niet hoor, maar omdat ik ze niet meteen kan plaatsen. Pas een paar stappen later valt het kwartje. Dan zie ik bijvoorbeeld dat er mensen aan het voetballen waren en dat iemand waarschijnlijk riep of ik de bal even terug kon schoppen.
En dan gebeurt er iets wonderlijks. De woorden zitten nog ergens in mijn hoofd. Niet helemaal als betekenis, maar als klank. Alsof mijn brein de ruwe opname nog even heeft bewaard. Zodra ik de context begrijp, kan ik die klanken opnieuw interpreteren. Dan denk ik ineens: o ja, dát zei diegene.
Dat laat zien dat verstaan niet alleen gaat over horen. Je oren hebben de klanken misschien prima opgevangen, maar je brein moet weten waar het naar luistert. Het moet weten in welke situatie, met welke verwachting en binnen welke betekeniswereld de woorden thuishoren.
En juist daarom kunnen onverwachte wendingen zo moeilijk zijn. Niet omdat we de woorden niet horen, maar omdat we nog in de vorige betekenisrichting zitten. We luisteren vanuit wat we dachten dat er ging komen. Als iemand ineens afbuigt, moet ons begrip mee afbuigen. Soms lukt dat meteen. Soms pas een paar seconden later.
Luisteren vanuit verwachting
Een ander herkenbaar voorbeeld is wanneer je denkt dat iemand Engels spreekt, terwijl diegene eigenlijk Nederlands spreekt. Dan kun je het soms gewoon niet verstaan. Je hoort wel geluiden, maar je luistert met het verkeerde systeem. Je brein zoekt naar Engelse woorden, Engelse klanken, Engelse patronen. En zolang je denkt dat het Engels is, blijven de Nederlandse woorden vreemd en ongrijpbaar. Pas wanneer je doorhebt: wacht, dit is Nederlands, vallen dezelfde klanken ineens op hun plek.
Dat vind ik fascinerend. Blijkbaar is luisteren geen passief proces van geluid opnemen. Het is een actief proces van volgen, voorspellen, bijstellen en opnieuw interpreteren. Je luistert niet alleen naar losse woorden. Je volgt een gedachtenstroom.
Bij AI wordt dat zichtbaar op een bijna komische manier, omdat de fouten letterlijk in beeld verschijnen. Je ziet hoe een zin verkeerd wordt verstaan omdat het systeem nog geen context heeft. Je ziet hoe een plotselinge overgang verkeerd wordt geïnterpreteerd. Maar misschien maakt AI daarmee vooral zichtbaar wat bij mensen ook voortdurend gebeurt.
Wij luisteren ook niet neutraal. We luisteren vanuit verwachting. Vanuit context. Vanuit eerdere zinnen. Vanuit de situatie. Vanuit wat we denken dat iemand bedoelt. Dat maakt communicatie mogelijk, want zonder die actieve voorspelling zou taal veel te traag en onoverzichtelijk zijn. Maar het maakt communicatie ook kwetsbaar. Want als de context ontbreekt, of als iemand ineens van richting verandert, kunnen we elkaar zomaar even kwijtraken.
Actief luisteren vraagt om overgangen
Misschien is dat ook waarom goede sprekers, schrijvers en vertellers vaak duidelijke overgangen gebruiken. Niet omdat de luisteraar dom is, maar omdat luisteren een samenwerking is. Je neemt iemand mee in je gedachtegang. Je geeft signalen: nu gaan we een andere kant op, nu komt er een voorbeeld, nu draai ik het om, nu bedoel ik iets op een andere laag.
En misschien is dat ook waarom ik zelf, als ik mijn gedachten inspreek, steeds beter merk dat mijn hoofd soms sneller schakelt dan taal kan volgen. Mijn denken maakt een sprong, maar de luisteraar — mens of machine — heeft nog een bruggetje nodig. Een klein bordje onderweg. Een aankondiging dat het perspectief verandert.
Wat AI ons leert over actief luisteren
Dat zie je ook aan de ontwikkeling van spraakherkenning. Sinds AI daarin zijn intrede heeft gedaan, is die technologie met grote stappen vooruitgegaan. Juist doordat spraakherkenning niet meer alleen klanken opvangt, maar ook context en betekenis meeweegt, wordt luisteren preciezer. Actieve interpretatie is dus niet alleen een bron van vergissingen. Het is ook precies wat verstaan mogelijk maakt.
Luisteren is dus niet alleen ontvangen. Het is een actieve meebeweging met de betekenis die zich ontvouwt. En misschien is dat wel één van de interessantste dingen die AI ons leert: dat het niet alleen iets laat zien over technologie, maar ook over onszelf. Door te zien waarin AI zich vergist, zien wij scherper wat wij als mensen zelf voortdurend doen. We voorspellen, vullen aan, missen context en vergissen ons daardoor soms. Maar juist dat actieve interpreteren maakt ons ook zulke goede luisteraars.

Wat mooi om de digitale wereld aan onze offline mens tot mens wereld te spiegelen. Ja ze komen steeds dichterbij elkaar en AI neemt onze fouten betreffende luisteren perfect over. (Zit er toch nog wat menselijks in AI). Zo zie je maar dan niets perfect is. Mooi geschreven met mooie voorbeelden. Dankje voor dit heldere inzicht.