AI is plotseling overal in managed travel. Wat ontbreekt is gedeelde duidelijkheid over wat nu eigenlijk telt als AI, wie de eigenaar is en hoe snel programma’s het kunnen toepassen zonder nieuwe risico’s te introduceren.
Tools worden sneller gelanceerd dan programma’s ze kunnen evalueren en reisteams worden gevraagd om mogelijkheden in te voeren die ze niet volledig beheersen. Het probleem is niet de weerstand tegen AI; het gaat erom te weten waar AI het programma zinvol kan beïnvloeden. Programmamanagers moeten rekening houden met inspanningen, gereedheid van gegevens en implementatie.
Wat bedoelen we met AI?
Managed travel maakt al gebruik van AI in verschillende vormen, maar er is geen gemeenschappelijk begrip van wat dat eigenlijk betekent.
“AI” wordt gebruikt als een allesomvattend label, dat alles omvat van op regels gebaseerde automatisering tot systemen die zelfstandig leren, zich aanpassen en handelen. Als dit onderscheid niet duidelijk is, lopen programma’s het risico de verkeerde verwachtingen te wekken, inspanningen verkeerd in te schatten en oplossingen goed te keuren zonder de implicaties volledig te begrijpen.
Het dichten van de kloof moet niet beginnen met het gebruik van de tool. Het begint met duidelijkere definities, beter vergelijkbare use cases en de bereidheid om lang genoeg te wachten met het stellen van betere vragen voordat oplossingen worden geschaald.
Dingen om te overwegen:
- Welke AI-mogelijkheden zijn vandaag de dag eigenlijk beschikbaar? En welke zijn nog in opkomst?
- Waar hoort AI thuis in een beheerd reisprogramma?
- Wie is de eigenaar van de resultaten als AI beslissingen neemt of beïnvloedt?
- En wat gebeurt er als AI dingen fout doet?
Mythes ontkrachten: AI en managed travel
Hieronder staan enkele AI-mythes en de redenen waarom ze programma’s blijven tegenhouden.
Mythe #1:
Automatisering en AI zijn eigenlijk hetzelfde.
De ontleding: Dit is het misverstand onder al het andere.
Automatisering volgt regels. Zie het als volgt: “Als X gebeurt, doe dan Y.” AI interpreteert context, leert na verloop van tijd en past beslissingen aan. Zie het zo: “Gegeven wat er nu gebeurt, wat is de beste actie?”
Kopers hebben een gedeelde taal nodig voordat ze budget-, beleids- of risicobeslissingen nemen. Als een programma denkt dat het AI gebruikt, maar in werkelijkheid automatisering gebruikt, breken de verwachtingen, wordt het succes verkeerd gemeten en worden de risico’s verkeerd begrepen.
Begin met definities, niet met demo’s.
Mythe #2:
Meer gegevens betekent automatisch betere AI.
De analyse: Deze mythe gaat ervan uit dat alleen volume gelijk staat aan intelligentie. Maar AI presteert alleen zo goed als de kwaliteit, structuur en context van de gegevens erachter. Bij managed travel is de context net zo belangrijk als de inhoud. Beleidsregels, reizigersgedrag, zorgplicht en regionale nuances bepalen allemaal hoe “goed” eruit ziet.
Meer gegevens zonder structuur zorgen voor meer ruis, niet voor meer inzicht. Het kan ook fouten en vooroordelen vergroten, vooral in complexe of risicovolle gebruikssituaties. Succes hangt minder af van hoeveel gegevens je hebt en meer van de vraag of AI kan begrijpen wat de gegevens betekenen in een reiscontext.
Denk eerst na over de gereedheid van gegevens voordat je klaar bent voor AI. Anders loop je het risico dat je de verkeerde uitkomsten sneller opschaalt.
Context verslaat volume.
Mythe#3:
Agentic AI is gewoon een betere chatbot.
De analyse: Deze mythe reduceert agentic AI tot een mooiere interface. In werkelijkheid wordt agentische AI gedefinieerd door actie, niet door conversatie. Het kan beslissingen nemen, taken van begin tot eind uitvoeren, resultaten controleren en gedrag in de loop van de tijd aanpassen.
Die verschuiving is belangrijk omdat op het moment dat AI handelt en niet alleen reageert, het risicoprofiel verandert. Beslissingen beïnvloeden boekingen, de ervaring van reizigers, kosten en mogelijk ook de veiligheid. Door agent AI te behandelen als een eenvoudige chatbot wordt onderschat wat het doet en wordt overschat hoe licht het kan worden bestuurd.
Maak onderscheid tussen AI die informeert en AI die handelt voordat je beslist waar het thuishoort in een programma.
Als AI handelt, is het belangrijk om verantwoording af te leggen.
Mythe#4:
AI is een toolprobleem – koop gewoon het juiste platform.
De analyse: Deze mythe gaat ervan uit dat AI-succes voortkomt uit de selectie van leveranciers. De realiteit: AI-acceptatie hangt af van hoe de organisatie werkt, niet van het kopen van de juiste tool. Wie is de eigenaar van de use case? Wie regelt het? Wie neemt de verantwoordelijkheid als de resultaten tegenvallen?
In veel organisaties worden reisteams aangemoedigd om “AI te gebruiken” zonder duidelijk eigenaarschap, autoriteit of afrasteringen. Dat creëert ambiguïteit. Tools alleen kunnen vragen over risicotolerantie, beleidsafstemming of escalatie niet oplossen.
Zorg voor duidelijkheid over eigenaarschap en verantwoordelijkheid voordat tools in het programma worden geïntegreerd.
Eigenaarschap eerst. Tools op de tweede plaats.
Mythe#5:
AI zal reisagenten en serviceteams vervangen.
De analyse: Deze mythe gaat ervan uit dat AI er is om mensen te vervangen. AI is het meest geschikt voor snelheid, schaal en routinematige of herhaalbare taken. Mensen zijn nog steeds nodig voor beoordelingsvermogen, ethiek en duidelijke, tijdige communicatie.
Recente verstoringen hebben dit duidelijk gemaakt. Wanneer de vraag piekt en reizigers ongerust zijn, is het belangrijkste dat ze zich gesteund voelen en weten dat iemand verantwoordelijk is. AI kan helpen om het volume te beheren en problemen snel te signaleren. Mensen helpen om dit alles in goede banen te leiden.
AI elimineert de behoefte aan mensen niet. Het verandert waar mensen de meeste waarde toevoegen.
AI zorgt voor schaal. Mensen beoordelen.
Mythe #6:
Human-in-the-loop betekent AI vertragen.
De analyse: Deze mythe ziet menselijk toezicht als een rem op de efficiëntie. In werkelijkheid gaat het erom te weten wie verantwoordelijk is voor risicobeheer.
Natuurlijk kan AI sneller werken dan mensen kunnen beoordelen. Maar dat werpt een cruciale vraag op: hoe vang je fouten, vooringenomenheid of onjuiste aannames op voordat ze zich uitbreiden? Bij managed travel blijven fouten niet theoretisch. Ze hebben invloed op reizigers, budgetten en veiligheid.
Menselijk toezicht is geen rem op vooruitgang. Het is wat vooruitgang verdedigbaar maakt.
Snelheid zonder toezicht is blootstelling.
Mythe #7:
We kunnen ons later zorgen maken over AI-governance.
De inzinking: Deze mythe beschouwt governance als iets waar we ons later zorgen over moeten maken. Kopers zien dat niet zo. Vragen over ethiek, vooringenomenheid, openbaarmaking en verantwoordingsplicht zijn al van toepassing, vooral als AI te maken heeft met zorgplicht, reactie op verstoringen of gevoelige persoonlijke gegevens.
Eén spanningsveld komt steeds terug: als AI beslissingen neemt of vormgeeft, hebben reizigers dan het recht om dat te weten? En als er iets misgaat, wie is dan de eigenaar van het resultaat? Is dat de tool, het programma of de persoon die het gebruik ervan heeft goedgekeurd?
Governance bepaalt of er überhaupt vertrouwen is in AI. Het kan niet achteraf worden toegevoegd.
Governance nodigt uit tot vertrouwen, niet andersom.
De rol van een TMC bij de toepassing van AI
Toegang tot AI-tools is geen uitdaging. Het is beslissen waar AI thuishoort in het programma, hoe het moet worden beheerd en hoe het verantwoord kan worden gebruikt. Dit is waar je travel management company (TMC) een belangrijke rol speelt.
De TMC is niet alleen je partner op het gebied van technologie, dienstverlening, beleid, zorgplicht en gegevens. Het is ook je adviseur. Voor AI-implementatie betekent dit het helpen bij het testen van tools en vervolgens het begeleiden van implementatiebeslissingen.
Vanuit een programmaperspectief kan BCD helpen:
- Identificeren waar AI waarde toevoegt en niet alleen een hype is. Hierbij moet een onderscheid worden gemaakt tussen gebruikssituaties die baat hebben bij intelligentie en leren versus gebruikssituaties die beter worden gediend door automatisering op basis van regels of menselijke beoordeling.
- Bereidheid toetsen aan interesse, zodat programma’s duidelijk begrijpen wat er nodig is om AI-oplossingen op te schalen.
- Verantwoordelijkheid beheren. Verduidelijk en definieer wie de eigenaar is van de resultaten in teams, tools en service.
- Governance aanpakken. Help ervoor te zorgen dat afrasteringen, escalatiepaden en transparantie zijn ingebouwd voordat problemen zich uitbreiden naar reizigers, uitgaven of risicoblootstelling.
- Breng kunstmatige intelligentie in balans met menselijk oordeel. AI verbetert de snelheid, consistentie en schaalbaarheid. Mensen blijven essentieel voor uitzonderingen, ethiek en complexe besluitvorming. BCD helpt die balans te vinden, zodat AI het programma verbetert zonder de verantwoordelijkheid of menselijke zorg te vervangen.
Wat je meeneemt: AI in managed travel
AI geeft al vorm aan managed travel. Het doel is niet om meer tools te gebruiken, maar om de juiste mogelijkheden in te bouwen. Dit houdt in dat we klaar moeten zijn voor gegevens, governance en duidelijk eigenaarschap. Het resultaat zou AI moeten zijn die het programma verbetert in plaats van verwarring of blootstelling toe te voegen.
Geïnteresseerd in een diepgaand gesprek over de voordelen van AI voor uw programma? Neem contact op met onze experts.
BCD ondersteunt Platinum Pathways, een vlaggenschipinitiatief van The Institute of Travel Management (ITM) dat industrieleiders samenbrengt rond kritieke kwesties in zakenreizen. De inzichten die hier worden gedeeld, komen uit AI & the Evolution of Travel, een van de Pathways-sessies die BCD leidt in 2026. Meer informatie vindt u hier: https://thebusinesstravelmag.com/itm-launches-platinum-pathways-initiative/
