
De plus en plus de voyageurs s’appuient sur des outils comme ChatGPT, Copilot ou Gemini pour préparer leurs itinéraires. Mais l’expérience tourne parfois au cauchemar. Au Pérou, deux touristes ont cherché en vain le « Sacred Canyon of Humantay », une destination inventée de toutes pièces par l’IA. « Cette désinformation est périlleuse, on peut se retrouver à 4.000 m sans oxygène », alerte Miguel Angel Gongora Meza, guide local. Au Japon, un couple s’est retrouvé coincé au sommet du mont Misen après avoir suivi des horaires fictifs de retour générés par ChatGPT. En Malaisie, d’autres ont parcouru des kilomètres pour découvrir un téléphérique qui n’existait pas, imaginé dans une vidéo produite par IA. Selon une étude, 33% des utilisateurs estiment que l’IA fournit de fausses informations. Ces programmes génèrent du texte qui « semble réaliste » mais n’est pas forcément vrai, rappelle Rayid Ghani, professeur à l’université Carnegie Mellon. Tant mieux pour les agents de voyages.
LG