
Présentée comme une révolution dans l’organisation de voyages, l’IA conversationnelle Romie a failli ternir l’image du géant américain. Selon Cybernews, ce compagnon virtuel lancé en mai 2024 a brièvement délivré des instructions détaillées sur la fabrication de cocktails Molotov. « Même si personne ne va sur Expedia pour apprendre à commettre des crimes, cela souligne les risques d’abus », commente le média spécialisé en cybersécurité, qui a immédiatement alerté l’entreprise. Expedia a depuis corrigé le bug : toute question sans rapport avec le voyage est désormais bloquée. Ce type de détournement, appelé « jailbreaking », consiste à pousser une IA à ignorer ses règles. En 2024, Air Canada avait déjà dû indemniser un client trompé par les conseils erronés de son propre chatbot. L’erreur est robotte.
LG