Un agent IA n’est plus un simple modèle qui répond à une question. C’est un système qui prend des décisions, déclenche des actions, accède à des données et interagit avec d’autres systèmes — souvent sans supervision humaine en temps réel. Cette autonomie introduit une catégorie de risques que les cadres traditionnels de gestion des risques n’ont jamais été conçus pour traiter. Voici les risques que nous rencontrons le plus souvent dans nos engagements clients.
Hallucinations
Un agent peut générer une affirmation factuellement fausse avec une confiance totale. Lorsque cette affirmation alimente une décision opérationnelle — un courriel envoyé à un client, un rapport déposé à un régulateur, une recommandation de tarification — le coût de l’erreur est porté par l’entreprise, pas par le modèle. Les hallucinations sont d’autant plus dangereuses qu’elles sont indétectables sans validation humaine ou comparaison à une source de vérité.
Fuite de renseignements personnels
Les agents qui ont accès à des bases de données clients peuvent inclure des renseignements personnels dans des réponses, des journaux ou des appels à des services tiers. Le risque ne se limite pas à une fuite massive: un seul prompt mal cadré peut suffire à faire transiter un nom, un numéro d’assurance sociale ou un dossier médical hors du périmètre autorisé. Sous la Loi 25, ce type d’incident déclenche une obligation de notification.
Fuite de secrets techniques
Clés API, jetons d’authentification, identifiants de bases de données, scripts internes : un agent qui a été configuré avec un accès large peut exposer ces éléments dans ses réponses ou ses journaux. Une fois divulgués, ces secrets sont presque impossibles à révoquer sans interruption opérationnelle. Le contrôle d’accès doit suivre le principe du moindre privilège, agent par agent, action par action.
Erreurs d’approvisionnement
Lorsqu’un agent peut déclencher des commandes, des bons d’achat ou des renouvellements de contrats, une mauvaise interprétation d’une demande peut entraîner des engagements financiers réels. Nous avons observé des cas où un agent a commandé en double, choisi le mauvais fournisseur, ou validé des conditions qui n’étaient pas conformes à la politique d’achat de l’organisation. Ces erreurs ne sont visibles qu’au moment de la réception ou de la facturation.
Erreurs de paiement
Les agents intégrés à des systèmes de paiement peuvent déclencher des virements vers le mauvais bénéficiaire, dans la mauvaise devise, ou pour le mauvais montant. Contrairement à une erreur humaine, une erreur d’agent peut se reproduire à grande échelle en quelques secondes avant qu’une alerte ne soit levée. Les contrôles compensatoires — plafonds, validations à deux étapes, listes blanches de bénéficiaires — sont essentiels.
Erreurs de remise et de tarification
Un agent qui calcule des remises ou des prix dynamiques peut appliquer une logique incorrecte à grande échelle. Une remise de 90 % au lieu de 9 %, un prix indexé sur la mauvaise devise, une promotion appliquée à une catégorie non éligible : chaque erreur se multiplie par le volume de transactions traitées avant que quelqu’un ne s’en aperçoive. Le coût de remédiation inclut souvent les remises gracieuses faites aux clients pour préserver la relation.
Biais
Les modèles fondamentaux héritent des biais présents dans leurs données d’entraînement. Lorsqu’un agent prend des décisions touchant des personnes — embauche, octroi de crédit, accès à un service — ces biais se traduisent en discrimination systémique. Le risque juridique dépasse le risque réputationnel: la Charte des droits et libertés de la personne du Québec et plusieurs réglementations sectorielles exigent que les décisions automatisées soient explicables et contestables.
Excès de confiance et formulation trompeuse
Les agents ont tendance à formuler leurs réponses avec une assurance qui ne reflète pas l’incertitude réelle du modèle. Un utilisateur — employé ou client — qui reçoit une réponse confiante a tendance à la croire. Cette dynamique encourage les décisions sans validation, et masque les zones où le modèle est en réalité hors de son domaine de compétence. Les contrôles de calibration et les avertissements explicites ne sont pas optionnels.
Et la liste s’allonge
Nous n’avons pas couvert l’injection de prompts, la dérive de modèle, la dépendance à un fournisseur unique, la contamination entre locataires, la falsification d’identité par voix synthétique, ou les cascades d’erreurs dans des chaînes d’agents. Chaque déploiement IA introduit son propre profil de risque — et ce profil évolue à chaque mise à jour du modèle, à chaque nouvelle intégration, à chaque nouveau cas d’usage.
La gestion des risques agentiques n’est pas une case à cocher. C’est un programme continu, avec un propriétaire désigné, un registre à jour, des contrôles testés et un plan de réponse aux incidents. Les organisations qui le traitent comme un projet ponctuel découvriront leurs angles morts au moment d’un incident — et ce moment est généralement le pire pour découvrir un angle mort.