A l’heure où l’intelligence artificielle ne cesse de gagner du terrain en se déployant dans de multiples domaines de la société, la comptabilité n’échappe pas à cette tendance. Les défis de l’innovation interrogent profondément le régime de responsabilité civile qui prévalait jusqu’à présent dans le périmètre réglementé de l’expertise-comptable et de l’audit.
Le trouble jeté par l’IA sur la responsabilité du professionnel
Jusqu’à présent, débiteur d’une obligation de moyens dans la plupart des cas, la responsabilité civile du professionnel de la comptabilité était inhérente à son intervention « humaine », et pouvait être engagée en cas de faute ou de négligence dans le cadre de l’exercice de sa mission. Celle-ci étant appréciée au regard du comportement d’un professionnel normalement diligent.
Mais l’optimisation quotidienne de la gestion administrative des clients conduit progressivement à intégrer l’intelligence artificielle au sein des cabinets d’expertise comptable et d’audit.
Si l’imputation comptable est aujourd’hui largement automatisée, on peut aisément imaginer qu’il en sera de même demain pour la révision comptable ou l’audit. Jusqu’à assister les professionnels dans leur mission de conseils et d’en conditionner la pertinence ? En effet, comme dans de nombreuses techniques, notamment médicales, on attend de plus en plus de l’IA qu’elle oriente la décision, en particulier par un travail de prédiction. Quid dès lors de l’indépendance du professionnel ?
Responsables, transparents, explicables… Autant de qualités qu’attendent dès lors les professionnels du chiffre de leurs logiciels pour pouvoir les utiliser en toute confiance.
En somme, la puissance d’une technologie recèle inévitablement une part de dangerosité d’autant plus exacerbée que l’on peine à en maîtriser tous les ressorts. Les professionnels du chiffre sont désormais exposés à de nouveaux risques intrinsèquement liés au développement des nouvelles technologies, d’autant que leur utilisation implique une multitude d’acteurs.
La difficile identification du responsable de l’IA
En soi, il n’est pas nouveau pour les experts-comptables de prendre des décisions sur la base d’informations délivrées par des algorithmes dans des systèmes automatisés. Mais aujourd’hui, il faut distinguer des algorithmes classiques de programmation d’automatisation de la saisie comptable¹, les « nouveaux » algorithmes d’apprentissage automatique (machine learning) capables de mener une opération, la révision comptable².
L’utilisation de ces nouveaux logiciels comptables pourrait donc prochainement induire de nouveaux comportements … et de nouveaux procès ! Il ne fait pas de doute qu’un expert-comptable ou un auditeur qui rend ses travaux en appuyant sur les résultats d’un algorithme est responsable. Mais pourrait-il le, cas échéant, mettre en cause le concepteur de l’algorithme ?
L’une des grandes questions juridiques est donc celle de la détermination de la personne responsable en cas de défection d’un logiciel : l’éditeur du logiciel, le concepteurs de l’algorithme, l’utilisateur ? Et, le cas échéant, quelle est la part de responsabilité de l’expert-comptable ou de l’auditeur ?
L’expert-comptable et l’auditeur étant par essence des professionnels responsables et assurés comme tels, il ne parait guère concevable qu’ils se défaussent sur l’éditeur dès lors qu’ils auraient eux même diffusé l’information auprès du client.
Selon les types d’IA et de dommages, il serait souhaitable de faire peser davantage de responsabilité sur l’un ou l’autre. L’avenir et l’évolution du droit nous diront si l’on se dirige vers une responsabilité en cascade ou une responsabilité collective des acteurs.
Le lien de causalité brouillé par l’IA
Parce qu’elle décide de plus en plus comme un expert-comptable ou un auditeur mais peut s’incarner dans un simple logiciel comptable, l’intelligence artificielle brouille un peu plus la condition essentielle d’engagement de responsabilité.
La difficulté tient à l’opacité des algorithmes apprenant. S’ils sont à l’origine des progrès extraordinaires pour les professionnels du chiffre, il arrive que même leurs concepteurs, ne soient plus en mesure d’analyser par quel raisonnement ils arrivent à de si bons résultats. C’est ce qu’on appelle l’effet « boîte noire ».
L’action d’un logiciel comptable restant immatérielle lorsqu’un algorithme donne un conseil, le résultat de son fait est alors de nature informationnelle. Or, dans ces cas, aucun relais tangible ne permet de raccrocher le fait de l’IA à une intervention humaine de l’expert-comptable ou de l’auditeur. « Le fait intellectuel » d’un robot est donc particulièrement difficile à saisir.
Le professionnel comptable pourrait, certes, intenter un recours contre les producteurs ou concepteurs du logiciel. Mais la responsabilité de ces derniers, également débiteurs d’une obligation de moyens, ne pourrait être retenue que sur la preuve d’une faute ou d’une négligence ayant causé le dommage ou participé à sa réalisation. On comprend dès lors les difficultés d’un travail probatoire titanesque impliquant, cette fois, la preuve d’un lien de causalité immatériel entre l’architecture algorithmique du logiciel et le dommage précis qui s’est produit.
Quel recours pour le client ?
Côté client ayant subi un dommage, il faudra pour être indemnisé, pouvoir prouver la faute du professionnel, débiteur d’une obligation de moyens et non de résultat. Comment le juge appréciera-t-il le comportement du professionnel ayant eu recours à une IA défectueuse ? Car au fond, le professionnel ne se sera-t-il pas comporter comme un professionnel normalement diligent en utilisant le logiciel en cause. Et au contraire, ne pourrait-on pas faire le reproche de ne pas utiliser une IA pour obtenir les meilleurs résultats ? C’est d’ailleurs une question qui se présentera tôt ou tard en termes de diagnostic médical.
Pour lever cet obstacle probatoire au détriment du client « victime », le juge ne sera-t-il pas tenté de se diriger vers une forme de responsabilité sans faute, reposant sur l’utilisateur du logiciel censé en tirer profit ? Un régime qui apparaît inadapté dans le cadre d’une relation contractuelle.
Les perspectives et évolutions futures
Le professionnel du chiffre, dans l’essence même de sa mission, n’est pas exposé à être évincé par l’intelligence artificielle. En revanche, dans son accomplissement, il doit se confronter et s’adapter à une évolution des méthodes de travail, de la gestion des connaissances et de l’anticipation des décisions à venir.
Le problème est aujourd’hui d’être confronté aux limites des régimes actuels de responsabilité civile qui sont incapables d’appréhender l’intelligence artificielle.
En ignorant ou en restant à l’écart de ces évolutions, le professionnel de la comptabilité prend le risque d’engager sa responsabilité dans la délivrance d’un conseil. Mais également de compromettre une stratégie de défense, faute pour lui d’avoir recherché une évaluation sur la prédictibilité, au même titre qu’il exposerait sa responsabilité en commettant une erreur sur les états financiers d’un client.
Si aucun fondement juridique ne peut apporter de réponse spécifique, rien n’empêche les professionnels de se prémunir de ces nouveaux risques en aménageant, dès aujourd’hui, leur responsabilité dans la lettre de mission.
En effet, des clauses limitatives de responsabilité existent déjà concernant les délais ou les montants (plafonnement du dédommagement). Dès lors, pourquoi ne pas en imaginer de même concernant la responsabilité du professionnel face à l’IA ?
Enfin, la solution peut également passer par la mise en place d’un régime d’assurance obligatoire qui tiendrait compte de toutes les responsabilités potentielles d’un bout à l’autre de la chaîne.
Ce régime de partage de responsabilité entre les professionnels du chiffre et les autres acteurs éviterait ainsi une imputation exclusive du dommage à l’un des membres de la chaîne de l’IA.
© Article rédigé par Julien Philip, Directeur adjoint des Affaires Juridiques à l’Ordre des experts-comptable de Paris
Notes