L’intelligence artificielle générative est aujourd’hui incontournable dans les métiers du chiffre. L’Académie des Sciences Techniques et Comptables a lancé un groupe de travail : “IA générative : enjeux de sécurité et de confidentialité des données”. Animé par Vincent Lacomme, ce groupe entend répondre aux questions soulevés en matière de protection des données et proposer des bonnes pratiques pour garantir la conformité et la sécurité des informations traitées.

L’IA au service des professionnels du chiffre

Depuis le lancement de ChatGPT en novembre 2022, l’IA générative a déferlé sur les professionnels du chiffre. Des outils exploitant l’IA sont dores et déjà intégrés aux logiciels de pré-comptabilité, permettant la reconnaissance automatique des factures, l’analyse de données et la génération de rapports financiers. L’apparition des IA génératives introduit une nouvelle problématique à travers les prompts. En effet, un bon prompt peut faire la différence entre une réponse précise et une information erronée. En parallèle, le “prompt engineering” ou l’art de prompter, créé des problématiques de confidentialité des données saisies dans ces nouveaux outils d’IA génératives.

Problématique de la protection des données

Experts-comptables et commissaires aux comptes traitent quotidiennement des informations sensibles de leurs clients, aussi bien des données financières que personnelles. L’utilisation de l’IA générative soulève de fait des interrogations majeures :

  • Où vont les données ? Certains fournisseurs d’IA utilisent les données saisies pour réentraîner leurs modèles, exposant ainsi des informations confidentielles.
  • Quels sont les risques ? Nous pensions aux fuites de données, aux attaques cybercriminelles ou à la mauvaise utilisation des informations sensibles.
  • Comment garantir la conformité ? Assurer une anonymisation des données, utiliser des IA hébergées en local ou sur des serveurs conformes aux exigences du RGPD sont autant de pistes à explorer.

Exemples concrets de risques et de bonnes pratiques

Plusieurs incidents récents ont mis en évidence les risques liés à l’utilisation d’IA dans un cadre professionnel. Un exemple majeur est celui de Samsung, où des employés ont involontairement exposé du code source confidentiel en l’insérant dans une IA générative. De même, des recherches ont démontré qu’il était possible d’extraire des données personnelles d’autres utilisateurs via des prompts malveillants.

Face à ces menaces, plusieurs bonnes pratiques s’imposent :

  • Former les collaborateurs à l’utilisation de l’IA et à la gestion des risques associés.
  • Limiter les saisies de données sensibles dans les IA accessibles en ligne.
  • Privilégier des solutions IA on-premise ou respectant la réglementation européenne.
  • Contrôler les accès et les flux de données pour éviter toute fuite involontaire.

Conclusion

L’IA offre un potentiel immense pour professionnels du chiffre, mais son intégration doit se faire avec une vigilance accrue en matière de protection des données. La conformité au RGPD, la mise en place de politiques de sécurité strictes et la formation des utilisateurs sont essentielles pour tirer parti de l’IA sans compromettre la confidentialité des informations traitées.

Suivez les travaux du GT65 de l’Académie des Sciences Techniques Comptables !

Suivez le Lab50 ici : https://www.linkedin.com/company/34225315/admin/

Retrouvez l’ensemble des podcasts sur Lab50 ici et sur toutes les plateformes de podcasts : https://anchor.fm/le-lab50/

print