
Alors que les entreprises se trouvent confrontées à la nécessité grandissante d’adopter des outils d’intelligence artificielle (IA), l’un des enjeux majeurs réside tout autant dans les aspects de sécurité que dans la maîtrise de la fiabilité et la conformité des données qui en sont le socle.
La récente enquête nationale menée par Luxinnovation et la FEDIL, en collaboration avec le Luxembourg Digital Innovation Hub (L-DIH), montre que 56 % des organisations ont déjà mis en place une politique de gouvernance des données et de l'IA, ce qui témoigne de leur engagement en faveur d'une intégration responsable de l'IA. «Il s'agit d'un indicateur prometteur de la reconnaissance croissante de l'importance de la gouvernance dans les initiatives d'IA», note l’étude.
Mais cela signifie qu’il reste encore 45% d’entreprises qui n'ont pas encore mis en œuvre de telles politiques. «Il s'agit d'une occasion précieuse pour ces organisations d'améliorer leurs stratégies de digitalisation en développant des cadres complets de gouvernance des données et de l'IA, afin d’en assurer une adoption responsable», estime Mickael Desloges, Senior Advisor chez Luxinnovation. Il s’agit en effet d’un passage obligé pour s’assurer que la durabilité à long terme et les implications éthiques de leurs initiatives d'intelligence artificielle sont bien gérées.
Les entreprises doivent considérer la gouvernance comme une fondation stratégique de leurs initiatives IA. Mickael Desloges, Luxinnovation
Les entreprises doivent considérer la gouvernance des données comme une fondation stratégique de leurs initiatives IA. Mickael Desloges, Luxinnovation
Selon une étude internationale publiée à l’automne 2024 par Precisely, prestataire offrant des solutions d’intégrité des données et du LeBow College of Business de l'Université Drexel, 62% des 550 professionnels en matière de données et d’analyse interrogés ont d’ailleurs identifié le manque de gouvernance des données comme le principal obstacle aux initiatives d'IA.
Cette situation est aggravée par une confiance limitée dans les données: 67% des entreprises ne font toujours pas pleinement confiance aux données sur lesquelles reposent leurs décisions, un chiffre en augmentation par rapport à 55% en 2023. «Les entreprises doivent désormais considérer la gouvernance des données non pas comme une contrainte, mais comme une fondation stratégique de leurs initiatives IA», résume M. Desloges.
Certains résultats de l’étude menée par Luxinnovation et la FEDIL sont, à ce sujet, assez remarquables. Ainsi, une très grande majorité (87%) des répondants, reconnaît utiliser des outils publics d’IA générative (GenAI) pour des tâches professionnelles. «Cette adoption généralisée soulève des préoccupations importantes concernant le traitement des données sensibles», mettent en garde les auteurs de l’étude.
Il n’est en effet un secret pour personne que les applications de GenAI les plus couramment utilisées (ChatGPT, Gemini…) exploitent généralement les informations saisies par l'utilisateur pour affiner leurs modèles. Cela crée donc une voie potentielle pour que des données confidentielles soient exposées ou utilisées de manière involontaire. Les dangers en matière de cybersécurité ne viennent pas toujours d’attaques externes…
Contribuer à la construction d'une culture de la sécurité et encourager une gestion proactive des risques à tous les niveaux de l'entreprise. Mickael Desloges, Luxinnovation
Or, malgré les enjeux, la cybersécurité reste souvent un domaine sous-estimé, de nombreuses organisations ne sachant pas vraiment par où commencer. C'est là que des outils d'évaluation structurés jouent un rôle essentiel, comme celui proposé par le Luxembourg Digital Innovation Hub (L-DIH). Dans le cadre de sa mission, le L-DIH, en collaboration avec la Luxembourg House of Cybersecurity, fournit en effet un service complet d'évaluation de la maturité en la matière de cybersécurité, permettant aux entreprises d’évaluer leur situation actuelle et de planifier des améliorations significatives.
«L’idée n'est pas seulement d'identifier les vulnérabilités mais aussi de contribuer à la construction d'une culture de la sécurité, en encourageant une gestion proactive des risques à tous les niveaux de l'entreprise», complète M. Desloges, qui rappelle que l'enquête souligne le besoin urgent d'un meilleur partage des connaissances, d'initiatives de formation ciblées et de cadres de sécurité et de gouvernance solides pour soutenir une adoption plus large des technologies d'IA et de GenAI.
L’étude met également en lumière un décalage potentiellement important entre les politiques de gouvernance des données et de l'IA, et l'utilisation réelle des outils publics de GenAI au sein des organisations.
Ainsi, un tiers des entreprises qui prétendent ne pas avoir mis en place de politique de gouvernance des données et de l'IA permettent toujours à leur personnel d'utiliser des outils de GenAI public sans aucune directive formelle. Et ce taux monte à plus de 50 % des entreprises qui prétendent avoir mis en place une politique de gouvernance des données et de l'IA. «Ces politiques sont-elles vraiment robustes, ou les entreprises s'appuient-elles principalement sur la prudence assumée et la culture numérique de leurs employés, peut-être sans formation spécifique sur les risques associés à la GenAI publique?» s’interroge les rédacteurs de l’étude.