À la fin de l’année dernière, Stabel a annoncé qu’une entreprise belge sur trois (34,5 %) utilisait l’IA. Ce pourcentage grimpe à 3 sur 4 pour les entreprises de plus de 250 employés. D’autre part, une étude de Gartner montre que l’utilisation de la technologie par les employés échappant au contrôle des services informatiques augmente fortement : on estime qu’en 2027, environ 75% des employés utiliseront des outils GenAI publiques non approuvés. Cela comporte des risques pour les organisations, également appelés « shadow AI » (IA fantôme).
Le terme « shadow AI » désigne l’utilisation non autorisée ou ponctuelle d’outils d’IA au sein d’une organisation, souvent en dehors du cadre de la gouvernance informatique. Cela comporte des risques en matière de sécurité, de confidentialité et de conformité. Le « shadow AI » connaît une forte croissance, en particulier dans les domaines où les outils d’entreprise sont moins conviviaux.
Cette utilisation non autorisée des outils d’IA n’est pas motivée par la malveillance. Shadow AI apparaît principalement lorsque les employés recherchent des solutions qui fonctionnent lorsque la technologie officielle fait défaut. Certaines organisations bloquent certains outils ou surveillent étroitement leurs employés, mais cela fonctionne rarement. Dans une organisation axée sur l’IA, une utilisation mature ne repose pas sur la surveillance, mais sur la confiance.
Tout est question de confiance
Pour instaurer la confiance, il est important que les employeurs tiennent compte de trois aspects essentiels.
Tout d’abord, ils doivent garantir la transparence et une gouvernance claire. Les collaborateurs doivent connaître les règles en vigueur, leur raison d’être et la manière dont leurs données sont protégées. Mais cela va au-delà des simples règles. Ils doivent également comprendre le fonctionnement des systèmes d’IA et les décisions qu’ils soutiennent. En faisant preuve d’ouverture sur les algorithmes, l’utilisation des données et les risques potentiels, on favorise la compréhension et donc la confiance. Le manque de clarté à ce sujet est un terrain fertile pour le shadow AI.
En outre, une formation pratique est indispensable. L’IA fait désormais partie du travail quotidien. Une étude précédente d’Acerta Consult montre qu’un employeur sur trois n’a encore dispensé aucune formation à l’IA et n’a pas l’intention d’en organiser. Il existe pourtant un intérêt sur le lieu de travail: 60% des travailleurs belges sont ouverts à l’idée de suivre une formation sur l’utilisation de l’IA dans leur travail. Le service informatique doit donc expliquer en permanence comment, quand et avec quels outils les employés peuvent utiliser l’IA en toute sécurité. Cela nécessite plus qu’une explication théorique ou un apprentissage en ligne standard. Une formation efficace donne des exemples concrets, montre les conséquences d’une utilisation abusive et offre la possibilité d’expérimenter en toute sécurité. Ce n’est qu’alors que les employés choisiront les outils officiels plutôt que leurs propres solutions.
Enfin, une excellente expérience utilisateur est indispensable. Les solutions d’IA lentes, peu claires ou fastidieuses ne pourront jamais rivaliser avec les alternatives personnalisées. Les organisations doivent investir dans des systèmes à la fois puissants et faciles à utiliser. Pensez à des interfaces claires, à une bonne intégration avec les flux de travail existants et à un accès rapide aux données pertinentes. Un système fiable, efficace et convivial est le meilleur remède contre le shadow AI.
De la fracture de confiance à une organisation numérique forte
En résumé, une stratégie d’IA efficace ne fonctionne que si les employés comprennent le fonctionnement de la technologie, lui font confiance et participent activement à son utilisation responsable. Chaque organisation est différente, mais l’objectif reste le même : tirer parti des avantages de l’IA, tels que la rapidité, la créativité et l’efficacité, tout en maîtrisant les risques. Les dirigeants doivent reconnaître une chose: la plus grande vulnérabilité à l’ère de l’IA n’est pas la technologie, mais le manque de confiance. Le Shadow AI apparaît dès que cette confiance disparaît. Ceux qui parviennent à combler ce fossé par la transparence, la protection et une expérience utilisateur solide construisent une organisation numérique prête pour l’avenir.
Source : Dell Technologies Benelux – Erol Çakular, Director, Global Specialty Sales.

Catégorie:
Tags: 

