Les entreprises doivent-elles être observées sous l’angle de leur utilisation responsable de l’Intelligence Artificielle? Selon l’organisme de notation des risques et des performances de durabilité, Vigeo Eiris, la réponse est positive. La notation portera sur les engagements des entreprises des secteurs impliqués dans la conception et/ou l’utilisation de l’IA à se doter de principes, d’objectifs et de procédés clairs, documentés et vérifiables de prévention des externalités négatives de l’Intelligence Artificielle et sa contribution à la maîtrise des impacts sociaux et sociétaux.
En ligne avec sa méthodologie de notation des risques et des performances de durabilité, Vigeo Eiris va questionner le degré auquel les entreprises s’engagent à user de façon responsable des technologies relevant de l’Intelligence Artificielle.
Cette notation sera conduite dans le cadre d’un nouveau critère dont les questions seront spécifiées et pondérées selon les secteurs, la chaîne de valeur, la nature des produits et services et la taille des entreprises sous revue. Un score sur la maîtrise des risques et l’intégration responsable de l’IA sera consolidé à l’attention des investisseurs et des gérants d’actifs ainsi qu’à l’attention des entreprises utilisatrices de la notation sollicitée (Sustainability Rating).
La méthode de l’agence consiste à mesurer le degré auquel les entreprises, en se conformant aux principes d’action définis par les normes publiques internationales (ONU, OIT, OCDE, etc), parviennent à maîtriser les risques susceptibles d’affecter leur capacité de création de valeur et à rendre compte de leur contribution à la durabilité. Les mutations technologiques en cours auront des conséquences systémiques sur le volume, le contenu et la qualité des emplois, ainsi que sur les qualifications, les niveaux de revenus, l’accès aux soins et sur l’acceptabilité sociétale des transitions économiques et sociales en cours.
Ces dimensions sont tout à la fois porteuses de risques matériels et de potentiels de croissance auxquels les investisseurs et les gérants d’actifs seront appelés à accorder une attention croissante.
L’intégration responsable de l’Intelligence Artificielle est désormais une composante de la responsabilité sociale des entreprises.
42 pays membres et partenaires de l’OCDE ont officiellement adopté le 22 mai dernier le premier référentiel de principes intergouvernementaux sur l’intelligence artificielle (IA). Les signataires s’engagent à considérer la robustesse, la sécurité, l’équité, la fiabilité et la confiance comme des normes internationales qu’ils s’engagent à respecter et promouvoir. Les Principes de l’OCDE sur l’Intelligence artificielle ont été solennisés lors de la Réunion annuelle du Conseil au niveau des Ministres, consacrée cette année à « La transition numérique au service du développement durable ». Ils ont été élaborés par un groupe multidisciplinaire de plus de 50 experts (administrations, milieux universitaires, entreprises, société civile, instances internationales, communauté technique et organisations syndicales).
Les Principes de l’OCDE sur l’intelligence artificielle s’ordonnent autour de cinq recommandations adressées aux politiques publiques et à la coopération internationale et pertinents pour les entreprises et les investisseurs impliqués dans la conception, l’exploitation et le financement des systèmes d’Intelligence Artificielle :
1. Servir les intérêts des individus et de la planète en favorisant la croissance inclusive, le développement durable et le bien-être.
2. Respecter l’état de droit, les droits de l’homme, les valeurs démocratiques et la diversité, et être assortis de garanties appropriées – permettant par exemple l’intervention humaine en cas de besoin –, afin de tendre vers une société juste et équitable.
3. Assurer la transparence et la divulgation responsable des informations liées aux systèmes d’IA, afin de faire en sorte que les personnes sachent lorsqu’ils interagissent avec de tels systèmes et puissent en contester les résultats.
4. Veiller à la robustesse, la fiabilité et la sécurité des systèmes d’Intelligence Artificielle tout au long de leur cycle de vie, à l’identification, l’évaluation et la maîtrise permanentes des risques connexes
5. Responsabiliser les organisations et les individus chargés du développement et de l’exploitation des systèmes d’Intelligence Artificielle sur leur bon fonctionnement et sur le respect des principes susmentionnés.
Les Principes de l’OCDE sur l’Intelligence artificielle s’ajoutent aux recommandations du Groupe d’experts de haut niveau de l’Union Européenne définissant les Lignes directrices en matière d’éthique pour une Intelligence Artificielle digne de confiance.
Ces principes fournissent une guidance au questionnement des engagements, des modèles économiques et des processus déployés par les émetteurs (de titres en actions, en obligations et de prêts) pour préparer la transition, anticiper les risques, réduire les menaces et saisir les opportunités que l’Intelligence artificielle est appelée à produire sur le bien-être et la cohésion des sociétés humaines, sur les droits et les conditions d’emploi, ainsi que sur la compétitivité des entreprises et le fonctionnement des marchés.
Les Principes sur l’Intelligence Artificielle constituent, au même titre que l’ensemble du patrimoine de Principes directeurs de l’OCDE, une source référentielle internationalement reconnue, légitime et opposable, pour la définition, le progrès et l’évaluation de la responsabilité sociale aussi bien des Etats que des entreprises et des investisseurs.
Pour en savoir plus sur l’OCDE et l’intelligence artificielle : www.oecd.org/going-digital/ai/.