Plus d’une douzaine d’employeurs majeurs du monde entier ont annoncé aujourd’hui qu’ils adoptaient des mesures pour atténuer la subjectivité des données et des algorithmes dans les décisions en matière de ressources humaines et d’effectifs, notamment pour le recrutement, la rémunération et la formation des employés. La création d’une Data & Trust Alliance (Alliance données & confiance) vise à renforcer la sécurité algorithmique, fondée sur des données et des pratiques d’IA responsables.
Les entreprises sont membres de la toute nouvelle Data & Trust Alliance, une organisation qui réunit des institutions de premier plan pour apprendre, développer et adopter des pratiques responsables en matière de données et d’intelligence artificielle. Les membres de l’Alliance partagent la conviction que les données et les systèmes intelligents seront essentiels à la création de valeur économique et sociétale dans les années à venir, mais qu’ils doivent être utilisés de manière responsable. L’annonce d’aujourd’hui est la première initiative de l’Alliance.
« À mesure que les entreprises vont du « passage au numérique » à devenir des ‘entreprises de données’, il est impératif de libérer la valeur des données et de l’intelligence artificielle d’une façon qui permette de gagner la confiance de chaque partie prenante », affirme Doug McMillon, président-directeur général de Walmart et président actuel de la Business RoundTable. « Élaborés et utilisés de façon responsable, ces systèmes promettent de rendre nos effectifs plus diversifiés, plus inclusifs, et en fin de compte, plus innovateurs. »
L’Alliance met en œuvre des mesures de protection de la partialité algorithmique pour les employés
Les membres de l’Alliance utilisent de plus en plus les données, les algorithmes et l’intelligence artificielle pour repérer les talents dans des bassins de candidats plus vastes et plus diversifiés, afin de mieux associer les talents qui correspondent aux opportunités et afin de personnaliser l’expérience de chaque employé. Comme la plupart des employeurs, ils comptent sur des fournisseurs de logiciels, des sites de réseautage professionnel, des consultants et des agences de recrutement qui utilisent de plus en plus l’IA et l’apprentissage automatique dans leurs produits et services. Alors qu’ils adoptent ces nouvelles technologies, les entreprises membres ont également identifié la subjectivité injuste potentielle comme l’un des risques les plus élevés associés à leur utilisation pour accroître la gestion des effectifs.
Cette préoccupation a amené l’Alliance à concevoir sa première initiative intitulée ‘Sécurité algorithmique : Atténuer la partialité dans les décisions relatives aux employés’, pour aider les entreprises à évaluer les fournisseurs en fonction de leur capacité à détecter, atténuer et surveiller les subjectivités algorithmiques. Les entreprises membres peuvent désormais compléter leurs processus d’évaluation des fournisseurs respectifs par des formations et des critères pour évaluer les fournisseurs d’applications et de solutions RH sur leur engagement en matière de sécurité algorithmique, ainsi qu’une fiche de pointage qualitative et des conseils pour intégrer les mesures de protection des subjectivités algorithmiques dans leurs processus.
« Chaque entreprise s’efforce d’attirer, de motiver et de retenir les personnes les plus talentueuses et diversifiées de la population active », souligne Mary Barra, présidente-directrice générale de General Motors. « Cette initiative jouera un rôle important dans notre engagement global envers la diversité, l’équité et l’inclusion en rehaussant les normes de confiance et de transparence dans nos processus de ressources humaines. »
Parmi les entreprises qui adoptent les mesures on retrouve American Express, CVS Health, Deloitte, Diveplane, General Motors, Humana, IBM, Mastercard, Meta, Nielsen, Nike, Under Armour et Walmart. Toutes entreprises confondues, elles emploient plus de trois millions et demi de personnes. D’autres sociétés de l’Alliance sont actuellement en train d’évaluer les mesures et devraient les adopter dans un avenir proche.
Les mesures contre les subjectivités algorithmiques de l’Alliance comprennent 55 questions dans 13 catégories qui peuvent être adaptées par les entreprises pour évaluer les fournisseurs sur des critères tels que les données de formation et la conception de modèles, les méthodes de test de subjectivité, la correction de la subjectivité, la transparence et la responsabilisation, les engagements en matière d’éthique et de diversité liés à l’IA.
Les critères d’évaluation ont été élaborés par un groupe de travail intersectoriel composé d’experts des entreprises membres en ressources humaines, en intelligence artificielle, en technologie de l’information, en approvisionnement, en droit et en diversité, en équité et en inclusion. Les critères ont ensuite été mis à l’essai et peaufinés grâce aux commentaires des principaux fournisseurs en RH et d’IA, ainsi que de plus de 200 experts en la matière venant d’entreprises, du milieu universitaire et de la société civile.
Les documents de formation fournis par l’Alliance aideront à familiariser les ressources humaines, l’approvisionnement et d’autres professionnels avec les subjectivités algorithmiques et à améliorer leurs critères et leurs processus de sélection.
Source : La Data & Trust Alliance, créée en septembre 2020, réunit des entreprises et des institutions de premier plan de multiples secteurs pour apprendre, élaborer et adopter des pratiques responsables en matière de données et d’intelligence artificielle. L’Alliance, un consortium à but non lucratif, est co-présidée par Ken Chenault, président-directeur général de General Catalyst et ancien président-directeur général d’American Express, et Sam Palmisano, ancien président-directeur général d’IBM. Jon Iwata est le directeur exécutif fondateur. Les entreprises membres de la Data & Trust Alliance couvrent 15 secteurs, opèrent dans plus de 175 pays et génèrent plus de 1 500 milliards de dollars de revenus annuels. Des informations supplémentaires sur l’Alliance et les mesures sont disponibles sur dataandtrustalliance.org