Une première initiative rassurante, nous semble-t-il. La société Sage vient de publier un code éthique à l’usage des entreprise. Intitulé ‘The Ethics of Code: Developing AI for Business with Five Core Principles’ [« L’éthique du code : les cinq principes fondamentaux du développement éthique de l’intelligence artificielle à l’usage des entreprises »], celui-ci définit les règles à suivre pour créer des solutions d’intelligence artificielle éthiques et responsables.
A l’aube de la quatrième révolution industrielle, Sage publie « L’éthique du code », un document destiné à encourager chaque partie prenante dans le secteur de l’IA à respecter un ensemble de valeurs fondamentales pour garantir un développement « sain » de cette technologie.
Le document « L’éthique du code » a été élaboré parallèlement à la conception de programmes de machine learning et d’intelligence artificielle. Ces derniers visent à alléger la gestion financière des entrepreneurs, de la start-up à la grande entreprise, depuis la création du projet jusqu’à son point de rentabilité. Le développement de ce type d’applications a permis à Sage d’identifier les points essentiels qui posent question en matière d’éthique.
Question de diversité, entre autres…
« L’Éthique du code » a pour vocation de protéger l’utilisateur et de s’assurer que les géants de la technologie développent une IA sûre, sécurisée, adaptée aux besoins et, plus important encore, parfaitement inclusive afin de refléter la diversité des utilisateurs. « En tant que chef de file de l’IA pour les entreprises, nous exhortons l’ensemble des acteurs, quelle que soit leur taille, y compris les hackers, à garder à l’esprit ces principes lors du développement ou du déploiement de leur propre solutions d’IA. »
1. L’IA doit refléter la diversité de ses utilisateurs.
L’industrie et les communautés doivent mettre au point des mécanismes permettant de filtrer efficacement les préjugés et les sentiments négatifs au sein des données utilisées pour l’apprentissage de l’IA. L’objectif est de faire en sorte que l’IA ne reproduise pas de stéréotypes.
2. L’IA, tout comme ses utilisateurs, doit être responsabilisée.
Les utilisateurs établissent une relation avec l’IA et lui font confiance après seulement quelques interactions probantes. Or, la confiance implique des responsabilités, et l’IA doit rendre compte de ses actes et décisions, au même titre que les humains. La technologie, aussi intelligente soit-elle, ne doit pas se soustraire à ses responsabilités. Nous n’admettons pas ce type de comportements de la part des autres professions dites « expertes », alors pourquoi la technologie ferait-elle exception ?
3. L’IA doit être récompensée pour ses bons résultats.
Si l’apprentissage des systèmes d’intelligence artificielle se construit à partir de mauvais exemples, alors cela peut avoir des conséquences socialement inacceptables. N’oublions pas qu’actuellement, la majorité des solutions d’IA n’ont pas conscience de ce qu’elles disent. Seul un apprentissage reposant sur une grande diversité de sources de données permettra de résoudre le problème.
L’une des approches possibles consiste à développer un système d’apprentissage de l’IA basé sur la récompense. Attention toutefois : les méthodes d’apprentissage par renforcement doivent non seulement déterminer ce que l’IA ou les robots doivent faire pour parvenir à un résultat donné, mais aussi s’assurer que ces actions s’alignent sur les valeurs humaines.
4. L’IA doit promouvoir l’égalité des chances.
Les technologies vocales et les robots sociaux offrent de nouvelles solutions accessibles, en particulier aux personnes malvoyantes, dyslexiques et à mobilité réduite. Notre industrie doit accélérer le développement de nouvelles technologies pour promouvoir l’égalité des chances et élargir ainsi le vivier de talents au sein des entreprises.
5. L’IA se substituera aux humains, mais créera aussi de nouvelles opportunités.
La robotisation des tâches générera de nouvelles opportunités auxquelles nous devons d’ores et déjà former les humains. En adoptant l’IA, les entreprises pourront se concentrer sur ce qu’elles font le mieux : développer le relationnel et prendre soin de leur clientèle.
« De tout temps, l’humain a fait usage de technologie et d’outils. L’outillage développé il y a fort longtemps nous a ensuite permis d’en créer de nouveaux. Maintenant, nous disposons d’ordinateurs et de machines qui conçoivent eux-mêmes des outils afin de repousser encore nos limites » explique Alex Dossche, CEO de Sage Belgique. « Il ne s’agit donc pas d’un récit de l’humain contre la machine ou des machines qui finiront par nous remplacer, comme on le pense souvent. Ces appareils aident les gens à travailler de façon plus aisée, rapide, précise et sécurisante. L’Intelligence Artificielle et le Machine Learning nous permettront de développer uniquement ce que nous voulons développer. Les chatbots n’apporteront leur assistance que lorsqu’on le voudra. »