Il s’agit du quatrième article d’une série en cinq parties qui examine l’adoption réussie de l’intelligence artificielle (IA) d’entreprise. Ce blogue traite de l’IA responsable et de la façon dont les entreprises peuvent définir des principes directeurs, utiliser des outils afin d’évaluer leur efficacité et établir un cadre pour élaborer des solutions d’IA éthique. Les autres articles de la série traitent de la stratégie en matière d’IA, des bases menant à la réussite de l’IA, de la gouvernance des données et de l’IA et du cadre de services de MNP. Si vous avez manqué les blogues précédents, commencez par Bâtir sa stratégie d’intelligence artificielle : une introduction.
« Presque toutes les grandes entreprises ont maintenant plusieurs systèmes d’IA et considèrent que le déploiement de l’IA fait partie intégrante de leur stratégie », a attesté Joseph Fuller, professeur de la pratique de gestion à la Harvard Business School et codirecteur du projet de recherche Managing the Future of Work, qui étudie le développement et la mise en œuvre de l’IA.
Au fur et à mesure que la technologie de l’IA progresse et obtient davantage de soutien de la part d’un réseau d’appareils de l’Internet des objets, d’appareils personnels et de personnes, son effet sur les activités opérationnelles et les activités axées sur les clients ne fait qu’augmenter. L’IA et ses sous-ensembles, comme l’apprentissage automatique, l’apprentissage profond et le traitement automatique du langage naturel (TALN), ont soulevé des questions fondamentales sur la façon d’utiliser ces systèmes de façon responsable, sur ce qu’ils devraient être autorisés à faire, sur les risques associés à leur utilisation et sur la manière dont nous pouvons contrôler cette technologie et ces risques.
Récemment, une série de vidéos hypertruquées mettant en vedette Tom Cruise a attiré l’attention de millions d’utilisateurs de TikTok. C’est un exemple classique de la façon dont la puissance de l’IA peut entraîner des résultats négatifs. Il existe de nombreux exemples dans lesquels le pouvoir de l’IA peut nuire à la société si les intentions sont malavisées et lorsque l’éthique et la réglementation ne sont pas liées à chaque développement d’application.
L’éthique de l’IA
Comme l’a souligné la Stanford Encyclopedia of Philosophy, l’éthique de l’IA est principalement axée sur les préoccupations relatives à l’utilisation, au contrôle et à l’incidence des nouvelles technologies, ce qui a toujours été une réponse typique.
« Bon nombre de ces préoccupations se révèlent plutôt pittoresques (les trains sont trop rapides pour emporter les âmes); certaines peuvent être prédites comme étant erronées, lorsqu’elles laissent entendre que la technologie changera fondamentalement les humains (les téléphones détruiront la communication personnelle, l’écriture détruira la mémoire, les cassettes vidéo rendront les soirées à l’extérieur redondantes); certaines sont généralement correctes, mais d’une pertinence moyenne (la technologie numérique détruira les industries qui réalisent des films photographiques, des cassettes ou des disques vinyle); mais certaines sont largement correctes et profondément pertinentes (les voitures tueront les enfants et changeront fondamentalement le paysage). » [Traduction] [1]
Bien que certaines inquiétudes au sujet de l’IA soient irréalistes – comme l’idée qu’elle prendra le contrôle du monde, volera nos emplois et dominera les êtres humains – il y a des considérations que les entreprises doivent aborder concernant l’éthique de l’IA et son utilisation responsable.
Comme Harvard Business Review l’a publié : « Les entreprises tirent parti des données et de l’intelligence artificielle pour créer des solutions évolutives, mais elles augmentent également leurs risques en matière de réputation, de réglementation et juridiques. Par exemple, Los Angeles poursuit IBM en lui reprochant de s’être approprié des données recueillies grâce à son application météorologique omniprésente… Facebook a accordé à Cambridge Analytica, un cabinet politique, un accès tristement célèbre aux données personnelles de plus de 50 millions d’utilisateurs. » [Traduction] [2]
Établir un cadre d’éthique de l’IA
Cela ne veut pas dire que l’on ne devrait pas développer ni mettre en œuvre d’IA. Mais cela signifie que « la construction d’une IA éthique est une tâche extrêmement complexe. Elle devient encore plus difficile lorsque les parties intéressées se rendent compte que l’éthique est une question de point de vue. » [Traduction] [3]
C’est pourquoi il est essentiel que les entreprises se dotent d’un cadre pour élaborer des solutions éthiques en matière d’IA, comprenant des principes clairement définis et des outils permettant d’évaluer leur efficacité. Un cadre aide à s’assurer que les systèmes d’IA fonctionnent de façon sécuritaire et fiable et qu’il y a des mesures de protection en place pour prévenir les effets négatifs involontaires. Ce cadre fournit les garde-fous nécessaires pour maintenir l’innovation relative à l’IA contrôlée et orientée vers une surveillance continue de la conformité au cycle de vie du développement.
Dans notre cadre d’éthique, une entreprise doit lancer un projet d’IA en respectant les principes directeurs : ils servent de point d’ancrage à tous les projets d’IA. Pour ce faire, l’entreprise s’assure que chaque principe est concrétisé par la solution d’IA et que la réalisation de chaque principe n’en contredit aucun autre.
Elle doit ensuite vérifier que les principes sont respectés tout au long du cycle de vie du projet d’IA, à l’aide d’outils libres et évalués par les pairs. À la fin du projet, elle doit à nouveau vérifier que les principes directeurs sont pleinement réalisés par l’application, en s’assurant qu’aucun n’est violé. Le cycle du cadre se répète pour le projet suivant, afin de s’assurer que l’entreprise agit toujours de façon éthique en ce qui concerne l’IA. Chaque système de contrôle et d’équilibrage dans chaque projet d’IA doit respecter rigoureusement cinq principes directeurs.
Les cinq principes directeurs les plus importants en matière d’IA
Il existe de nombreux exemples d’entreprises qui ont élaboré leur propre ensemble de principes pour guider leur travail relatif à l’IA. Les principes de Google concernant l’IA [4] et l’IA responsable de Microsoft en sont des exemples notables. [5] Chez MNP, cinq principes nous semblent représenter le plus important.
1. Protection de la vie privée et des données
L’utilisation des données est l’une des composantes les plus essentielles, voire la composante prédominante, de tout projet d’IA ou d’apprentissage automatique. Par conséquent, les discussions sur la protection de la vie privée sont indispensables à l’élaboration de toute solution d’IA. Toute collecte et utilisation des données doit s’effectuer dans la plus grande discrétion, avec le consentement des personnes dont les données sont recueillies et utilisées, et en respectant le cadre juridique du ou des pays où le projet est réalisé.
Les systèmes d’IA doivent garantir la protection de la vie privée et des données tout au long de leur cycle de vie, afin de permettre à ces personnes de croire que les données recueillies à leur sujet ne seront pas utilisées à des fins de discrimination illicite ou injuste à leur égard.
Naturellement, le type de données utilisées dépend du type de projet réalisé; par exemple, tout projet utilisant la reconnaissance faciale nécessite de nombreuses images du visage des personnes. La qualité et l’intégrité des données utilisées pour former le système d’IA sont fondamentales pour son rendement; il est donc essentiel de veiller à ce que les ensembles de données de formation soient exempts de biais ou d’erreurs.
2. Transparence
Les personnes qui développent des solutions d’IA doivent être ouvertes sur la façon dont elles les utilisent et sur leur raison d’y avoir recours, claires sur leurs limites et disposées à expliquer le comportement de ces solutions. Pour appuyer ce principe, les ensembles de données et les processus qui contribuent aux décisions du système d’IA, y compris ceux de la collecte des données et des algorithmes utilisés, doivent être documentés afin de permettre la traçabilité et d’accroître la transparence.
3. Préjugés et discrimination
Il est impératif de comprendre que les ensembles de données utilisés par les systèmes d’IA peuvent avoir des partis pris historiques et que ces préjugés pourraient entraîner des conséquences involontaires de discrimination à l’égard de certains groupes de personnes. Il est clair que les préjugés blessent les personnes victimes de discrimination, mais ils nuisent aussi à tous en réduisant notre capacité collective de participer à l’économie et à la société. Les entreprises doivent s’efforcer d’éliminer les préjugés identifiables et discriminatoires à l’étape de la collecte, autant que possible.
4. Bienfaisance et non-malfaisance
Toute solution d’IA doit éviter tout préjudice et ses avantages doivent être évalués par rapport aux risques et aux coûts. Par exemple, nous pourrions éviter les préjudices en utilisant l’IA pour rendre les travailleurs plus efficaces et plus productifs, plutôt que d’automatiser leurs fonctions, ce qui les mettrait au chômage. Cela assurerait le contrôle humain de la technologie.
5. Autonomie
Avec l’IA, l’autonomie devient plutôt complexe : lorsque nous adoptons l’IA et ses robots de recherche, nous cédons volontairement une partie de notre pouvoir de décision aux machines. Ainsi, affirmer le principe d’autonomie dans le contexte de l’IA signifie établir un équilibre entre le pouvoir décisionnel que nous conservons pour nous-mêmes et celui que nous déléguons à des agents artificiels.
Ce qui semble le plus important dans ce principe, c’est ce que nous pourrions appeler la « méta-autonomie » ou le modèle appliquant la « décision de déléguer ».
Les humains doivent toujours conserver le pouvoir de décider les décisions à prendre, exercer la liberté de choisir lorsque c’est nécessaire et pouvoir y renoncer dans les cas où des raisons prépondérantes, comme l’efficacité, peuvent l’emporter sur la perte de contrôle.
Le cycle d’évaluation de l’IA se poursuit
Une fois qu’une entreprise a établi ses principes directeurs, elle doit mettre en place des outils pour vérifier que ses applications d’IA les respectent. Google, Microsoft, IBM et d’autres entreprises ont mis au point des outils appropriés en tenant compte des inconvénients de l’IA contraire à l’éthique.
Naturellement, la nature paradoxale de l’utilisation d’un algorithme pour évaluer un autre algorithme est une crainte pour beaucoup. Pour contrer cela, la plupart des outils utilisés par les entreprises sont à code source libre et ont été évalués par des pairs, afin d’en assurer l’honnêteté et la fiabilité.
Pour en savoir plus sur les outils d’évaluation de l’IA, approfondir les complexités de l’éthique de l’IA et apprendre à élaborer et à respecter un cadre d’éthique, nous vous invitons à participer à notre atelier immersif de cinq jours sur l’IA. Cet atelier portera sur la façon d’évaluer et d’élaborer une stratégie d’IA adaptée à votre entreprise, ainsi que sur la façon de tirer le meilleur bénéfice de votre mise en œuvre, d’éviter les risques inutiles et d’assurer une utilisation responsable de l’IA.
Apprenez-en davantage au sujet de la série d’ateliers sur l’IA de MNP
Communiquez avec un conseiller MNP pour discuter de votre stratégie en intelligence artificielle.
Auteurs : Dev Mishra et Adriana Gliga-Belavic
Dev Mishra dirige le groupe national d’ingénierie des données et de services d’IA/apprentissage automatique, comprenant une équipe de plus de 15 directeurs principaux, gestionnaires et consultants en données Azure. Son équipe et lui se concentrent sur Azure, Databricks et Alteryx, entre autres technologies de pointe. Il compte plus de 16 ans d’expérience dans la réalisation de projets de transformation à grande échelle tirant parti de techniques d’analyse avancée pour des entreprises mondiales de premier plan en Amérique du Nord.
Adriana Gliga-Belavic, professionnelle certifiée en sécurité des systèmes d’information (CISSP), professionnelle certifiée en mesure de performance de placement (CIPM) et professionnelle de l’industrie des cartes de paiement (PCIP) est associée, membre de l’équipe de cybersécurité de l’entreprise et chef de la confidentialité chez MNP à Toronto. Passionnée par la sécurité et la protection des renseignements, Mme Gliga-Belavic aide les clients des secteurs public et privé à élaborer des stratégies pragmatiques et des programmes de confidentialité afin de garder la confiance des clients et de trouver le bon équilibre entre les résultats opérationnels, la cyberrésilience proactive et une protection des renseignements de qualité supérieure.
Sources
-
[1] Stanford Encyclopedia of Philosophy, « Ethics of Artificial Intelligence and Robotics ».
-
[2] Reid Blackman, Harvard Business Review, « A Practical Guide to Building Ethical AI ».
-
[3] Cade Metz, The New York Times, « Is Ethical A.I. Even Possible? »
-
[4] Google, « Artificial Intelligence at Google: Our Principles ».