Un disque informatique numérique dont certaines parties sont allumées pour indiquer l'alimentation.

Tendances pour 2025 et par la suite : Dilemmes éthiques liés à l’intelligence artificielle

Tendances pour 2025 et par la suite : Dilemmes éthiques liés à l’intelligence artificielle

Résumé
8 minutes de lecture

Les avancées dans le domaine de l’intelligence artificielle transforment les entreprises et les rendent plus efficaces. Elles posent toutefois une multitude de dilemmes éthiques.

Qu’il s’agisse de soucis liés à la confidentialité ou de la programmation de biais, en passant par la propagation de désinformation et d’hypertrucages, les risques sont bien réels et évoluent constamment. Comment votre organisation peut-elle s’en prémunir?

Pouvez-vous affirmer avec certitude que l’IA représente une occasion à saisir plutôt qu’un risque?

Le marché canadien de l’IA est en plein essor. Selon les prévisions actuelles de Statista, il représente 4,13 milliards de dollars US en 2024 et devrait atteindre 18,5 milliards de dollars US en 2030. L’IA transforme les entreprises, les rendant plus intelligentes et efficaces. Toutefois, elle leur pose également une multitude de dilemmes éthiques.

Un des problèmes majeurs tient aux préjugés et à la discrimination. Des biais flagrants sont souvent programmés dans les systèmes. Par exemple, un système d’IA pourrait favoriser un groupe aux dépens d’un autre simplement parce que son programmeur a privilégié certaines options ou que les données d’apprentissage étaient biaisées.

Pour lutter contre ce phénomène, les entreprises doivent s’assurer que l’IA est programmée et entraînée à l’aide d’ensembles de données variées et représentatives. De plus, des technologies complémentaires, comme des dispositifs de reconnaissance faciale, pourraient aider l’IA à prendre de meilleures décisions. Des vérifications et des essais réguliers peuvent également permettre de détecter et de corriger ces biais.

La confidentialité constitue un enjeu de taille compte tenu des capacités de collecte et d’analyse de données de l’IA, qui sont susceptibles de menacer la vie privée des personnes en les identifiant et en prédisant leurs caractéristiques individuelles. Il peut en résulter une utilisation abusive de renseignements personnels, par exemple dans le cas de données de santé mal protégées provenant d’une montre intelligente. Des pratiques rigoureuses de gouvernance sont essentielles pour protéger la vie privée et garantir une utilisation éthique des données.

Mieux vaut prévenir que guérir

La désinformation et l’hypertrucage (deepfake) soulèvent également des préoccupations. À l’aide de l’IA, certains acteurs peuvent créer du contenu convaincant afin de pratiquer la désinformation ou de commettre une fraude. Les organisations doivent mettre au point des outils pour détecter et contrer l’hypertrucage et assurer ainsi l’intégrité de leurs renseignements et de leurs systèmes.

Les individus doivent en outre se montrer sceptiques quant à l’identité de la personne qui les contacte. Par exemple, si une personne soupçonne son interlocuteur au téléphone de se faire passer pour quelqu’un d’autre, elle devrait lui poser une question complexe à laquelle seule la vraie personne saura répondre.

Les systèmes d’IA ne sont pas à l’épreuve des attaques. Des attaques contradictoires peuvent manipuler les intrants utilisés par l’IA afin de produire des résultats incorrects, conduisant à des brèches de sécurité ou à de mauvaises décisions. Mettre en œuvre des mesures de sécurité musclées, comme l’apprentissage automatique contradictoire et la surveillance continue, peut contribuer à la sécurité et au bon fonctionnement des systèmes d’IA.

L’émergence de systèmes de surveillance guidés par l’IA suscite des inquiétudes au sujet de la surveillance de masse et de son incidence sur les libertés civiles. Pour conserver la confiance du public, les organisations doivent s’assurer que leurs pratiques de surveillance sont transparentes, éthiques et respectueuses des droits individuels.

Enfin, l’IA peut servir à mener des cyberattaques plus dévastatrices, à lancer des campagnes de désinformation persuasives et à automatiser les pourriels et l’hameçonnage. Pour se protéger contre ces menaces, les entreprises doivent rester vigilantes et se montrer proactives dans l’élaboration de mécanismes de contrôle et de contremesures.

Et ce n’est pas tout! Voici d’autres risques à ne pas négliger...

  • Usage malveillant de drones et d’armes autonomes
  • Suppression de tâches manuelles réalisées par la technologie
  • Manque d’explicabilité en raison de l’ignorance des biais dans le code par la personne utilisatrice
  • Technologies courantes qui, à l’insu des personnes, copient, stockent et utilisent les données de leur ordinateur portable, téléphone ou montre

Quelques questions à se poser :

  • Comment l’IA affecte-t-elle votre organisation et que faites-vous pour en anticiper les effets?
  • Avez-vous répertorié toutes les façons dont vous utilisez l’IA? Votre organisation s’est-elle dotée d’une politique pour en encadrer l’utilisation?
  • Avez-vous demandé à vos fournisseurs de matériel informatique et de logiciels comment ils entendent utiliser l’IA?
  • Pouvez-vous mettre fin rapidement à une utilisation inacceptable de l’IA?

Les signaux d’alarme :

  • Présence d’une technologie d’IA intégrée fournissant un accès inapproprié à des données personnelles ou confidentielles
  • Éthique et biais de l’IA qui entravent le processus décisionnel ou accentuent les risques potentiels
  • Données négatives ou erronées, découlant d’un mauvais usage de l’IA, susceptibles d’être communiquées au public (p. ex., indicateurs ESG)

En savoir plus sur ce livre blanc