Logo - Banque de développement du Canada - BDC

La règlementation en matière d’IA s’en vient: protégera-t-elle votre entreprise?

Des cadres juridiques s’en viennent pour régir ce qui est exigé et attendu des organisations utilisant l’intelligence artificielle (IA).

Lecture de 7 minutes

Bon nombre d’entre nous font preuve de circonspection lorsqu’il s’agit d’intelligence artificielle (IA). La confidentialité des données, la violation des droits d’auteur et les inexactitudes sont des préoccupations. Pourtant, l’IA peut aussi vous aider à réduire les coûts dans votre entreprise, à améliorer son efficacité et à accroître la satisfaction de votre clientèle. Alors, comment conjuguer avantages et sécurité?

Bien que les lois actuelles en matière de protection des consommateurs, de droits de la personne et de droit pénal s’appliquent à l’IA, elles n’ont pas été élaborées dans l’optique de celle-ci. En conséquence, elles n’ont généralement pas la portée et le niveau de détail nécessaires pour réglementer efficacement cette technologie complexe et multidimensionnelle.

La situation est sur le point de changer. Les gouvernements du monde entier ont déjà pris des mesures pour réguler l’IA. Des règlements susceptibles d’avoir des répercussions sur votre entreprise s’en viennent, et ils arriveront peut-être plus tôt que vous ne le pensez.

La réglementation à venir en matière d’IA protégera-t-elle votre entreprise?

Bien que de nombreuses lois proposées pour réguler l’IA soient encore à l’état de projet, on a une bonne idée des questions sur lesquelles se penchent les organismes

de régulation: la confidentialité des données, la discrimination et la violation des droits d’auteur sont au nombre de leurs préoccupations.

Les entreprises qui utilisent des outils alimentés par l’IA devraient continuer à gérer les risques en suivant ces meilleures pratiques:

  • ne pas partager de données personnelles ou exclusives si leur confidentialité n’est pas garantie
  • demander à une personne compétente de vérifier l’exactitude des résultats de l’IA
  • éviter de publier le contenu généré par l’IA mot pour mot au cas où il serait protégé par des droits d’auteur
  • veiller à ce que le personnel connaisse les meilleures pratiques ci-dessus

Bien que des règlements sur l’utilisation générale de l’IA soient en cours d’élaboration, les pays en sont à des stades différents.

À quels types de règlements en matière d’IA les entreprises peuvent-elles s’attendre?

Le Canada, la Chine, l’Europe et les États-Unis ont déjà signalé leur intention de réglementer l’IA, et certaines tendances se dessinent. Nous pensons que les organisations qui développent des technologies fondées sur l’IA devront:

  • expliquer le fonctionnement des modèles (logique, critères, etc.)
  • décrire la manière dont les modèles utilisent les données (par exemple, la nature des données, leur provenance, leur utilisation, leur stockage, etc.)
  • préciser les choix qu’elles offrent aux utilisatrices et utilisateurs de leur IA (par exemple, adhésion, retrait, effacement de données, etc.)
  • indiquer clairement quand l’IA est utilisée (par exemple, une mention «vous interagissez avec un robot»)
  • démontrer l’absence de biais dans les décisions automatisées et traiter toutes les questions avec équité, ainsi que fournir la preuve de l’existence de garanties internes visant à minimiser les biais

Ces règlements visent à protéger les personnes qui utilisent des produits dotés de capacités d’IA.

Comment les règlements en matière d’IA prennent-ils forme dans le monde?

Les pays ne sont pas tous au même stade en ce qui concerne la mise en place de règlements. Certains pays, dont le Canada, ont déjà proposé une législation ou sont en train d’en établir la version finale. D’autres pays, comme les États-Unis, ont élaboré des principes généraux à l’intention des entreprises qui développent des applications d’IA.

Toutefois, ces principes ne sont pas contraignants, ce qui signifie qu’il n’y a aucune conséquence à ne pas les respecter. Certains pays, quant à eux, n’ont pas encore de législation ou de principes.

Réglementation en matière d’IA au Canada

En 2022, le Canada a présenté le projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique, un cadre qui vise à garantir la confiance, la protection de la vie privée et l’innovation responsable dans la sphère du numérique. Dans le cadre du projet de loi C-27, le Canada a également introduit la Loi sur l’intelligence artificielle et les données (LIAD), qui vise à protéger les personnes et leurs intérêts contre les aspects potentiellement nuisibles des systèmes d’IA.

À l’heure actuelle, la LIAD définit six activités réglementées:

  • supervision humaine et surveillance
  • transparence
  • justice et équité
  • sécurité
  • responsabilité
  • validité et robustesse

Selon Innovation, Sciences et Développement économique Canada (ISED), les entreprises proposant des produits alimentés par l’IA devront mettre en œuvre des mécanismes de responsabilité, tels que des processus et des politiques de gouvernance interne, afin de s’assurer qu’elles respectent leurs obligations au titre de la Loi. Si tout se passe comme prévu, la LIAD devrait entrer en vigueur au plus tôt en 2025.

En outre, en vertu d’une récente décision de justice, les entreprises devront prendre des mesures pour s’assurer que leurs outils alimentés par l’IA sont précis. Dans une affaire historique, un juge a estimé qu’une grande entreprise canadienne était juridiquement responsable des informations erronées que son robot conversationnel avait fournies à l’un de ses clients.

Réglementation en matière d’IA aux États-Unis

Au niveau fédéral, l’administration Biden a présenté le Blueprint for an AI Bill of Rights en octobre 2022. Ce document présente un ensemble de cinq principes et pratiques destinés à guider les entreprises qui développent, déploient et gèrent des systèmes automatisés et des technologies d’IA.

Les cinq principes sont les suivants:

  • des systèmes sûrs et efficaces
  • des protections contre la discrimination algorithmique
  • la confidentialité des données
  • des avis et des explications (pour garantir que les utilisatrices et utilisateurs savent quand elles et ils interagissent avec une IA)
  • des solutions de rechange, une prise en compte et des solutions de repli fondées sur l’humain (pour garantir que les utilisatrices et utilisateurs peuvent facilement se retirer ou parler à une personne pour obtenir de l’aide).

Entretemps, plusieurs États ont adopté des lois sur la protection de la vie privée liées à l’IA. Par exemple, la plupart des États exigent des entreprises qu’elles indiquent quand l’IA est utilisée pour la prise de décision automatisée et qu’elles fournissent aux consommatrices et consommateurs des moyens de refuser ce type de traitement de données. D’autres États ont des exigences supplémentaires en matière de transparence afin de garantir que les entreprises divulguent le fonctionnement de leurs systèmes.

Autres étapes vers la réglementation en matière d’IA aux États-Unis

  • Le 5 juillet 2023, la ville de New York a promulgué la loi AI Bias Law, qui oblige les entreprises à vérifier régulièrement que leurs algorithmes d’embauche ne sont pas biaisés et à publier leurs résultats.
  • En août 2023, un juge américain a statué que les œuvres d’art générées par l’IA ne peuvent pas faire l’objet de droits d’auteur. Selon le bureau américain des droits d’auteur, il s’agit de toute œuvre d’art générée automatiquement par une machine ou un processus mécanique sans l’apport créatif d’une auteure humaine ou d’un auteur humain.
  • La Federal Trade Commission (FTC) est également devenue plus active dans le contrôle et l’investigation des produits alimentés par l’IA. Par exemple, elle enquête actuellement sur Open AI pour déterminer si la société informe suffisamment les utilisatrices et utilisateurs lorsque sa technologie génère de fausses informations.

Réglementation en matière d’IA en Europe

L’Union européenne (UE) a adopté un accord provisoire intitulé Loi sur l’intelligence artificielle (Loi sur l’IA) en 2023.

La Loi sur l’IA de l’UE classe l’IA en quatre niveaux de risque:

Risque inacceptable

Sont interdites, à quelques rares exceptions près, les technologies qui comprennent des capacités telles que les suivantes:

  • la manipulation cognitivo-comportementale
  • un score social par le gouvernement
  • l’identification biométrique en temps réel, comme la reconnaissance faciale.
Risque élevé

Les technologies de cette catégorie doivent respecter une longue liste d’exigences pour garantir la sécurité. En outre, les entreprises doivent diffuser les détails de leur système dans une base de données accessible au public. Cela comprend:

  • les véhicules autonomes
  • les drones
  • les appareils médicaux
Risque limité

Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales. Il s’agit notamment de technologies telles que:

  • les robots conversationnels
  • l’IA générative
Risque minimal

La plupart des technologies d’IA de ce niveau ont déjà été déployées et sont utilisées aujourd’hui, mais certaines responsabilités peuvent être attribuées aux créatrices et créateurs, aux distributrices et distributeurs et aux utilisatrices et utilisateurs afin de garantir la transparence. Parmi les exemples d’IA de cette catégorie, on peut citer :

  • les filtres antipourriel
  • les jeux vidéo
  • les recommandations de films personnalisées
  • les assistants vocaux

À l’instar des États-Unis, différents pays européens travaillent également à l’élaboration de leurs propres règlements en matière d’IA. Par exemple, en octobre 2023, l’Espagne a proposé de réglementer les simulations d’images et de voix de personnes générées par l’IA.

Réglementation en matière d’IA en Chine

La Chine a l’habitude de réagir rapidement aux nouvelles technologies. Quelques mois seulement après le lancement de ChatGPT, ce pays a été l’un des premiers à introduire une législation sur l’IA générative. Il semble également qu’un cadre juridique plus complet soit en cours d’élaboration.

En juin 2023, la Chine a publié une liste de textes législatifs prévus, dont une «loi sur l’intelligence artificielle». En attendant qu’elle soit adoptée, le gouvernement chinois a fourni aux entreprises d’IA une liste de domaines qu’elles doivent éviter. La Chine vise à devenir un leader mondial dans ce domaine d’ici à 2030 et on s’attend à ce qu’elle aborde les questions juridiques au cas par cas afin de stimuler l’innovation en matière d’IA et de la maintenir sous le contrôle de l’État.

Quels sont les risques qui influent sur les règlements en matière d’IA?

Voici quelques-unes des principales préoccupations auxquelles les gouvernements tentent de répondre avec les règlements à venir.

1. Protection de la vie privée et des données

La collecte, le stockage et l’utilisation de données personnelles par les systèmes d’IA soulèvent d’importantes questions en matière de respect de la vie privée. Les nouvelles lois doivent garantir que les applications d’IA respectent les droits à la vie privée et les lignes directrices en matière de protection des données.

2. Partialité et équité

L’IA générative s’appuie sur une variété de données, dont une part importante provient d’Internet. Certaines informations provenant de sources en ligne sont biaisées et injustes, ce qui peut amener l’IA à générer des résultats discriminatoires et erronés. Des lignes directrices éthiques et des exigences rigoureuses en matière de tests seront essentielles pour résoudre ce problème.

3. Sécurité

Des voitures autonomes aux drones, en passant par l'hypertrucage et les robots, l’IA peut présenter toute une série de risques pour la sécurité. Les décideuses et décideurs politiques veulent des règles pour prévenir les accidents et les menaces de cybersécurité.

4. Droits et bien-être de la personne

À mesure que les capacités de l’IA évoluent, comment pouvons-nous nous assurer qu’elles le font d’une manière bénéfique pour notre société? Les organismes de réglementation pourraient vouloir limiter les conséquences économiques et environnementales de l’IA, son utilisation contraire à l’éthique et ses progrès incontrôlés.

Il est important de se rappeler que l’IA évolue très rapidement et qu’elle change constamment. Cela crée de l’incertitude dans de nombreux domaines et il est difficile de prévoir l’efficacité des règlements en matière d’IA. Les entreprises qui cherchent à récolter les nombreux avantages que l’IA peut offrir devraient continuer à appliquer les meilleures pratiques en matière de sécurité.

Prochaine étape

Découvrez comment votre entreprise peut commencer à utiliser l’IA en téléchargeant la liste de vérification étape par étape gratuite de BDC.

Votre vie privée

BDC utilise des témoins de navigation (cookies) pour améliorer votre expérience sur son site et à des fins publicitaires, pour vous offrir des produits ou des services qui sont pertinents pour vous. En cliquant sur «J’ai compris» ou en poursuivant votre navigation sur ce site, vous consentez à leur utilisation.

Pour en savoir plus, consultez notre Politique de confidentialité.