Comprendre les enjeux éthiques et juridiques de l'IA

Le droit et les systèmes d'IA

Systèmes capables d’enseigner la fabrication d’une pièce en acier, de discuter avec vous d’un livre que vous avez lu, de réussir un examen, d’établir un diagnostic ou de conduire une voiture. Ces systèmes d’intelligence artificielle (IA), capables de reproduire des comportements et des capacités intellectuelles généralement associés à l'intelligence humaine, sont désormais une réalité. Leurs applications dans notre quotidien sont multiples. Il suffit de penser aux objets intelligents à notre portée : montres connectées, téléphones multifonctions, haut-parleurs ou thermostats avec commande vocale ou réfrigérateurs qui intègrent des caméras pour surveiller les dates de péremption des produits alimentaires! De même, les systèmes d’IA s’imprègnent de nos usages numériques : suggestions de contenus publicitaires et vidéos proposées sur les réseaux sociaux selon nos intérêts ou notre historique de navigation, recommandations de contenus culturels sur les plateformes audio et vidéo en fonction de notre consommation ou encore identifications de restaurants, une boutique et même d’une éventuelle rencontre amoureuse en fonction de notre géolocalisation! 

Le développement de l’intelligence artificielle présente de nombreux bénéfices pour les individus et les sociétés, mais aussi d’importants enjeux. Leur intégration progressive à nos usages personnels et professionnels et leur performance évolutive suscitent des questionnements sur les risques associés à cette transformation technologique dans nos rapports sociaux à l’échelle mondiale. Comment assurer le développement éthique et responsable de ces IA afin que ces technologies puissent bénéficier à l’ensemble des sociétés? 

Cette boîte à questions vise à démystifier les concepts et les caractéristiques des systèmes d’intelligence artificielle et leurs enjeux éthiques et juridiques afin d’en stimuler les réflexions et les débats.

Qu’est-ce que l’IA?

L’IA n’est pas nouvelle. Ses prémisses remontent aux travaux d’Alan Turing dans les années 1950.

De nos jours, les technologies des IA sont très nombreuses et se sont fortement enrichies ces dernières années.

D’une manière générale, les IA sont des technologies informatiques capables de reproduire des comportements et des capacités intellectuelles généralement associés à l'intelligence humaine, comme le raisonnement, l'apprentissage, la créativité, la résolution de problèmes, la reconnaissance vocale et faciale, la prise de décision et la compréhension du langage naturel.  Pour arriver à de tels résultats, l’IA applique des algorithmes complexes pour simuler ou reproduire les capacités de raisonnement et d'apprentissage humains. Cela peut aller de simples règles codifiées à des systèmes sophistiqués capables d'apprendre de l'expérience (apprentissage machine).

En savoir plus – IA, solutions d’IA, systèmes d’IA : quelle distinction?

Dans la littérature comme en pratique, on rencontre fréquemment les expressions de solutions ou de systèmes d’IA. De manière similaire, ces deux expressions désignent l'application et la mise en œuvre de technologies d’IA pour obtenir des résultats tangibles et résoudre des problèmes spécifiques. 

Autrement dit, si l'IA est le concept et la technologie de base, l’expression de « solutions (ou systèmes) d’IA » désigne l'intégration de l'IA dans des produits, des services ou des systèmes pour résoudre des problèmes spécifiques ou pour améliorer les processus existants. 

Les solutions d'IA sont donc les applications concrètes de l'intelligence artificielle dans des contextes réels.

Le diagnostic assisté par l’IA, les systèmes de prédiction des maladies ou de remplissage des services d’urgence ainsi que la robotique chirurgicale sont des exemples de solutions d’IA déployées dans le contexte de la santé. Dans le domaine de l’éducation, les solutions d’IA sont toutes aussi diverses et incluent l’analyse prédictive de décrochage scolaire, l’automatisation des évaluations, la mise en place de tutorats adaptatifs et personnalisés, des outils de traduction automatique

Une ou des IA?

Parler de de l’IA au singulier et de façon générique ne rend pas compte de la diversité et de la puissance technologique de l’IA. Il existe plusieurs types d'IA, chacun ayant ses propres caractéristiques et ses applications.

Leurs distinctions sont importantes pour mesurer et classifier les risques spécifiques qu’ils comportent, et donc adapter leur encadrement.

Elles constituent des technologies innovantes qui présentent des avantages considérables, mais les impacts des IA sur la société et l'humanité suscitent également des préoccupations.

Identifier ces préoccupations et discerner les caractéristiques des IA sont nécessaires afin de développer des systèmes d’IA éthiques et responsables qui bénéficient à la société dans son ensemble (voir lettre ouverte de l'Observatoire sur les impacts sociétaux de l'IA et du numérique du 23 avril 2023)

En savoir plus – Quels sont les principaux types d’IA? 

IA faible ou étroite (weak ou narrow AI)

Effectue une tâche spécifique, telle que la reconnaissance faciale, la classification d'images ou la recommandation de produits. Elle est limitée à une seule tâche et ne peut pas s'adapter à des situations imprévues.

Ce type d’IA constitue les principales technologies développées et actuellement mises sur le marché.

IA générative

Crée de nouveaux contenus tels que des images, des textes, des sons ou des vidéos, généralement en imitant ou en extrapolant à partir de données existantes (on parle alors de données d’entrainements).

Les IA génératives sont en pleine expansion et leur usage suscite beaucoup d’inquiétudes telles que le plagiat et le respect des droits d’auteur, la désinformation et la manipulation de l’opinion, l’impact sur la création et la transformation de l’industrie créative, l’emploi (ex : métiers de la traduction, de la recherche, de la rédaction de contenus, du droit).

IA générale

Effectue n’importe quelle tâche intellectuelle humaine avec un niveau comparable à un être humain (ex. : langage naturel, résolution de problème, apprentissage, créativité, perception visuelle). Elle n’aurait pas pour ambition de surpasser l’intelligence humaine, mais se placerait à un niveau comparable.

Actuellement, il n'existe pas de véritable intelligence artificielle générale.

IA forte (strong AI)

Pense et apprend comme des êtres humains, voire dépasse les capacités humaines. L’objectif de cette IA est de comprendre, de raisonner, d’apprendre et de résoudre des problèmes de la même manière qu’un être humain ou mieux.

Ce type d'IA est encore théorique (ex. : IBM strong AI ou Google Brain), mais elle est l'objet de recherches dans le domaine de la philosophie et de l'informatique.

L’IA générale et l’IA forte sont des notions parfois utilisées de manière interchangeable et sans consensus absolu sur les définitions de chacune. Pour certains, une distinction demeure nécessaire, car ces IA présentent des différences dans le niveau de performance et de capacité.

L'IA générative est un sous-domaine de l'IA qui se concentre sur la création de nouvelles données basées sur des modèles appris alors que l'IA générale fait référence à un niveau d'intelligence artificielle qui serait comparable à l'intelligence humaine et capable de s'engager de manière autonome et souple dans une variété de tâches cognitives.

Comment fonctionnent les IA?

Au cœur de l'IA moderne, on trouve des algorithmes qui permettent aux systèmes d'IA d'analyser des données, d'apprendre de celles-ci, de faire des prédictions ou de prendre des décisions sans être explicitement programmés pour chaque tâche spécifique.

L'IA utilise aussi des algorithmes de traitement du langage pour comprendre et générer le langage humain, permettant des interactions comme la traduction automatique, la génération de texte et la reconnaissance vocale.

Les algorithmes d'optimisation sont utilisés pour améliorer la performance des modèles d'IA, en ajustant les paramètres du modèle pour obtenir les meilleurs résultats possibles.

Les algorithmes d'IA évoluent constamment, et plusieurs facteurs contribuent à cette dynamique dont:

  • L'amélioration de la puissance de calcul permet de traiter des modèles d'IA plus complexes et plus grands;
  • L'explosion de la quantité de données disponibles pour l'entraînement ce qui rend les algorithmes d'IA plus performants, car ces derniers peuvent apprendre à partir de jeux de données plus vastes et plus variés;
  • La recherche universitaire et industrielle ainsi que le mouvement d’open source qui repoussent continuellement les frontières de ce qui est possible avec l'IA;
  • La nécessité d'une IA plus éthique et transparente qui conduit au développement d'algorithmes qui peuvent être davantage expliqués et audités;
  • La tendance à la création de systèmes capables de traiter et d'intégrer plusieurs types de données (texte, image, son) pour une compréhension plus complète et des applications plus riches;
  • Etc..

Ces avancées illustrent l'effort continu pour rendre l'IA plus puissante, plus efficace, plus accessible et plus utile dans une variété d'applications.

En savoir plus – IA et algorithmes

Les algorithmes sont le fondement de l'IA; ils sont les règles et les processus que l'IA utilise pour fonctionner. Sans algorithmes, il n'y aurait pas d'intelligence artificielle.

Un algorithme est un ensemble d'instructions, une sorte de recette, qui permet à un système informatique d'apprendre à partir des données, d’effectuer une tâche ou de résoudre un problème. En informatique, les algorithmes sont des procédures codifiées que les ordinateurs suivent pour effectuer des calculs, traiter des données et automatiser des raisonnements. Les IA utilisent différents types d’algorithmes dont la sélection dépend de la nature des données disponibles et de la tâche à accomplir.

En savoir plus – Apprentissage machine ou apprentissage profond ?

Ce sont actuellement des formes très performantes d’IA qui alimentent les débats de son encadrement, dont voici les grandes lignes :

L'apprentissage automatique (machine learning)

Permet aux IA d’apprendre et d’améliorer leurs performances en utilisant des algorithmes et des données, mais aussi en s’appuyant sur un retour humain.

Exemples d’usage de l’apprentissage automatique

  • Les plateformes de contenus vidéo tels que Netflix, Amazon et YouTube pour recommander des produits et des contenus aux utilisateurs en fonction de leur historique de navigation et de leur comportement en ligne.
  • Les voitures autonomes pour percevoir l'environnement, prendre des décisions et se déplacer de manière autonome.
  • L’optimisation des processus industriels pour réduire les coûts et augmenter l'efficacité, comme la maintenance prédictive, la planification de la production ou la gestion des stocks.

L’apprentissage profond (ou deep learning)

Permet aux IA d’apprendre avec autonomie, c’est-à-dire sans intervention humaine. Ce type d’IA consiste à entrainer le système à reconnaître par lui-même un certain type d’élément (ex. : texte, image, audio, vidéo) ce qui suppose qu’il a accès à une très grande quantité de données ainsi qu’à des ressources informatiques importantes pour l'entrainement du réseau.

Le but est d’amener le système à traiter par lui-même l’information qu’il reçoit et à l’identifier correctement, avec une continuité d’apprentissage (notamment de ses erreurs) et donc d’amélioration de ses résultats. Cet auto-apprentissage est notamment très utile pour améliorer de façon continue l’utilisation d’un service numérique. D’ici quelques années, on pourrait s’attendre à ce que l’apprentissage profond soit encore plus puissant, au point de ne plus avoir besoin de supervision humaine.

Les domaines d’application de l’apprentissage profond sont potentiellement les mêmes que ceux de l’apprentissage automatique.

Le choix de recourir à l’une ou l’autre des technologies se posent en fonction de la complexité de la tâche à résoudre, des données disponibles, des ressources informatiques nécessaires ou encore des objectifs en matière d'interprétation des résultats. En effet, les résultats produits par les modèles d’apprentissages machines sont souvent plus faciles à interpréter, comparativement aux modèles d’apprentissages profonds. Ces derniers sont généralement plus opaques en termes de compréhension de leur fonctionnement interne.

Quelles sont les utilisations de l’IA dans notre société?

Les IA sont utilisées par des organisations privées et publiques dans de nombreux domaines et pour différentes fins. En voici quelques exemples :

  • La santé : Aider les médecins à diagnostiquer des maladies telles que le cancer, les maladies cardiaques et le diabète en analysant des images médicales, des scans, et des données de patients, personnaliser des traitements, assister les chirurgiens lors d’opérations, accélérer la découverte de médicaments en analysant de vastes bases de données de composés chimiques et en prédisant leur efficacité.
  • Les transports : Mesurer l’affluence selon les jours et l’heure, identifier un problème de circulation, adapter la signalisation, respecter les limites de vitesse, géolocaliser un individu ou un camion de livraison, obtenir des directions, conduire un véhicule de façon autonome.
  • Les finances : Analyser la capacité d’emprunt, déterminer les taux d’intérêt et évaluer les octrois de financement.
  • La consommation : Envoyer de la publicité ciblée, effectuer des analyses et des prédictions d’achats, fournir des biens ou des services personnalisés, recommander des produits ou des contenus en fonction de l’historique de navigation et du comportement en ligne d’un utilisateur, analyse des sentiments pour détecter la satisfaction des clients vis-à-vis d’un produit ou d’un service.
  • La sécurité : Détecter les fraudes ou les vols d’identité, assurer la sécurité nationale, prévenir des infractions, porter assistance dans certaines situations d’urgence, lutter contre les cyberattaques ou les cybercrimes.
  • Le travail : Optimiser les processus industriels, sélectionner un candidat pour un emploi, mesurer la productivité, automatiser des tâches, évaluer la performance, faire de l’espionnage industriel, freiner ou stimuler la concurrence, etc…

Certaines technologies d’IA sont-elles plus risquées que d’autres?

Oui. Le risque varie selon le degré d’autonomie fonctionnelle de la technologie utilisée par l’IA. Plus l’IA a la capacité d’apprendre avec autonomie et d’effectuer des tâches sans intervention humaine, plus le risque est élevé. Le risque peut être un déséquilibre ou une atteinte à des droits sur les plans sociaux, éthiques, économiques ou politiques.

L’exemple de la « boite noire » ou du manque de transparence de l’IA

De nombreux systèmes d'IA, en particulier ceux basés sur l'apprentissage profond, peuvent être considérés comme des « boites noires ». 

Ceci réfère à un système d’IA qui effectue des tâches complexes, mais dont le fonctionnement interne est difficile à comprendre. Il devient alors difficile d’en justifier le résultat. Par exemple, un système bâti sur l’apprentissage profond en vision par ordinateur peut reconnaître des objets dans des images, mais il est difficile de dire comment il a « pensé » pour prendre cette décision. Or, ce degré d’opacité est particulièrement problématique dans certaines situations, comme en matière de santé, de crédit bancaire ou encore de recrutement, où il est nécessaire de comprendre pourquoi une IA a pris une décision particulière. 

Les IA qualifiés de « boite noire » sont souvent très puissantes parce qu'elles sont capables de résoudre des problèmes complexes de manière efficace. Elles posent des problèmes en termes de responsabilité, d'éthique et de transparence parce que leur fonctionnement interne est difficile à comprendre. C’est pourquoi il est important de développer des méthodes pour rendre ces systèmes plus transparents, surtout lorsqu'ils prennent des décisions qui affectent la vie des individus. L'explicabilité de l'IA est un domaine de recherche important, visant à rendre ces systèmes plus compréhensibles sans sacrifier leur puissance.

L‘exemple d’une cyber-attaque visant des renseignements personnels d’une IA

Le type d’IA influe également sur le risque de cybersécurité. Par exemple, plus une IA est gourmande en renseignements personnels, plus grands sont les risques en matière d’atteinte à la vie privée à l’issue d’une cyber-attaque. Ainsi, comprendre les risques liés à la sécurité des systèmes d'IA est crucial pour développer des mécanismes de défense appropriés. 

L‘exemple de l’empreinte environnemental d’une IA

Certaines IA sont gourmandes en énergie et ont avoir un plus grand impact négatif sur l'environnement. Par exemple, l’apprentissage profond présente davantage le risque d’augmenter la demande d'électricité ainsi que les rejets de CO2, notamment en raison de sa complexité. Cela dit, il existe des efforts pour rendre l'IA plus éco-responsable, y compris l’apprentissage profond. Cela passe par l'utilisation de matériel informatique plus efficace sur le plan énergétique, le recours aux énergies renouvelables pour alimenter les centres de données, et la recherche de technologies qui nécessitent moins de puissance de calcul. 

Prêter attention aux systèmes d’IA qui sont développées et utilisées est important pour naviguer de manière informée et consciente dans un monde de plus en plus influencé par ces technologies. 
 

Faut-il encadrer l’IA ?

Les applications de l’IA n’ont de limite que sa technologie. Plus les technologies évoluent, plus les applications de l’IA seront étendues.

L’IA peut s’intégrer dans l’ensemble des activités humaines, voire remplacer l’humain dans certaines activités. Elle promet des avancées économiques et sociales importantes, par son efficacité, sa performance, sa fiabilité et la réduction des couts pour les organisations qui l’utilisent. Ses avancées soulèvent diverses questions éthiques et sociales, notamment sur l'impact de l'automatisation sur l'emploi, la vie privée, la prise de décision et la responsabilité en cas d'erreurs.

La capacité de l'IA à traiter et analyser d'immenses quantités de données plus rapidement que les humains peuvent entraîner des changements profonds dans des secteurs tels que la santé, la finance et la sécurité. En outre, la montée de l'IA suscite des discussions sur la nécessité de formation et de reconversion professionnelle pour préparer la main-d'œuvre à un avenir où la coexistence et la collaboration entre humains et machines a vocation à devenir systématique.

En effet, ces dernières années ont mis en lumière une intensification des effets négatifs de l’IA tels que transformation du marché de l’emploi, augmentation des risques de discrimination, de désinformation, de la cybercriminalité et des atteintes au droit fondamentaux.

Autrement dit, l’intégration de l’IA dans notre société nécessite une réflexion approfondie sur les règles de gouvernance. La nécessité de son encadrement ne semble plus faire de doute.

En savoir plus – Éthique ou droit pour encadrer l’IA ?

Depuis quelques années, l’éthique de l’IA s’est beaucoup développée, sans pour réussir à canaliser les effets négatifs de l’IA. Ceci s’explique de différentes manières en commençant par le fait les normes éthiques ne sont pas obligatoire pour les acteurs de l’IA. Elles sont également nombreuses et varient beaucoup en contenu en fonction de l’organisation qui les édictent. 

Face à cela, certains appellent, en parallèle des normes éthiques, à la constitution d’un droit pour « mieux » encadrer l’IA. C’est-à-dire pour doter l’IA d’un encadrement contraignant au sein duquel les conditions dans lesquelles les IA peuvent être développées et utilisées sont plus rigoureusement établies et qui s’appliqua à l’ensemble des acteurs de l’IA soumis à l’autorité de la loi en question. 

Quels avantages à encadrer juridiquement les IA ?

Encadrer juridiquement les IA permet d’établir un équilibre socialement acceptable entre les bénéfices de l’exploitation des IA, leur développement et la protection des droits et des intérêts des citoyens.

Ultimement, le respect des lois et des règlements favorise les IA digne de confiance : c’est-à-dire celles dont le développement et l’utilisation se veulent socialement et économiquement bénéfiques.

Encadrer les IA au moyen de lois et de règlements présente ainsi les avantages suivants :

  • Imposer des règles qui encadrent le développement et l’utilisation des IA en tenant compte des risques qu’ils suscitent;
  • Bannir des usages de l’IA socialement non souhaités;
  • Définir des normes communes sur les pratiques et les usages considérés acceptables dans une société;
  • Traduire des principes éthiques comme le bien commun, la responsabilité sociale et environnementale, la transparence et l’inclusion en obligations légales;
  • Contraindre les développeurs, distributeurs et utilisateurs des IA à se conformer à la réglementation en vigueur;
  • Sévir contre les comportements et les pratiques non conformes;
  • Renforcer la confiance des citoyens dans les systèmes d’IA en exigeant plus de transparence, de responsabilité et de conformité;
  • Établir des modes de surveillances et des voies de recours adaptés afin que des personnes puissent faire valoir leurs droits ou dénoncer des usages de l’IA qui leur porteraient préjudice;
  • Harmoniser les règles pour favoriser le commerce international et maintenir la compétitivité des entreprises québécoises vis-à-vis des entreprises étrangères. 

À quels défis doivent faire face les États qui veulent encadrer l’IA?

Plusieurs États dans le monde s’interrogent sur l’opportunité d’adopter des lois spécifiques aux IA. Pour certains, l’adoption de lois ou de règlements sur l’IA constitue une menace pour l’innovation tandis que pour d’autres, le recours à la loi permet de sécuriser l’écosystème de l’IA en sécurisant l’innovation et les investissements et en promouvant le développement d’une innovation responsable.

Une fois ce débat tranché, il reste qu’encadrer juridiquement les IA pose des nombreux défis pour les législateurs qui doivent à la fois :

  • Considérer la variété des systèmes d’IA et des technologies qu’ils utilisent pour mesurer les risques qu’ils comportent; 
  • Envisager les multiples applications des IA dans nos société pour en distinguer les usages selon les situations;
  • S’adapter continuellement aux avancées extrêmement rapides de la technologie; 
  • Ou encore intégrer la dimension internationale de cette technologie. 

En effet, l’IA transcende les frontières nationales, régionales et culturelles, favorisant une intégration et une interconnexion globales. Son utilisation ne se limite pas aux frontières géographiques, ce qui peut rendre difficile la détermination de la juridiction applicable et la mise en place d'une réglementation cohérente à l'échelle mondiale. 

À cela, il faut ajouter que le développement et l’utilisation des IA soulèvent des enjeux jusque-là inégalés : 
transformation du marché de l’emploi et disparition de certains métiers;

  • atteintes aux droits des personnes (atteinte à la vie privée, discriminations, atteinte à la liberté d’expression, surveillance de masse; droits linguistiques, etc.);
  • risque de désinformation et de manipulation de l’opinion; 
  • sécurité et cyber-attaque;
  • impact sur la créativité et la culture;
  • préservation de la diversité des expressions culturelles;
  • dépendance technologique;
  • accessibilité inégale à la technologie, etc… 
     

L’encadrement de l’IA : quel état des lieux au Québec?

Il n’existe pas, au Québec, de loi particulière qui encadre spécifiquement le développement et l’utilisation de l’IA. Cela ne va pas dire que les solutions d’IA échappent au droit. Les lois générales, comme le Code civil du Québec, s’appliquent même dans un contexte d’IA. Toutefois, l’application de ces lois à des cas incluant des IA soulève des défis d’interprétation en pratique et ne se sont pas encore soulevés devant les tribunaux.

Actuellement, la question de l’adoption d’une loi qui viendrait encadrer le développement de l’intelligence artificielle et clarifier l’interprétation du droit existant fait l’objet de débats.

Cette question se pose actuellement face aux limites de l’éthique de l’IA.

Le Québec est au stade de réflexions. Les consultations publiques sur l’encadrement de l’intelligence artificielle mises en place au Québec représentent un premier pas vers l'établissement d'un plan d'action pour encadrer les solutions d’IA.

Pourquoi l’IA a-t-elle autant besoin de nos données numériques?

L'IA et les données numériques sont intrinsèquement liées, car les données sont le socle sur lequel de nombreux systèmes d'IA sont construits et s'améliorent. Pour fonctionner efficacement, certaines solutions d’IA ont besoin d’utiliser un grand volume de données numériques pour apprendre, généraliser et produire des résultats plus précis et utiles. Plus les données sont nombreuses, plus les IA ont d'opportunités d'analyser et de comprendre différents modèles, ce qui peut conduire à de meilleurs résultats.

Par exemple, dans la reconnaissance d'images, un modèle d'IA ayant accès à une grande variété d'images peut développer une meilleure capacité à identifier différents objets et contextes. De même, les modèles d'IA conçus pour le traitement du langage naturel, tels que la génération automatique de texte, nécessitent une énorme quantité de données textuelles pour apprendre la structure, la grammaire et le contexte linguistique.

En savoir plus – Qu’est-ce la collective massive des données ?

La collecte massive des données fait référence à la pratique de collecter et de conserver de grandes quantités d’informations provenant de diverses sources (« Big data »), ceci incluant des renseignements personnels. En effet, cette pratique est rendue possible par les avancées technologiques et l’augmentation de la connectivité numérique des individus.

La collecte massive des données est même rendue omniprésente dans nos quotidiens. Les organisations privées et publiques peuvent procéder à des collectes massives de données pour identifier chez les individus des préférences, des comportements, des transactions ou des historiques de navigation sur Internet. Ceci peut servir à améliorer les produits et services, à personnaliser les expériences numériques, à prendre des décisions commerciales éclairées, à effectuer des analyses et prédictions, ou encore à soutenir des activités de marketing ciblé.

C’est pourquoi les plateformes comme Facebook, Twitter, Instagram et LinkedIn collectent une quantité énorme de données provenant des publications, des interactions, des mentions "J'aime", des commentaires, etc. Ces données sont ensuite utilisées pour personnaliser les flux de contenu et générer des recommandations.

Les institutions financières collectent des données sur les transactions, les mouvements de marché, les taux d'intérêt, les comportements de dépenses, etc. Ces données sont utilisées pour l'analyse de risques, la détection de fraudes et la création de modèles prédictifs.

Nombreux sont les domaines où l’on assiste à une collecte massive des données.

L’IA peut-elle collecter et utiliser nos renseignements personnels?

Quand la collecte et l’utilisation de données porte sur des renseignements personnels, celle-ci soulève des défis éthiques et juridiques importants concernant la vie privée, la sécurité des données et le potentiel de biais discriminatoires dans les systèmes d'IA. Ces enjeux sont accentués par le caractère massif de la collecte et de l’utilisation des renseignements personnels.

La collecte et l’utilisation massive des renseignements personnels n’échappent pas aux les lois sur la protection des renseignements personnels qui encadrent rigoureusement la manière dont ceux-ci peuvent être collectés (finalités, consentement, volume, durée de conservation) et sur les droits des individus (ex : le droit d'accéder, droit de rectification).

Il est donc crucial de garantir que la collecte massive des données respecte les normes éthiques et légales, et que les systèmes d'IA résultants soient conçus et utilisés sans être socialement préjudiciable.

L’utilisation des renseignements personnels pour alimenter des intelligences artificielles est très courante. Les préférences, les habitudes et les comportements des individus sont particulièrement utiles pour développer des systèmes d'IA capables d’établir de la publicité ciblée et fournir des biens et services personnalisés.

Toutefois, les renseignements personnels constituent une composante de la vie privée des personnes et c’est en cela qu’ils font l’objet de lois particulières qui en assure la protection.

La collecte et l’utilisation de renseignements personnels par les IA doit respecter les règles posées dans les lois sur la protection des renseignements personnels qui encadrent rigoureusement la manière dont les renseignements personnels peuvent être collectés (finalités, consentement, volume, durée de conservation) sans porter atteinte aux droits des individus, notamment :

  • la vie privée,
  • la sécurité des données,
  • la manière dont les données sont utilisées et conservées,
  • l’accès aux données et leur rectification,
  • la liberté d’expression.

Ces éléments feront l’objet de précisions dans la seconde partie de la boite à questions (à venir).

En savoir plus – Qu’est-ce qu’un renseignement personnel?

Un renseignement personnel est, selon la loi, toute information qui permet d’identifier directement ou indirectement une personne. Un renseignement personnel est aussi communément appelé une « donnée personnelle ».

L’identification directe d'une personne

Est un renseignement personnel l’information qui permet d’identifier directement une personne : son nom, son adresse postale, son numéro de téléphone, son adresse courriel, son numéro d’assurance sociale, sa date et son lieu de naissance, ses revenus, son historique de crédit, son parcours d’éducation, son image, sa voix, etc.

L’identification indirecte d’une personne

Peut devenir un renseignement personnel une information qui permet d’identifier une personne lorsque combinée à d’autres information. Par exemple, la combinaison du code postal, de l’âge et de son trajet usuel en transport permet d’identifier une personne. Ceci ouvre considérablement la possibilité de qualifier une information comme un renseignement personnel.

Il est fondamental de savoir si une information est ou non un renseignement personnel, car ceux-ci sont protégés par des règles qui précisent leur collecte, leur utilisation, leur conservation et leur communication.

En savoir plus – Renseignement personnel et renseignement sensible : quelle(s) différence(s)?

Au Québec, la Loi sur la protection des renseignements personnels (Loi 25) protège les renseignements sensibles. Les renseignements sensibles sont une catégorie particulière de renseignements personnels, en raison du risque important qu’ils représentent du point de vue de la vie privée, de la sécurité ou encore la dignité de la personne. 

Exemples de renseignements sensibles

  • l’origine ethnique ou raciale
  • les opinions politiques
  • les convictions religieuses ou philosophiques
  • la santé ou les antécédents médicaux
  • la vie sexuelle ou l'orientation sexuelle
  • les condamnations criminelles
  • les renseignements financiers

Cette distinction sur les renseignements sensibles permet à la loi québécoise d’imposer de nouvelles obligations aux organisations privées et publiques, par exemple :

  • Justifier la collecte, l’utilisation et la divulgation de données sensibles.
  • Prendre des mesures spécifiques pour protéger les données sensibles. Par exemple, obtenir un consentement explicite avant d’utiliser une donnée sensible à une fin différente de celle prévue lors de la collecte.
  • Évaluer le risque d’atteinte à la vie privée que présente le traitement de données sensibles en fonction de la finalité de leur utilisation, de leur quantité, de leur répartition, ainsi que du support utilisé pour les conserver.
  • Prendre des mesures pour assurer un haut degré de protection de ces données.

Équipe

Chercheuse principale: Anne-Sophie Hulin

Vulgarisatrice: Caroline Ouellette

Illustratrice: Élodie Duhameau

Ce projet est en construction. Son contenu s’enrichira progressivement. Toute suggestion de contenu est bienvenue. Pour ce faire, merci d’écrire à l’adresse suivante : anne-sophie.hulin@usherbrooke.ca

Ne manquez rien de l’actualité de l’Obvia!

Recevez les nouvelles de la communauté, les événements à venir et les opportunités liées à la recherche.