NOUVELLE Introduction à la cybersécurité

Explorez dans un programme simple et pratique utilisant des activités d'apprentissage et de compréhension.

< RETOUR AUX ARCHIVES

L’opinion de Kids Code Jeunesse sur l’IA digne de confiance

À une heure où notre monde change à toute vitesse, l’utilisation de la technologie augmente à un rythme plus effréné que jamais.

Hannah Balllard
September 16, 2020

Kids Code Jeunesse (KCJ) est principalement en accord avec les principes décrits dans le livre blanc sur l’IA digne de confiance de Mozilla (uniquement disponible en anglais). Nous saluons le travail qui a été fait pour coordonner autant d’efforts. En tant qu’organisation qui milite au nom des enfants et des adultes qui en prennent soin, nous souhaiterions soulever quelques points.

Le 8 août dernier, nous avons organisé une séance de discussion UNESCO au sujet de l’IA avec un groupe d’adolescent·e·s, en collaboration avec Algora Lab et MILA, l’institut québécois de recherche en intelligence artificielle. Le rapport d’analyse complet est ici (anglais). Cette rencontre nous a permis de recueillir d’importantes perspectives de la part des personnes les plus concernées par le sujet : les enfants. Nous avons créé un résumé du livre blanc à l’intention des enfants afin d’aider tous les adultes à organiser des discussions semblables. Des membres de notre équipe ont également contribué à IA et Éducation, un atelier international en ligne organisé par Future Society et portant sur les recommandations de l’UNESCO par rapport à l’éthique de l’intelligence artificielle, ainsi qu’à IA et Santé, un « délibinaire » organisé par l’Institut d’éthique de l’IA de Montréal.

Le sujet est vaste et Mozilla en a souligné les principaux enjeux. Mais le vocabulaire utilisé reste ancré dans le système industriel existant.

L’IA représente un danger pour les enfants et pour la société en général, car elle manque de transparence est souvent, incompréhensible et trop embourbée dans un langage intellectuel. L’éducation est une solution, et les besoins humains doivent être au centre de toutes les étapes de développement.

1. « Consommateur·rice·s » est une étiquette trop étroite… Nous suggérons « citoyen·ne·s numériques »

Premièrement, nous avons des réserves sur la manière dont les gens sont représentés dans le livre blanc, ainsi que sur la manière dont ils ne le sont pas. Les utilisateur·rice·s sont mentionnés uniquement de manière passive, en tant que sources de données ou récipiendaires des effets d’un biais discriminatoire. Jeter l’ensemble des utilisateur·rice·s ou des individus affectés par l’IA dans l’unique catégorie de « consommateur·rice·s » est limitatif.

Il est certainement utile d’aborder le sujet sous l’angle du pouvoir d’achat des consommateur·rice·s, mais ce ne sont pas que les acheteur·se·s qui interagissent avec l’IA. Les systèmes utilisant l’IA nous affectent tous.

En 2020, il y a seulement trois types de personnes qui ne vivent pas dans le giron de notre société numérique :

  • Ceux et celles qui ne la connaissent pas (car ils et elles vivent dans des lieux trop éloignés),
  • Ceux et celles qui ne veulent pas y participer (et qui s’en retirent donc volontairement),
  • Ceux et celles qui sont tenus à l’écart (pour cause de discrimination ou par manque d’accès).

Ce sont les personnes les plus vulnérables, celles dont le pouvoir d’achat est le plus faible, qui sont les plus à risque de faire les frais d’une IA tendancieuse et discriminatoire. On peut penser à ceux et celles qui ont une « mauvaise » cote de crédit, car ils et elles n’ont jamais possédé de carte de crédit, ou bien à ces réfugié·e·s qui ne maîtrisent ni l’anglais ni le français et dont la demande d’asile est rejetée par un système informatique automatisé.

Les enfants, par exemple, utilisent et consomment l’IA et interagissent avec elle constamment. Selon Pew Research, 81 % des parents laissent leurs enfants regarder YouTube de manière occasionnelle, mais près de quatre parents sur dix croient que leurs enfants ont visionné du contenu inapproprié sur la plateforme. YouTube affirme que ses recommandations favorisent le « contenu de qualité », mais un ancien ingénieur de YouTube allègue plutôt que l’algorithme privilégie le « contenu controversé et sensationnel » dans une tentative d’accroître le temps de visionnement.

Puisqu’il n’y a aucune transparence dans la manière dont YouTube recommande du contenu aux enfants, ces derniers forment un auditoire non seulement captivé, mais également captif. Leur pouvoir d’achat étant inexistant, les enfants ne peuvent pas voter avec leur portefeuille. En tant que personnes à charge, leur interaction avec l’IA est modérée par les adultes, qui n’ont pas toujours la capacité de trier ce contenu.

L’IA est incapable de comprendre les zones grises ou les malentendus. Elle ne comprend pas les nuances de la condition humaine, ni les besoins subtils et variésdes différents groupes - ou même au sein d’un même groupe. Recréer la dichotomie « bien/mal » sous la forme « créateur·rice/utilisateur·rice » élimine la part d’humanité nécessaire pour qu’une IA soit digne de confiance.

Le livre blanc devrait donc repenser le concept d’« utilisateur·rice·s » et adopter plutôt celui de citoyen·ne·s numériques, puisque la plupart des humains sur cette planète ressentent directement ou indirectement les impacts de l’IA. Le terme « citoyen·ne·s numériques » englobe ceux et celles qui utilisent l’IA, sont affectés par l’IA, profitent de l’IA et créent des IA. En éliminant le contraste entre créateur·rice·s et consommateur·rice·s, il est possible d’inclure toutes les parties concernées. L’inclusion devrait être un des objectifs de la création d’IA dignes de confiance.

Un·e utilisateur·rice est un récipient passif, alors qu’un·e citoyen·ne participe activement à la démocratie. Ce livre blanc devrait servir à motiver le public à adopter ces concepts et ces appels à l’action.

Ce thème est revenu très souvent chez les adolescent·e·s que nous avons consultés :

« On doit arrêter de traiter les gens comme des pions. [Par exemple,] les travailleurs ne sont pas seulement des travailleurs; ils ne sont pas des objets qu’on peut jeter après utilisation. Ils ont des familles. »

Une autre a ajouté :

« Il faut penser aux droits individuels, aux droits de chaque personne. »

- Réponses des jeunes aux recommandations de l’UNESCO sur l’IA, recueillies en collaboration avec Algora Lab et Mila

En réfléchissant au droit qu’ont les individus de comprendre comment l’IA influence le monde qui les entoure, il est crucial que l’explicabilité, soit la capacité d’expliquer quelque chose de manière claire et accessible, devienne un pilier de toute IA se voulant digne de confiance. Le concept d’explicabilité nécessite un auditoire. Par conséquent, en l’incorporant dans le processus de création des IA, nous nous assurons que les citoyen·ne·s numériques seront pris en compte, et ce, de manière intentionnelle.

La transparence, l’imputabilité, l’explicabilité et la fiabilité ne sont pas des concepts offerts en option. Ce sont plutôt des outils aussi essentiels que le clavier d’ordinateur sur lequel est tapé la première ligne de code d’un programme.

2. La diversité à chaque étape du processus

Le livre blanc souligne avec raison que les équipes qui conçoivent les IA doivent être diversifiées, mais il doit aller plus loin.

Examinons premièrement le résultat à court terme 3.4 :

Des groupes provenant de la société civile abordent l’enjeu des IA dignes de confiance et en font la promotion à travers leurs activités.

La liste des organisations que Mozilla espère dynamiser est un bon début, mais elle ne regroupe que des organisations qui ont une influence après la conception des IA.

Les activistes et les citoyen·ne·s numériques doivent participer activement à la conception de ces technologies. Ils et elles doivent être présents au moment où l’industrie « génère des idées » et « détermine les besoins des consommateur·rice·s ».

L’expérience de vie et l’opinion des citoyen·ne·s numériques ainsi que leur capacité à comprendre les IA doivent faire partie du processus de développement de ces technologies. Sinon, les systèmes que nous créerons seront lourds et « trop grands pour être changés ».

Comme l’une de nos représentantes jeunesse l’a souligné :

« Les humains chercheront toujours à gagner quelque chose, alors il est difficile d’abandonner un système capitaliste, mais nous avons besoin d’une plus grande réglementation, pas de plus de profits. »

- Réponses des jeunes aux recommandations de l’UNESCO sur l’IA, recueillies en collaboration avec Algora Lab et Mila

Pour s’assurer d’être aussi inclusifs que possible, les différents groupes concernés doivent être examinés en plus grand détail. Attardons-nous maintenant au résultat à court terme 1.3 :

Diverses parties prenantes, y compris les communautés et individus historiquement exclus des domaines technologiques, contribuent de façon importante à la conception et à la création de l’IA.

Voilà ici notre raison d’être : intéresser les enfants (et les adultes qui les entourent) à des technologies telles que l’IA et donner à ces enfants la capacité de jouer un rôle actif dans leur développement. Nous demandons donc à Mozilla de s’assurer que les enfants sont pris en compte dans toutes les discussions reliées aux IA dignes de confiance.

Les enfants d’aujourd’hui font partie de la première génération à grandir dans un monde à ce point sous l’influence des IA. Les plus jeunes apprennent à parler avec Alexa. Ceux et celles en âge d’aller à l’école demandent à Siri de les aider à faire leurs devoirs. Les adolescent·e·s essaient de « tromper » les algorithmes qui déterminent leur succès sur TikTok ou YouTube. Ils et elles ont un long avenir devant eux, un avenir qui sera influencé par les décisions que nous prenons aujourd’hui. Nous devons absolument intégrer leurs perspectives.

Les adolescent·e·s que nous avons consultés ont reconnu ce fait :

« [Nous devons tenir] les compagnies responsables des sources où elles puisent leurs ressources et de la manière dont elles entraînent leurs IA. Il faut s’assurer d’inclure tous les cas possibles, de manière efficace et éthique. Les IA doivent être entraînées correctement, en ne se concentrant pas seulement sur les symptômes, mais en s’attaquant aux racines du problème. »

- Réponses des jeunes aux recommandations de l’UNESCO sur l’IA, recueillies en collaboration avec Algora Lab et Mila

Nous devons faire participer les adultes qui côtoient les enfants (les parents, les gardien·ne·s, les éducateur·rice·s et les membres de la communauté) aux discussions liées aux IA dignes de confiance. Ces adultes doivent apprendre comment aider au maximum leurs enfants à comprendre l’influence de l’IA sur leur vie. Pour ce faire, les conversations autour de l’IA doivent être accessibles à la majorité des individus. L’IA doit être intentionnellement explicable et expliquée.

Nous avons commencé à agir en ce sens en lançant notre initiative #jeunesse2030 en avril 2019. Nous nous sommes engagés à éduquer 1 000 000 d’enfants et 50 000 éducateur·rice·s au sujet de l’IA, de la programmation, de la citoyenneté numérique et des Objectifs de développement durable de l’ONU (nous reviendrons sur ceux-ci plus loin). Nous introduisons l’IA dans les classes et autres lieux d’apprentissages. En partenariat avec la CCUNESCO, nous avons lancé le projet Décode les algorithmes et envoyé ce message d’encouragement à chaque enfant : #DécodelesAlgos! Nous espérons pouvoir continuer dans cette direction puisque…

3. L’éducation est essentielle

Afin d’inclure les groupes moins bien représentés, nous devons passer de la consommation passive à la participation active. L’éducation est primordiale pour provoquer ce changement et doit donc être accessible à tous et à toutes : aux enfants qui fréquentent l’école, aux adultes qui changent de carrière après plusieurs années, aux retraité·e·s technophobes et aux décideur·se·s publics.

Le livre blanc fait allusion à une éducation élargie, mais il est possible de faire mieux. Par exemple, pour le résultat à court terme 2.4, le livre blanc espère que :

Les artistes et les journalistes peuvent aider la population à imaginer des IA dignes de confiance et à porter un regard critique sur celles-ci.

En tant qu’observateur·rice·s extérieur·e·s au développement des IA, les artistes et les journalistes jouent un rôle fondamental dans la vulgarisation des concepts reliés à l’IA. Dans certains cas, ils et elles forcent les plus puissants à rendre des comptes à la population. Mais l’accès à ces professions demeure souvent restreint, et n’est souvent offert qu’à un groupe privilégié d’individus.

Et si nous donnions aux citoyen·ne·s numériques les outils pour comprendre les systèmes d’IA avec lesquels ils et elles interagissent?

Il faut aussi que nous considérons les opportunités manquées à cause de n’enseigner l’IA qu’au niveau universitaire

Malgré la COVID-19 et l’inégalité numérique mondiale, les éducateur·rice·s et les gardien·ne·s se battent pour que les enfants puissent continuer à apprendre. Il s’agit ici d’investir dans l’avenir : si nous voulons améliorer notre société en plus de la reconstruire, nous devons d’abord créer de meilleurs leaders. Le livre blanc se doit de nommer et d’inclure ce segment de la société, composé des familles, des écoles et de la jeunesse.

Sinon, nous courons le risque de créer un système qui avantage les personnes informées aux dépens du reste de la population. Il s’agirait d’un système dont l’accès est contrôlé par quelques privilégiés qui n’est pas au service des utilisateur·rice·s.

Pareillement, nous aimerions souligner les limites de l’objectif à court terme 4.4 :

Les gouvernements mettent sur pied des programmes pour se procurer et investir dans les IA dignes de confiance.

C'est important, sans aucun doute, mais il se concentre principalement sur les rouages internes du système gouvernemental. Mais qu'en est-il de l'éducation ? Le Canada investit 6,2 % de son PIB dans l'éducation. Après la naissance, l'éducation est souvent la première interaction directe d'un·e Canadien·ne avec les services gouvernementaux. Elle devrait donc jouer un rôle important dans la façon dont le gouvernement investit et légifère en matière d'IA.

La réglementation doit aller au-delà d'un traitement rétroactif des systèmes d'IA existants et des données qu'ils collectent. Nous devons doter les citoyens numériques de connaissances fondamentales pour comprendre comment leurs interactions avec l'IA influencent ces systèmes et le contrôle qu'ils exercent. Cela doit à son tour limiter la capacité des entreprises privées à développer des systèmes non testés et opaque qui peuvent exercer un niveau d'influence important sur le monde entier.

4. Digne de confiance d’ici 2030?

Déjà, l’ONU a travaillé d’arrache-pied pour créer ces Objectifs de Développement Durable (ODD) et les déployer en tant que cadre pour le changement. En utilisantle cadre des ODD pour guider les principes de IA dignes de confiance, le livre blanc lui-même serait plus digne de confiance et contribuerait à créer un vocabulaire mondial favorisant de réels changements. Ceci structurerait également ce cadre dont le but est de créer une IA juste et équitable. En d’autres mots, il s’agit de créer un système qui respecte les besoins des peuples et les limites de notre planète. Une telle intégration est d’autant plus importante compte tenu du fait qu’alimenter les systèmes informatiques à la base des IA contribue aux émissions de gaz à effet de serre.

Comme le mentionne une adolescente :

« Manquer à l’éthique, c’est facile. Ça coûte beaucoup plus cher de bien traiter ses travailleurs et d’utiliser des ressources équitables, mais l’impact sur le fonctionnement du système est énorme. Il est difficile de changer, puisque c’est comme ça depuis la révolution industrielle. »

Une autre a ajouté :

« Nos gestes [individuels] ont un impact, mais si les [grandes organisations] font un effort pour changer leur comportement, cela aura un plus grand impact à long terme. »

- Réponses des jeunes aux recommandations de l’UNESCO sur l’IA, recueillies en collaboration avec Algora Lab et Mila

Les Objectifs les plus pertinents pour ce livre blanc qui mériteraient d’être intégrés aux résultats à court terme et à la feuille de route à long terme sont les suivants :

OBJECTIF 4 : Éducation de qualité

Les programmes éducatifs doivent incorporer l’IA et de la littératie permettant une meilleure compréhension et utilisation de l’IA - ces derniers étant des éléments fondamentaux de la littératie numérique.

OBJECTIF 5 : Égalité entre les sexes

La diversité doit être présente partout, à tous les niveaux et à chaque étape du processus de développement. L’équipe responsable de l’assurance qualité et les groupes de discussion pour les nouveaux produits doivent également être diversifiés.

OBJECTIF 8 : Travail décent et croissance économique

Les IA vont altérer le monde du travail en automatisant des secteurs entiers de l’économie et en créant de nouveaux rôles et de nouvelles industries. La nécessité d'assurer une transition équitable est pressante.

OBJECTIF 9 : Industrie, innovation et infrastructure

L’industrie est un acteur important. Il est donc raisonnable d’aligner ce cadre mondial avec cet Objectif. De plus, au fur et à mesure que les IA font progresser l’industrie, et pour le développement d’infrastructures et d’innovations futures, il est essentiel de prendre en considération les points soulignés dans notre résumé du livre blanc et par les jeunes citoyen·ne·s que nous avons consultés. La confiance et l’imputabilité doivent intentionnellement faire partie du processus.

OBJECTIF 10 : Inégalités réduites

L’inclusion est absolument nécessaire pour s’assurer que les droits de tou·te·s les citoyen·ne·s numériques ont une influence sur la conception et la réalisation d’IA dignes de confiance. Il est également essentiel que l’IA et l’éducation au sujet de l’IA soient accessibles à tous et à toutes, et ce, afin que personne ne soit exclu des innovations à venir dans le domaine de l’IA et que tous et toutes soient représentés au sein de celui-ci.

OBJECTIF 16 : Paix, justice et institutions efficaces

Les gouvernements ont l’occasion d’incorporer des politiques concernant les IA dignes de confiance dans leurs opérations et d’adopter des politiques afin d’assurer protection des citoyen·ne·s contre l’utilisation abusive et malhonnête des IA. Lors de l’établissement de mesures de protection et de gouvernance, les relations entre l’IA et la vie privée, la concurrence, le Code criminel et toutes autres lois ou politiques pertinentes doivent être considérés afin de créer des environnements sécuritaires gérés par des IA dignes de confiance.

OBJECTIF 17 : Partenariats pour la réalisation des Objectifs

Nous ne pouvons pas atteindre les ODDs ni développer des IA dignes de confiance seuls. Rendre accessible ce livre blanc pour que tous puissent le commenter donne un excellent coup d’envoi à ce processus radical. Alors que débute la Décennie d’action des Objectifs de développement durable de l’ONU, nous sommes d’avis que d’autres partenaires doivent être invités à se joindre aux discussions, et tout particulièrement nos plus jeunes citoyen·ne·s.

Franchir les prochaines étapes ensemble

Pour qu’une IA soit vraiment digne de confiance, elle doit prendre en compte l’ensemble de la société. Cela comprend les enfants et l’éducation, mais aussi ceux et celles qui n’ont pas accès à internet, ceux et celles sans littératie numérique et bien d’autres. Pour sortir de la dichotomie binaire entre consommateur·rice et créateur·rice, nous devons visualiser un écosystème composé de diverses parties prenantes. Cet écosystème n’entre pas facilement dans une matrice ou un cadre unique. Mais pour protéger les intérêts de tous, nous devons sacrifier un peu de simplicité narrative.

En militant au nom de nos plus jeunes citoyen·ne·s numériques, qui sont plus concernés par l’avenir que quiconque, nous espérons avoir donné plusieurs pistes de réflexion à l’équipe de Mozilla. Nous espérons que ces idées motiveront l’équipe à entendre plus de voix et à incorporer les besoins de ces dernières dans leurs suggestions. Nous espérons également nous joindre à cette équipe et à leur mission d’établir une nouvelle norme mondiale pour une IA digne de confiance.