Sauter au menu Sauter au contenu
PraedictIA

Quels sont les enjeux éthiques de l’intelligence artificielle (IA) ?

Pourquoi l’intelligence artificielle a besoin d’éthique

Depuis l’antiquité, les philosophes s’intéressent à l’éthique; sa définition précise implique de nombreuses considérations complexes touchant le bien et le mal, la morale, le devoir de chacun et le rôle que les individus sont appelés à jouer dans la société.

La question de l’éthique entourant l’IA existe depuis ses tout premiers développements. La capacité des logiciels à effectuer des tâches complexes normalement réservées aux humains fait craindre le contournement des principes moraux qu’on attribue aux humains par des logiciels servant des intérêts malveillants ou conçus pour des fins répréhensibles.

La crainte de voir les machines dépasser leurs créateurs ou échapper à leur contrôle a aussi saisi l’imagination, et de nombreux scénarios catastrophiques ont vu le jour sous la plume, entre autres, d’auteurs de science-fiction. En 1942, l’écrivain Isaac Asimov a énoncé ce qu’il a appelé les trois lois de la robotique. Ces lois, revisitées dans le film I, Robot en 2004, constituent l’une des premières tentatives pour établir des lignes directrices visant à nous protéger des éventuels dangers des systèmes informatiques autonomes.

Aujourd’hui, avec l’omniprésence et la puissance accrue des ordinateurs, la possibilité que les algorithmes montrent des compétences qui imitent l’intelligence humaine et peuvent avoir des conséquences fâcheuses s’ils ne font pas l’objet d’une surveillance et d’une réglementation minutieuses, rend cette menace beaucoup plus réelle et subtile.

Selon des chercheurs du AI Now Institute, de l’université de New-YorkNote de bas de page 1, l’introduction de systèmes d’IA dans le domaine social indique l’urgence de mettre en place des mécanismes d’évaluation, de responsabilisation et de surveillance touchant tout particulièrement les systèmes de reconnaissance des images et des émotions.

Voici quelques-uns des domaines qui, selon le Stanford Encyclopedia of PhilosophyNote de bas de page 2, devront faire l’objet d’une vigilance accrue compte tenu de la présence croissante de ces systèmes intelligents.

La vie privée et la surveillance

La collecte et l’interprétation des informations numériques échangées entre les individus et des informations obtenues au moyen de senseurs par des systèmes IA de plus en plus performants ont entraîné la circulation de données personnelles et de données permettant l’identification des personnes au-delà des plateformes dans lesquelles elles ont été recueillies. Cet accès à des informations personnelles pouvant être extrapolées pour caractériser des groupes, interfère, par exemple, avec le droit des individus au secret et à la vie privée. Dans le passé, on s’est surtout préoccupé de la surveillance des individus par l’État ou par les services secrets.

De nos jours, d’autres agents étatiques, des entreprises et même des individus peuvent appliquer cette surveillance. Subséquemment, le traitement de ces ensembles massifs de données permet de caractériser les individus avec une précision qui dépasse celle dont ils peuvent eux-mêmes disposer. On pourrait dire que la machine nous connaît mieux que nous ne nous connaissons nous-mêmes, mais aussi qu’elle nous connaît mal lorsque l’image qu’elle nous renvoie est fondée sur des données interprétées en secret d’après des généralisations hâtives ou des informations erronées.

Les technologies permettant l’acquisition de ces données ont beaucoup évolué au cours des dernières décennies, et la réglementation n’a pas toujours suivi. Une certaine anarchie règne dans ce domaine et les gros joueurs retirent les bénéfices de ce manquement, parfois au vu et au su de tous. Un marché s’est ainsi établi dans lequel ces informations peuvent être transigées comme des marchandises. Le caractère numérique des informations contribue grandement à l’acquisition de ces données et rend leur contrôle plus difficile que dans un monde de papier et d’échanges téléphoniques. Combinée à l’utilisation d’algorithmes de reconnaissance faciale, la collecte de ces informations facilite grandement le profilage et la recherche d’individus. Cette disponibilité des données et la possibilité d’exploiter les connaissances ainsi acquises font partie du prix à payer pour les services, dits gratuits, que l’on utilise. Pour obtenir ces informations, certaines compagnies vont jusqu’à faire usage de déception ou de manipulation, et n’hésitent pas à encourager la procrastination ou à susciter la dépendance.

En réponse à cette invasion, plusieurs techniques de préservation de l’anonymat utilisant le cryptage ou le brouillage se développent, entre autres par le biais d’entreprises qui y voient un avantage commercial. La réglementation de ces pratiques est éminemment complexe compte tenu de la difficulté à établir la responsabilité et à démontrer l’intention fautive.

Est-ce que ça existe encore la vie privée ?

La manipulation du comportement

Au-delà de l’accumulation et du traitement des données, on peut se questionner sur le caractère éthique de leur utilisation pour influencer le comportement des individus sans tenir compte des choix rationnels personnels. Cet objectif n’est pas nouveau mais la présence de l’IA lui confère une qualité nouvelle. Présentement, les jeux de hasard et la vente de substances addictives sont fortement réglementés. L’encouragement de la dépendance aux plateformes de communication en ligne et la manipulation qu’elle entraîne ne l’est pas, et ces pratiques constituent un trait important du modèle d’affaires de l’Internet. L’utilisation de telles méthodes sur les réseaux sociaux, combinée à la diffusion de fausses nouvelles et de photos ou de vidéos savamment retouchées nous expose tous à des manipulations frauduleuses.

Les efforts de défense des libertés civiles et de protection des droits des individus subissent énormément de pression de la part des lobbies d’affaires, des services secrets et d’autres agences d’État pour qui la surveillance est primordiale. La position des gouvernements sur cette question varie beaucoup. Tandis que l’Union européenne, par exemple, s’est montrée plus favorable à la protection de la confidentialité, les États-Unis et la Chine ont préféré miser sur la croissance économique au détriment de la réglementation.

L’opacité des systèmes d’IA

L’utilisation d’un système d’IA pour l’aide à la prise de décision ou pour l’analytique prédictive soulève bien des questions en ce qui a trait à l’attribution de la responsabilité et au contournement possible des procédures reconnues. La difficulté, voire l’impossibilité d’examiner le détail des procédures de décision et des ensembles de données ayant servi à échafauder ces procédures impose de sérieuses restrictions qui limitent l’implication des humains. Cette opacité affecte les personnes qui subissent les conséquences des décisions prises. Si l’état du système est le résultat d’un apprentissage machine non supervisé, les développeurs qui auront élaboré et mis en place le système seront eux-mêmes laissés dans le noir. Cette ignorance des motifs réels ayant mené aux recommandations produites par les algorithmes rend difficile la reconnaissance de biais possibles dans les décisions rendues ou dans la sélection des données utilisées dans l’élaboration des algorithmes.

Les biais dans les systèmes de décision

Bien des systèmes IA sont perfectionnés par le biais d’une grande quantité de données brutes parmi lesquelles les systèmes s’appliqueront à reconnaître des combinaisons spécifiques de paramètres. L’algorithme cherchera ensuite à reconnaître ces combinaisons chez les individus et, selon leur présence ou leur absence, il sera en mesure de produire des recommandations. Contrairement à l’humain, l’ordinateur ne tiendra compte ni de la diversité des éléments d’information qui constituent ces combinaisons ni du fait qu’ils soient complètement indépendants les uns des autres. Par exemple, si les données montrent une corrélation accidentelle entre la date de naissance d’un individu et son historique de crédit, les recommandations obtenues au moyen de l’algorithme seront teintées par cette corrélation artificielle et seront donc biaisées, alors qu’il est clair que tout examinateur humain aurait su passer outre ces considérations, les sachant illusoires.

Dans le cadre du perfectionnement des algorithmes d’analyse, on sait que fournir une trop grande quantité de données à l’algorithme lui ferait perdre un temps précieux. Il devrait distiller des informations qui, si on les avait examinées soi-même, se seraient avérées inutiles à l’examen en cours. Une prospection préalable à l’intérieur de l’ensemble des données brutes permettra de retenir uniquement celles qui peuvent éclairer le problème à l’étude. Cependant l’ensemble de données ainsi épuré pourra éventuellement être réutilisé dans le cadre d’une recherche différente ayant un tout autre ensemble de paramètres. La sélection faite dans l’ensemble initial, qui montrait une distribution crédible des paramètres pertinents, pourra éventuellement contenir une distribution artificiellement biaisée de ces nouveaux paramètres. Les recommandations issues de cette nouvelle analyse pourraient être faussées par la présence inégale des paramètres ignorés lors de l’analyse initiale; les recommandations alors suggérées pourraient montrer un biais impossible à reconnaître, qui mènerait à des conclusions trompeuses.

Comment les biais cognitifs trompent notre cerveau

Les systèmes autonomes

On peut donner plusieurs sens à la notion d’autonomie et dire que, pour qu’une entité soit perçue comme étant responsable, elle doit avoir agi par elle-même, de manière autonome. Un sens plus faible de l’autonomie est technique; un système sera reconnu comme étant à peu près autonome selon qu’il exige une supervision plus ou moins grande de la part d’un humain. Les deux exemples ci-dessous illustrent bien le problème de l’autonomie.

Les véhicules autonomes

Cette application de l’IA promet une réduction importante des dommages qui découlent des erreurs de jugement ou d’exécution de conducteurs humains. On compte environ 1 million de morts chaque année sur les routes et un nombre encore plus grand de blessés, sans parler de la pollution environnementale, celle des villes entre autres, générée par l’utilisation massive de l’automobile.

La question de l’autonomie des véhicules soulève toutefois de nombreuses interrogations quant aux comportements qu’on attend des autos sans conducteur et à l’attribution de la responsabilité dans les cas où des dommages physiques ou humains résultent de décisions prises de manière autonome.

L’empêchement de comportements égoïstes tels que la vitesse excessive, les dépassements risqués ou le maintien d’une distanciation insuffisante entre les véhicules sont des exemples classiques qui servent l’intérêt personnel au détriment du bien commun. L’imposition de comportements éthiques dans la programmation des algorithmes de conduite automatisée constitue donc un standard important dans le développement de ces véhicules.

Et si les véhicules autonomes dominaient le monde ?

Les armes autonomes

Il n’a pas fallu attendre l’IA pour la fabrication d’armements incorporant des fonctionnalités automatiques. Avec les récents développements de systèmes autonomes, toutefois, le risque qu’imposent ces engins est grandement augmenté. Le danger se trouve dans la facilitation de l’accès à ces systèmes et dans la responsabilité déplacée ou cachée des actions qu’ils accomplissent. De plus, la combinaison des capacités destructives de ces armes et des progrès dans la reconnaissance des personnes grâce aux visages ou à d’autres traits physiques constitue une menace qu’il est important de contrôler.

D’un autre côté, on peut se demander si leur utilisation risque d’augmenter la sévérité des conflits ou plutôt de réduire la durée et la gravité des confrontations.

Les entités morales artificielles

Si on relie l’éthique à l’adoption d’un comportement moral, les machines seront considérées comme des agents desquels on attend ce type de comportement et on voudra les tenir responsables de leurs actes, ce qui s’avère illusoire pour l’instant. Cela pourrait nous inciter à vouloir éviter de placer les machines dans des postes qui, traditionnellement, exigent le respect des autres ou demandent des soins ou de l’empathie, p. ex. les rôles de thérapeute, de soldat, de policier ou de juge.

Les manquements à ces exigences et la responsabilisation des machines pour les erreurs commises sont toutefois des problèmes difficiles à élucider. Il sera important de se demander à qui attribuer la faute et auprès de qui intervenir pour corriger ces manques.