Aller au contenu

Éthique de l'intelligence artificielle

Un article de Wikipédia, l'encyclopédie libre.

L'éthique de l'intelligence artificielle est le sous-domaine de l'éthique de l'informatique propre à l'intelligence artificielle (IA). Elle recouvre divers thèmes présentant des enjeux éthique particuliers, dont les biais algorithmiques, l'équité, la prise de décision automatisée, la protection des données personnelles, l'imputabilité et la réglementation. L'éthique de l'IA recouvre également divers enjeux émergents ou potentiellement futurs tels que la sûreté et l'alignement de l'IA, la course aux armements, les systèmes d'armes létales autonomes, le chômage technologique, la désinformation, comment traiter certains systèmes d'IA s'ils ont un statut moral (bien-être et droits de l'IA), la superintelligence artificielle et les risques existentiels[1]. Certains domaines d'application de l'IA peuvent aussi avoir des implications éthiques particulièrement importantes, comme la santé, l'éducation ou le militaire.

Préoccupations éthiques

[modifier | modifier le code]

Atteinte à la vie privée

[modifier | modifier le code]

L'émergence de l'intelligence artificielle (IA) soulève deux préoccupations majeures autour de la vie privée : des informations privées peuvent être compromises à travers une attaque contre un système d'IA par une tierce personne et un système d'IA lui-même peut être utilisé comme outil pour collecter des données privées sur des individus.

On trouve de nombreux exemples d'attaques contre un système d'IA par une tierce personne dans le domaine de l'apprentissage machine. En effet, les algorithmes d'apprentissage machine apprennent sur des données qui contiennent parfois des informations privées sur des individus, comme des informations médicales. L'entrainement de cet algorithme d'apprentissage machine produit ensuite un modèle qui peut être utilisé à travers des requêtes pour produire de nouvelles données. Il est donc nécessaire que les données d'entrainement ne puissent pas être reconstruites ou retrouvées à travers ces requêtes faites au modèle entrainé[2].

La recherche scientifique a permis de mettre en lumière plusieurs attaques permettant de reconstruire des données utilisées pour entrainer le modèle d'apprentissage machine à partir de requêtes au modèle[3]. Par exemple, il est possible de récupérer des clés de chiffrement privées en utilisant des outils de complétion de code basés sur l'apprentissage machine comme GitHub Copilot[4]. D'autres recherches ont démontré qu'il était possible de savoir si un individu fait partie d'une base de données d'entrainement sans y avoir directement accès[5],[6]. Cela peut porter atteinte à la vie privé de l'individu dans le cas où le simple fait de faire partie de la base de données est une information compromettante, par exemple lorsque la base de données regroupe des patients atteints d'une maladie grave[3].

De nombreuses technologies d'IA inquiètent les chercheurs quant à leur capacité à porter atteinte à la vie privée. Par exemple, les technologies de surveillance de masse comme la reconnaissance faciale peuvent représenter un danger pour la vie privée des individus[7].

Atteinte à la dignité humaine

[modifier | modifier le code]

Joseph Weizenbaum a soutenu en 1976 que la technologie de l'IA ne devrait pas être utilisée pour remplacer des personnes dans des positions qui exigent le respect et les soins, tels qu'un représentant du service à la clientèle (l'IA est déjà utilisée pour les systèmes téléphoniques interactifs de réponse vocale), un thérapeute (comme le proposait sérieusement Kenneth Colby dans les années 1970), une assistance aux personnes âgées (comme l'a rapporté Pamela McCorduck dans son livre The Fifth Generation[réf. nécessaire]), un soldat, un juge ou un policier[8]. Weizenbaum explique que nous avons besoin de sentiments et d'empathie de la part des personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalués et frustrés. L'intelligence artificielle, si elle est utilisée de cette façon, représente une menace pour la dignité humaine[8].

Le fondateur d'IA John McCarthy s'oppose au ton moralisateur de la critique de Weizenbaum. « Quand la moralisation est à la fois véhémente et vague, elle invite l'abus autoritaire », écrit-il[9].

Bill Hibbard (en)[10] écrit que « la dignité humaine exige que nous nous efforcions d'éliminer notre ignorance de la nature de l'existence, et l'IA est nécessaire pour cet effort ».

Transparence et explicabilité

[modifier | modifier le code]

La transparence de l'IA est la capacité pour ses utilisateurs de comprendre comment les décisions sont prises par les algorithmes. Les décisions prises par l'IA peuvent avoir un impact significatif sur les humains, il est donc crucial que les intelligences artificielles soient transparentes en ce qui concerne leurs décisions, de façon à permettre d'identifier leurs biais potentiels. Cela pourra également permettre de renforcer la confiance envers les systèmes d'IA et de favoriser l'adoption de ces technologies dans le futur selon le besoin[11].

Quelques méthodes permettent de rendre les systèmes d'IA plus transparents. L'une des approches consiste à utiliser des techniques d'exploration de modèle pour comprendre comment l'IA prend ses décisions. Cela peut être fait en examinant les poids et les biais des algorithmes et en les comparant à des ensembles de données d'entraînement[réf. nécessaire].

Une autre méthode consiste à rendre les systèmes d'IA plus interprétables. Des techniques telles que la représentation graphique des résultats permettent ainsi de visualiser comment les données sont traitées par l'IA. Ces méthodes ne permettent toutefois pas de comprendre réellement les décisions prises par les intelligences artificielles, donc ne permettent pas de les prédire[12].

La transparence de l'IA est également nécessaire pour s’assurer que les systèmes d'IA soient équitables et non discriminatoires[13].

Ethics washing

[modifier | modifier le code]

Dans le domaine de l’intelligence artificielle, l’effervescence des principes éthiques questionne et suggère une potentielle notion d'ethics washing de la part des entreprises. Cette expression fait référence au phénomène qui ferait de l’éthique un argument de vente, un phénomène de mode. En ce sens, les « ethics guidelines » des entreprises interrogent sur ce qui est mis derrière la notion d'éthique, et si ces lignes directrices sont vraiment utiles, ou alors davantage un moyen de casser la controverse.

open source et openness

[modifier | modifier le code]

La notion d’openness est utilisée dans le domaine de l'IA pour généraliser la notion d’open source à tous les composants d'un système d'IA. Alors que l’open source fait uniquement référence au code source d'un système, d'autres composants comme les poids peuvent également être accessibles et redistribués librement[14]. Le terme d'IA open source est cependant parfois utilisé par abus de langage par la communauté scientifique pour désigner une IA dont la plupart de ses composants sont libres d'accès. L'openness impacte la transparence, la démocratisation, l'auditabilité et la sécurité d'un système d'IA[15].

Bill Hibbard soutient que parce que l'IA aura un effet profond sur l'humanité, les développeurs d'IA sont des représentants de l'humanité future et ont donc l'obligation éthique d'être transparents dans leurs travaux[16]. Ben Goertzel et David Hart ont créé OpenCog, un cadre open source pour le développement de l'IA[17]. OpenAI est une société de recherche à but non lucratif créée par Elon Musk, Sam Altman et d'autres pour développer l'IA open source[18]. De nombreux autres modèles de fondation open ont vu jour comme LLaMA[19] et Stable Diffusion[20].

La démocratisation de l'IA à travers l’open source et l’openness a causé l'apparition de nouveaux dangers et d'utilisations détournées de modèles d'Apprentissage automatique. Par exemple, l'accès facilité à des modèles d'apprentissage dans le domaine de la Vision par ordinateur a permis à des utilisateurs de Reddit de créer des deepfakes pornographiques[21]. Cet accroissement des risques liés à l'utilisation malveillante de systèmes d'Intelligence Artificielle a mené la communauté scientifique à remettre en question le bien-fondé de l’open source et de l’openness dans le domaine de l'IA[22],[23]. La puissance de calcul nécessaire pour affiner l'entrainement d'un algorithme d'IA étant de plus en plus accessible à bas coût, le libre accès aux poids d'un algorithme d'apprentissage peut donc faciliter l'apparition d'utilisation malveillante[24].

Des questionnements similaires sont soulevés sur le libre accès des publications scientifiques en intelligence artificielle[25],[26].

Alignement et éthique des machines

[modifier | modifier le code]

L'éthique des machines (ou morale de la machine) est le domaine de recherche qui se consacre à la conception d'agents moraux artificiels (AMA), de robots ou d'ordinateurs artificiellement intelligents qui se comportent moralement[27],[28],[29],[30].

Isaac Asimov a examiné cette question dans les années 1950 dans Les Robots. À l'insistance de son rédacteur John W. Campbell Jr., celui-ci a proposé les trois lois de la robotique dans le but de gouverner des systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à tester les limites de ses trois lois. Son travail suggère qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles[31].

Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[32]. Le président de l'Association for the Advancement of Artificial Intelligence a commandé une étude afin d'examiner cette question[33]. Ils pointent vers des programmes d'Acquisition de Langage afin d'imiter l'interaction humaine.

Vernor Vinge a suggéré un point hypothétique de la civilisation humaine qui pourrait connaître une croissance technologique où certains ordinateurs deviendraient plus intelligents que les humains. Il appelle cela la « Singularité »[34]. Il suggère que celle-ci peut être très dangereuse pour l'humanité[35]. Cela est discuté par le singularitarisme. La Machine Intelligence Research Institute a suggéré la nécessité de construire des « intelligences artificielles amicales », ce qui signifie que les progrès qui sont déjà en cours avec l'IA devrait également inclure un effort pour rendre l'IA intrinsèquement amicale et humaine[36].

Dans Moral Machines: Teaching Robots Right from Wrong[37], Wendell Wallach et Colin Allen concluent que les tentatives d'enseigner les droits des robots à partir du mal vont probablement améliorer la compréhension de l'éthique humaine en motivant les humains à combler les lacunes de la théorie normative moderne et en fournissant une plate-forme pour l'investigation expérimentale. Nick Bostrom et Eliezer Yudkowsky ont plaidé pour des arbres de décision (tels que ID3) sur des réseaux de neurones et des algorithmes génétiques au motif que les arbres de décision obéissent aux normes sociales modernes de transparence et de prévisibilité[38].

Roboéthique

[modifier | modifier le code]

La « roboéthique » envisage l'aspect éthique de la conception, la construction, l'utilisation, et le traitement des robots par les humains[39]. Elle considère à la fois comment des êtres artificiellement intelligents peuvent être utilisés pour nuire à l'homme et comment elles peuvent être utilisées au profit de celui-ci.

Violences sexuelles et pédopornographie

[modifier | modifier le code]

Les modèles d'IA génératifs sont maintenant capables de générer des images photo-réalistes, permettant notamment la génération de contenu pédopornographique[40]. En octobre 2023, l'Internet Watch Foundation (IWF) sonne l'alarme dans un rapport explicitant l'étendu du problème : près de 3 000 images pédopornographiques générées par IA ont été retrouvées sur le web et jugées illégales dans le cadre de la loi britannique[40]. Certaines de ces images utilisent le visage de vrais enfants, étant générées à partir d'autres photos données en entrée au modèle d'IA. Le rapport de L'IWF s'inquiète notamment de ce type de modèle d'IA lorsqu'ils sont open source car cette génération d'images peut être effectuée en local sur un ordinateur, rendant la détection de ce type de pratique plus difficile[40].

Un autre type de violence sexuelle causée par l'IA est la génération de deepfakes pornographiques. Les deepfakes postées en ligne sont pour 96 % à caractère pornographique et sont généralement générées sans le consentement des personnes dont l'image est utilisée, touchant principalement des femmes célèbres[41].

Droits des robots

[modifier | modifier le code]

Les droits des robots sont les obligations morales de la société vis-à-vis de ses machines, similairement aux droits de l'homme et aux droits des animaux[42]. Il peut s'agir du droit à la vie et à la liberté, à la liberté de pensée et d'expression et à l'égalité devant la loi[43].

Superintelligence et imprévisibilité

[modifier | modifier le code]

De nombreux chercheurs ont fait valoir que, dans le cadre d'une « explosion d'intelligence » au cours du XXIe siècle, une IA auto-améliorée pourrait devenir tellement puissante que les humains ne pourraient pas l'empêcher d'atteindre ses objectifs[44].

Dans son article Ethical Issues in Advanced Artificial Intelligence et son livre Superintelligence : chemins, dangers, stratégies, le philosophe Nick Bostrom met en garde contre les risques existentiels liés à l'IA. Selon lui, une superintelligence artificielle, dotée de capacités de planification et d'initiative, pourrait potentiellement causer l'extinction de l'humanité. De telles IA pourraient en théorie avoir des motivations radicalement différentes de celles des humains, et ce serait aux concepteurs de leur inculquer des valeurs morales. Bostrom soutient qu'une superintelligence artificielle serait très compétente pour déjouer tout ce qui pourrait entraver la réalisation de ses objectifs. Il suggère que la première superintelligence artificielle créée pourrait être décisive pour l'humanité et invite à davantage de recherche sur les aspects de sûreté[45],[46].

Bostrom considère qu'une superintelligence artificielle aurait également le potentiel de résoudre de nombreux problèmes difficiles, tels que la maladie, la pauvreté et la dégradation de l'environnement, et pourrait aider l'humanité à augmenter ses capacités[47].

Bill Hibbard propose une conception de l'IA[Laquelle ?] qui évite plusieurs types de comportement non intentionnel de celle-ci, y compris l'auto-désillusion, les actions instrumentales non intentionnelles et la corruption du générateur de récompense[10].

Dans son film Singularity (2017) Robert Kouba imagine qu'un super ordinateur (Kronos) décrète que l’homme est la plus grande menace pour la planète, et cherche à éradiquer l'espèce humaine.

Technologies controversées

[modifier | modifier le code]

Armes autonomes

[modifier | modifier le code]

Certains experts et universitaires ont mis en doute l'utilisation de robots pour le combat militaire, surtout lorsque ces robots sont dotés d'un certain degré d'autonomie[48],[49]. La Marine américaine a financé un rapport qui indique que, à mesure que les robots militaires deviennent plus complexes, il faudrait accorder plus d'attention aux implications de leur autonomie[32],[50]. Des chercheurs affirment que, si bien conçus, les robots autonomes pourraient être plus éthiques que les humains dans leurs prises de décision, et s'avérer bénéfiques dans la guerre[51].

Les armes autonomes avec IA peuvent présenter un type de danger différent de celui des armes commandées par des humains. De nombreux gouvernements ont commencé à financer des programmes pour développer l'armement à base d'intelligence artificielle. La marine des États-Unis a annoncé des plans de développement des drones de combat autonomes, en parallèle des annonces similaires de la Russie et de la Corée.

En ce qui concerne la possibilité d'utiliser militairement des systèmes plus intelligents, Open Philanthropy écrit que ce scénario « semble potentiellement être aussi important que les risques liés à la perte de contrôle », mais que les organismes de recherche qui enquêtent sur l'impact social à long terme des IA ont consacré relativement peu de temps à cette préoccupation : « cette classe de scénarios n'a pas été un axe majeur pour les organisations les plus actives dans ce domaine, comme la Machine Intelligence Research Institute (MIRI) et Future of Humanity Institute (FHI), il semble y avoir eu moins d'analyses et de débats à leur sujet »[52].

Lettres ouvertes de la communauté de l'IA

[modifier | modifier le code]
« Priorités de recherche pour une intelligence artificielle robuste et bénéfique » (2015)
[modifier | modifier le code]

Stephen Hawking, Elon Musk, Max Tegmark et plusieurs autres de la communauté internationale en intelligence artificielle et en robotique ont signé une Lettre ouverte sur l'intelligence artificielle[53] du Future of Life Institute (« Institut de l'avenir de la vie »). Cette lettre fait référence à un article publié séparément sur les priorités en recherche sur l'IA.

« Armes autonomes : une lettre ouverte de chercheurs en IA et en robotique » (2015)
[modifier | modifier le code]

Une lettre ouverte sur les armes autonomes est publiée[54] : « Si une puissance militaire majeure avance avec le développement de l'arme de l'intelligence artificielle, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikov de demain », dit la pétition, qui inclut le cofondateur de Skype, Jaan Tallinn et professeur de linguistique du MIT Noam Chomsky en tant que partisans supplémentaires contre l'armement des IA[55].

Le message porté par Hawking et Tegmark indique que les armes à base d'IA représentent un danger immédiat et que des mesures sont nécessaires pour éviter une catastrophe dans un avenir proche[56].

« Lettre ouverte à la Convention des Nations unies sur certaines armes classiques » (2017)
[modifier | modifier le code]

Une autre lettre ouverte[57] au sujet de la Convention sur certaines armes classiques des Nations unies cible spécifiquement le bannissement des armes autonomes dans le cadre des Nations unies. Cette lettre, « AN OPEN LETTER TO THE UNITED NATIONS CONVENTION ON CERTAIN CONVENTIONAL WEAPONS » , est signée par Elon Musk de Tesla et par Mustafa Suleyman d'Alphabet ainsi que par 116 spécialistes de 26 pays.

« Les armes létales autonomes menacent de devenir la troisième révolution en armement. Une fois développées, ces armes permettront de combattre dans un conflit armé à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains ne peuvent le comprendre. Elles peuvent être des armes de terreur, des armes que des despotes et des terroristes utilisent contre des populations innocentes, et des armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer. Nous implorons donc les Hautes Parties contractantes de trouver un moyen de nous protéger tous de ces dangers. »

Le chercheur canadien Yoshua Bengio a écrit au premier ministre Trudeau pour demander, avec ses collègues, « que le Canada appuie les démarches en cours à l’ONU afin de bannir les robots tueurs. C’est pour cela que j’ai contribué, aux côtés de Stephen Hawkins et Elon Musk, à l’élaboration d’une autre lettre, cette fois-ci provenant de toute la communauté internationale en intelligence artificielle et en robotique, et exigeant un traité international pour bannir les robots tueurs[58]. »

Positions inflationniste et déflationniste

[modifier | modifier le code]

Abordé par le philosophe Nick Bostrom dans son ouvrage intitulé Superintelligence : chemins, dangers, stratégies, le « risque existentiel » engendré par l'intelligence artificielle est abordé à l'aide de deux positions éthiques : l'inflationnisme et le déflationnisme[46]. Selon Bostrom, l'émergence d'une intelligence bien plus importante que l'intelligence humaine serait à venir et ainsi, la divergence de points de vue opposerait ceux étant pour le développement à long terme de cette nouvelle technologie et ceux pensant plutôt aux enjeux actuels associés à son implantation dans notre société.

Point de vue inflationniste

[modifier | modifier le code]

« La perspective inflationniste met l’accent sur les conséquences à long terme du développement de l’IA en réfléchissant notamment aux enjeux et aux risques associés à l’émergence d’une IA générale (IAG)[59]. » Ainsi, les gens adhérant à ce point de vue désirent créer des machines considérées éthiques selon les valeurs présentes dans la société moderne[59]. Ils partagent l'idée qu'un jour l'intelligence des machines surpassera celle des humains et qu'une IA pourra « exercer la plupart des professions humaines au moins aussi bien qu’un être humain moyen ». Par exemple, l’astrophysicien Stephen Hawking a déclaré :

« [j]e pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les humains auraient développé l’IA, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »

En janvier 2015, la lettre ouverte sur l'intelligence artificielle, défendue par des dizaines d'experts en intelligence artificielle et des personnalités comme Stephen Hawking et Elon Musk, semble concorder avec la position inflationniste en déclarant que bien que l'intelligence puisse éradiquer diverses maladies et la pauvreté, il est nécessaire de superviser son progrès de près pour éviter une perte de contrôle. Intitulé Priorités de recherches pour une intelligence artificielle solide et bénéfique : Lettre ouverte (en version originale en anglais Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter), ce document vise à mettre en place des priorités pour les enjeux économiques, éthiques et sociaux, entre autres[60]. Par exemple, « [u]n autre [enjeu] fréquemment évoqué est celui de systèmes d’IA fortes capables de programmer de façon autonome des algorithmes d’IA toujours plus performants, créant ainsi une distance supplémentaire entre l’IA et l’être humain »[61].

Jean-Gabriel Ganascia a critiqué les aspects futuristes et spéculatifs des discours sur l’éthique de l’IA tenus par certaines personnalités comme Elon Musk, Bill Gates ou encore Stephen Hawking[62].

Point de vue déflationniste

[modifier | modifier le code]

La perspective déflationniste « cherche plutôt à penser les enjeux éthiques spécifiques qui sont actuellement associés au développement des systèmes d’IA réels et à leur implantation dans nos sociétés »[63]. En se concentrant sur les enjeux liés à l'intelligence artificielle, les partisans se ralliant à la philosophie déflationniste priorisent les réglementations visant à limiter et réduire les possibles dégâts causés par une utilisation inadéquate de cette nouvelle technologie[64]. Dans cette même optique de création de normes, le Forum IA responsable, appuyé par l'institut québécois de l'intelligence artificielle Mila, a proposé une première version de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle. Celle-ci appuie la position déflationniste afin de prioriser le développement de l’IA dans l’intérêt de l’humanité : « [l]e document déclare que l’IA doit ultimement promouvoir le bien-être de tous les êtres sensibles, la participation éclairée à la vie publique et les débats démocratiques »[65]. Suivant cette perspective, plusieurs autres grandes organisations ont rédigé des documents visant à réguler l'utilisation de l'intelligence artificielle. Un exemple de réglementations mises en place pour favoriser son usage sont les normes ISO. Selon l'Organisation internationale de normalisation, ces « document[s], établi[s] par consensus et approuvé[s] par un organisme reconnu » sont nécessaires afin de démystifier les effets potentiels de l'IA[66],[67]. L'objectif visant à la « normalisation » de l'IA s'inscrit dans une perspective déflationniste afin que l'intelligence artificielle tienne compte de plusieurs enjeux éthiques tels que l'espionnage informatique et les biais algorithmiques[67] :

« La future norme ISO/IEC CD 23894, quant à elle, portera sur la gestion des risques des systèmes d’intelligence artificielle. Ce projet de norme s’appuie sur la norme ISO 31000:2018 - Management du risque, qui permet l’analyse et l’évaluation des risques, tels que les atteintes à la réputation ou à la marque, la cybercriminalité ou encore les risques politiques et le terrorisme[réf. nécessaire]. »

Une autre proposition de réglementation a été publiée en Europe le 21 avril 2021, dite Législation sur l'intelligence artificielle (Artificial Intelligence Act), et vise à rendre les appareils « digne[s] de confiance, centré[s] sur l’humain, éthique[s], durable[s] et inclusi[fs] »[68], appuyant ainsi le point de vue déflationniste.

Législations, principes, directives et guides d'éthiques

[modifier | modifier le code]

Non-uniformisation des principes éthiques

[modifier | modifier le code]

Anna Jobin, Marcello Ienca et Effy Vayena[69] ont identifié 11 principes éthiques : transparence, justice/équité, non-malfaisance, responsabilité, respect de la vie privée, bienfaisance, liberté et autonomie, confiance, durabilité, dignité humaine et solidarité. Ces principes sont ici rangés du plus représenté au moins représenté. Les 84 documents qu’ils ont utilisés sont issus de différents types d’institutions : du secteur privé, du secteur public, des institutions académiques et de recherche, des associations professionnelles et sociétés scientifiques, des organisations sans but lucratif, etc.

Les principes ne figurent pas tous de manière systématique dans les guides éthiques, l’éthique de l’intelligence artificielle n’est donc pas un domaine unifié. Comme l’expliquent les auteurs, la notion d’éthique dans le domaine de l’IA est une notion floue qui peut recouvrir plusieurs réalités. On ne retrouve aucun principe éthique commun à l’ensemble de ces textes. Certains d'entre eux se démarquent tout de même tandis que d’autres se retrouvent sous-représentés. La question de la transparence, par exemple, même si elle n’apparaît pas dans tous les documents, dessine une forme de convergence. À l’opposé, les principes tels que la dignité (humaine) et la durabilité (sustainability) se retrouvent sous-représentés.

Cette notion de durabilité renvoie la plupart du temps à l’empreinte écologique de ces technologies, qui sont très gourmandes en données et donc possèdent une forte empreinte écologique. En dehors de cela, les auteurs soulignent que ce principe de sustainability est intimement lié à celui de solidarité. En ce sens, en dehors des impacts négatifs qu’a l’intelligence artificielle sur l’environnement, il s’agit de créer une technologie qui puisse perdurer, avec des données traitées de façon durable et dont les enseignements sont exploitables dans le temps. L’intelligence artificielle pourrait être conçue, développée et régie dans le but d’augmenter son efficacité énergétique tout en limitant son empreinte écologique.

Le principe de solidarité est, dans la plupart des cas, évoqué en référence à la perte des emplois et à la substitution de l’homme par la machine. Les auteurs soulignent qu’il est nécessaire de questionner ce principe en regard de la question humanitaire, pour aider à résoudre les défis humanitaires notamment.

Des solutions pour rendre l'intelligence artificielle plus éthique sont évoquées dans ces guides. L’ethics by design ou éthique a priori, par exemple, fait référence à l’idée d’une éthique qui ne se concentrerait non plus sur l’aval de la conception de l’IA mais bien sur l’amont de celle-ci. Depuis plusieurs années, les questions d’éthique de l’intelligence artificielle retentissent de plus en plus, dans les médias, aussi bien que dans toutes les sphères impliquées, ce qui a poussé le retrait de certains produits, applications ou algorithmes du marché du numérique. La solution serait donc de penser en amont de la conception, les éventuelles dérives de ces technologies afin d’en limiter les conséquences néfastes. Des solutions techniques sont apportées en ce sens, par exemple, on tente de mettre en place des techniques pour « débiaiser » l'IA.

En dehors de la technologie, on retrouve dans deux documents l’importance de mieux protéger les lanceurs d’alerte[70], ici, nous faisons référence à la notion forgée par Francis Chateauraynaud en 1996. Cette protection pourrait permettre de libérer la parole afin d'éveiller les consciences sur les éventuelles dérives de cette technologie.

Principes d’Asilomar

[modifier | modifier le code]

Plusieurs milliers de signataires, dont Stephen Hawking et Elon Musk ont « adopté un guide de référence pour un développement éthique de l'intelligence artificielle »[71]. Ces principes furent élaborés durant la conférence Asilomar de 2017[72].

l'IA digne de confiance et l'Europe

[modifier | modifier le code]

Face à des usages de l'intelligence artificielle parfois décriés, tels que les applications de surveillance décernant un score aux citoyens chinois[73], l'Europe souhaite se positionner comme un garant de l'éthique de l'intelligence artificielle. Elle constitue le un comité consultatif de 52 experts indépendants, le Groupe d'experts indépendants de haut niveau sur l'intelligence artificielle (GEHN IA, ou High Level Group on Artificial Intelligence, AI HLEG)[74], dont le rôle est de rédiger des documents à consultation ouverte sur l'IA digne de confiance, notamment des lignes directrices[75] et des auto-évaluations[76].

Le 21 avril 2021, l'Europe vise à se doter d'un législation en matière d'IA. Elle propose en cela une ébauche de loi sur l'intelligence artificielle, l'IA Act[77], qui a été finalisée en 2023 et qui doit entrer en vigueur en 2025. Cette loi sur l'intelligence artificielle précise notamment des pratiques interdites en matière d'IA ainsi qu'une catégorisation de systèmes d'IA à haut risques : les IA qui sont intégrée en tant que composant de sécurité dans des systèmes déjà soumis à législation, et les IA autonomes avec des implications principalement dans les droits fondamentaux (voir par exemple la première ligne de ce chapitre).

En France, la CNIL se dote en janvier 2023 d'un service de l’intelligence artificielle (SIA), chargé de la « prévention des risques pour la vie privée liées à la mise en œuvre de ces systèmes » afin de « préparer l’entrée en application du règlement européen sur l’IA »[78].

Éthique de l'IA dans la littérature

[modifier | modifier le code]

Le Premier Cercle, publié par Alexandre Soljenitsyne en 1968, décrit l'utilisation de la compréhension automatique des langues et de la reconnaissance vocale au service de la tyrannie[79]. Si un programme d'IA peut comprendre les textes et les discussions, alors, avec une puissance de traitement adéquate, il pourrait théoriquement écouter tous les courriels et les conversations téléphoniques du monde, ainsi que les comprendre et rendre compte des propos tenus par chacun. Un programme d'IA comme celui-ci pourrait permettre aux gouvernements et à d'autres entités de supprimer efficacement la dissidence et d'attaquer leurs ennemis.

Chercheurs

Organisations

Références

[modifier | modifier le code]
  1. (en) « Ethics of Artificial Intelligence and Robotics », sur Stanford Encyclopedia of Philosophy Archive.
  2. (en) Ayodeji Oseni, Nour Moustafa, Helge Janicke et Peng Liu, « Security and Privacy for Artificial Intelligence: Opportunities and Challenges », arXiv,‎ (DOI 10.48550/ARXIV.2102.04661).
  3. a et b (en) Apostol Vassilev, Alina Oprea, Alie Fordyce et Hyrum Andersen, « Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations », NIST,‎ (lire en ligne, consulté le ).
  4. (en) Yizhan Huang, Yichen Li, Weibin Wu et Jianping Zhang, « Do Not Give Away My Secrets: Uncovering the Privacy Issue of Neural Code Completion Tools », arXiv - CS - Cryptography and Security,‎ (DOI 10.48550/ARXIV.2309.07639, lire en ligne, consulté le ).
  5. (en) Nicholas Carlini, Steve Chien, Milad Nasr et Shuang Song, « Membership Inference Attacks From First Principles », 2022 IEEE Symposium on Security and Privacy (SP),‎ (DOI 10.48550/ARXIV.2112.03570).
  6. (en) Christopher A. Choquette-Choo, Florian Tramer, Nicholas Carlini et Nicolas Papernot, « Label-Only Membership Inference Attacks », International conference on machine learning, 2021,‎ (DOI 10.48550/ARXIV.2007.14321).
  7. (en) Ben Buckley et Matt Hunter, « Say cheese! Privacy and facial recognition », Computer Law & Security Review, vol. 27, no 6,‎ , p. 637–640 (ISSN 0267-3649, DOI 10.1016/j.clsr.2011.09.011, lire en ligne, consulté le ).
  8. a et b Joseph Weizenbaum, cité dans McCorduck 2004, p. 356, 374–376.
  9. (en) John McCarthy, « AN UNREASONABLE BOOK », jmc.stanford.edu,‎ (lire en ligne)
  10. a et b Hibbard, Bill (2014): "Ethical Artificial Intelligence".
  11. Charles-Étienne Daniel, « Quelle(s) forme(s) de gouvernance juridique pour l’encadrement de l’IA et de la robotique interactive ? », dans La personne transformée. Nouveaux enjeux éthiques et juridiques, Presses de l'Université Laval, (DOI 10.2307/j.ctv1h0p1qk.11), p. 113–146.
  12. Moustafa Zouinar, « Évolutions de l’intelligence artificielle : quels enjeux pour l’activité humaine et la relation humain‑machine au travail ? », Activités, nos 17-1,‎ (ISSN 1765-2723, DOI 10.4000/activites.4941).
  13. Christine Balagué, « Technologies numériques, intelligence artificielle et responsabilité », 28e Rencontres Santé Société Georges Canguilhem (Euro Cos Humanisme & Santé), Strasbourg,‎ (lire en ligne, consulté le ).
  14. (en) « AI weights are not open "source" », sur opencoreventures.com, (consulté le ).
  15. (en) Irene Solaiman, « The Gradient of Generative AI Release: Methods and Considerations », FAccT '23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (conférences),‎ (DOI 10.48550/ARXIV.2302.04844, lire en ligne, consulté le )
  16. (en) Bill Hibbard, « Open Source AI] », proceedings of the First Conference on Artificial General Intelligence,‎ (lire en ligne [PDF]).
  17. (en) David Hart et Ben Goertzel, « OpenCog: A Software Framework for Integrative Artificial General Intelligence », proceedings of the First Conference on Artificial General Intelligence,‎ (lire en ligne [PDF]).
  18. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
  19. Marie-Claude Benoit, « Meta publie la famille de modèles de fondation Code Llama en open source », sur ActuIA, (consulté le )
  20. Bastien L., « Stable Diffusion revient en force avec une toute nouvelle IA : Cascade », sur lebigdata.fr, (consulté le )
  21. David Gray Widder, Dawn Nafus, Laura Dabbish et James Herbsleb, « Limits and Possibilities for “Ethical AI” in Open Source: A Study of Deepfakes », Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, fAccT '22,‎ , p. 2035–2046 (ISBN 978-1-4503-9352-2, DOI 10.1145/3531146.3533779)
  22. (en) Jess Whittlestone et Aviv Ovadya, « The tension between openness and prudence in AI research », arXiv preprint,‎ (lire en ligne Accès libre).
  23. (en) Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell et Abhishek Gupta, « Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives », arXiv preprint,‎ (lire en ligne Accès libre).
  24. (en) Alan Chan, Ben Bucknall, Herbie Bradley et David Krueger, « Hazards from Increasingly Accessible Fine-Tuning of Downloadable Foundation Models », Socially Responsible Language Modelling Research (SoLaR) workshop, NeurIPS 2023,‎ (lire en ligne Accès libre).
  25. (en) Toby Shevlane et Allan Dafoe, « The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI Research Reduce Misuse? », AIES '20: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (conférence), ACM,‎ , p. 173–179 (ISBN 978-1-4503-7110-0, DOI 10.1145/3375627.3375815)
  26. Jess Whittlestone et Aviv Ovadya, « The tension between openness and prudence in AI research », arXiv,‎ (DOI 10.48550/ARXIV.1910.01170).
  27. (en) Anderson, « Machine Ethics » (consulté le ).
  28. (en) Machine Ethics, Cambridge University Press, (ISBN 978-0-521-11235-2).
  29. (en) « Special Issue on Machine Ethics », IEEE Intelligent Systems, vol. 21, no 4,‎ july–august 2006, p. 10–63 (ISSN 1541-1672, DOI 10.1109/mis.2006.70, lire en ligne).
  30. (en) Michael Anderson et Susan Leigh Anderson, « Machine Ethics: Creating an Ethical Intelligent Agent », American Association for Artificial Intelligence, vol. 28, no 4,‎ , p. 15–26 (ISSN 0738-4602, lire en ligne).
  31. (en) Isaac Asimov, I, Robot, New York, Bantam, , 224 p. (ISBN 978-0-553-38256-3 et 0-553-38256-X).
  32. a et b (en) Jason Mick, New Navy-funded Report Warns of War Robots Going "Terminator", dailytech.com (blog), 17 février 2009.
  33. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence (consulté le ).
  34. (en) John Markoff, « Scientists Worry Machines May Outsmart Man », sur The New York Times,
  35. The Coming Technological Singularity: How to Survive in the Post-Human Era, par Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 par Vernor Vinge.
  36. (en) Eliezer Yudkowsky, « Why We Need Friendly AI » [archive du ], sur asimovlaws.com, .
  37. (en) Wendell Wallach et Colin Allen, Moral Machines : Teaching Robots Right from Wrong, USA, Oxford University Press, , 275 p. (ISBN 978-0-19-537404-9).
  38. (en) Nick Bostrom et Eliezer Yudkowsky, « The Ethics of Artificial Intelligence » [PDF], Cambridge Handbook of Artificial Intelligence, Cambridge Press, .
  39. (en) Veruggio, Gianmarco, The Roboethics Roadmap, Scuola di Robotica, (lire en ligne [archive du ]), p. 2.
  40. a b et c (en-GB) « How AI is being abused to create child sexual abuse material (CSAM) online », sur Internet Watch Foundation (consulté le ).
  41. (en) David Gray Widder, Dawn Nafus, Laura Dabbish et James Herbsleb, « Limits and Possibilities for “Ethical AI” in Open Source: A Study of Deepfakes », Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, ACM,‎ , p. 2035–2046 (ISBN 978-1-4503-9352-2, DOI 10.1145/3531146.3533779).
  42. (en) Woody Evans, Posthuman Rights : Dimensions of Transhuman Worlds, Universidad Complutense Madrid, (lire en ligne).
  43. The American Heritage Dictionary of the English Language, Quatrième Édition.
  44. Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics". In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  45. (en) Bostrom, Nick, "Ethical Issues in Advanced Artificial Intelligence", In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, 2003, Iva Smit and George E. Lasker, 12–17, vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  46. a et b (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, Royaume-Uni, Oxford University Press, , 328 p. (lire en ligne [PDF]).
  47. (en-US) « Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem », sur Wired (consulté le )
  48. (en) Jason Palmer, Call for debate on killer robots, BBC News, .
  49. (en) David Axe, Robot Three-Way Portends Autonomous Future, Wired, 13 août 2009.
  50. (en) « Navy report warns of robot uprising, suggests a strong moral compass », sur Engadget, (consulté le )
  51. (en) Steven Umbrello, Phil Torres et Angelo F. De Bellis, « The future of war: could lethal autonomous weapons make conflict more ethical? », AI & SOCIETY, vol. 35, no 1,‎ , p. 273–282 (ISSN 1435-5655, DOI 10.1007/s00146-019-00879-x, lire en ligne, consulté le )
  52. (en) GiveWell Potential risks from advanced artificial intelligence (rapport), (lire en ligne, consulté le ).
  53. (en) « Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter », sur Future of Life Institute, (consulté le )
  54. (en) « Autonomous Weapons Open Letter: AI & Robotics Researchers », sur Future of Life Institute, (consulté le )
  55. (en) Cat Zakrzewski, « Musk, Hawking Warn of Artificial Intelligence Weapons », sur WSJ, .
  56. (en) Zach Musgrave and Bryan W. Roberts, « Why Artificial Intelligence Can Too Easily Be Weaponized », The Atlantic, .
  57. (en) « An Open Letter to the United Nations Convention on Certain Conventional Weapons », sur Future of Life Institute, (consulté le )
  58. Bengio 2017
  59. a et b Frédérick Bruneault et Andréane Sabourin Laflamme, « Éthique de l’intelligence artificielle et ubiquité sociale des technologies de l’information et de la communication : comment penser les enjeux éthiques de l’IA dans nos sociétés de l’information ? », tic&société, vol. 15, no 1,‎ , p. 159–189 (DOI 10.4000/ticetsociete.5999, lire en ligne, consulté le )
  60. (en) Stuart Russell, Daniel Dewey et Max Tegmark, Research Priorities for Robust and Benefcial Artifcial Intelligence, Association for the Advancement of Artificial Intelligence, (lire en ligne [PDF]), p. 106, 107Association for the Advancement of Artificial Intelligence&rft.aulast=Russell&rft.aufirst=Stuart&rft.au=Daniel Dewey&rft.au=Max Tegmark&rft.date=2015&rft.pages=106, 107&rfr_id=info:sid/fr.wikipedia.org:Éthique de l'intelligence artificielle">.
  61. Jocelyn Maclure et Marie-Noëlle Saint-Pierre, Le nouvel âge de l’intelligence artificielle : une synthèse des enjeux éthiques, (lire en ligne [PDF]), p. 750.
  62. Jean-gabriel Ganascia, Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle ?, Editions du Seuil, (ISBN 978-2-02-131001-6, lire en ligne).
  63. Gabriel Girard, « Penser les tensions politiques et émotionnelles des expérimentations dans le domaine du VIH/SIDA », dans Les sociétés de l'expérimentation, Presses de l'Université du Québec, (DOI 10.2307/j.ctvhn0cr5.14), p. 181–198.
  64. Éric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société,‎ (lire en ligne [PDF]).
  65. « Intelligence artificielle (IA) au Canada », sur L'Encyclopédie canadienne (consulté le ).
  66. « 1. Les normes dans le monde d’aujourd’hui », Les consommateurs et les normes: un partenariat pour un monde meilleur, sur Organisation internationale de normalisation (consulté le ).
  67. a et b Intelligence artificielle - Enjeux éthiques et juridiques (lire en ligne), « Enjeux des normes ISO ».
  68. Intelligence artificielle - Enjeux éthiques et juridiques (lire en ligne), « Recommandations ».
  69. (en) Anna Jobin, Marcello Ienca et Effy Vayena, « The global landscape of AI ethics guidelines », Nature Machine Intelligence, vol. 1, no 9,‎ , p. 389–399 (ISSN 2522-5839, DOI 10.1038/s42256-019-0088-2, lire en ligne, consulté le ).
  70. « Alertes et lanceurs d'alerte », sur www.puf.com (consulté le ).
  71. Les « 23 principes d’Asilomar » veulent encadrer le développement de l’intelligence artificielle
  72. ASILOMAR AI PRINCIPLES
  73. Camcha Dit, « En Chine, le score social à la Black Mirror a déjà empêché des millions de trajets », sur L'ADN, (consulté le ).
  74. Johanna Diaz, « La Commission européenne dévoile l'European AI Alliance et les 52 experts de son comité consultatif sur l'IA », sur Actu IA, (consulté le ).
  75. Groupe d’experts indépendants de haut niveau sur l’intelligence artificielle mandatés par la Commission européenne (GEHN IA), Lignes directrices en matière d'éthique pour une IA digne de confiance, Bruxelles, Commission européenne, , 56 p. (lire en ligne).
  76. (en) Independant High Level Group on Artificial Intelligence (AI HLEG) set up by the european commission, The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment, Bruxelles, Commission européenne, , 34 p. (lire en ligne).
  77. « Proposition de règlement établissant des règles harmonisées en matière d’intelligence artificielle », sur digital-strategy.ec.europa.eu (consulté le ).
  78. « Création d’un service de l’intelligence artificielle à la CNIL et lancement des travaux sur les bases de données d’apprentissage », sur CNIL (consulté le ).
  79. (McCorduck 2004, p. 308).

Bibliographie

[modifier | modifier le code]
  • (en) Pamela McCorduck, Machines Who Think : A Personal Inquiry into the History and Prospects of Artificial Intelligence, , 2e éd., 565 p. (ISBN 1-56881-205-1)

Liens externes

[modifier | modifier le code]