Vie privée, Surveillance, Manipulation du Comportement et « Intransparence » de l’IA : des Sujets chauds pour l’Éthique

Sélectionné pour être l’un des 25 experts du nouveau groupe de travail du Partenariat mondial sur l’intelligence artificielle, Vincent C. Müller est professeur d’éthique des technologies à l’Université d’Eindhoven, chercheur universitaire à l’Université de Leeds et chercheur à l’Institut Alan Turing. Spécialisé dans l’éthique des technologies disruptives, il vient de publier l’article « Éthique de l’intelligence artificielle et de la robotique » dans la Stanford Encyclopedia of Philosophy et il est très bien placé pour nous aider à naviguer dans le domaine dynamique parfois déroutant de l’éthique de l’IA et à expliquer les questions cruciales que nous devons maintenant aborder : l’opacité, l’utilisation des données et la surveillance. Il écrit actuellement un livre intitulé « Can Machines Think? Fundamental Questions of Artificial Intelligence » qui sera publié l’année prochaine par Oxford University Press, New York.

Beaucoup de travail est en cours dans le domaine de l’éthique de l’IA et des robots. Sommes-nous sur la bonne voie

Il y a effectivement beaucoup d’actions sur le terrain, mais nous devrions être plus précis. Nous sommes tous d’accord sur le fait que l’IA doit être équitable et soutenir les droits de l’homme mais ce n’est pas très utile. 

En même temps, de véritables questions se posent. Prenez la vie privée : elle est vraiment difficile à protéger, car nos technologies nous ont fourni un énorme système de surveillance, et nous n’avons pas vraiment remarqué ce qui se passe. Il en a été de même avec l’invention et l’adoption de la voiture dans les rues : c’est après coup que nous avons pris conscience des impacts sur l’urbanisme, la pollution, les accidents… Les technologies produisent une dynamique en soi, avec des avantages, bien sûr, mais aussi des risques auxquels nous devons réfléchir en même temps. Et puis nous faisons quelque chose pour atténuer ces risques. Il a fallu des décennies pour que les voitures soient équipées de ceintures de sécurité et les motos de casques. Nous essayons maintenant de nous adapter à ces nouvelles technologies de rupture. 

Vous avez mentionné la protection de la vie privée et les technologies de surveillance. L’utilisation actuelle des données est-elle l’une des questions les plus urgentes à traiter? 

Comme je soutiens dans mon article de la Stanford Encyclopedia of Philosophy, le débat sur la surveillance et l utilisation des données est le plus crucial et le plus réaliste. Réaliste parce que l IA est déjà utilisée pour collecter les données, les analyser et manipuler les gens, principalement à des fins économiques. C’est le problème le plus important et le plus pratique. (NDLR les sections concernées sont 2.1 Privacy and Surveillance et 2.2 Manipulation of Behaviour, en anglais) 

Outre l’utilisation de l’IA, qu’en est-il de l’opacité de l’IA ? 

L’opacité de l’IA, ou « intransparence » est un autre débat crucial à aborder (NDLR les sections concernées sont Opacity of AI systems etBias in Decision Systems, en anglais). Souvent, les systèmes d’IA ne sont pas transparents, c’est-àdire que nous ne savons pas pourquoi ils font ce qu’ils font. Il se peut donc qu’ils prennent des décisions pour de mauvaises raisons, ce qui est le cas de l’IA biaisée. De plus, il se peut que nous ne puissions pas savoir dans quelle mesure une décision est fiable, ni sur quelles hypothèses elle repose. C’est une caractéristique de la technologie dont il est très difficile de se débarrasser, en particulier avec l’apprentissage machine. 

En général, la technologie génère souvent de l’opacité. Cette opacité sera différente pour différentes personnes : les utilisateurs finaux, les ingénieurs qui l’ont conçue, les opérateurs, etc. L’opacité peut même être alors un élément de conception et un élément politique. J’ai une expérience personnelle liée aux demandes de cartes de crédit. Quand j’étais en Grèce, la banque a refusé ma demande, j’ai demandé à un employé de banque pourquoi et il ne savait pas lui-même : il devait envoyer les données à l’ordinateur central, et ensuite seulement il a reçu le résultat : « Non ». Lorsque je me suis installé aux Pays-Bas, j’ai également fait une demande en ligne pour obtenir une carte de crédit, la réponse a également été « Non ». Je me suis alors rendu à l’agence pour parler à une employée et elle a pu m’expliquer que la demande devait être signée par quelqu’un de l’agence pour être approuvée, et que normalement le client devait rester à la banque pendant plus de six mois. Comme j’ai pu avoir cette conversation avec elle et lui expliquer ma situation, elle a pu vérifier mon compte bancaire et a accepté de signer ma demande de carte de crédit ce que j’ai finalement obtenu ! Dans ce dernier cas, un humain pouvait résoudre cette situation absurde. C’était juste une question sans importance, et nous avons maintenant des systèmes qui décident de la vie ou de la mort de personnes, ou qui « soutiennent » les décisions politiques. Nous avons un réel problème dans notre démocratie si nous prenons des décisions qui ne sont pas suffisamment transparentes. 

Mais l’apprentissage machine (ML) présente une autre sorte d’opacité : les modèles peuvent être opaques même pour les experts, ce qui est pire. Certaines personnes pensent alors que nous ne devrions pas l’utiliser pour des systèmes critiques à la sécurité, car nous ne serons jamais sûrs qu’ils fonctionneront correctement dans de nouvelles situations. 

L’éthique s’intéresse souvent à la technologie depuis un regard extérieur, mais avec l’apprentissage machine, les experts ont reconnu le problème et l’ont exposé au reste du monde. On peut alors se demander : « Les humains sont-ils capables d’expliquer complètement le processus de leur propre prise de décision ? » Certainement pas. Cela illustre l’importance de comprendre la différence entre l’explication d’une décision (par exemple, le système d’IA des ressources humaines a recommandé d’engager cette personne en raison de tel ou tel paramètre) et la justification d’une décision (par exemple, il est justifié d’engager une personne qui a les qualifications requises, qui est motivée pour faire le travail, etc.). Pour surmonter ce problème urgent d’opacité de l’IA, les gens travaillent sur le « Pourquoi » et la justification des conclusions et des décisions prises par l’IA, un domaine également appelé « IA explicable » (ce qui n’est pas un bon terme). 

Cela signifie-t-il que les autres enjeux sont moins importants? 

 Les questions soulevées par les robots et les interactions avec les robots sont beaucoup moins cruciales et monopolisent trop d’efforts en matière d’éthique de l’IA (NDLR les sections concernées sont 2.6 2.7

J’expose ensuite des problèmes qui sont surtout intéressants pour les philosophes, puisque l’IA et l’éthique de la robotique fournissent des éléments de réflexion sur ce que nous entendons par « éthique », par « agence », par « responsabilité ». On les appelle des problèmes métaéthiques. (NDLR les sections concernées sont 2.8 Machine Ethics et 2.9 Artificial Moral Agents, en anglais) 

Que nous apprennent l’IA et la robotique sur l’humanité? 

 Elles nous permettent de réfléchir à la façon dont nous nous voyons nous-mêmes. 

 Une première question est : sommes-nous intrinsèquement différents des machines ? Il existe une métaphore computationnelle pour les êtres humains : « J’absorbe des données, je les analyse et je génère des actions ». Et nous avons maintenant les machines qui font aussi les analyses, mais sur un matériel différent. Par conséquent, si ce que font les humains est de la computation, alors quelque chose comme « se sentir gêné pour ce que nous faisons » peut être atteignable pour d’autres appareils informatiques. Ensuite, il y a cette vision de l’être humain comme la somme d’un corps physique et d’une « âme », un « esprit » qui ne meurt pas. Une position qui est difficile à maintenir. Nous avons tendance à penser que nous sommes différents du reste du monde. Que se passe-t-il si nous abandonnons cette vision ? C’est exactement ce qu’a fait La Mettrie, un philosophe français des Lumières, dans son livre « L’Homme machine » publié en 1747, en soutenant que les humains sont des sortes de mécanismes. Les philosophes doivent donc travailler sur une définition correcte des mécanismes et des mécanismes de calcul ou mécanismes computationnels. 

Un autre élément est soulevé par l’idée que tout est imbriqué et interdépendant ; ainsi, il n’existe pas d’entités entièrement séparées. Par exemple, les cellules de mon cerveau sont entrelacées dans une structure neurale très complexe, ce qui signifie que ma pensée est le résultat de l’implication de toutes mes cellules cérébrales, qui ne sont pas directement sous mon contrôle, et est influencée par de nombreuses choses (la quantité de sommeil, de sucre, etc.). En outre, le contexte façonne l’individu. J’ai appris l’allemand parce que j’ai été élevé en Allemagne. Je ne peux rien faire seul, tout ce que j’accomplis est grâce à moi ET à mon environnement. Il est absurde de penser : « Je suis cette seule chose, et je suis en contrôle ». Cela menace donc la notion même d’agent responsable unique : le fait qu’un système humain implique une partie des états mentaux, des états physiques et des états sociaux signifie que vous ne pouvez pas identifier un agent particulier qui serait responsable de l’acte particulier. 

Nous faisons souvent l’erreur de rire des personnes qui, dans le passé, ont commis de terribles erreurs de jugement (par exemple, en ne condamnant pas l’esclavage des Africains). Mais les gens se moqueront de nous à l’avenir. En fait, des gens d’autres cultures se moquent de nous en ce moment. Ne pas tenir compte de la façon dont notre environnement façonne notre pensée conduit à des incompréhensions. Nous devrions donc être plus prudents dans l’attribution des responsabilités aux gens, et repenser complètement le concept de responsabilité. 

Avez-vous des conseils pratiques à donner aux citoyens, aux chercheurs, aux responsables publics et privés qui lisent ces mots? 

Toute personne qui fabrique ou utilise un système d’IA est un être humain responsable et est responsable de ses actes. Ils doivent se demander : « Ce que je conçois va-t-il générer de bons résultats ? » Il peut être difficile de répondre à cette question, et c’est normal, mais il est important de la garder à l’esprit. Il est très facile de perdre de vue cette question. Par exemple, vous êtes un ingénieur en IA et votre responsable vous demande de faire une IA qui maximise quelque chose, mais il peut très bien ignorer la vie privée en même temps. Les personnes qui prennent des décisions doivent réaliser qu’elles ont un impact et doivent peser les conséquences de leurs actions et de leur inaction. Cela s’applique à tout le monde, et en particulier dans le domaine de la technologie. Plus la responsabilité est grande, plus l’impact est important. On peut donc dire que Trump et Johnson sont responsables de beaucoup de décès en ne portant pas de masque et en ne protégeant pas les autres. Nous sommes donc tous responsables de ce que nous faisons. Nous devons être vigilants. 

Propos recueillis par Lauriane Gorce, directrice scientifique de l’Institut de la technologie pour l’humain  Montréal.