Éloge de la confiance

Le monde de la tech est en crise. Une crise qui n'a cessé de s'amplifier depuis le scandale de Cambridge Analytica et la révélation de l’influence de cette société d’analyse des données sur les votes en faveur du Brexit et de l’élection de Donald Trump. À cela se sont ajoutés les récits venus de Chine sur le Big Brother du Crédit Social et ceux concernant les manipulations de hackers russes durant les élections européennes, les avertissements concernant des enceintes connectées indiscrètes et les multiples affaires de données personnelles revendues à des sociétés peu scrupuleuses.

Et des deux côtés de l’Atlantique, la popularité des nouvelles technologies s'est érodée. Un sentiment d'inquiétude est venu teinter l'émerveillement inspiré par leurs promesses. 

Meilleur des mondes ou monde meilleur ? Le curseur de l’opinion s'est déplacé, lentement mais sûrement, du second vers le premier. Pour le dire autrement, dans cet interrègne où les nouvelles technologies redessinent la société humaine, la méfiance à leur égard n'a cessé de croître. 

Rien qu’au mois d’avril, 70 % de ceux qui ont parlé d’intelligence artificielle sur Twitter l’ont fait pour   exprimer une inquiétude  à l’idée des décisions que pourrait prendrait une IA autonome. 55 % des tweets portaient sur le deepfake, cette technique de synthèse d'images qui permet de falsifier une vidéo de façon très crédible en prêtant à une personnalité des propos qu’elle n’a pas tenus. Et 50% s’inquiétaient d’un possible déferlement de mensonges sur les réseaux sociaux. 

Ont-ils torts de s’inquiéter? Certes non, mais le proverbial verre à moitié vide, est également à moitié plein : d’où viennent les statistiques précédentes ?  D’un institut de sondage ? Non, d’une IA, baptisée Cerebra, qui scrute internet et discerne dans nos conversations, les tendances et les humeurs. En somme, Cerebra est une technologie réflexive qui montre, s'il était besoin, que la tech ne fait pas seulement partie du problème, mais aussi de la solution. Ce n’est pas une surprise : toute invention est à la fois remède ou poison, cela dépend du dosage ! 

Ce dosage, c’est à nous de le faire.  Nous vivons une crise de confiance face aux nouvelles technologies ? Tant mieux, prenons le comme une chance. La chance de réfléchir à ce que nous voulons faire de ces interfaces cerveau-machine, de ces blockchains, de ces intelligences artificielles et de toutes ces fabuleuses technologies qui bouleversent notre rapport à l’information,  à l’état-nation et au bout du compte à nous-même. La chance, en somme, de réfléchir aux conditions de notre confiance.

Faire confiance à quelqu’un relève d’un double pari, l’un cognitif, l’autre intuitif. Le premier tient à ce que je sais d'un individu qui me fait raisonnablement penser qu’il est dans son intérêt d’honorer ma confiance. Je grimpe dans un avion parce que je suppose que le pilote est convenablement entraîné et qu’il est dans son intérêt et celui de sa compagnie aérienne de me faire arriver à bon port !

Le second est plus irrationnel mais pas moins important. C’est ce qui fait, écrit le sociologue Georg Simmel qu’ « on “croit” en une personne, sans que cette foi soit justifiée par les preuves que cette personne en est digne, et même, bien souvent, malgré la preuve du contraire »... La confiance résulte de cet attelage fragile et mystérieux. Elle ne peut ni s'exiger, ni se décréter.  

Qu’en est-il de la confiance en la technologie ?  Est-elle de même nature que celle qu’on choisit d’accorder à son voisin de palier ? Oui et non. 

Oui, parce que les machines sont produites par des hommes auxquels on peut décider, ou pas, de faire crédit. Mr Smith refusera d’embarquer dans un Boeing 737 Max parce qu’il n’a plus confiance dans la chaîne d’individus responsables des processus d’évaluations de cet avion. 

Non, parce que la dilution des responsabilités rend encore plus complexe la question de leur attribution en cas d’accident – pensez aux casse-têtes posés par les voitures autonomes -.  

Non parce que les nouvelles technologies, plus particulièrement celles qui relèvent de l’ingénierie génétique et l’intelligence artificielle, touchent à une zone grise où l’humain pourrait un jour, ne plus être seul décisionnaire. 

Non, enfin et surtout, parce que les nouvelles technologies sont, au fond, des boites noires, opaques. Côté technique, ce n’est pas grave : un marin de la Renaissance se servait d’une boussole sans en connaître les fondements et nul n'est censé connaitre la mécanique quantique ou le langage machine pour se servir d'une enceinte connectée. Mais côté éthique, c'est une autre paire de manches : nous avons le devoir de chercher à anticiper les conséquences morales de ce qui se passe dans les boîtes noires de l'Intelligence artificielle. 

Le sentiment le plus dangereux du monde, celui qui nourrit les populismes, est le sentiment d’impuissance. Et il est d'abord lié au sentiment d'ignorance. Simmel, encore,  note que  "celui qui sait tout n’a pas besoin de faire confiance, celui qui ne sait rien ne peut raisonnablement même pas faire confiance." Ne rien savoir, ou pas grand chose, n'est-ce pas notre cas à tous face à l'immensité de ce qui se passe avec l'IA?  C'est précisément l'un des enjeux d’Optic, et de cette newsletter en particulier, que de chercher à combler ce fossé du savoir :  veiller, détecter, analyser, au plus tôt de leur émergence, des technologies potentiellement révolutionnaires , voilà comment nous serons capables d'anticiper, en amont, les conditions éthiques qui doivent nécessairement les encadrer. Voilà comment nous pourrons pratiquer, selon un concept qui m'est cher, de l'"éthique by design". Alors, et alors seulement, il deviendra possible, - pour reprendre le titre des Optic Talks organisés à Paris au mois de mai, "(re)construire la confiance dans les nouvelles technologies". Et bâtir une société meilleure. 

 

 

 

                  Eric Salobir

                  Président d’OPTIC