Intelligence artificielle de l’Ordinateur, angoisses métaphysiques de l’Homme…

Vincent Rey le 18 01 2018

Le 11 mai 1997 fut une date historique. Ce jour là, l’ordinateur « Deep Blue » battait aux échecs Garry Kasparov. Le joueur russe, conscient de ce qu’il symbolisait, sortit furieux de la rencontre, déclarant «Je pense qu’il est temps pour « Deep Blue » de jouer aux vrais échecs et je peux vous promettre à vous tous que si « Deep Blue » joue à la régulière, je vous le garantis, je le réduis en pièces». Mais que voulait vraiment dire Kasparov ?

Aux échecs comme au tennis, l’ascendant psychologique joue un rôle. Il est important de remporter le premier set au tennis. Aux échecs, c’est la même chose, celui qui remporte la première des 6 parties prend généralement un ascendant psychologique sur son adversaire.

Or, en 1997, « Deep Blue » a perdu la première partie, et pourtant, tout montre que c’est lui qui a pris l’ascendant psychologique sur Kasparov.  C’est sans doute que les ordinateurs ne sont pas des partenaires comme les autres…

Des analystes ont depuis décortiqué cette première partie. Au 44ème coup, un bug empêche « Deep Blue » de jouer (1) , il tourne en rond dans une boucle sans fin ! Le logiciel d’IBM exécute alors une procédure de sauvetage, ce qui le conduit à jouer aléatoirement. A la vue de ce coup inexplicable (2) Kasparov s’engage alors dans ce qu’on peut appeler une peur irrationnelle. Il prête à l’ordinateur des capacités d’invention qu’il n’a pas, et ce sentiment perdurera bien au delà de la première partie. Le champion russe est sans doute le premier homme dans l’Histoire, a avoir ressenti la peur de la singularité technologique (3). Une peur injustifiée en l’occurrence, puisque d’une part, il est sorti vainqueur de cette première partie, et d’autre part, parce que « Deep Blue » était réellement en difficulté, ne sachant que jouer…

A la deuxième partie, le mal était fait dans le cerveau de Kasparov. Alors qu’il tente d’attirer la Dame de « Deep Blue » derrière ses lignes en lui ouvrant la prise de pions, l’ordinateur, contre toute attente, ne tombe pas dans le piège (4), préférant  fermer le côté droit de l’échiquier à une contre-attaque, en avançant un fou. Une nouvelle fois, la raison de Kasparov vacille. Il ne peut croire que ce mouvement est le fruit d’un calcul, et soupçonne la présence d’un grand maître. Il commet ensuite une erreur en laissant passer la possibilité d’une partie nulle, ce qui semble montrer qu’il était déstabilisé. Quelques coups plus tard, il abandonne la partie.

Les trois parties suivantes donnent un résultat nul, laissant les protagonistes à égalité de victoires. A la sixième partie, Kasparov fait une erreur de débutant, ce qui le conduit bientôt à sacrifier sa Dame, puis à abandonner en seulement 19 coups. Pour la première fois, l’Homme se trouve  vaincu, dans ce qu’il pensait avoir de plus unique : l’intelligence.

Cet événement, survenu en 1997, portait déjà en germe certains aspects de nos rapports futurs avec l’Intelligence Artificielle.

A la frontière de la compréhension, nous avons une propension à croire en des forces obscures. Nous perdons une paire de lunettes, nous sommes certains de les avoir posées dans un endroit, et pourtant on ne les trouve nulle part. Lorsque toutes les explications rationnelles ont été explorées, des soupçons absurdes nous assaillent : « est-il possible qu’elles se soient volatilisées ? ou qu’on me les ait volées ? ». Certainement Kasparov, au 44ème coup de la première partie,  a dû entrer en lutte contre sa propre propension à l’irrationalité. Pourtant,  « Deep blue »  n’a « bluffé » Kasparov que par accident, à la suite d’ un bug (5). Le champion russe n’ avait donc aucune de raison de soupçonner quoi que ce soit, dans la régularité de l’échange.

Si la partie avait eu lieu en 2018, Kasparov aurait eu de bonnes raison de soupçonner une véritable intelligence. La force de calcul n’est plus le seul atout des ordinateurs. Ils sont maintenant capables d’apprendre du comportement humain, et de s’entraîner en jouant des millions de parties contre eux-même. Le système « Libratus » (6), s’est imposé en 2017 sur 4 des meilleurs champions de poker. Il utilise un « algorithme adaptatif », basé sur la « minimisation du regret hypothétique ». Il analysait aussi les « vraies » parties jouées contre des humains, pour affiner sa stratégie. A l’issue des 120 000 mains qui furent jouées par l’ordinateur, l’algorithme était tellement affûté, que le champion humain Dong Kim déclara « (…) Aujourd’hui, j’avais les mêmes sensations qu’en jouant contre un tricheur qui aurait vu mes cartes (…).  Dong Kim aurait-il lui aussi quitté la rationalité, pour croire en l’omniprésence de « Libratus » ?

Cette aptitude du cerveau humain à quitter le champ de la rationalité doit définir la frontière de ce que nous confierons à l’Intelligence Artificielle.

Dans le domaine scientifique, l’Intelligence Artificielle peut certainement nous apporter beaucoup. On pense en particulier, à la conception de modèles climatiques, capables de prédire avec précision l’avenir du climat, une chose impossible aujourd’hui. Dans le domaine de la santé, l’IA sera d’une grande utilité, elle effectue déjà des corrélations, qui seraient impossibles pour le cerveau humain, ce qui permettra certainement de détecter, voire de prévenir, l’arrivée de maladies (7).

En revanche, utiliser l’IA pour résoudre des problèmes économiques, pourrait se révéler catastrophique. Aussitôt qu’une décision économique ne serait pas en faveur de tel ou tel groupe d’intérêt, des soupçons, ou des peurs irraisonnées, comparables à celle de Garry Kasparov émergeront. On se demandera quels intérêts sous-tendent les décisions de l’IA (« y,-a-t-il un grand maître derrière ? ») ou bien on soupçonnera toutes sortes de complots. La compréhension de l’IA nous étant impossible, toutes les justifications que l’on pourra donner, ou les invitations à la confiance, seront inutiles.

Par ailleurs, il faudra veiller à ce que l’IA ne tombe pas pour de bon dans les mains de « grands maîtres » économiques. On a déjà sous les yeux les problèmes que posent l’Hyper-trading financier, ces machines capables d’effectuer des milliers de transactions par seconde. Avec des techniques comme le « layering », ou le « spoofing » (8), les ressources des ordinateurs sont déjà utilisées par des acteurs financiers pour manipuler les cours. Avec l’IA, la tromperie des consommateurs, ou des manipulations indétectables pourraient devenir monnaie courante. On peut par exemple redouter des ententes monopolistiques, organisées par les IA de plusieurs firmes (9), et la détection de telles fraudes pourrait devenir impossible, si les États ne disposent pas de moyens en IA à la hauteur de ceux des puissantes entreprises qu’ils souhaitent contrôler. Il est déjà difficile pour les états de lutter contre l’optimisation fiscale (10) des grandes firmes, pourquoi en irait-il différemment, lorsqu’il s’agira de contrôler des manœuvres de dissimulation par l’IA ?

Enfin, il ne faudra pas laisser l’IA avancer cachée, car si la compréhension humaine du monde devient impossible aux humains, cela pourrait avoir pour effet de favoriser l’essor de courants de pensée irrationnels, religieux ou obscurantistes, et ce serait aussi une grande menace, car n’est pas un ordinateur qui tiendra le bulletin de vote, que l’on glissera dans l’urne. Ne voit-on pas déjà les signes avant-coureurs de cette incompréhension, avec tous ces mouvements « anti-système » qui fleurissent de par le monde, aux Philippines, aux USAs, en Pologne ? Le point commun des ces mouvements, n’est-ce pas déjà l’incompréhension devant la complexité de l’économie mondiale, et la précarité économique ?

L’IA pourrait-elle alors intégrer dans ses algorithmes, notre propension à l’angoisse devant l’inconnu, pour mieux parvenir à ses fins  ? Ce serait alors de deux choses l’une : ou bien l’Intelligence Artificielle ainsi « augmentée » deviendrait impuissante, car notre capacités à nous angoisser doit être à peu près infinie. Ou bien ce serait l’avènement d’une forme de totalitarisme protecteur. L’Intelligence Artificielle entrerait alors dans l’intimité de nos vies, pour nous faire éviter tous les écueils. L’intention serait bonne, mais n’aurions nous pas renoncé à la Liberté en entrant dans un tel univers ?

(1) le bug de « Deep Blue » au 44ème coup de la partie 1 de 1997

(2) La première des 6 parties Deep Blue – Kasparov de 1997

(3) La singularité technologique

(4) Deep blue ne tombe pas dans le piège de la partie 2

(5) Selon Murray Campbell, un des ingénieurs du projet Deep Blue, interviewé par Nate Silver dans son livre  The Signal and the Noise

(6) Auto-apprentissage et stratégie de Libratus

(7) l’IA au service de la maladie, Watson d’IBM

(8) Hyper-trading, Layering et spoofing, explications sur wikipedia

(9) De telles ententes entre firmes ont déjà été condamnées par le plus haut niveau de la justice. Pourquoi demain, se priveraient-elles de le dissimuler grâce à l’IA ? Selon l’autorité de la concurrence :   « De 1997 à 2003, ils (ndlr : Bouygues, Orange et SFR) ont procédé à des échanges d’informations stratégiques. De 2000 à 2002, ils se sont en outre réparti les parts de marché selon des objectifs qu’ils avaient négociés entre eux ».

(10) L’Etat peine déjà à suivre les montages effectués par des cabinets d’avocats fiscalistes.  L’IA réclamant des budgets conséquents, il y a fort à parier que les moyens de l’Etat seront tout aussi insuffisants pour contrôler que l’utilisation de l’IA reste dans le cadre de la loi.

0Shares

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *