Démission de Nicolas Hulot : la question que nous ne devrions pas cesser de discuter.

La démission spontanée de Nicolas Hulot(0) pose une question fondamentale : NOTRE SYSTEME ECONOMIQUE EST-IL COMPATIBLE AVEC LA SURVIE DE L’ESPECE, une question dont nous ne devrions pas cesser de discuter.
Continuer la lecture de Démission de Nicolas Hulot : la question que nous ne devrions pas cesser de discuter.

Avec la DS7 « Crossback », Citroën nous prend pour des … consommateurs ?

Ci-dessous le texte d’une publicité de Citroën, qu’il peut être utile de lire, pour se rendre compte des valeurs qu’elle colporte…
Continuer la lecture de Avec la DS7 « Crossback », Citroën nous prend pour des … consommateurs ?

Elaine Herzberg, « faux positif » pour le robot UBER.

L’enquête avance, dans l’accident entre une voiture robotisée de Uber qui a causé la mort d’une piétonne nommée ELaine Herzberg, qui traversait la nuit en dehors d’un passage piéton. Elaine Herzberg a été analysée par le véhicule UBER comme un « faux positif ». Ses deux chaussures blanches ont bien été « vues » par le robot, mais considérées comme quelque chose de non humain, ne nécessitant pas d’intervenir. Dans un précédent article, je faisais part de mon scepticisme, devant d’une part, l’option d’expérimenter ces robots dans le monde réel, et d’autre part, devant l’obligation de vigilance imposée au « conducteur ».

Imaginez-vous à la place de la « conductrice » : vous devez poser les mains sur le volant, sans trop l’agripper, car la voiture se conduit toute seule, , mais SI un imprévu intervient ET SI vous sentez que le véhicule ne réagit pas comme il le devrait, ALORS vous devez agripper le volant, et prendre immédiatement (aussi rapidement qu’un conducteur normal) les bonnes décisions. Or une telle chose est impossible, pour 2 raisons :

Premièrement parce que cela implique une comparaison d’analyse homme/robot au début de la situation de danger. La conductrice, si elle avait été ingénieure, aurait pu imaginer par exemple que suite à un calcul, le robot ne freinait pas intentionnellement pour garder toute l’adhérence aux roues en effectuant un virage brutal. Cette comparaison homme/robot est peut-être possible dans un avion, où les décisions en l’absence d’obstacles dans l’air ne se prennent pas à la seconde. Mais elle prend trop de temps dans une voiture, et elle dépasse la capacité d’analyse d’un conducteur ordinaire, lorsqu’il est sur le point de percuter quelqu’un.

Deuxièmement, parce qu’on ne peut pas demander à quelqu’un d’être vigilant, en le plaçant dans une situation d’attente. En roulant la nuit, sur cette route déserte dans un véhicule automatisé prenant toutes les décisions, les ingénieurs de UBER ne pouvaient pas ignorer que la vigilance de la conductrice baisserait, et d’ailleurs cette baisse de vigilance était observable. Des situations d’attente comparables sont connues : on ne laisse pas par exemple, quelqu’un attendre un train trop près du quai, car on sait que cette attente le conduit immanquablement à distraire son attention. Il va par exemple prendre un livre, ou jouer avec son téléphone. C’était le cas, en effet, de la conductrice UBER, qui regardait ailleurs que devant elle au moment où Elaine Herzberg traversa soudainement la rue.

Une vie humaine pèse peu devant les énormes profits escomptés des robots voiture, estimés à 500 milliards de $, soit à peu près un quart du PIB de la France. Sinon pourquoi cet empressement à tester ces robots dans le monde réel ? Il faut d’ailleurs s’attendre à d’autres accident, si on continue à tester ces véhicules ainsi, car on sait aujourd’hui que les règles routières ne sont pas homogènes, et qu’il existe de plus des usages non écrits, qui diffèrent selon les zones géographiques. Et donc si ces robots n’ont pas d’autres possibilités que de tester un nombre infini de situations, ils doivent le faire dans des espaces virtuels, en consultant des bases de données, et non dans le monde réel. A la manière d’alpha-go zero, ce robot désormais imbattable par un humain au jeu de go, et qui s’est perfectionné en jouant contre lui-même.

Mon premier article sur Elaine Herzberg

article de industrie-techno, faisant le point sur la technologie

Les 3 gaspillages du Nucléaire.

En 2016 un sondage (1) faisait le point sur l’opinion des Français vis-à-vis du Nucléaire. Ils restaient minoritaires (47%), tous ages confondus, à souhaiter la fermeture des centrales, bien que majoritaires chez les moins de 49 ans (plus de 55%) . En tête des raisons invoquées, ces « abolitionnistes » plaçaient la question des déchets pour 35%, puis venait la crainte d’un accident de type Tchernobyl pour 32%. La tendance semble donc à l’abandon du nucléaire, au fur et à mesure que la population vieillit. Et pourtant, s’il est un mot qui devrait venir à l’esprit pour évoquer le nucléaire civil, ce n’est ni celui de « déchet », ni celui d’ « accident », mais bien celui de « gaspillage ».

Avant d’en donner les raisons, il peut être utile de visualiser les deux graphiques ci-dessous, pour donner quelques ordres de grandeur. En 2015, l’électricité représentait 46% de notre consommation d’énergie totale (graphique de gauche, en % de mtep), et 77% de cette électricité (graphique de droite) provenait du nucléaire(2). L’éolien et le solaire (3) , représentaient 5.01 % de la consommation(4) d’électricité française. La combustion de biomasse dans les incinérateurs représentait 0.00% (5). Ces chiffres donnent une idée de la prépondérance du turbinage hydraulique (11% des 16%) dans la production d’électricité, lorsqu’elle provient de sources d’énergies renouvelables.

Quelles qu’en soient les causes, un nombre insuffisant d’équipement, ou une faiblesse intrinsèque de ces sources d’énergie, les chiffres du soleil et du vent sont là. Il n’y aurait eu ni vent ni soleil en 2015, nous n’aurions presque rien senti. Il n’y aurait eu ni centrales ni barrages, nous aurions dû nous passer de 95% de notre électricité. Mais venons-en aux gaspillages du Nucléaire, puisque c’est le sujet de ce billet.

Le premier de ces gaspillages n’a pas besoin d’être démontré. Il suffit d’observer en hiver les énormes panaches sortant des cheminées des centrales, pour savoir que l’on fait peu de cas de la préservation de la chaleur. Les calories émises par la fission nucléaire sont en nombre colossal, et on se soucie peu d’en gaspiller 70% (6), pourvu que soit maximisé le bénéfice [nombre de KWh x bénéfice par KWh]. Tel ne serait pas le cas, si on s’était donné pour contrainte la préservation de la chaleur ou la minimisation des déchets. Ces panaches témoignent de la conception productiviste que nous avons de l’énergie, une conception qui perdure depuis l’origine de la machine à vapeur (7), lorsque furent installées les premières pompes de Newcomen (8) au dessus de puits de charbons en Angleterre. .

Le deuxième gaspillage du nucléaire est un gaspillage de risque. 96% des réacteurs nucléaires dans le monde (9) ne peuvent être arrêtés en urgence, car ils utilisent du combustible solide (uranium ou plutonium), qui entre en fusion, lorsque la chaleur ne peut plus être évacuée par le fluide caloporteur (généralement de l’eau pressurisée). La chaleur qu’il dégage fait alors fondre tout l’acier et le béton qui se trouve sur son passage, et il s’enfonce, jusqu’à ce qu’il se retrouve dans l’environnement. La chaleur peut également désintégrer l’eau et donner lieu à des explosions d’hydrogène. A Fukushima, la fusion de 4 réacteurs a failli avoir des conséquences très graves pour le monde entier (10). Il est donc souhaitable de se doter d’une technologie qui supprime ce risque. Mais en attendant de pouvoir le faire, et puisque ce risque est constant pour une centrale, qu’elle délivre 30% ou 100% de sa capacité, toute production d’électricité alternative (3) venant se substituer à la production d’électricité nucléaire, est un gaspillage de risque : on se prive de l’électricité d’origine nucléaire, qu’il ne serait ni plus dangereux, ni plus coûteux de produire dans les centrales en activité.

Le troisième gaspillage du Nucléaire est technologique. La plupart des informations ci-dessous sont reprises du documentaire « La face gâchée du Nucléaire » (11), qui le démontre parfaitement. Il existe une bien meilleure technologie que ces « cocottes minute » à chaleur incontrôlable, que sont les réacteurs à eau pressurisée de type « Three Mile Island », « Tchernobyl »,  ou « Fukushima » (9). Ce nouveau type de réacteur, nommé MSR (Molted Salt Reactor), utilise du combustible liquide, et il est resté « aux oubliettes » depuis 1968, malgré les expériences extrêmement encourageantes menées au Laboratoire National d’Oak Ridge (ORNL), sous la direction du professeur Alvin Weinberg. Weinberg connaissait bien les qualités et les défauts des réacteurs actuels (à combustible solide et eau pressurisée), pour en avoir jeté les bases en 1946, avec d’autres savants. Il considérait cependant son expérience d’Oak Ridge comme sa plus belle contribution scientifique. Dans le réacteur MSR, le processus de fission a lieu dans un liquide  constitué principalement de sel fondu et d’uranium. La solution était élégante, car elle supprimait le risque de fusion, la dilatation du sel fondu faisant stopper la réaction en chaîne sans intervention humaine. D’autres aspects du réacteur MSR  furent mis en évidence :  un volume de déchets à production égale diminué de 80%, l’absence totale de déchets radioactifs au delà de 300 ans, la possibilité de remplacer l’Uranium par du Thorium (un matériau abondant partout dans le monde), et la facilité de construction (pression de 1 bar, au lieu de 80, 130, ou 150 bars).

De telles caractéristiques, si encourageantes en termes de sécurité et de minimisation des déchets, auraient dues inciter le Nucléaire français – détenu à 84% par l’État censé être une émanation des citoyens – à s’intéresser au réacteur MSR. C’était sans doute trop de changements radicaux pour cette industrie, qui lui préféra l’EPR (European Pressure Reactor). Dans les réacteurs EPR, les risques de fusion et d’explosion d’hydrogène demeurent (combustible solide pouvant fondre, si l’eau pressurisée à 150 bars cesse de circuler), ainsi que la production de déchets de longue « vie ». En témoignent le récupérateur de corium, et une enceinte de confinement étanche à une surpression de 5,5 bars (l’efficacité de ces dispositifs de sécurité ne pouvant être éprouvée). Tenter de se prémunir contre de tels risques est forcément onéreux : le « démonstrateur » EPR de Flamanville coûtera finalement 10.5 milliards d’€ (12) , au lieu des 3 prévus à l’origine. Par comparaison, il ne faudrait qu’un seul milliard  (pas même un 2000ème  du PIB français de 2017), pour amener un réacteur MSR au stade du « démonstrateur ».

Quel sens doit-on donner à tout cela ? l’État français a-t-il protégé les intérêts d’Aréva (Orano depuis 2018), fortement impliqué dans la construction de ces centrales, et dans le recyclage des déchets nucléaires ? Ou bien n’était-il déjà plus capable, en 1992, de prendre le moindre risque technologique pour le bien commun ?

(1) Sondage IFOP de 2016 sur le nucléaire

(2) Source : INSEE, Structure de la consommation d’énergie primaire (tableaux en millions de tonnes équivalent pétrole, mis en porcentage) et production brute et consommation d’électricité. (en TWh, mis en pourcentage).

(3) éolien : 3.73% de la production d’électricité française en 2015 (21,2 sur 568 Twh) contre 9,5% en Allemagne. Solaire : 1,28% de de la production d’électricité française en 2015 (7.3 sur 568 Twh).

(4) ou de notre production, ce qui est la même chose, car nous consommons à peu de chose près toute l’électricité que nous produisons.

(5) la combustion des déchets dans les incinérateurs représentait une production d’électricité de 3.6 GWh en 2013 (Ademe). Cela représentait 0.00063% (0.0036 sur 568 TWh) de la production brute d’électricité de 2015, dont 50% est reconnue d’origine renouvelable (biomasse) les 50 % restant étant de véritables déchets.

(6) 70% : chiffre obtenu directement auprès d’un ingénieur de la centrale de Saint-Laurent des Eaux, lors de ma visite du coeur de la centrale, dans les années 2000.

(7) Machine à vapeur : une centrale nucléaire est une grosse machine à vapeur. Le réacteur nucléaire y remplace le charbon, pour produire de la chaleur, et changer de l’eau en vapeur, ce qui permet de générer une force mécanique. On condense ensuite la vapeur (en la refroidissant) pour qu’elle retourne à l’état d’eau liquide dans le circuit. C’est le rôle de ces énormes cheminées, d’apporter une source de froid dans le condenseur.

(8) Les machines de Newcomen étaient des pompes utilisées pour l’exhaure des mines, qui gaspillaient beaucoup de charbon, mais puisqu’il y avait abondance de charbon sur place, les exploitant n’y prêtaient guère attention. A la fin du 17ème siècle, un autre pionnier de la vapeur mesurait les effets de chaque morceau de bois ou de charbon qu’il brûlait sous ses « machines à feu », et même la façon lente ou rapide avec laquelle il les consumait. (Papin : « A new digestor, or engine for softening bones… »)

(9) En 2012, sur les 436 réacteurs nucléaires installés dans le monde, 96% d’entre eux (418) fonctionnaient avec du combustible solide, et de l’eau pressurisée entre 70 et 130 bars comme fluide caloporteur. Ils se répartissaient ainsi : 272 PWR (Pressure Water Reactor, genre Three Mile Island),  84 BWR (Boiling Water Reactor, genre Fukushima), 47 PHWR  (Pressure Heavy Water Reactor, genre Three Mile Island amélioré) et 15 LWGR (graphite moderated light water cooled, ou RBMK, genre Tchernobyl).

(10) A Fukushima, on se souvient que si par malchance, le vent avait été mal orienté, la ville de Tokyo (30 millions d’habitants) aurait due être évacuée.

(11) « Thorium, la face gâchée du nucléaire ». Documentaire de Myriam Tonelotto sur Youtube.

(12) Pression, quelques chiffres sur l’EPR de Flamanville : cuve du réacteur :  150 bars de pression; enceinte de confinement restant (théoriquement) étanche à 5.5 bars en cas  de fusion du réacteur, ou d’explosion d’hydrogène. Coût du « démonstrateur » : 10.5 milliards   selon EDF au lieu des 3 prévus au début de la construction.

 

 

Bye Bye Facebook

Personnellement, je dois dire que je ne serai pas fâché de voir disparaître Facebook. Car c’est un espace censuré, pas seulement en ce qui concerne certaines images, (je me souviens en particulier de cet internaute, qui avait voulu afficher « l’origine du monde » de Courbet sur sa page facebook), mais aussi pour le texte.

Voici ce qui m’était arrivé : c’était aux alentours de 2012, et j’avais vu sur Arte un documentaire très intéressant sur la banque Goldman Sachs, montrant que la banque avait finalement décidé d’œuvrer contre ses clients, et comment elle infitrait les gouvernements européens . Et j’avais trouvé sur facebook un endroit plutôt pratique (à ceci près qu’il se complétait tout seul avec des items que je devais effacer) où l’on pouvait lister les films qu’on a bien aimés. Eh bien Facebook refusait que je partage avec mes « amis » un film intitulé « Goldman Sachs la banque qui dirige le monde » !

Stupéfait, je me mis à chercher pourquoi, à tester différentes variantes, et j’ai finalement réussi, en changeant le titre par « Galdman Socks, la banque qui dirige le monde », ou quelques chose dans le genre. En réitérant la manœuvre à plusieurs reprises, il se produisait toujours la même chose, et donc j’en ai conclu que Facebook censurait la phrase « Goldman Sachs », et sans le dire bien sûr.

Automatique ou pas, c’est de la censure. J’y ai peu remis les pieds depuis, et je ne risque pas d’y revenir, maintenant que le site s’est laissé pirater 50 millions de profils. Du coup j’ai oublié mon mot de passe, et après avoir tenté plusieurs  fois un mot de passe sans doute erronné, Facebook a supprimé toutes mon archive (quelques articles que j’avais mis en ligne, et toute la construction de mon profil).

Censure, gaspillage de mon temps, plus les faux amis, arnaqueurs en tout genre qui essaient de vous infiltrer pour faire du chantage…ça fait trop. Bye Bye Facebook, qui a mon avis, n’en a plus pour très longtemps.

 

Uber, ou comment se débarrasser de la « chair » du libéralisme ?

Ce 19 mars 2018 à Tempe (Arizona) un véhicule autonome Uber a renversé et tué une femme nommée  Elaine Herzberg, une mère de famille de 49 ans qui traversait imprudemment la rue avec son vélo la nuit. Qui était cette femme ? on trouve bien peu d’information sur elle, qui vient pourtant de donner sa vie, contre son gré, à la robotique en développement.

Une vidéo montrant l’intérieur et l’extérieur du véhicule autonome au moment du choc a été rendue publique par la police de Tempe. Elle semble montrer que la vigilance de la « conductrice » était relâchée. Mais comment ne le serait-elle pas, la nuit, dans un véhicule où il n’y a rien à faire ? (0).

Un porte parole d’Uber a déclaré ceci  : « Nos pensées vont à la famille de la victime. Nous coopérons pleinement avec les autorités locales dans leurs investigations de cet incident« (1).  Touchante compassion, de la part d’une entreprise qui ne cherche qu’à supprimer l’humain dans l’organisation de ses profits.

La mort de Elaine Herzberg est-elle un « incident » ? Le sens anglais de « incident » ressemble pourtant au sens français. Selon Wikipedia, il fait référence par exemple à quelque événement observable sur une courbe mathématique…Le mot « accident » (2) semblait donc plus juste en la circonstance, puisque l’encyclopédie en ligne le définit comme « une blessure ou une perte non-intentionnelle et non désirée, un événement malheureux et imprévu qui aurait pu être évité, si les circonstances l’ayant engendré avaient pu être reconnues, et évitées à temps. »

La survenue d’un vocabulaire tentant d’atténuer la gravité de l’accident, n’est pas un hasard. Lorsqu’une nouvelle technologie émerge, l’équilibre « naturel » qui s’établit dans l’opinion entre ses aspects positifs et négatifs, se trouve rapidement altéré par les intérêts en jeu. Il en fut ainsi de l’amiante, du pétrole, du plomb, et des réacteurs atomiques à eau pressurisée. On en a ici, semble-t-il, une nouvelle illustration avec les robots.

Car de toute évidence, ces voitures et ces camions autonomes ne sont pas au service de l’Humain, dont ils vont détruire les emplois par millions. Et même si les véhicules autonomes sauvent demain quelques vies sur la route,  combien d’autres vies seront rendues plus difficiles, par la disparition de ces emplois ?

Ne faut-il pas se poser la question en France, à l’heure ou le nombre de morts économiques(indigents morts dans la rue) atteint 14% du nombre de morts sur la route ?(3)

(0) Laisse-t-on par exemple, un homme attendre un train, assis sur le bord du quai ? C’est une situation d’accident comparable à celle de la conductrice du véhicule autonome. Un autre parallèle pourrait être fait avec un homme îvre, dont le temps de réaction serait extrêmement ralenti.

(1) propos originaux du porte parole de Uber : “Our hearts go out to the victim’s family, we are fully cooperating with local authorities in their investigation of this incident.”

(2) définition d’un accident par en.wikipedia.org : « An accident, also known as an unintentional injury, is an undesirable, incidental, and unplanned event that could have been prevented had circumstances leading up to the accident been recognized, and acted upon, prior to its occurrence ». 

(3)  510=14% de 3522  nombre de morts sur la route de sept 2016 et août 2017 : 3 522 comparé au  510 morts dans la rue en 2017

 

Amazon va créer 2000 emplois…tant qu’on parle d’Amazon, tout baigne pour Amazon…

Vincent Rey le 16 février 2018

On annonce ce matin avec enthousiasme que Amazon va créer 2000 emplois en France en 2018 ! formidable !?

En fait, Jeff Bezos (CEO d’Amazon) doit bien rire, en observant la publicité qu’on lui fait à bon compte, en relayant de telles informations, qui ne pourraient bien être que des bobards ! Il y a quelque temps, on nous annonçait qu’Amazon livrerait bientôt par drone, directement à domicile ! (1). Où sont-ils les drones ?

Continuer la lecture de Amazon va créer 2000 emplois…tant qu’on parle d’Amazon, tout baigne pour Amazon…

Intelligence artificielle de l’Ordinateur, angoisses métaphysiques de l’Homme…

Vincent Rey le 18 01 2018

Le 11 mai 1997 fut une date historique. Ce jour là, l’ordinateur « Deep Blue » battait aux échecs Garry Kasparov. Le joueur russe, conscient de ce qu’il symbolisait, sortit furieux de la rencontre, déclarant «Je pense qu’il est temps pour « Deep Blue » de jouer aux vrais échecs et je peux vous promettre à vous tous que si « Deep Blue » joue à la régulière, je vous le garantis, je le réduis en pièces». Mais que voulait vraiment dire Kasparov ?

Aux échecs comme au tennis, l’ascendant psychologique joue un rôle. Il est important de remporter le premier set au tennis. Aux échecs, c’est la même chose, celui qui remporte la première des 6 parties prend généralement un ascendant psychologique sur son adversaire.

Or, en 1997, « Deep Blue » a perdu la première partie, et pourtant, tout montre que c’est lui qui a pris l’ascendant psychologique sur Kasparov.  C’est sans doute que les ordinateurs ne sont pas des partenaires comme les autres…

Des analystes ont depuis décortiqué cette première partie. Au 44ème coup, un bug empêche « Deep Blue » de jouer (1) , il tourne en rond dans une boucle sans fin ! Le logiciel d’IBM exécute alors une procédure de sauvetage, ce qui le conduit à jouer aléatoirement. A la vue de ce coup inexplicable (2) Kasparov s’engage alors dans ce qu’on peut appeler une peur irrationnelle. Il prête à l’ordinateur des capacités d’invention qu’il n’a pas, et ce sentiment perdurera bien au delà de la première partie. Le champion russe est sans doute le premier homme dans l’Histoire, a avoir ressenti la peur de la singularité technologique (3). Une peur injustifiée en l’occurrence, puisque d’une part, il est sorti vainqueur de cette première partie, et d’autre part, parce que « Deep Blue » était réellement en difficulté, ne sachant que jouer…

A la deuxième partie, le mal était fait dans le cerveau de Kasparov. Alors qu’il tente d’attirer la Dame de « Deep Blue » derrière ses lignes en lui ouvrant la prise de pions, l’ordinateur, contre toute attente, ne tombe pas dans le piège (4), préférant  fermer le côté droit de l’échiquier à une contre-attaque, en avançant un fou. Une nouvelle fois, la raison de Kasparov vacille. Il ne peut croire que ce mouvement est le fruit d’un calcul, et soupçonne la présence d’un grand maître. Il commet ensuite une erreur en laissant passer la possibilité d’une partie nulle, ce qui semble montrer qu’il était déstabilisé. Quelques coups plus tard, il abandonne la partie.

Les trois parties suivantes donnent un résultat nul, laissant les protagonistes à égalité de victoires. A la sixième partie, Kasparov fait une erreur de débutant, ce qui le conduit bientôt à sacrifier sa Dame, puis à abandonner en seulement 19 coups. Pour la première fois, l’Homme se trouve  vaincu, dans ce qu’il pensait avoir de plus unique : l’intelligence.

Cet événement, survenu en 1997, portait déjà en germe certains aspects de nos rapports futurs avec l’Intelligence Artificielle.

A la frontière de la compréhension, nous avons une propension à croire en des forces obscures. Nous perdons une paire de lunettes, nous sommes certains de les avoir posées dans un endroit, et pourtant on ne les trouve nulle part. Lorsque toutes les explications rationnelles ont été explorées, des soupçons absurdes nous assaillent : « est-il possible qu’elles se soient volatilisées ? ou qu’on me les ait volées ? ». Certainement Kasparov, au 44ème coup de la première partie,  a dû entrer en lutte contre sa propre propension à l’irrationalité. Pourtant,  « Deep blue »  n’a « bluffé » Kasparov que par accident, à la suite d’ un bug (5). Le champion russe n’ avait donc aucune de raison de soupçonner quoi que ce soit, dans la régularité de l’échange.

Si la partie avait eu lieu en 2018, Kasparov aurait eu de bonnes raison de soupçonner une véritable intelligence. La force de calcul n’est plus le seul atout des ordinateurs. Ils sont maintenant capables d’apprendre du comportement humain, et de s’entraîner en jouant des millions de parties contre eux-même. Le système « Libratus » (6), s’est imposé en 2017 sur 4 des meilleurs champions de poker. Il utilise un « algorithme adaptatif », basé sur la « minimisation du regret hypothétique ». Il analysait aussi les « vraies » parties jouées contre des humains, pour affiner sa stratégie. A l’issue des 120 000 mains qui furent jouées par l’ordinateur, l’algorithme était tellement affûté, que le champion humain Dong Kim déclara « (…) Aujourd’hui, j’avais les mêmes sensations qu’en jouant contre un tricheur qui aurait vu mes cartes (…).  Dong Kim aurait-il lui aussi quitté la rationalité, pour croire en l’omniprésence de « Libratus » ?

Cette aptitude du cerveau humain à quitter le champ de la rationalité doit définir la frontière de ce que nous confierons à l’Intelligence Artificielle.

Dans le domaine scientifique, l’Intelligence Artificielle peut certainement nous apporter beaucoup. On pense en particulier, à la conception de modèles climatiques, capables de prédire avec précision l’avenir du climat, une chose impossible aujourd’hui. Dans le domaine de la santé, l’IA sera d’une grande utilité, elle effectue déjà des corrélations, qui seraient impossibles pour le cerveau humain, ce qui permettra certainement de détecter, voire de prévenir, l’arrivée de maladies (7).

En revanche, utiliser l’IA pour résoudre des problèmes économiques, pourrait se révéler catastrophique. Aussitôt qu’une décision économique ne serait pas en faveur de tel ou tel groupe d’intérêt, des soupçons, ou des peurs irraisonnées, comparables à celle de Garry Kasparov émergeront. On se demandera quels intérêts sous-tendent les décisions de l’IA (« y,-a-t-il un grand maître derrière ? ») ou bien on soupçonnera toutes sortes de complots. La compréhension de l’IA nous étant impossible, toutes les justifications que l’on pourra donner, ou les invitations à la confiance, seront inutiles.

Par ailleurs, il faudra veiller à ce que l’IA ne tombe pas pour de bon dans les mains de « grands maîtres » économiques. On a déjà sous les yeux les problèmes que posent l’Hyper-trading financier, ces machines capables d’effectuer des milliers de transactions par seconde. Avec des techniques comme le « layering », ou le « spoofing » (8), les ressources des ordinateurs sont déjà utilisées par des acteurs financiers pour manipuler les cours. Avec l’IA, la tromperie des consommateurs, ou des manipulations indétectables pourraient devenir monnaie courante. On peut par exemple redouter des ententes monopolistiques, organisées par les IA de plusieurs firmes (9), et la détection de telles fraudes pourrait devenir impossible, si les États ne disposent pas de moyens en IA à la hauteur de ceux des puissantes entreprises qu’ils souhaitent contrôler. Il est déjà difficile pour les états de lutter contre l’optimisation fiscale (10) des grandes firmes, pourquoi en irait-il différemment, lorsqu’il s’agira de contrôler des manœuvres de dissimulation par l’IA ?

Enfin, il ne faudra pas laisser l’IA avancer cachée, car si la compréhension humaine du monde devient impossible aux humains, cela pourrait avoir pour effet de favoriser l’essor de courants de pensée irrationnels, religieux ou obscurantistes, et ce serait aussi une grande menace, car n’est pas un ordinateur qui tiendra le bulletin de vote, que l’on glissera dans l’urne. Ne voit-on pas déjà les signes avant-coureurs de cette incompréhension, avec tous ces mouvements « anti-système » qui fleurissent de par le monde, aux Philippines, aux USAs, en Pologne ? Le point commun des ces mouvements, n’est-ce pas déjà l’incompréhension devant la complexité de l’économie mondiale, et la précarité économique ?

L’IA pourrait-elle alors intégrer dans ses algorithmes, notre propension à l’angoisse devant l’inconnu, pour mieux parvenir à ses fins  ? Ce serait alors de deux choses l’une : ou bien l’Intelligence Artificielle ainsi « augmentée » deviendrait impuissante, car notre capacités à nous angoisser doit être à peu près infinie. Ou bien ce serait l’avènement d’une forme de totalitarisme protecteur. L’Intelligence Artificielle entrerait alors dans l’intimité de nos vies, pour nous faire éviter tous les écueils. L’intention serait bonne, mais n’aurions nous pas renoncé à la Liberté en entrant dans un tel univers ?

(1) le bug de « Deep Blue » au 44ème coup de la partie 1 de 1997

(2) La première des 6 parties Deep Blue – Kasparov de 1997

(3) La singularité technologique

(4) Deep blue ne tombe pas dans le piège de la partie 2

(5) Selon Murray Campbell, un des ingénieurs du projet Deep Blue, interviewé par Nate Silver dans son livre  The Signal and the Noise

(6) Auto-apprentissage et stratégie de Libratus

(7) l’IA au service de la maladie, Watson d’IBM

(8) Hyper-trading, Layering et spoofing, explications sur wikipedia

(9) De telles ententes entre firmes ont déjà été condamnées par le plus haut niveau de la justice. Pourquoi demain, se priveraient-elles de le dissimuler grâce à l’IA ? Selon l’autorité de la concurrence :   « De 1997 à 2003, ils (ndlr : Bouygues, Orange et SFR) ont procédé à des échanges d’informations stratégiques. De 2000 à 2002, ils se sont en outre réparti les parts de marché selon des objectifs qu’ils avaient négociés entre eux ».

(10) L’Etat peine déjà à suivre les montages effectués par des cabinets d’avocats fiscalistes.  L’IA réclamant des budgets conséquents, il y a fort à parier que les moyens de l’Etat seront tout aussi insuffisants pour contrôler que l’utilisation de l’IA reste dans le cadre de la loi.