16 février 2021

38.L'Intelligence artificielle existe-t-elle ? - Luc Julia

 

«L’Intelligence Artificielle 

n’existe pas» 

Un ouvrage de Luc JULIA[1]

FIRST Editions, 2019

 

Résumé et citations

 

L’auteur, co-créateur de SIRI (l’assistant vocal d’Apple), à l’origine des imprimantes connectées d’HP[2] et pionnier de la réalité augmentée, est un scientifique toulousain devenu l’un des gourous mondiaux de l’«intelligence artificielle». Vice-président innovation de SAMSUNG monde, il dirige son propre laboratoire d’IA à Paris. Dans ce livre de 2019 il «déconstruit le mythe de l’IA».

« Dans ce livre, je vous invite à me suivre, de mon petit village près de Toulouse à la Silicon Valley[3], sur les traces de cette fameuse ‘intelligence artificielle’ à propos de laquelle on entend dire tant de bêtises, pour comprendre de quoi il s’agit exactement et anticiper ce qu’elle peut nous réserver à l’avenir. Car, aujourd’hui, je l’affirme haut et fort : l’intelligence artificielle n’existe pas ! » (4ème de couverture)

 


Luc Julia dans cet ouvrage décrit d’abord son parcours de bricoleur de génie dès
l’enfance, «comment ces nouvelles technologies sont liées et fonctionnent» ainsi que «certains aspects historiques qui fondent les croyances actuelles sur l’IA» Après un passage au CNRS[4], au MIT à Boston dès avant son doctorat achevé, puis au SRI International de la Silicon Valley où il fait 6 ans d’apprentissage et de rencontres décisives et en décrit l’ambiance stimulante. Il y poursuit ses recherches et achève sa thèse en 1995 puis y crée en 1997 son propre laboratoire CHIC (Computer Human Interaction Center) et construit le premier frigo intelligent (CheF). Des 9 projets dévoilés en 1999 par son laboratoire, le plus connu est le SIRI.

 

Après 10 ans de recherche et d’invention il quitte le SRI fin 1999 pour créer des start-up et se lancer dans d’autres aventures créatives, des défis technologiques dont il décrit les objets et les fonctions. Après avoir collaboré avec le gratin international de l’informatique il rentre à Paris en 2018 pour diriger un laboratoire.

 

Cette présentation montre un auteur qui connaît bien son sujet : l’IA.

 

«Tout est parti d’un immense malentendu. En 1956, à la conférence de Dartmouth[5], J. McCarthy[6] a convaincu ses collègues d’employer l’expression Intelligence Artificielle pour décrire une discipline qui n’a rien à voir avec l’intelligence». «L’emploi du terme  intelligence est de fait une vaste fumisterie car il est basé sur des vœux pieux qui sont bien loin de la réalité.» (p119)

 

Capacité de calcul et base de données par Internet ne permettent pas, par exemple, qu’une machine  reconnaisse à 100% un chat, et pour obtenir l’optimum de 95% il faut lui fournir 100.000 mages de chat, ce dont l’humain n’a pas besoin. D’après des psychologues, un enfant «n’a besoin que de 2 instances d’images de chat pour les  reconnaître à vie… de manière quasi infaillible

 

Les machines... «sont incapables de contextualiser. Si... on n’a pas fourni d’image de chat prises de nuit..» à la machine «il y a peu de chance que le système reconnaisse un chat dans la nuit...»

«On peut bien sûr multiplier les paramètres et augmenter les jeux de données mais, outre le fait qu’il sera difficile de modéliser tous les états et toutes les circonstances, (peut-on représenter le feeling?) des problèmes de capacité de mémoire et de puissance de calcul se poseront»

 

Depuis 2007 les capacités et méthodes de calcul ayant considérablement augmenté, l’IA revient en force et avec son lot de promesses malheureusement irréalistes. Les oiseaux de mauvais augure qui nous prédisent un monde délirant où les robots… nous domineraient,  ou ceux qui nous font miroiter un monde dans lequel l’intelligence artificielle résoudrait tous nos problèmes, nous racontent tous des bobards...»

 

«Tout ça à cause d’un malentendu autour du nom donné à la discipline... qui n’a rien à voir avec de l’intelligence»

 

La machine à calculer de Pascal, en 1642, qui faisait additions et soustraction plus vite et sans erreur représente le tout premier ordinateur. Après ces bases posées par Pascal, un mathématicien et inventeur britannique, Babbage[7], en 1830, «s’est approché à grand pas vers l’informatique moderne» et en 1837 il invente «la première machine jamais conçue avec l’idée de la programmer»

 

«On peut améliorer la société grâce à la technologie mais il faut la comprendre, la connaître et savoir à quoi elle sert… Les vraies questions qui se posent en matière de technologie sont d’une part politiques et d’autre part, liées à la répartition des richesses..

«Les pays les plus robotisés sont ceux dans lesquels il y a le moins de chômage (Japon, Allemagne)»

 

«Le véritable danger de l’IA vient de nous, les humains» selon les programmations des robots.

 

Les problèmes connus avec les machines (exemple: accident mortel en 2016 avec l’Autopilot de Tesla) viennent de la programmation… car la machine «n’a pas l’intelligence de s’adapter aux situations» pour lesquelles elle n’a pas été réglée. Les machines, les robots «n’inventent rien, ils ne font que suivre des règles, des exemples et des codes, en utilisant les données que nous choisissons pour ces systèmes… Elles nous fournissent une aide qui vient amplifier … nos capacités physiques ou intellectuelles mais elles ne peuvent en aucun cas les remplacer.»

Les données des machines ne sont «qu’une infime partie de l’intelligence». La machine n’a «ni sens commun, ni empathie...ni curiosité...ni capacité d’innover… ni esprit critique... ni capacité de remise en cause ...la machine ne doute pas...ne crée rien toute seule...elle copie... elle recrache des données ingurgitées avec les logiciels.»

 

«L’idée originale, intelligente vient du programmeur qui a pensé...»

 

«On peut tromper la machine avec des images générées qui ne représentent rien pour nous, mais dans lesquelles les réseaux de neurones vont trouver un animal ou un objet… avec un niveau de confiance élevé parce qu’elle manque totalement de sens commun et, bien sûr d’humanité...»

Pour l’IA  pas de «vécu, (de) sensibilité, (d’) assimilation d’expériences, en un mot, (de) multidisciplinarité.» …«La multidisciplinarité m’est apparue comme une clef fondamentale … (elle) apporte des idées qui permettent de résoudre les problèmes autrement… C’est la diversité et non l’uniformité qui crée de l’intelligence.»

 

Luc Julia décrit ensuite toutes les améliorations apportées par les nouvelles technologies issues de l’IA et croit à son potentiel de transformation sur nos vies mais conclut en exprimant sa «crainte que les gens croient tout ce qu’on leur raconte sur l’IA, parce qu’ils n’ont pas assez d’information sur le sujet..»

 

Il se méfie en général de la «désinformation et de (la) malhonnêteté dans la façon de présenter les choses.» «Il ne faut pas se voiler la face, il y aura des bugs. Oui on pourra programmer une machine avec des sources biaisées, et oui, on pourra fabriquer un robot à des fins destructrices. Il faut le comprendre et le reconnaître pour prendre conscience des limites et des dangers de ces technologies.»

 

Il nous conseille d’être conscient et informés pour ne pas laisser «le champ libre à ceux qui veulent garder le contrôle sur  la technologie parce qu’ils y ont tout intérêt»

 

Au delà «des craintes irréalistes et des attentes improbables» car les machines «ne sont pas magiques» il nous invite à nous méfier plutôt des mains dans lesquelles la technologie peut devenir un outil dangereux et nous signale l’importance des ressources que consomment déjà les méthodes courantes liées au big data[8].


«Pour faire tourner et refroidir les data centers[9] la consommation d’énergie en 2015 représentait  4% de la consommation énergétique mondiale. Près de Washington il y a des centrales nucléaires dédiées à l’alimentation des data centers. Dans les pays chauds le problème du refroidissement est encore plus sérieux».

 

«Autour de 2020 l’économie digitale... pèsera pour 20% dans la consommation électrique de la planète». «Nous sommes face à un problème écologique sérieux et cette course aux big data est en train de nous mener droit dans le mur.» «Pour réduire l’impact écologique il faut chercher des solutions», «il faudrait se tourner vers le small data[10] qui consommerait beaucoup moins d’énergie», «mais ce n’est pas à la mode aujourd’hui parce que les méthodes basées sur le big data marchent bien..»

 

Luc Julia termine son ouvrage par son aspiration à la conservation «de notre sens critique, de notre empathie, de notre humanité, de tout ce qui fait la différence entre un humain et une machine

 

 

 

Pour en savoir plus : deux liens complémentaires d’entretiens de Luc Julia :
 
Concernant ces liens, et d’autres : Les liens internet sont volatiles et peuvent disparaître, d’un instant à l’autre ; s'ils ne fonctionnent pas, vous les trouverez peut-être sur Odyssée en utilisant des mots-clés, tels le nom de l’auteur ou les titres des documents  ou livres.

 



[1] Luc Julia, ingénieur et informaticien franco-américain, est né en 1966 à Toulouse. Il est spécialiste de l’intelligence artificielle, un des concepteurs de l’assistant vocal Siri. Depuis 2012, il est chargé de l’innovation chez Sansung et dirige également le Laboratoire d’intelligence artificielle de Sansung (SAIL).

[2] Pour mémoire Hewlett-Packard Company, HP en abrégée, multinationale américaine d’informatique, imprimantes, serveurs, réseaux, logiciels et multimédia.

[3] Pour mémoire, Silicon Valley (ou « The Valley ») désigne le pôle des industries de pointe situé dans la région californienne de la baie de San Francisco (côte ouest des Etats-Unis). L’expression de constitue pas une unité géographique, mais une entité d’activités.

[4] Pour mémoire, le Centre National de la Recherche Scientifique

[5] La conférence de Dartmouth (Dartmouth Summer Research Project on Artificial Intelligence) est un atelier scientifique organisé durant l'été 1956, qui est considéré comme l'acte de naissance de l’intelligence artificielle en tant que domaine de recherche autonome

[6] Mathématicien américain (1927-2011), chercheur en intelligence artificielle.

[7] Charles Babbage (1791-1871), mathématicien londonien, un des principaux précurseurs de l’informatique.

[8] Concept permettant de stocker un nombre indicible d’informations sur une base numérique (bibliothèque numérique)

[9] Centre de données ou centre informatique, lieu de traitement des données.

[10] Petites données.  Il s’agit des données suffisamment petites pour la compréhension humaine. « Une seule pomme tombe sur Isaac La tête de Newton, pas dix, pas mille » (Wikipedia)

Aucun commentaire:

Enregistrer un commentaire

156. "Une théorie de la connaissance chez Goethe - Rudolf Steiner

  A propos de « Une Théorie de la Connaissance chez Goethe » de Rudolf Steiner   aux Editions Anthroposophiques Romandes, édit...