Intelligence artificielle et Singularité : de la science à la fiction?

Quel est le dénominateur commun entre la disparition du travail humain et la disparition de l’homme lui-même, en passant par la disparition du libre arbitre, la machine consciente ou l’émergence d’une espèce hybride homme/machine, régénérée dans un âge neuf ? La réponse est : l’ intelligence artificielle (IA).

Des scientifiques (Stephen Hawking), des philosophes, des hommes d’affaires (Elon Musk, Bill Gates), s’interrogent sur les développements rapides de l’ intelligence artificielle et leurs conséquences à court terme (quelques décennies) sur l’économie, la politique, la vie, la survie de l’espèce humaine (Ray Kurzweil).

La réaction en chaîne déclenchée par l’ intelligence artificielle telle qu’on la redoute :

Les facultés d’apprentissage automatique des machines (Deep Learning) alimentées par les quantités d’information colossales (Big Data), les rendront bientôt imprévisibles, puisque leur comportement ne résultera plus du programme que les hommes auront écrit, mais des connaissances qu’elles construiront elles-mêmes, par induction automatique à partir d’informations glanées çà et là. Couplée à cette imprédictibilité, leur autonomie croissante fait qu’elles nous échapperont et prendront un empire de plus en plus grand sur l’homme. Nous atteindrons alors un point de non-retour au-delà duquel nous, humains, courrons à notre perte. (JG Ganascia)

Cet événement inéluctable a un nom : la Singularité technologique, une discontinuité radicale due à l’autonomisation de la technologie qui, s’affranchissant de la tutelle humaine, se déploierait d’elle-même, au-delà de toute limite assignable pour le meilleur et/ou pour le pire.

A cette aune, faut-il craindre l’ intelligence artificielle et son corollaire, la survenance de cette Singularité technologique ?

intelligence artificielle Jean Gabriel Ganascia

J-G Ganascia

Jean-Gabriel Ganascia, Professeur à l’université Pierre et Marie Curie, spécialiste en intelligence artificielle et en sciences cognitives, apporte des éléments de réponse et une réflexion dense et stimulante, en particulier dans deux de ses ouvrages dont cet article constitue une fiche de lecture commentée :

Intelligence artificielle, vers une domination programmée ? (Ed. Le cavalier Bleu 2007, nouvelle édition 2017)

Le mythe de la Singularité : faut-il craindre l’intelligence artificielle ? (Ed. Seuil « Science Ouverte » 2017)

On retrouve dans les interrogations, commentaires et prédictions des personnes citées plus haut, trois éléments qui devraient mener à la Singularité : la généralisation de la Loi de Moore, l’autonomie des ordinateurs / machines et l’ intelligence artificielle dite « forte ».

Le point de départ du voyage vers la Singularité : la généralisation de la Loi de Moore (Gordon Moore, Fondateur d’Intel 1965)

intelligence artificielle Gordon Moore

Gordon Moore

La première formulation de cette loi date de 1965 et affirmait que la puissance des ordinateurs, calculée selon le nombre de transistors par microprocesseur, double environ tous les deux ans. On l‘a ensuite appliquée aux performances, à la rapidité de traitement et aux capacités de stockage de l’information, couplée à une diminution des coûts de ces opérations dans les mêmes proportions quantitatives et temporelles.

Si cette loi se vérifie indéfiniment, qu’adviendra-t-il de machines aussi puissantes ? Poursuivons dans l’extrapolation : et si cette loi n’était pas limitée à la technologie mais s’appliquait aussi au principe général qui régit l’évolution de la culture humaine, de l’homme, de la vie et de la nature depuis les origines (Ray Kurzweil) ?

Cette loi peut-elle se vérifier indéfiniment ? Rien ne permet de le prouver.

C’est une formule empirique, qui repose sur un simple constat. Le fait qu’il soit avéré depuis 50 ans ne lui retire pas sa nature empirique et ne lui assure en rien une validité future. Son caractère inductif (passage de l’observation de nombreux cas particuliers à une loi générale) rend sa validation scientifique compliquée (reproductibilité par expérimentation quasiment impossible). Il faut donc à défaut, recourir à un axiome implicite de « régularité » selon lequel ce qui advint par le passé, advient et adviendra toujours de la même façon. Toute induction repose sur un principe d’uniformité (John Stuart Mill). Or l’évolution de la technologie au cours de l’histoire n’a rien d’uniforme.  Mais surtout, le principe d’uniformité est incompatible avec la survenance d’une rupture, ce qu’est justement l’apparition d’une Singularité.

Même si rien n’exclut, au plan logique, qu’une évolution catastrophique de la technologie vienne bouleverser le statut de l’homme dans la nature, cette rupture ne saurait se déduire d’une loi reposant sur la régularité du cours de la technologie. (JG Ganascia)

Elle se heurte à certaines barrières d’ordre physique et technologique : vitesse de propagation finie des ondes électromagnétiques, limites dans la miniaturisation dues aux techniques de fabrication actuelles des processeurs (« Mur du Silicium » mentionné par Intel dès 2016. Les composants doivent avoir une taille minimale de quelques dizaines de nanomètres pour remplir leurs fonctions). De nouveaux éléments viendront certainement repousser ou briser cette limite (utilisation du graphène, calcul quantique etc.) avec pour conséquence une remise en question d’une manière ou d’une autre de la loi de Moore.

La combinaison de la loi de Moore concernant les performances des processeurs et du constat selon lequel la nature aurait évolué de façon similaire, pour aboutir à une seule loi générale

intelligence artificielle Ray Kurzweil

Ray Kurzweil

d’évolution (Ray Kurzweil) a-t-elle un sens ?

Non. Le parallèle est abusif. Comme l’ont montré des spécialistes de l’évolution (Stephen Jay Gould par exemple) :

L’évolution apparaît partout contingente. Vue dans sa globalité, elle ne se présente ni comme une marche ininterrompue vers la complexité, ni comme une progression vers un idéal de perfection. (JG Ganascia d’après SJ Gould)

Fréquence et puissance de calcul, capacités de stockage de l’information produisent-elles automatiquement de l’ intelligence ? Non. La discipline qui a pour nom intelligence artificielle, créée en 1955 par deux mathématiciens, John McCarthy et Marvin Minsky, vise à simuler sur des ordinateurs les différentes facultés cognitives humaines et animales (capacité à raisonner, comprendre des textes, démontrer des théorèmes, percevoir et reconnaître des formes, des sons etc.) pour mieux les comprendre. Cette discipline repose sur l’hypothèse de la possibilité de décomposer l’intelligence et ses différentes facettes en fonctions élémentaires qui deviendraient reproductibles sur un ordinateur. Le travail est loin d’être terminé et n’a aucun propos démiurgique.

Les machines auto reproductives, auto apprenantes, entièrement autonomes échapperaient-elles in fine à tout contrôle?

intelligence artificielle colossus film

Cet effet est décrit dans les théories de l’amorçage ou de l’auto apprentissage en IA (Jacques Pitrat 2009). Les machines ne se contenteraient pas de dupliquer et de propager de l’information, mais dupliqueraient leurs programmes puis les amélioreraient en observant leurs comportements, afin d’en tirer les conséquences bénéfiques (pour elles) et ainsi de suite jusqu’à devenir autonomes. Cette piste de recherche, ouverte aux Etats Unis depuis la fin des années 1950, n’a pour l’instant pas donné de résultats probants.

Il est nécessaire à ce stade de clarifier le sens donné à l’autonomie.  Celle-ci se conçoit selon deux perspectives :

La première, au sens technique, signifie qu’il existe une chaîne de causalité matérielles allant de la prise d’information par des capteurs, à la décision , puis à l’action, qui ne fait pas intervenir d’agent extérieur, en particulier humain. C’est l’exemple de la voiture autonome qui choisit son itinéraire ou du système d’armement qui déclenche un tir sur une cible qui correspond aux caractéristiques apprises par la machine qui le régit.

La seconde, au sens philosophique, assimile l’autonomie à la capacité de se donner ses propres lois, à savoir les règles et les finalités de son comportement. C’est, dans le cas du système d’armement, le déclenchement d’un tir sur une cible dont la machine a déterminé elle-même les caractéristiques, dans le cadre d’un objectif qu’elle s’est elle-même assignée.

A la source de ces deux comportements, il y a l’apprentissage. Celui-ci se déroule selon trois modalités :

1/ L’apprentissage « supervisé » dans lequel un professeur donne des exemples avec des étiquettes. Par exemple, si l’on veut que la machine reconnaisse des formes géométriques, on va lui donner de nombreux exemples de carrés, rectangles, cercles, etc. définis comme tels, avec comme objectif qu’elle puisse ensuite les distinguer automatiquement.

2/ L’apprentissage « non supervisé » dans lequel les exemples sont donnés à la machine sans que l’on précise la catégorie dont ils relèvent (plus d’étiquettes !). On construit alors des procédures qui permettent à la machine de regrouper ces exemples et d’en dégager automatiquement des caractéristiques qui en permettront ultérieurement la reconnaissance.

3/ L’apprentissage par renforcement, qui permet à la machine d’améliorer progressivement ses performances grâce à l’expérience, par le biais de récompenses et de punitions que renvoie l’environnement. L’apprentissage dans ce cas, essaie de maximiser les récompenses / gains et de minimiser les punitions / pertes. Cette logique d’apprentissage suppose une continuité du comportement de l’objet étudié dans le temps.

Ce principe se généralise aisément. Ainsi, imaginons un aspirateur. Pour qu’il soit efficace, on lui donnera une « récompense » lorsqu’il aspirera de la poussière, autrement dit on l’imagine amateur de poussière, c’est-à-dire « poussiérophile ». Et, grâce à l’apprentissage par renforcement, après un temps d’adaptation, il ira visiter en priorité les lieux où son expérience lui a appris qu’il y a plus de poussière. (JG Ganascia)

Dans tous les cas, c’est un « professeur » humain qui va étiqueter, procédurer, récompenser et punir. Ce n’est pas la machine qui se donne spontanément ses propres règles. Elle suit un enseignement donné par des hommes et n’est donc pas totalement autonome.

Couplées au Big Data, ces techniques d’apprentissage peuvent donner des résultats spectaculaires et fonder une crainte de voir la machine devenir supérieure à l’homme. Elle l’est indubitablement dans les cas où le recours rapide à des masses de connaissances est nécessaire pour effectuer une action.

Mais on demeure dans le cadre de l’autonomie de la machine au sens technique.  Même dotés de capacités d’apprentissage ainsi que de celles de faire évoluer leurs programmes, les machines restent soumises aux catégories, procédures et finalités imposées par ceux (les « professeurs ») qui auront mené à bien leurs phases d’apprentissage.

Le questionnement tel qu’exprimé par nos scientifiques, philosophes et hommes d’affaires reste parfaitement légitime et nécessaire. Les risques de mésusage des machines ou d’accidents existent, et il faut travailler à les anticiper pour en réduire la probabilité de survenance et la gravité des conséquences. Nul doute que les performances des machines et leur utilisation, dans le cas de l’autonomie technique, auront des conséquences énormes sur l’environnement humain, en particulier sur le travail. Cela ne veut pas pour autant dire que les machines atteindront l’autonomie au sens philosophique, le point de non-retour à partir duquel les ordinateurs seront capables de se perfectionner indéfiniment sans concours humain, et de « prendre le pouvoir ».

L’ intelligence artificielle « forte » : voie royale vers la Singularité?

Rappelons-le, la définition de l’ intelligence artificielle au sens des créateurs de la discipline, McCarthy et Minsky en 1955 est la suivante :

intelligence artificielle Marvin Minsky

Marvin Minsky 1967

L’étude doit se fonder sur la conjecture selon laquelle chaque aspect de l’apprentissage ou de toute autre caractéristique de l’intelligence pourrait être décrit si précisément qu’une machine pourrait être fabriquée pour la simuler (McCarthy & Minsky, cités par JG Ganascia)

intelligence artificielle John McCarthy

John McCarthy 1967

L’objectif de ces chercheurs est avant tout pragmatique. Il s’agit de mieux comprendre l’ intelligence humaine et animale en reproduisant ses différentes manifestations sur un ordinateur. Il faut donc pour cela décomposer chaque faculté cognitive humaine en opérations élémentaires susceptibles d’être reproduites sur ordinateur. On est très loin de la création d’un surhomme ou d’une conscience artificielle.

Ce courant originel, qui a donné jusqu’à présent les applications concrètes de l’IA (reconnaissance, vocale, faciale, guidage de véhicules, recommandations utilisées dans le commerce, etc.) est qualifié d’IA « faible ».

L’ intelligence artificielle « forte », courant de pensée apparu au début des années 1980, a une toute autre finalité. Il s’agit là de reproduire un esprit et/ou une conscience sur une machine avec des techniques d’ intelligence artificielle. La survenance ce cette IA « forte » aurait des répercussions majeures sur le devenir de l’espèce humaine voire sur l’univers.

Là où nous avions une discipline scientifique fondée sur des simulations informatiques et sur leur validation expérimentale, nous trouvons une approche philosophique fondée uniquement sur une argumentation discursive; là où l’on insistait sur la décomposition de l’ intelligence en fonctions élémentaires reproductibles sur des ordinateurs, on insiste sur la recomposition d’un esprit et d’une conscience à partir de fonctions cognitives élémentaires. (JG Ganascia)

L’ intelligence artificielle «forte » est la pierre angulaire technologique pour aller vers la Singularité. Elle permettrait la fusion de l’homme et de la machine (transhumanisme) ainsi que, stade ultime, la dissociation de l’esprit de l’homme d’avec la matière, en d’autres mots de la nature et de ses lois, considérée comme imparfaite. Ce sont les machines qui auront des capacités matérielles supérieures à nos cerveaux humains et qui se chargeront de l’aspect matériel de l’existence. Il ne restera plus qu’à y télécharger nos consciences.

Les six phases de cette grande histoire selon Ray Kurzweil sont les suivantes :

1/ Le big bang et la naissance du premier électron, des protons et des atomes.

2/ L’élaboration progressive de la matière organisée, l’ère de la vie avec l’ADN, les cellules, les tissus biologiques et les premiers organismes.

3/ L’apparition des mammifères dotés de cerveaux de plus en plus en perfectionnés, jusqu’à l’homme.

4/ Le perfectionnement des technologies conçues par l’homme.

5/ La phase actuelle où les technologies initialement conçues par l’homme pour le servir prendraient leur autonomie, se perfectionneraient d’elles-mêmes et se grefferaient sur la matière organique pour donner naissance à des cyber organismes et à une humanité augmentée.

6/ La phase à venir caractérisée par l’apothéose de l’esprit où l’univers se réveillerait et s’emplirait d’une intelligence d’ordre essentiellement technologique dont le règne succèderait à celui du vivant.

(The singularity is near / Ray Kurzweil cité par JG Ganascia)

Ceci ne manque pas de souffle, mais reste du domaine de la profession de foi et du récit fantastique.

En conclusion :

Des trois éléments qui doivent mener à la Singularité (la Loi de Moore généralisée, l’autonomie complète des ordinateurs / machines et les fondements l’ intelligence artificielle dite « forte »), aucun n’est suffisamment démontré scientifiquement pour valider sa survenance dans un futur proche, du moins tel qu’annoncé par ses partisans. L’enchaînement relève donc plus de la fiction que de la science.

intelligence artificielle Barros

Dessin: Barros

Ceci ne veut cependant pas dire que le questionnement est vain. Il est même plutôt sain, mais devrait porter beaucoup plus sur les conséquences concrètes de l’application dans la vie courante des développements de l’ intelligence artificielle dite « faible », et des réponses à y apporter !  Les conséquences sur l’avenir et la composition du travail humain, l’environnement, la santé, les choix de société ne seront pas « faibles ». Le « tsunami » de l’ intelligence artificielle (Laurent Alexandre) va frapper là et, effectivement, l’impréparation est notre meilleure ennemie.