De la science à la croyance – JG Ganascia expose la généalogie de l’IA aux DSI du Cigref

Invité du Cercle Philosophie du Numérique du Cigref, Jean-Gabriel Ganascia retrace la généalogie de l’IA, clarifie les concepts d’IA forte et faible, les mythes et les différentes orientations culturelles attachées à cette science

JG Ganascia et Flora Fischer - Cercle Philosophie du numérique Cigref
Jean-Gabriel Ganascia et Flora Fischer lors du Cercle Philosophie du numérique du 21 novembre 2017

Poursuivant son cycle de conférences, le cercle « Philosophie du numérique » du Cigref, présidé par Bernard Duverneuil,  a invité Jean-Gabriel Ganascia à échanger avec les DSI représentants de ses entreprises membres le 21 novembre 2017. Spécialiste de l’intelligence artificielle, de philosophie computationnelle, il est également président du COMETS (comité d’éthique du CNRS) et professeur à l’Université Pierre-et-Marie-Curie.

S’appuyant sur son double cursus d’ingénieur et de philosophe, Jean-Gabriel Ganascia pose un discours atypique sur l’intelligence artificielle qu’il a développé dans son ouvrage récent « Le mythe de la Singularité : Faut-il craindre l’intelligence artificielle ? » Il a ainsi fait part de son regard critique sur l’exploitation abusive de ces termes et sur l’instrumentalisation d’une telle discipline par certaines personnalités, comme Ray Kurzweil le directeur de l’ingénierie chez Google.

Pourquoi une généalogie de l’IA ?

Jean-Gabriel Ganascia a rappelé qu’il faut s’interroger sur l’origine des mots car de nombreux concepts sont en effet souvent redéfinis dans le cadre du numérique : d’où vient l’idée qu’il faille développer une intelligence qui ne serait pas humaine, avec l’intelligence artificielle ? Que met-on derrière l’intelligence des machines ? Quels étaient les premiers buts scientifiques de l’IA ?

Étymologiquement, l’intelligence c’est assembler, relier des choses qui sont différentes. Ce concept repris au 19° siècle par une nouvelle science, la psychologie, a été utilisé par les philosophes qui l’ont exploré avec les méthodes issues des sciences physiques. En est issu un débat entre l’intelligence « générale » qualifiant les personnes excellant dans tous les domaines, et l’intelligence « segmentée » décrivant que les aptitudes sont particulières, propres à chacun. Cette intelligence artificielle générale – dite aussi IA forte – qualifie une IA qui saurait un jour résoudre n’importe quel problème posé ! L’intelligence est une notion qui alors fascinera et suscitera des débats séculaires dans de nombreuses disciplines et théories : philosophie, psychologie, sciences physiques, phrénologie, etc.

L’IA pour mieux comprendre l’humain

A la fin de la 2nde guerre mondiale, des mathématiciens ont voulu utiliser les nouveaux outils qu’étaient les ordinateurs pour étudier l’intelligence. Ainsi est née l’Intelligence artificielle, nouvelle discipline ayant pour but de simuler différentes fonctions de l’intelligence humaine (mémoire, raisonnement, démonstration, imagination, perception…) pour mieux les comprendre.  Le malentendu provient de ce qu’on retient le sens littéral et non scientifique du mot intelligence.

L’IA est une discipline scientifique étudiant les différentes facultés de l’intelligence. Progressivement elle acquiert deux objectifs : résoudre des problèmes spécifiques à la place de l’humain ; mieux comprendre le fonctionnement de l’intelligence humaine, son but scientifique initial. Différentes fonctions de l’intelligence décrites par les sciences cognitives ont été simulées avec l’IA : la perception, les fonctions de raisonnement, de communication, d’exécution. Les machines font parfois mieux que les hommes, mais elles font différemment. Cet écart permet de mieux comprendre les facultés particulières de l’être humain. Ne sachant toujours pas ce qu’est véritablement l’intelligence, on fait de l’IA pour progresser dans cette compréhension.

Les déclarations d’Elon Musk ou de Stephen Hawking reposent sur un postulat biaisé : elles donnent à croire qu’il y a une compétition entre l’intelligence humaine et l’intelligence artificielle. Or rien ne nous permet d’affirmer que l’une va dépasser l’autre un jour, à partir du moment où nous avons beaucoup de choses à apprendre sur le fonctionnement même de notre intelligence.

La conscience chez l’homme et la machine

Voyant des robots communiquer avec l’homme, percevoir et reconnaître des formes, prendre des décisions dans un environnement complexe, nous projetons sur lui des sentiments, de l’empathie, des capacités d’intelligences, voire de conscience. Selon Jean-Gabriel Ganascia, nous pouvons comprendre ces projections à partir de différentes acceptations que nous faisons de la notion de conscience. Celle-ci peut se comprendre au sens de « systèmes intentionnels » (concept élaboré par le philosophe Daniel Denett pour qualifier les machines auxquelles nous attribuons une volonté propre). On pourrait donc parler de machine consciente, dans ce sens premier entièrement fondé sur une projection de notre esprit. Au sens phénoménologique, la conscience « éprouve » quelque chose, c’est-à-dire qu’elle existe par un corps qui perçoit et ressent le monde. Pourrions-nous dire que les robots éprouvent quelque chose ? Il est difficile d’affirmer qu’une IA puisse aimer quelque chose. Au sens moral, la conscience permet de se regarder en train d’agir. On peut dès lors imaginer que la machine regarde ses raisonnements pour vérifier s’ils sont bien cohérents, et pour s’améliorer. Dans ce sens, on peut dire que la machine est capable techniquement de se regarder en train d’agir.

Utiliser le terme de conscience pour les machines doit être documenté car les fausses interprétations sont vite faites et mènent à une forme d’anthropomorphisme qui n’a pas lieu d’être. Cette analyse de la notion de conscience nous amène à un terme intéressant, au cœur des débats actuels sur la singularité et le transhumanisme : l’IA forte.

L’IA forte : de la science à la croyance

Si au début l’IA était une science, aujourd’hui on pourrait dire qu’elle est devenue une croyance dans la mesure où nous projetons énormément sur les machines et leur capacité d’autonomie, de conscience, d’intégrité, etc. Il y a une distinction essentielle à faire ici entre deux formes d’intelligence artificielle. L’IA faible est une empirique pragmatique, selon Jean-Gabriel Ganascia : elle décompose les fonctions de l’intelligence humaine et les simule. L’IA faible correspond aux applications que nous connaissons aujourd’hui, et répond à des tâches spécifiques. L’IA forte a pour postulat de synthétiser une intelligence totale, qui serait le double de nous-mêmes, et serait capable de répondre à n’importe quel problème posé. Nous en sommes encore très loin.

Pourtant c’est bien à partir de cette dernière notion d’IA forte que certains scientifiques et industriels ont formulé des discours anxiogènes, relayés massivement par la presse, sur les dangers que l’IA ferait peser sur l’existence même de l’humanité.

Comprenons d’où vient cette notion d’IA forte pour en saisir la portée actuelle. Elle a été introduite par le philosophe John Searle dans les années 1980, en réaction aux affirmations de ses collègues cognitivistes qui pensaient que l’IA pouvait être un bon modèle pour comprendre la cognition humaine. Il tenta de démontrer que l’IA ne pouvait en aucun cas retranscrire la complexité de la pensée humaine, car celle-ci ne pouvait être réduite à une simple « manipulation de symboles » en utilisant une expérience de pensée qui s’appelle « La chambre chinoise ». Selon Jean-Gabriel Ganascia, la question reste ouverte.

Pourquoi la singularité est un mythe ?

Dès les années 1950, les performances des ordinateurs augmentaient très vite. La loi de Moore décrit que la puissance des ordinateurs décuple de manière exponentielle, et de fait qu’elle arrivera à un point de non-retour appelé « singularité technologique », point critique où les machines deviendraient supérieures aux hommes. Sur quoi cette notion de singularité repose-t-elle aujourd’hui ?

Dans son ouvrage « Homo Deus » (paru en français en octobre 2017), Yuval Noah Harari décrit l’histoire humaine en trois grandes phases : l’âge des religions est celle où les hommes soumis aux aléas de la nature s’adressent à Dieu pour essayer d’expliquer ces phénomènes. Puis l’âge moderne de l’humanisme est celui où la science fait croire à l’homme qu’il va pouvoir maîtriser la nature, qu’il est l’être suprême et dépasse Dieu. Aujourd’hui les machines meilleures que nous et capables d’anticiper certaines choses mieux que nous deviennent l’être suprême. On entre dans la religion des données : le dataïsme. Le statut de l’homme basculerait alors à ce point critique de singularité.

Les justifications du mouvement singulariste reposent à la fois sur la loi de Moore et l’apprentissage machine, mais les discours de ses promoteurs sont bien plus de l’ordre de la narration (comme dans le livre d’Harari) que de l’argumentation rationnelle. Nous n’avons pas la certitude que la loi de Moore progressera indéfiniment : elle connait aujourd’hui des objections d’ordre logique et des limites physiques. De même, aucune base scientifique ne permet d’affirmer la maîtrise d’une autonomie totale par les machines.

Cette autonomie attribuée aux machines doit être nuancée. Il y a d’une part l’autonomie technique. Si les voitures autonomes choisissent d’elles-mêmes le meilleur itinéraire et prennent des décisions pour se mouvoir, ce n’est qu’une chaîne de causalité programmée par l’homme. Cette autonomie technique est en fait hétéronome : elle est toujours soumise à des lois dictées par d’autres. D’autre part, l’autonomie au sens philosophique (auto-nomos : « se donner sa propre loi ») signifie que nous ne sommes pas sous l’influence du monde extérieur et que nous savons définir nos propres volontés.  Cela voudrait dire qu’un système d’IA serait capable de décider lui-même des critères et des buts de ses actions. Mais, comme l’indique Jean-Gabriel Ganascia cette autonomie au sens philosophique n’est pas envisageable pour l’IA, car « même douées d’apprentissage et de capacités à faire évoluer leurs propres programmes  » les machines restent soumises à des catégories et finalités définies par les concepteurs.

La singularité reposant sur des théories et des termes qui n’ont rien d’universel et d’univoque, il est important de déconstruire certains discours avec cette analyse philologique et scientifique.

Des machines éthiques ?

Mais si la machine n’a pas de volonté propre, elle peut tout de même nous échapper : l’homme doit imaginer des normes pour limiter les actions de la machine. L’éthique computationnelle (ou machine ethics) est la discipline qui consiste à introduire des valeurs humaines dès la conception des machines. Pourquoi  et comment rendre des IA « éthiques »  dès la programmation ?

Les américains ont pour l’éthique des machines une vue utilitariste (maximiser les aspects d’utilité, le nombre de vies par exemple). C’est pour eux une vision universelle : ils considèrent que l’on peut tout simuler avec une valeur d’utilité.

En France on essaie de modéliser des modèles prescriptifs considérant que la morale n’est pas universelle, mais contextuelle. C’est ce que nous appelons l’« éthique » et non la morale. Ce qui fait l’éthique est la résolution des conflits, de dilemmes. L’exemple le plus classique est le mensonge : s’il est parfois nécessaire et éthique de savoir mentir, l’humain est capable de gérer ces contradictions.

Selon Jean-Gabriel Ganascia, on peut surmonter en IA des contradictions. Il travaille dans le cadre du projet ANR EthicAA sur des logiques particulières pour avoir des « raisonnements de sens commun ». Cela signifie que nous pouvons programmer une loi générale et une loi particulière pouvant faire échec à la loi générale dans des situations qui semblent plus adaptées à cette loi spécifique. Dans certains cas l’homme prendra des décisions avec l’aide d’un système intelligent. Certains travaux sont axés sur l’argumentation que peuvent donner ces agents, afin de comprendre comment le raisonnement a été mené, les déductions ont été faites, les sources des données utilisées, etc. L’un des principaux problèmes reste l’argument d’autorité, car on se dit que c’est l’homme qui doit toujours prendre la décision. Or il s’avère, de manière empirique, que les erreurs sont plus humaines que techniques (par exemple sur les accidents aériens).

L’IA : rupture ou continuité ?

Pour conclure, Jean-Gabriel Ganascia a donné son point de vue sur la place que prend l’IA aujourd’hui dans notre société. Constitue-t-elle une révolution qui nécessite des remaniements de grande ampleur ou s’inscrit-elle, plus en douceur, dans la continuité des transformations déjà enclenchées par le numérique ?

Pour lui, l’IA s’inscrit davantage dans la continuité du numérique. Mais elle devient une nécessité, car nous devons faire quelque chose (d’intelligent) avec la masse de données à disposition. De nombreuses transformations déjà en cours vont s’accroître avec l’IA, avec de plus en plus de systèmes hybrides, intégrant de l’IA au numérique quand cela a du sens. Pour les entreprises, l’IA va changer la relation client et sera plus qualitative. À ces transformations sociales, s’ajoutent des transformations politiques, car ceux qui possèdent les données, qui ont les capacités à les traiter, auront un pouvoir considérable. Mais l’IA n‘est pas, comme le dit Stephen Hawking, une transformation métaphysique, c’est-à-dire un risque existentiel pour l’humanité.

 

Cet article rédigé par Flora Fischer, animatrice du cercle IA du Cigref, reprend les propos tenus par Jean-Gabriel Ganascia devant les DSI du Cigref lors du Cercle Philosophie du numérique du 21 novembre 2017.