Est-ce que l’Intelligence artificielle finira par prendre le dessus sur l’humanité ? C’est une question qui se pose de plus en plus, depuis le succès fulgurant et fortement médiatisé de ChatGPT. Pour QG, Joseph Sifakis, directeur de recherche émérite en informatique au CNRS, et lauréat du prestigieux prix Turing en 2007, estime qu’il ne faut pas penser que l’IA menace la civilisation humaine, mais alerte néanmoins sur les effets de l’IA. Pour lui, celle-ci a pour principal défaut d’accroître la dépendance des hommes aux machines, et cela dès le plus jeune âge désormais. Développer l’IA dans l’administration, comme le gouvernement français en a l’intention dès l’automne prochain, poserait également de vrais problèmes démocratiques. Entretien par Jonathan Baudoin

QG : Partagez-vous la même réflexion que l’historien Yuval Noah Harari qui déclare dans une tribune que « L’intelligence artificielle menace la survie de la civilisation humaine » ?
Joseph Sifakis: Ce n’est pas l’IA qui nous menace. La menace peut venir du fait que les hommes ne sont pas assez prudents pour limiter les effets néfastes de l’application non réglementée de la science et de la technologie. Il est totalement absurde de dire qu’une technologie nous menace comme une météorite tombant du ciel. Il s’agit d’une prophétie auto-réalisatrice qui considère comme inévitable la domination de la technologie sur l’homme. Harari partage largement cette vision sans jamais se demander ce que l’homme pourrait faire pour rester maître de son destin.
Pourtant, il fait partie des signataires d’une pétition que vous avez également signée…
Bien sûr. Mais on se rend compte, lorsqu’il s’agit de signer une pétition, à quel point les motivations peuvent être diverses et variées. Je ne partage pas son point de vue, comme celui d’un autre signataire, Elon Musk, selon lequel l’IA menace l’humanité. L’IA, c’est comme l’énergie atomique. On peut l’utiliser pour produire de l’électricité ou pour se détruire.
Cette pétition regroupe des intellectuels, des scientifiques, des entrepreneurs, appelant à un moratoire sur le développement de l’IA. Quelle serait la durée de ce moratoire et pour quel objectif?
Chacun se rend compte qu’il est nécessaire de prendre le temps de la réflexion. C’est un appel aux gouvernements, aux institutions, à prendre le temps de mesurer les dangers qui existent derrière une utilisation déraisonnable et incontrôlée de cette technologie.
Quant à la durée de six mois, elle a été décidée par ceux qui ont écrit la pétition, demandant notre signature. Il s’agit d’une durée avant tout symbolique. Il fallait obtenir un maximum de signataires pour marquer le coup et affirmer haut et fort la nécessité d’une pause.

Néanmoins on serait tenté de dire que l’intelligence artificielle est utilisée depuis déjà quelques décennies, ne serait-ce que dans le secteur des jeux vidéo par exemple ! Est-ce que le succès de ChatGPT laisse entendre que l’IA a franchi une nouvelle étape, pouvant lui permettre – aux yeux de certains – de se substituer à l’espèce humaine ?
Tout d’abord, il faut s’entendre sur ce qu’on appelle « l’intelligence ». Selon les dictionnaires, l’intelligence est la capacité à comprendre le monde et à agir pour atteindre des objectifs. Si l’on prend ChatGPT, il ne peut pas conduire une voiture ou contrôler un robot marcheur. L’homme a la capacité de s’adapter en gérant des objectifs multiples et en combinant un grand nombre de tâches pour les atteindre. Il n’est en revanche pas, par nature, très fort en calcul ou en mémorisation de données précises. C’est pourquoi il a inventé le boulier, les calculatrices et les ordinateurs.
Il est important de savoir qu’il existe deux approches en intelligence artificielle. L’une dite symbolique (1), qui est basée sur le raisonnement, et l’autre dite connexionniste (2), qui utilise les réseaux de neurones. C’est cette dernière qui est à l’origine de la révolution que nous vivons depuis le début du 20ème siècle. Au début, nous avions des systèmes qui réussissaient à battre l’homme dans les jeux. Il n’est pas étonnant que Kasparov, ou tout autre champion d’échecs, soit battu par des machines puissantes en mémoire et en calcul. Des progrès extraordinaires ont également été réalisés dans le domaine de l’analyse d’images. Les réseaux neuronaux permettent une solution efficace de problèmes difficiles à résoudre par la programmation d’ordinateurs.
Aujourd’hui, ChatGPT permet un nouveau saut qualitatif dans ce progrès, en étant capable de répondre à des questions formulées en langage naturel. Le taux de réussite dépend du type de questions. Il est plus à l’aise avec les questions générales, par exemple, faire un résumé de l’histoire de France au 20ème siècle. En revanche, il peut se tromper sur des questions « pointues » car il ne peut pas vérifier la cohérence de ses réponses. Pour l’instant, nous ne savons pas construire de machines capables de raisonner comme nous en utilisant un modèle sémantique du monde.
Aujourd’hui, nous disposons donc d’une IA « faible » (3). Pour progresser vers une IA généralisée, nous avons besoin de systèmes capables de remplacer avec succès les agents humains. Je travaille, moi, sur les systèmes autonomes, en particulier les voitures autonomes. Il y a un grand fossé entre ChatGPT, spécialisé dans le traitement du langage naturel, et les systèmes capables de comprendre et de s’adapter à l’environnement physique et humain. Nous en sommes encore loin.

Ici même, sur le site de QG, l’entrepreneur Tariq Krim soulignait récemment que le pouvoir serait tenté de développer un « État plateforme », avec des ChatGPT qui expliqueront par exemple à un citoyen qu’il n’aura plus droit aux aides sociales. D’ailleurs, le gouvernement compte expérimenter ChatGPT et d’autres IA dès l’automne prochain dans les services publics. Est-ce là un risque supplémentaire posé par l’IA au niveau démocratique ?
Il existe plusieurs risques qu’il faudrait détailler. Mais permettez-moi surtout de vous parler de l’un d’entre eux qui me semble très important. Il s’agit des jeunes et de leur libre accès à des outils comme ChatGPT. Ils doivent apprendre à penser, à construire des textes, à faire des calculs, à raisonner. Si, par exemple, aujourd’hui, un élève fait ses devoirs en utilisant ChatGPT, cela peut avoir un impact négatif sur sa créativité et son autonomie cognitive. Il est important de comprendre que ChatGPT est un outil très différent des moteurs de recherche comme Google.
Dans un livre que j’ai publié il y a un an (« Understanding and Changing the World » aux éditions Springer, NDLR) j’explique que le risque n’est pas que les machines deviennent plus intelligentes que nous, mais que, par commodité, par paresse d’esprit, nous devenions trop dépendants des machines.
Un autre risque réside dans le fait que les IA ne sont pas « explicables ». Contrairement aux artefacts construits avec des modèles fournis par la science et l’ingénierie, ce sont des systèmes qui apprennent à résoudre un problème « par entraînement » mais il n’est pas possible de savoir exactement comment. L’absence de modèle sous-jacent ne nous permet pas d’avoir des garanties théoriques sur leur fiabilité, comme c’est le cas pour les systèmes électromécaniques ordinaires. Ces derniers sont généralement construits selon des normes contrôlées par des organismes indépendants. En revanche, pour les systèmes informatiques, il n’existe pas de réglementation stricte pour s’assurer de leur sûreté ou leur sécurité. Pour les IA, l’absence de modèles de leur comportement rend toute analyse impossible.

Si l’IA est utilisée pour le plaisir, pour gérer son agenda personnel ou pour écrire des textes, le risque éventuel est limité à l’utilisateur. Mais si l’IA est utilisée dans l’administration pour prendre des décisions qui concernent les gens, et qui peuvent avoir un impact fort sur leur vie, cela pose des risques sérieux pour les droits à un traitement équitable et transparent. Personne ne peut garantir la neutralité, l’impartialité et la fiabilité des informations que les IA peuvent produire en termes de décision. Malheureusement, l’opinion publique n’est pas au courant de ces dangers. Il y a manifestement un manque d’information et de sensibilisation de la part des institutions.
Propos recueillis par Jonathan Baudoin
(1) L’approche symbolique représente la capacité d’une intelligence artificielle à reproduire le raisonnement de l’homme à travers un traitement des informations venant « du haut », et opère grâce à des symboles, des concepts abstraits, et des conclusions logiques.
(2) L’approche connexionniste, appelée également machine-learning ou approche neuronale, représente la capacité d’une intelligence artificielle à produire des neurones artificiels, avec un traitement des informations venant « d’en bas » et simule des neurones individuels artificiels qui, rassemblés en différents groupes connectés, constituent un réseau de neurones artificiels.
(3) Une intelligence artificielle « faible » est une IA qui est concentrée sur une seule tâche.
D’un côté les riches et puissants font tout pour décérébrer le peuple et l’auto-conditionner à se soummettre, de l’autre ils introduisent partout ce qu’ils nomment intelligence artificielle pour suppléer le manque d’intelligence humaine. Cherchez l’erreur 🤔