Écouter cet article en podcast
Il était une fois une idée folle : et si les machines pouvaient penser ? Cette question, apparemment simple, allait déclencher l’une des aventures technologiques les plus fascinantes de notre époque. Laissez-moi vous raconter l’histoire extraordinaire de l’Intelligence Artificielle, une épopée faite de génies visionnaires, d’échecs retentissants et de renaissances spectaculaires.
1. Les pionniers (Années 1950)
1.1. Le Test de Turing
Notre histoire commence en 1950, dans le bureau d’un mathématicien et cryptologue britannique nommé Alan Turing qui est considéré comme le père de l’informatique et de l’intelligence artificielle. En 1936, il conçoit la machine de Turing, qui sert encore de fondement à la science informatique. Pendant la Seconde Guerre mondiale, il dirige l’équipe de Bletchley Park qui casse le chiffrement Enigma, raccourcissant ainsi le conflit de plusieurs années. Cet homme, qui avait déjà contribué à percer les codes secrets nazis, pose, en 1950, une question révolutionnaire dans un article intitulé « Computing Machinery and Intelligence » : une machine pourrait-elle converser si naturellement qu’un humain ne pourrait plus la distinguer d’un autre être humain ?
Ce défi, aujourd’hui connu sous le nom de Test de Turing, plante la première graine de notre quête moderne vers l’intelligence artificielle.
Le test met en scène trois participants isolés les uns des autres :
- Un évaluateur humain.
- Un autre être humain.
- Une machine (une intelligence artificielle).
L’évaluateur engage une conversation écrite (via un clavier et un écran, par exemple) avec les deux autres participants sans savoir lequel est l’humain et lequel est la machine. Le but de l’évaluateur est de déterminer, à l’issue de la conversation, l’identité de chacun de ses interlocuteurs.
La machine, de son côté, est programmée pour tenter de se faire passer pour un humain et tromper l’évaluateur. L’humain doit, quant à lui, essayer de prouver son humanité.
La machine est considérée comme ayant réussi le test de Turing si l’évaluateur est incapable de la différencier de l’être humain de manière fiable.
Le test de Turing est directement et explicitement basé sur un jeu de société qu’Alan Turing a appelé le « jeu de l’imitation » (The Imitation Game).
Dans son article de 1950, Turing décrit d’abord ce jeu, qui se déroule comme suit :
- Trois participants : un homme (A), une femme (B) et un interrogateur (C).
- L’interrogateur se trouve dans une pièce séparée de l’homme et de la femme.
- Le but de l’interrogateur est de déterminer qui est l’homme et qui est la femme en leur posant des questions par écrit.
- L’homme (A) doit essayer de tromper l’interrogateur en lui faisant croire qu’il est la femme. La femme (B) doit tenter d’aider l’interrogateur.
Turing a ensuite proposé de remplacer l’un des participants (le rôle A, l’imitateur) par une machine. La question devient alors : l’interrogateur se trompera-t-il aussi souvent que lorsque le jeu opposait un homme et une femme ?
En somme, le test de Turing est une adaptation du jeu de l’imitation où la question n’est plus de distinguer le genre des participants, mais de distinguer l’humain de la machine. La relation est donc celle d’une inspiration directe, le jeu servant de cadre conceptuel pour le test d’intelligence artificielle.
Turing prédit que dans un délai de cinquante ans, les interrogateurs humains ne différencieront pas correctement les machines des humains avec plus de 70% de chance dans le Jeu d’Imitation. Cette prédiction portait donc sur l’année 2000 environ, soit cinquante ans après la publication de son article.
« Computing Machinery and Intelligence », écrit par Alan Turing et publié en 1950, est un article fondamental sur le thème de l’intelligence artificielle, dans lequel fut introduit le concept de ce qui est maintenant appelé le test de Turing. L’importance de cet article réside dans le fait qu’il a fourni une approche pratique pour évaluer l’intelligence artificielle, en évitant les débats philosophiques complexes sur la nature de la pensée et en se concentrant sur un critère comportemental observable : la capacité à convaincre un interrogateur humain lors d’une conversation.
1.2. La conférence de Dartmouth
Quelques années plus tard, le 31 août 1955, quatre hommes se réunissent autour d’une idée audacieuse. John McCarthy du Dartmouth College, Marvin Minsky de Harvard University, Nathaniel Rochester d’IBM Corporation, et Claude Shannon des Bell Telephone Laboratories rédigent une proposition qui changera à jamais le cours de la technologie.
Au cœur de leur proposition se trouve une conjecture révolutionnaire : « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit si précisément qu’une machine peut être faite pour le simuler« . Cette phrase, écrite à la machine à écrire dans un bureau du New Hampshire, pose les fondations conceptuelles de ce qui deviendra l’intelligence artificielle moderne. Pour la première fois dans l’histoire, des scientifiques affirment officiellement que l’intelligence humaine peut être reproduite artificiellement.
En 1955, les quatre organisateurs proposent le projet de recherche d’été de Dartmouth pour obtenir un financement de la Fondation Rockefeller. Leur demande est méticuleusement calculée : 13 500 dollars au total, incluant les salaires (1 200 dollars pour chaque participant de niveau professoral, 700 dollars pour les étudiants diplômés), les frais de voyage, et les dépenses organisationnelles. Cette somme, modeste selon les standards d’aujourd’hui, représente alors un investissement considérable dans une idée qui n’existe encore que sur le papier.
Du 18 juin au 17 août 1956, le Dartmouth Summer Research Project on Artificial Intelligence se déroule dans les salles paisibles du college du New Hampshire. Cet atelier d’été sera plus tard qualifié de « Convention Constitutionnelle de l’IA« . Pour la première fois dans l’histoire, des chercheurs de disciplines diverses se rassemblent avec un objectif commun : « découvrir comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes maintenant réservés aux humains, et s’améliorent elles-mêmes« .
C’est pendant ces huit semaines que naît officiellement le terme « Intelligence Artificielle« . John McCarthy, alors professeur de mathématiques au College, organise la réunion initiale et donne son nom au nouveau domaine.
Cinquante ans plus tard, en 2006, plus de 100 chercheurs et érudits se réunissent à nouveau à Dartmouth pour AI@50, une conférence qui non seulement honore le passé et évalue les accomplissements présents, mais aide aussi à semer des idées pour la recherche future en intelligence artificielle. Ce retour aux sources révèle l’extraordinaire prescience des fondateurs. Presque tous les domaines qu’ils avaient identifiés en 1956 – traitement du langage naturel, réseaux de neurones, apprentissage automatique, créativité artificielle – sont devenus des piliers de l’IA moderne.
La conférence de Dartmouth n’a pas créé l’intelligence artificielle – les idées fermentaient déjà dans de nombreux esprits. Mais elle a accompli quelque chose d’encore plus précieux : elle a transformé une collection d’intuitions brillantes en mouvement scientifique organisé, avec ses objectifs, ses méthodes, et sa communauté. La conférence de Dartmouth de 1956 représente l’un de ces moments rares où l’histoire bascule. En l’espace de huit semaines, dans les salles feutrées d’un collège américain, quelques visionnaires ont posé les jalons d’une révolution technologique qui continue de transformer notre monde. Ils ont fait plus que créer un nouveau domaine de recherche – ils ont imaginé un futur où les machines pensent, apprennent et créent. Soixante-dix ans plus tard, nous vivons encore dans l’ombre de leur audace intellectuelle, poursuivant les questions qu’ils ont posées et réalisant les rêves qu’ils ont osé formuler.
L’intelligence artificielle était née.
1.3. Le perceptron de Frank Rosenblatt
En 1957, Frank Rosenblatt, un psychologue américain âgé de 29 ans, a eu une idée révolutionnaire : créer une machine capable d’apprendre comme le cerveau humain, non pas en suivant des instructions précises, mais en observant, en faisant des erreurs et en s’améliorant grâce à l’expérience. C’est ainsi qu’est né le Perceptron. Dans le laboratoire d’aéronautique de Cornell, Rosenblatt a connecté des cellules photoélectriques à un réseau complexe de fils et de potentiomètres. Le Perceptron était équipé d’un œil mécanique et s’inspirait directement du fonctionnement des neurones biologiques. Imaginez un neurone qui reçoit des signaux, les pondère et, si la somme dépasse un certain seuil, s’active. Rosenblatt a cherché à reproduire cette simplicité biologique pour créer une machine capable d’apprendre et de reconnaître des motifs.
Le premier Perceptron, baptisé Mark I, n’avait rien d’un ordinateur portable. C’était un enchevêtrement de câbles, de cadrans et de moteurs, relié à une sorte d’œil composé de 400 capteurs lumineux. Il ne fallait pas le voir comme une machine, mais plutôt comme un cerveau de nouveau-né : vide, mais avec une immense capacité à apprendre.
Sa mission ? Apprendre à reconnaître des choses, une tâche que même un jeune enfant accomplit sans effort.
Pour comprendre le génie du Perceptron, mettons-nous dans la peau de son professeur et prenons un exemple simple. Notre objectif est de lui apprendre à faire la différence entre une pomme et une orange.
- Le Premier Essai : On place une pomme devant son « œil ». Le Perceptron, qui n’y connaît rien, analyse la forme ronde, la petite tige, et fait une supposition au hasard. Ses lumières internes clignotent et il nous dit, en quelque sorte : « Je pense que c’est une orange. »
- La Correction du Professeur : C’est faux. Alors, nous intervenons. Nous activons un levier ou un bouton pour lui signifier : « Non, mon ami, ceci est une pomme. »
- L’Apprentissage : C’est ici que tout se joue. Le Perceptron ne se contente pas d’oublier son erreur. Il opère une modification en son sein. Les connexions neuronales (les fils) qui l’ont conduit à la mauvaise réponse (« orange ») sont légèrement affaiblies. En parallèle, les connexions qui auraient dû le mener à la bonne réponse (« pomme ») sont renforcées. C’est comme si, dans son cerveau électronique, le chemin menant à la bonne décision devenait un peu plus facile à emprunter la prochaine fois.
- La Répétition : On lui présente ensuite une orange, puis une autre pomme, puis une autre orange. À chaque fois, qu’il ait raison ou tort, ses connexions internes s’ajustent. S’il a raison, le bon « chemin » neuronal est renforcé, comme un sentier dans la forêt qui devient plus visible à force de l’emprunter. S’il se trompe, il corrige le tir.
Au bout de dizaines, puis de centaines d’exemples, le Perceptron devient étonnamment doué pour distinguer une pomme d’une orange, sans qu’on lui ait jamais programmé les « règles » de ce qu’est une pomme. Il l’a découvert tout seul.
Bien sûr, le Perceptron était un enfant. Il était limité et ne pouvait résoudre que des problèmes simples (ceux où l’on peut tracer une ligne droite pour séparer les deux groupes de données). Il ne pouvait pas comprendre le contexte ou les nuances.
Mais son importance est ailleurs. Frank Rosenblatt et son Perceptron ont donné naissance au concept fondamental de l’apprentissage automatique (machine learning). Ils ont prouvé qu’il était possible de créer un système qui apprend de l’expérience et s’adapte.
Aujourd’hui, les intelligences artificielles qui animent nos vies sont les descendantes directes et extraordinairement complexes de ce premier apprenti de 1957. Le réseau de neurones qui reconnaît votre visage pour déverrouiller votre téléphone, celui qui filtre vos spams, ou encore les systèmes qui aident les voitures à conduire seules, sont tous construits sur ce principe de base : apprendre en ajustant des connexions internes à partir d’exemples.
Ainsi, chaque fois que nous interagissons avec une IA, nous pouvons avoir une pensée pour ce rêveur de 1957 et sa machine maladroite, qui, pour la toute première fois, a ouvert les yeux sur le monde et a appris à dire : « Ceci est une pomme. »
Pour aller plus loin : Analyse exhaustive du Test de Turing
