Du Test de Turing à ChatGPT – 3 – Les hivers de l’IA

Écouter cet article en podcast

Imaginez un monde où les ordinateurs pensent, résolvent des problèmes complexes et révolutionnent notre quotidien. Cette vision, qui nous semble aujourd’hui à portée de main, a déjà fait rêver des générations de chercheurs. Mais l’histoire de l’intelligence artificielle n’est pas un long fleuve tranquille. Elle ressemble plutôt aux saisons : des printemps prometteurs suivis d’étés florissants, puis d’automnes décevants et d’hivers glaciaux qui ont failli enterrer définitivement ces ambitions technologiques.

L’intelligence artificielle a connu ce qu’on appelle ses « hivers » – des périodes sombres où l’enthousiasme s’est brusquement transformé en scepticisme, où les financements se sont taris comme des rivières en période de sécheresse. Ces moments critiques nous racontent une histoire fascinante sur la nature humaine : notre tendance à osciller entre euphorie excessive et pessimisme destructeur.

Ces hivers ne sont pas de simples accidents de parcours. Ils révèlent un phénomène récurrent dans l’innovation technologique : le décalage fatal entre nos rêves et la réalité, entre les promesses marketing et les capacités techniques réelles.


1. Premier hiver : La douche froide des années 70 (1974-1980)

1.1. Le rapport qui a tout changé

L’histoire du premier hiver de l’IA commence par un document qui fera l’effet d’une bombe : le rapport Lighthill de 1973. Commandé par le Parlement britannique, ce rapport disséque sans complaisance les résultats concrets de la recherche en intelligence artificielle. Son verdict est impitoyable : malgré des années d’investissement et des promesses grandioses, l’IA n’a pas tenu ses engagements.

James Lighthill, mathématicien respecté, pointe du doigt l’écart béant entre les ambitions affichées et les réalisations concrètes. Son rapport devient le détonateur d’une crise de confiance majeure. Le Royaume-Uni, premier pays à avoir massivement investi dans l’IA, fait volte-face et coupe drastiquement ses crédits de recherche.

1.2. L’effet domino Outre-Atlantique

La défection britannique fait des émules. Aux États-Unis, la DARPA, l’agence de recherche militaire qui avait financé les premiers pas de l’IA, révise ses priorités à la baisse. Les chercheurs voient leurs budgets fondre comme neige au soleil.

Cette période coïncide avec une remise en question fondamentale des approches existantes. En 1969, Marvin Minsky et Seymour Papert avaient publié un ouvrage critique sur les perceptrons (ancêtres des réseaux de neurones), démontrant leurs limitations théoriques. Leurs travaux, bien que rigoureusement scientifiques, contribuent à jeter un voile de pessimisme sur l’ensemble du domaine.

1.3. Un contexte technologique limitant

Il faut replacer ce premier hiver dans son contexte technologique. Nous sommes dans les années 70, et les micro-ordinateurs balbutient encore. Les machines disponibles n’ont ni la puissance ni la capacité de stockage nécessaires pour faire tourner des applications d’IA sophistiquées. Les chercheurs se retrouvent dans la situation frustrante d’avoir des idées brillantes mais des outils inadéquats pour les concrétiser.

1.4. Les graines du renouveau

Pourtant, même dans ce paysage désolé, des innovations germent discrètement. L’apparition des premiers micro-processeurs grand public vers la fin des années 70 ouvre de nouvelles perspectives. Parallèlement, les systèmes experts – programmes capables de reproduire le raisonnement d’un spécialiste dans un domaine précis – commencent à montrer leur potentiel pratique.

1.5. L’héritage inattendu : Quand l’IA accouche d’Internet

Paradoxalement, c’est durant ce premier hiver que la DARPA, l’agence américaine qui avait réduit ses financements en IA, pose sans le savoir les fondations d’une révolution bien plus vaste. Les propositions de J.C.R. Licklider sur la « symbiose homme-machine » conduisent à l’invention d’Internet.

Mais cette histoire a des racines plus dramatiques qu’il n’y paraît. L’échec cuisant de la baie des Cochons en avril 1961, suivi par la crise des missiles de Cuba en octobre 1962, révèle brutalement la vulnérabilité des communications américaines. Ces crises de la Guerre froide exposent une faiblesse critique : si les lignes de communication traditionnelles sont coupées lors d’une attaque nucléaire, comment le commandement militaire pourrait-il coordonner une riposte ?

Cette angoisse géopolitique devient le moteur d’une innovation révolutionnaire. Les militaires américains comprennent qu’ils ont besoin d’un réseau de communication décentralisé, capable de survivre à la destruction de plusieurs de ses nœuds. L’idée germe : créer un réseau sans centre névralgique unique, où l’information pourrait trouver son chemin même si une partie du système était détruite.

En cherchant des moyens de connecter les ordinateurs pour partager les ressources de calcul et permettre la collaboration entre chercheurs, les ingénieurs de la DARPA développent les protocoles qui deviendront les artères numériques de notre monde moderne. TCP/IP, ces quatre lettres mystérieuses qui régissent aujourd’hui nos communications numériques, naissent de cette vision d’une intelligence distribuée où les machines et les humains collaboreraient de manière symbiotique.

Cette histoire illustre parfaitement l’imprévisibilité de l’innovation : en tentant de créer des machines pensantes, les chercheurs inventent finalement le réseau qui connectera l’humanité entière. L’Internet devient ainsi le fils spirituel de l’intelligence artificielle, une créature qui dépassera rapidement son créateur en impact societal.

Au début des années 1980, DARPA a poursuivi des partenariats commerciaux avec l’industrie des télécommunications et de l’informatique qui ont permis l’adoption de TCP/IP. Cette stratégie de collaboration entre secteur public et privé, née de la nécessité de partager des ressources informatiques pour la recherche en IA, devient le modèle qui permettra l’expansion mondiale d’Internet dans les décennies suivantes.


2. L’âge d’or oublié : Le printemps des systèmes experts (1980-1987)

2.1. Le réveil du géant japonais

Entre les deux hivers de l’IA se cache une période souvent oubliée, un âge d’or qui ressemble à un conte de fées technologique. L’histoire commence en 1981, quand le Japon frappe un grand coup sur l’échiquier mondial de l’innovation. Le gouvernement japonais alloue 850 millions de dollars (plus de 2 milliards en monnaie actuelle) au projet « Cinquième Génération d’Ordinateurs », avec l’ambition de créer des machines capables de traduire, converser en langage humain et raisonner au niveau humain.

Cette annonce fait l’effet d’une bombe dans le monde technologique occidental. Le Japon, déjà redoutable concurrent dans l’automobile et l’électronique, se lance à la conquête de l’intelligence artificielle avec les mêmes méthodes qui ont fait son succès : investissement massif, planification à long terme et mobilisation nationale.

2.2. La course aux armements technologiques

L’initiative japonaise déclenche une véritable course aux armements technologiques. Le Japon fut la première nation à investir massivement dans des ordinateurs conçus pour l’IA, poussant l’Amérique, le Royaume-Uni et le reste de l’Europe à emboîter le pas. Les États-Unis, piqués au vif dans leur orgueil technologique, relancent leurs programmes d’IA. Dans les années 1980, la DARPA lance une initiative de plusieurs milliards de dollars pour développer l’intelligence artificielle, investissant dans tout, de la vision par ordinateur à l’enseignement aux machines de « voir », jusqu’aux ordinateurs pensants qui pourraient aider les pilotes militaires à piloter des avions.

L’Europe ne reste pas en reste. Chaque nation, chaque bloc géopolitique veut son programme d’IA, sa Silicon Valley de l’intelligence artificielle. C’est une époque grisante où les budgets semblent illimités et où l’avenir paraît à portée de main.

2.3. L’euphorie des systèmes experts

Cette période voit naître et prospérer les systèmes experts, ces programmes informatiques capables de reproduire le raisonnement d’un spécialiste dans un domaine précis. Contrairement aux approches précédentes qui tentaient de recréer l’intelligence générale, les systèmes experts adoptent une stratégie plus pragmatique : exceller dans un domaine spécifique.

Les succès s’accumulent : MYCIN diagnostique les infections bactériennes, DENDRAL identifie les structures moléculaires, XCON configure les systèmes informatiques de Digital Equipment Corporation. Ces réussites alimentent un optimisme débordant. L’industrie s’emballe, les investisseurs affluent, les médias proclament l’avènement imminent de l’ère des machines pensantes.

2.4. L’écosystème des ordinateurs spécialisés

C’est dans ce contexte euphorique que naît un écosystème technologique sophistiqué. Des entreprises comme Symbolics, Lisp Machines Inc., et Texas Instruments fabriquent des ordinateurs spécialisés, véritables cathédrales de silicium conçues spécifiquement pour faire tourner des programmes d’intelligence artificielle.

Ces machines, vendues à prix d’or, deviennent les symboles de cette nouvelle ère. Dans les couloirs des grandes entreprises, posséder une machine Lisp devient un marqueur de modernité et d’ambition technologique. Les consultants en IA pullulent, les conférences se multiplient, et à la fin des années 1980, l’industrie était devenue une entreprise de plusieurs milliards de dollars.

Pourtant, dès le milieu des années 80, quelques voix dissidentes commencent à s’élever.


3. Second hiver : L’effondrement avant la renaissance (1987-1993)

3.1. Le piège de la spécialisation

L’euphorie tourne rapidement au désenchantement. Les systèmes experts se révèlent être des colosses aux pieds d’argile. Conçus pour exceller dans des domaines très spécifiques, ils s’avèrent incapables de s’adapter à des situations légèrement différentes. Leur maintenance coûte une fortune car ces systèmes nécessitent un travail colossal d’ingénierie des connaissances : il faut extraire le savoir des experts humains, le formaliser en règles explicites, puis maintenir et mettre à jour ce corpus de connaissances. Un processus long, coûteux et fragile qui ne résiste pas à l’épreuve du temps, nécessitant des équipes d’ingénieurs hautement spécialisés.

Le coup de grâce vient d’une source inattendue : l’évolution technologique grand public. Microsoft Windows et les stations de travail UNIX offrent des performances comparables à une fraction du coût. Les majestueuses machines Lisp deviennent soudain des dinosaures technologiques.

L’effondrement est spectaculaire. Symbolics, fleuron de l’industrie, fait faillite. D’autres géants suivent le même chemin. En quelques années, tout un pan de l’industrie technologique disparaît.

3.2. Récession économique

Ce second hiver de l’IA ne survient pas dans le vide. La récession économique de 1991 frappe durement les budgets de recherche et développement. Les entreprises, échaudées par leurs investissements ratés dans les systèmes experts, deviennent réticentes à financer de nouveaux projets d’IA.

La communauté scientifique elle-même traverse une crise d’identité. Les approches symboliques, qui dominaient depuis des décennies, montrent leurs limites. Il faut repenser l’intelligence artificielle de fond en comble.

3.3. Phoenix renaît de ses cendres

Paradoxalement, c’est dans ce contexte de crise que naissent les innovations qui façonneront l’IA moderne. Trois révolutions silencieuses préparent la renaissance :

1. Des systèmes à règles, mais en plus malins

Au début, l’IA fonctionnait beaucoup comme un jeu de « Qui est-ce ? ». On lui donnait des règles très strictes et une base de connaissances. Par exemple : « SI un animal a des plumes ET qu’il peut voler, ALORS c’est un oiseau ». Le problème, c’est que cette approche était trop rigide. Que faire d’un manchot, qui a des plumes mais ne vole pas ?

La première révolution a été de rendre ces systèmes plus souples. Ils ont pu gérer des règles moins strictes et piocher dans d’immenses bases de données, devenant ainsi bien plus efficaces et moins « cassants » face à une exception.

2. Le retour des neurones artificiels : l’art d’apprendre de ses erreurs

Inspirés par le cerveau humain, les « réseaux de neurones » sont des systèmes informatiques qui apprennent par l’exemple. Longtemps mis de côté car trop difficiles à entraîner, ils ont fait un retour en force grâce à la rétropropagation.

Pour comprendre, imaginez que vous apprenez à un enfant à reconnaître un chat.

    • Vous lui montrez une image de chat et vous lui demandez : « Chat ? »
    • Il répond « Chien ». C’est une erreur.
    • Vous le corrigez : « Non, c’est un chat ».
    • Son cerveau va alors « ajuster » ses connexions pour mieux identifier les caractéristiques d’un chat la prochaine fois.

La rétropropagation, c’est exactement ça : un algorithme qui permet au réseau de neurones de remonter le fil de ses erreurs pour corriger ses propres « connexions » internes. C’est ce qui lui permet d’apprendre, encore et encore, jusqu’à devenir extrêmement performant.

3. Le pouvoir des données : deviner à partir d’exemples

La troisième révolution est venue d’une nouvelle façon d’aborder le problème : l’apprentissage statistique. L’idée n’est plus de donner des règles à la machine, mais de la « nourrir » avec une quantité massive de données pour qu’elle découvre les règles par elle-même. Deux méthodes se sont particulièrement illustrées :

    • Les arbres de décision : C’est une version améliorée du jeu de « Qui est-ce ? ». En analysant des milliers d’exemples, la machine construit toute seule un arbre de questions simples pour arriver à la bonne conclusion. Par exemple, pour décider si un email est un spam, l’arbre pourrait demander : « Le titre contient-il le mot ‘promo’ ? », « L’expéditeur est-il inconnu ? », etc.
    • Les machines à vecteurs de support (SVM) : C’est un peu plus complexe, mais imaginez que vous devez trier des pommes et des oranges sur une grande table. Le SVM ne se contente pas de tracer une ligne entre les deux. Il cherche à tracer la ligne qui crée la marge de sécurité la plus grande possible entre les deux groupes. De cette façon, même si une nouvelle pomme est un peu bizarre, elle a plus de chances d’être du bon côté de la frontière. C’est une technique très puissante pour classer des informations.

Ces trois avancées, combinées à l’explosion de la quantité de données disponibles avec Internet, ont créé le terreau fertile sur lequel l’IA moderne a pu enfin prendre son envol.


4. Les leçons d’une histoire cyclique

4.1. L’effet pendulaire de l’innovation

Ces deux hivers de l’IA révèlent un phénomène récurrent dans l’histoire technologique : l’effet pendulaire. Chaque vague d’optimisme génère des promesses démesurées, alimentées par l’enthousiasme des chercheurs, l’appât du gain des investisseurs et la fascination du public pour les nouvelles technologies.

Inévitablement, la réalité rattrape les rêves. Les limitations techniques, les coûts cachés et la résistance au changement finissent par ternir l’image des technologies révolutionnaires. S’ensuit alors une période de scepticisme excessif, où les financements se tarissent et les talents se détournent du domaine.

4.2. Des enseignements durables

Ces cycles douloureux ont néanmoins généré des apprentissages précieux. Aujourd’hui, gouvernements et investisseurs diversifient davantage leurs financements, évitant de mettre tous leurs œufs dans le même panier technologique. La communauté académique documente plus rigoureusement les limites potentielles de l’IA : biais algorithmiques, éthique, coût énergétique, environnement durable, questions de sécurité.

Cette approche plus mature ne signifie pas pour autant la fin des cycles. L’engouement actuel pour les grands modèles de langage et l’IA générative rappelle étrangement les euphories passées. Si les attentes deviennent irréalistes, un nouveau « rafraîchissement » pourrait survenir.

4.3. L’IA d’aujourd’hui : Héritière de ses hivers

L’intelligence artificielle contemporaine porte en elle les cicatrices et la sagesse de ses hivers passés. ChatGPT et ses successeurs sont les héritiers directs des innovations nées dans les périodes de crise. Les réseaux de neurones profonds, l’apprentissage automatique et le traitement de données massives : toutes ces technologies ont leurs racines dans les recherches menées durant les années sombres.

4.4. Vers un troisième hiver ?

La question hante les observateurs : sommes-nous à l’aube d’un troisième hiver de l’IA ? Les signes d’une possible surchauffe se multiplient : promesses marketing extravagantes, investissements massifs basés sur des demos impressionnantes mais aux applications limitées, attentes sociétales potentiellement irréalistes.

Pourtant, plusieurs facteurs suggèrent qu’un éventuel prochain hiver serait différent des précédents. La base technologique est plus solide, les applications plus diversifiées, et surtout, la leçon des cycles passés a été retenue. Les acteurs du domaine semblent plus conscients des écueils à éviter.


5. Conclusion : L’hiver comme saison nécessaire

Les hivers de l’intelligence artificielle, loin d’être de simples accidents historiques, révèlent la nature profondément humaine de l’innovation technologique. Ils nous rappellent que le progrès n’est pas linéaire, qu’il procède par tâtonnements, erreurs et corrections.

Ces périodes glaciaires, aussi douloureuses soient-elles pour les chercheurs et les investisseurs, se révèlent paradoxalement fertiles. Elles forcent la remise en question, stimulent la créativité et permettent l’émergence d’approches radicalement nouvelles.

Aujourd’hui, alors que l’IA semble promise à un avenir radieux, gardons en mémoire ces leçons du passé. Non pour cultiver le pessimisme, mais pour maintenir cet équilibre délicat entre ambition et réalisme qui permet aux véritables révolutions technologiques de voir le jour.

Car au final, les hivers de l’IA nous enseignent une vérité fondamentale : c’est souvent dans le froid et l’obscurité que germent les graines des plus beaux printemps. Et le Jour vient toujours après une Nuit aussi obscure soit-elle…