En examinant les 80 ans de développement de l'IA, ces 5 leçons historiques méritent d'être tirées.

Auteur : Gil Press

Compilation : Felix, PANews

Le 9 juillet 2025, Nvidia est devenue la première entreprise cotée en bourse à atteindre une capitalisation boursière de 4 billions de dollars. Quelle sera la prochaine étape pour Nvidia et le domaine de l'IA en constante évolution ?

Bien que les prévisions soient difficiles, il existe une multitude de données à exploiter. Cela peut au moins aider à comprendre pourquoi les prévisions passées n'ont pas été réalisées, ainsi que dans quels domaines, de quelle manière et pour quelles raisons elles n'ont pas abouti. C'est cela l'histoire.

Quelles leçons pouvons-nous tirer des 80 années de développement de l'intelligence artificielle (IA) ? Au cours de cette période, les investissements ont fluctué, les méthodes de recherche et de développement ont varié considérablement, et le public est tantôt curieux, tantôt anxieux, tantôt enthousiaste.

L'histoire de l'IA remonte à décembre 1943, lorsque le neuroscientifique Warren S. McCulloch et le logicien Walter Pitts ont publié un article sur la logique mathématique. Dans l'article "Le calcul logique des idées inhérentes à l'activité neuronale", ils ont émis l'hypothèse de réseaux de neurones idéalisés et simplifiés, et de la manière dont ils effectuaient des opérations logiques simples en transmettant ou non des impulsions.

À l'époque, Ralph Lillie, qui était en train de créer le domaine de la chimie organisationnelle, a décrit le travail de McCulloch et Pitts comme donnant "réalité" aux "modèles logiques et mathématiques" en l'absence de "faits expérimentaux". Plus tard, lorsque les hypothèses de cet article n'ont pas pu être vérifiées empiriquement, Jerome Lettvin du MIT a souligné que, bien que ce papier ait été ignoré dans le domaine de la neurologie et de la neurobiologie, il a néanmoins inspiré "un groupe de personnes destinées à devenir des passionnés du nouveau domaine (aujourd'hui connu sous le nom d'IA)".

En fait, les travaux de McCulloch et Pitts ont inspiré le "connexionnisme", une variante spécifique de l'IA qui domine aujourd'hui et qui est désormais appelée "apprentissage profond", récemment rebaptisée "IA". Bien que cette approche n'ait aucun lien avec le fonctionnement réel du cerveau, la méthode d'analyse statistique qui soutient cette variante de l'IA - les "réseaux neuronaux artificiels", est souvent décrite par les praticiens et commentateurs de l'IA comme "imitant le cerveau". Les autorités et les meilleurs praticiens de l'IA, comme Demis Hassabis, ont affirmé en 2017 que la description fictive de McCulloch et Pitts sur le fonctionnement du cerveau, ainsi que des recherches similaires, "continuent de jeter les bases de la recherche contemporaine sur l'apprentissage profond".

Leçon un** : Il faut se méfier de la confusion entre l'ingénierie et la science, entre la science et les conjectures, ainsi qu'entre la science et les articles remplis de symboles mathématiques et de formules. Surtout, il est important de résister à la tentation de l'illusion "nous sommes comme des dieux", à savoir croire que les humains et les machines sont identiques, et que l'humanité peut créer des machines semblables aux humains.**

Cette arrogance tenace et répandue a été le catalyseur des bulles technologiques et des enthousiasmes cycliques de l'IA au cours des 80 dernières années.

Cela rappelle inévitablement l'idée de l'IA générale (AGI), à savoir des machines qui posséderont bientôt une intelligence semblable à celle des humains, voire une super-intelligence.

En 1957, le pionnier de l'IA Herbert Simon a déclaré : « Il existe désormais des machines capables de penser, d'apprendre et de créer. » Il a également prédit que dans dix ans, les ordinateurs deviendraient des champions d'échecs. En 1970, un autre pionnier de l'IA, Marvin Minsky, a déclaré avec confiance : « Dans trois à huit ans, nous aurons une machine dotée d'une intelligence semblable à celle d'un être humain… Une fois que les ordinateurs auront pris le contrôle de la situation, nous ne pourrons peut-être plus jamais la reprendre. Nous dépendrons de leurs dons pour survivre. Si nous avons de la chance, ils pourraient décider de nous traiter comme des animaux de compagnie. »

L'anticipation de l'émergence de l'IA générale est d'une signification exceptionnelle, pouvant même influencer les dépenses et les politiques gouvernementales. En 1981, le Japon a alloué 850 millions de dollars au projet de cinquième génération d'ordinateurs, visant à développer des machines capables de penser comme des humains. En réponse, la DARPA (Defense Advanced Research Projects Agency) des États-Unis a prévu en 1983 de réinvestir dans la recherche sur l'IA après une longue "hibernation de l'IA", afin de développer des machines capables de "voir, entendre, parler et penser comme des humains".

Les gouvernements éclairés du monde entier ont mis environ dix ans et des milliards de dollars pour non seulement prendre conscience de l'IA générale (AGI), mais aussi reconnaître les limites de l'IA traditionnelle. Mais en 2012, le connexionnisme a enfin vaincu d'autres courants de l'IA, et une nouvelle vague de prévisions sur l'IA générale est devenue mondiale. OpenAI a déclaré en 2023 que l'IA superintelligente - "l'invention la plus influente de l'histoire de l'humanité" - pourrait arriver dans cette décennie et "pourrait entraîner la perte de pouvoir pour l'humanité, voire l'extinction de l'humanité."

Leçon** Deux : Soyez prudent face à ces nouvelles choses brillantes, examinez-les avec soin, prudence et sagesse. Elles ne diffèrent peut-être pas beaucoup des diverses conjectures antérieures sur le moment où les machines pourraient posséder une intelligence similaire à celle des humains.**

L'un des "pères" de l'apprentissage profond, Yann LeCun, a déclaré : "Pour que les machines apprennent de manière aussi efficace que les humains et les animaux, il nous manque encore certaines choses clés, mais nous ne savons pas encore ce que c'est."

Depuis des années, l'IA générale (AGI) est souvent décrite comme "imminente", en raison du "mythe du premier pas". Yehoshua Bar-Hillel, un pionnier de la traduction automatique, est l'un des premiers à avoir parlé des limites de l'intelligence machine. Il a souligné que beaucoup de gens pensent que si quelqu'un démontre qu'un ordinateur peut accomplir une tâche que l'on pensait jusqu'alors impossible, même si c'est fait de manière médiocre, il suffit de développer davantage la technologie pour que cela soit parfaitement réalisé. Les gens croient généralement qu'il suffit d'attendre patiemment pour que cela se réalise finalement. Mais déjà au milieu des années 50, Bar-Hillel a averti que ce n'était pas le cas, et la réalité a été prouvée maintes et maintes fois comme étant tout autre.

Leçon trois : Le passage de l'incapacité à faire quelque chose à la mauvaise exécution est généralement beaucoup plus court que le passage d'une mauvaise exécution à une excellente exécution.

Dans les années 1950 et 1960, en raison de l'augmentation de la vitesse de traitement des semi-conducteurs qui alimentaient les ordinateurs, de nombreuses personnes sont tombées dans le "mythe du premier pas". Alors que le matériel se développait chaque année selon la trajectoire ascendante fiable de la "loi de Moore", on pensait généralement que l'intelligence des machines se développerait également en synchronisation avec le matériel.

Cependant, au-delà de l'amélioration continue des performances matérielles, le développement de l'IA est entré dans une nouvelle phase, introduisant deux nouveaux éléments : le logiciel et la collecte de données. À partir du milieu des années 1960, les systèmes experts (note : un système de programme informatique intelligent) ont mis un nouvel accent sur l'acquisition et la programmation des connaissances du monde réel, en particulier les connaissances des experts dans des domaines spécifiques, ainsi que leurs règles empiriques (méthodes heuristiques). Les systèmes experts ont gagné en popularité, et dans les années 1980, on estime qu'un tiers des entreprises du Fortune 500 utilisaient cette technologie dans leurs activités commerciales quotidiennes.

Cependant, au début des années 1990, cette vague d'IA a complètement disparu. De nombreuses start-ups en IA ont fait faillite et de grandes entreprises ont également gelé ou annulé leurs projets d'IA. Déjà en 1983, le pionnier des systèmes experts Ed Feigenbaum avait souligné le "goulot d'étranglement clé" qui avait conduit à leur disparition : l'expansion du processus d'acquisition de connaissances, "c'est un processus très fastidieux, long et coûteux."

Les systèmes experts sont également confrontés au défi de l'accumulation des connaissances. La nécessité d'ajouter et de mettre à jour constamment des règles rend leur maintenance difficile et coûteuse. Ils révèlent également les défauts des machines pensantes par rapport à l'intelligence humaine. Ils sont "fragiles" et commettent des erreurs absurdes face à des entrées inhabituelles, ne peuvent pas transférer leur expertise dans de nouveaux domaines et manquent de compréhension du monde qui les entoure. Au niveau le plus fondamental, ils ne peuvent pas apprendre comme les humains à partir d'exemples, d'expériences et de l'environnement.

Leçon quatre :** Un succès préliminaire, à savoir l'adoption généralisée par les entreprises et les agences gouvernementales ainsi qu'un grand nombre d'investissements publics et privés, même après dix ou quinze ans, ne peut pas nécessairement engendrer une "nouvelle industrie" durable. Les bulles ont souvent tendance à éclater.**

Dans les hauts et les bas, le battage médiatique et les revers, deux approches de développement de l'IA radicalement différentes se disputent l'attention du milieu académique, des investisseurs publics et privés ainsi que des médias. Depuis plus de quarante ans, l'approche symbolique basée sur des règles domine. Cependant, le connexionnisme, basé sur des exemples et alimenté par l'analyse statistique, a également connu un certain succès dans les années 50 et à la fin des années 80 en tant qu'autre méthode principale d'IA.

Avant le renouveau du connexionnisme en 2012, la recherche et le développement de l'IA étaient principalement poussés par le milieu académique. Le milieu académique est caractérisé par le dogmatisme (la soi-disant "science conventionnelle"), et il y a toujours eu un choix binaire entre l'IA symbolique et le connexionnisme. En 2019, Geoffrey Hinton, lors de son discours sur le prix Turing, a passé la majeure partie de son temps à parler des difficultés qu'il avait rencontrées avec quelques passionnés d'apprentissage profond face aux chercheurs en IA et en apprentissage automatique de la tendance générale. Hinton a également délibérément dévalorisé l'apprentissage par renforcement ainsi que le travail de ses collègues chez DeepMind.

À peine quelques années plus tard, en 2023, DeepMind a pris le contrôle des activités d'IA de Google (Hinton est également parti de là), en grande partie en réponse au succès d'OpenAI, qui a également intégré l'apprentissage par renforcement comme une composante de son développement en IA. Les deux pionniers de l'apprentissage par renforcement, Andrew Barto et Richard Sutton, ont reçu le prix Turing en 2025.

Cependant, il n'y a actuellement aucun signe indiquant que ni DeepMind ni OpenAI, ni les nombreuses entreprises "licornes" consacrées à l'IA générale (AGI) ne se concentrent sur autre chose que le paradigme des grands modèles linguistiques qui prévaut actuellement. Depuis 2012, l'accent du développement de l'IA s'est déplacé du milieu académique vers le secteur privé ; cependant, l'ensemble du domaine reste obstinément attaché à une seule direction de recherche.

Leçon cinq : Ne mettez pas tous vos "œufs" d'IA dans le même "panier".

Il ne fait aucun doute que Jensen Huang est un PDG exceptionnel et que NVIDIA est une entreprise remarquable. Il y a plus de dix ans, lorsque l'opportunité de l'IA est soudainement apparue, NVIDIA a rapidement saisi cette occasion, car la capacité de traitement parallèle de ses puces (initialement conçues pour le rendu efficace des jeux vidéo) est particulièrement adaptée au calcul en profondeur. Jensen Huang reste toujours vigilant, il dit à ses employés : « Notre entreprise est à 30 jours de la faillite. »

En plus de rester vigilant (vous vous souvenez d'Intel ?), les leçons tirées des 80 ans de développement de l'IA pourraient également aider NVIDIA à naviguer en toute sécurité à travers les fluctuations des 30 prochains jours ou des 30 prochaines années.

Articles connexes : Un aperçu des 10 entreprises et modèles d'IA définissant la révolution actuelle de l'IA

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)