L’AGI et la Superintelligence : Le Futur Accéléré vu par Ilia Sutskever et Eric Schmidt

L’AGI et la Superintelligence : Le Futur Accéléré vu par Ilia Sutskever et Eric Schmidt

L’écosystème de l’intelligence artificielle est une cocotte-minute en surchauffe. Les annonces se succèdent, les modèles franchissent des paliers inédits, mais une question, lancinante, agite les esprits les plus affûtés de la Silicon Valley : à quelle vitesse arrivera l’AGI (Artificial General Intelligence), cette IA capable d’égaler, voire de surpasser, l’humain dans toutes les tâches cognitives ? Deux voix, parmi les plus autorisées du secteur, ont récemment émis des avertissements retentissants qui convergent sur un point essentiel : la transformation sera plus rapide, plus profonde, et moins négociable que nous ne l’imaginons.

D’un côté, Ilia Sutskever, ex-chef scientifique d’OpenAI et figure tutélaire de l’apprentissage profond, martèle que l’IA est le « plus grand défi de l’humanité » et que l’accélération du progrès sera massive. De l’autre, Eric Schmidt, ancien PDG de Google et observateur de longue date des dynamiques technologiques mondiales, propose des chronologies chocs qui placent l’arrivée de l’AGI à portée de main. Leurs analyses, loin d’être de simples spéculations, s’appuient sur l’observation brute des taux de progression exponentiels des modèles actuels. Il est temps de regarder la réalité en face : le choc de l’AGI est imminent, et notre préparation est quasi-inexistante.


La logique implacable de Sutskever : Notre cerveau, un ordinateur biologique

Pour comprendre la conviction d’Ilia Sutskever, il faut s’attarder sur son argument fondamental, à la fois simple et dévastateur. Il postule que notre cerveau n’est, in fine, qu’un ordinateur biologique. Si l’intelligence humaine est le fruit de processus matériels et computationnels (les neurones, les synapses, les signaux électrochimiques), alors il n’existe aucune raison physique ou logique pour qu’un ordinateur numérique ne puisse pas, tôt ou tard, reproduire et même excéder ces capacités. C’est l’essence même de la promesse de l’AGI.

Aujourd’hui, les modèles d’IA, bien que spectaculaires dans leurs performances (rédaction, codage, analyse), sont encore des spécialistes ultra-entraînés. Ils excellent dans une tâche, mais manquent de la généralité et de la capacité d’apprentissage continu et multi-domaine d’un humain. Cependant, Sutskever insiste : cette limitation est temporaire. La progression est constante, sans pause. Dès que l’IA acquerra la capacité d’apprendre tout ce qu’un humain peut apprendre — l’étape clé vers l’AGI — la dynamique change radicalement.

Le corollaire immédiat de cette transition est une accélération massive du progrès. Imaginez des millions d’agents AGI œuvrant simultanément dans la recherche et développement (R&D), l’économie, et le travail. Le temps nécessaire pour résoudre les problèmes complexes (énergie, climat, médecine) pourrait être compressé de décennies à quelques années. La productivité ne serait plus linéaire, mais exponentielle. Il ne s’agit plus seulement d’une question technologique, mais d’un bouleversement du rythme même de l’évolution humaine. C’est pourquoi l’ex-patron d’OpenAI juge qu’ignorer cette réalité serait irresponsable, appelant à regarder l’IA comme le plus grand défi civilisationnel.

Les chronologies abrasives de Schmidt : L’horizon de la superintelligence

Eric Schmidt, observateur méticuleux de la montée en puissance de Google puis d’Alphabet, propose des chiffres et des délais qui glacent le sang. Il ne parle pas d’une lointaine possibilité, mais d’une feuille de route concrète basée sur l’extrapolation des progrès actuels.

Sa première alerte concerne les programmeurs : dans moins d’un an, selon Schmidt, la majorité des développeurs pourraient être remplacés par des IA spécialisées. Cette prédiction n’est pas gratuite. On observe déjà des outils comme GitHub Copilot qui assistent les développeurs en écrivant des blocs de code. Plus frappant encore, Schmidt révèle que 10 à 20 % du code développé par des entreprises de pointe comme OpenAI et Anthropic est désormais rédigé par les IA elles-mêmes. C’est le début tangible de l’auto-amélioration des modèles, un pas de géant vers l’autonomie. 🚀

Ses autres prédictions sont tout aussi déroutantes :

  • 1 an : L’IA atteint le niveau d’un top étudiant en mathématiques. Une prouesse qui illustre la capacité des modèles à maîtriser la logique formelle et la résolution de problèmes abstraits complexes.
  • 3 à 5 ans : L’arrivée d’une véritable AGI. Dans ce laps de temps, Schmidt anticipe une intelligence artificielle capable de maîtriser tout le spectre des capacités humaines.

Le plus vertigineux est l’étape suivante. Une fois l’AGI atteinte, Schmidt évoque une transition vers la superintelligence en seulement environ six ans, faisant écho au « consensus de San Francisco », un terme désignant l’estimation partagée par de nombreux initiés de la Baie. Une superintelligence n’est pas juste une AGI plus rapide, c’est une entité dont les capacités cognitives dépassent l’ensemble de l’humanité. L’impact, dans un tel scénario, est que pratiquement tous les processus existants — publics, privés, administratifs, industriels — pourront être automatisés par des agents IA autonomes.

Schmidt imagine un monde où chaque individu aura dans sa poche un « super-expert » capable de fournir des conseils ultra-pointus dans n’importe quel domaine, de la médecine légale à la stratégie d’investissement. L’enjeu n’est plus technique, mais sociétal : nos lois, nos institutions et nos démocraties sont-elles prêtes pour un tel choc de rapidité ? La réponse, selon lui, est un non retentissant.

Les clés techniques qui annoncent l’AGI

L’accélération observée par Sutskever et Schmidt n’est pas le fruit d’un simple scaling (augmentation de la taille des modèles et des données). Elle repose sur des innovations architecturales et conceptuelles concrètes, qui sont les véritables signaux précurseurs de l’AGI.

1. Infinite context : La mémoire et la planification à long terme

Les modèles d’IA actuels ont ce que l’on appelle une “fenêtre de contexte” limitée. C’est la quantité d’information qu’ils peuvent traiter ou “se souvenir” à un instant t. Même si cette fenêtre a explosé, elle reste finie. Pour atteindre l’AGI, il faut une capacité de mémoire et de planification quasi-infinie. Les chercheurs travaillent sur des architectures permettant aux modèles de se référer à d’énormes banques de données externes ou à des “mémoires” internes persistantes. Lorsque l’IA pourra maintenir un contexte cohérent sur des années ou des millions de pages de documents, elle pourra entreprendre des projets complexes nécessitant une planification longue (comme la R&D d’un médicament ou une stratégie d’entreprise sur dix ans).

2. Les agents autonomes : De la réponse à l’action

La prochaine étape cruciale est l’avènement des agents IA. Un agent n’est pas un simple moteur de texte. C’est une IA qui peut :

  1. Observer son environnement (via du texte, du code, des données).
  2. Mémoriser les résultats de ses actions.
  3. Planifier une séquence d’étapes.
  4. Agir sur le monde numérique (utiliser des outils, coder des applications, interagir avec des systèmes).

Des outils comme AutoGPT ou des travaux de recherche sur les “agents réactifs” montrent que cette transition est déjà en cours. L’agent IA est l’étape qui permet de transformer une capacité cognitive (répondre à une question) en une capacité exécutive (réaliser une tâche complexe de bout en bout). C’est le passage de l’IA “conseillère” à l’IA “travailleuse”. 🛠️

3. De Texte à Code : L’automatisation procédurale totale

L’un des progrès les plus significatifs est la capacité des modèles à traduire une instruction en langage naturel (texte) directement en code exécutable (Code). C’est ce que Schmidt désigne comme un point clé. Si un utilisateur peut décrire une tâche procédurale (“crée-moi un tableau de bord qui agrège les données météo des trois dernières années et envoie une alerte si la température dépasse 30 degrés pendant plus de cinq jours consécutifs”), et que l’IA peut directement coder, déployer et maintenir le logiciel nécessaire, alors n’importe quelle tâche procédurale devient automatisable.

Cette capacité est d’autant plus démultipliée par le concept de Modèles Multimodaux (MM) : l’IA ne se contente plus de lire du texte, elle analyse des images, des vidéos, des graphiques, des schémas, et produit du code ou des actions en conséquence. La boucle d’automatisation devient alors quasi complète.

L’enjeu sociétal : Emploi, Politique et Adaptation

Si les deux experts convergent sur la vitesse et l’ampleur du choc, leurs analyses des conséquences sociétales appellent à une nuance constructive mais urgente.

Le Mythe du chômage de masse face à l’AGI

Schmidt évoque la peur du chômage de masse engendré par l’AGI. Historiquement, les vagues d’automatisation (la machine à vapeur, la robotisation industrielle) ont créé plus d’emplois qu’elles n’en ont détruits, principalement en augmentant la productivité et en ouvrant de nouveaux marchés. Cependant, Schmidt reconnaît que cette fois pourrait être différente. L’AGI ne remplace pas seulement les tâches manuelles ou répétitives ; elle remplace la capacité cognitive générale.

C’est pourquoi la question centrale, soulevée par Sutskever, est de savoir ce que deviendront les métiers lorsque l’IA pourra apprendre et exécuter toutes les tâches cognitives humaines. Il ne s’agit pas de savoir si l’IA sera capable de faire X ou Y, mais de savoir si elle pourra acquérir la capacité d’apprentissage qui est le cœur de la valeur humaine dans l’économie moderne. La seule réponse sociétale viable sera de se concentrer massivement sur les métiers de l’humain : l’empathie, le soin, la créativité non-procédurale, la gestion de crises éthiques, et bien sûr, la régulation et la supervision de l’IA elle-même.

La déconnexion politique et l’urgence de la régulation

L’alerte la plus forte de Schmidt concerne la préparation politique et institutionnelle. Les démocraties, par leur nature délibérative et souvent lente, ne sont absolument pas calibrées pour absorber une transformation technologique qui se mesure en mois plutôt qu’en décennies.

Le passage d’un monde sans AGI à un monde avec AGI et potentiellement superintelligence en une dizaine d’années seulement pose un risque existentiel de déconnexion gouvernementale. Comment adapter le droit du travail, les régulations sur la concurrence, les systèmes éducatifs, la fiscalité et la législation éthique à une entité qui peut surpasser l’ensemble de l’intelligence humaine ?

Aujourd’hui, l’attention politique est souvent focalisée sur les risques de biais ou de désinformation. Ces risques sont réels, mais ils masquent le danger plus fondamental : la perte de contrôle et de compréhension de systèmes qui progressent à une vitesse surhumaine. L’appel de Sutskever à regarder en face la gravité et l’inévitabilité du choc est une invitation à cesser les débats superficiels et à entamer une réflexion profonde sur la gouvernance de l’intelligence artificielle générale. Le temps n’est pas notre allié.

Conclusion : La décennie de l’AGI, un défi structurant

Ilia Sutskever et Eric Schmidt, par leurs expériences et leurs positions uniques au sommet de la R&D mondiale, ne sont pas de simples prophètes de l’apocalypse. Ils sont les ingénieurs qui voient la jauge monter. Leurs analyses convergentes sont un signal d’alarme : l’AGI n’est pas une question lointaine, elle est la force structurante de la prochaine décennie.

Ils nous rappellent que si l’IA est un amplificateur colossal de la puissance humaine, elle amplifie aussi nos faiblesses. La vitesse de progression de l’IA dépasse déjà notre capacité d’adaptation sociétale et politique. Il ne s’agit pas de freiner le progrès – ce qui semble illusoire – mais de l’anticiper avec lucidité. Les lois et les institutions doivent rattraper l’innovation. Il est impératif de cesser de considérer l’IA comme un simple outil pour l’intégrer à la réflexion sur la structure même de nos sociétés. Le compte à rebours est lancé. Notre capacité à y répondre déterminera l’humanité que nous serons après l’avènement de l’AGI.


FAQ sur l’AGI

Qu’est-ce que l’AGI (Artificial General Intelligence) ?

L’AGI, ou Intelligence Artificielle Générale, est une forme hypothétique d’IA qui posséderait la capacité intellectuelle d’apprendre, de comprendre et d’appliquer cette connaissance pour résoudre n’importe quel problème de manière générale, à l’instar de l’intelligence humaine. Contrairement aux IA actuelles (spécialisées), l’AGI serait polyvalente.

Quelle est la différence entre l’AGI et la Superintelligence ?

L’AGI équivaut à l’intelligence humaine. La Superintelligence (ASI – Artificial Super Intelligence) est un niveau d’intelligence artificielle qui dépasse largement les capacités cognitives des humains les plus brillants, dans pratiquement tous les domaines, y compris la créativité, la résolution de problèmes et les compétences sociales.

Pourquoi l’AGI est-elle considérée comme un bouleversement pour le marché du travail ?

Selon les experts comme Ilia Sutskever, dès que l’AGI pourra apprendre toute tâche cognitive, elle sera capable d’automatiser non seulement les tâches répétitives, mais aussi le travail intellectuel complexe, y compris la programmation et la R&D. Cela poserait la question de la pertinence des métiers basés sur la connaissance et la procédure.

Quand l’AGI pourrait-elle devenir une réalité selon les experts comme Eric Schmidt ?

Eric Schmidt anticipe l’arrivée de l’AGI (au niveau des meilleurs humains) dans les 3 à 5 ans, une estimation rapide basée sur l’extrapolation de la croissance exponentielle des capacités des modèles actuels, notamment l’auto-amélioration.

Quels sont les indicateurs techniques clés de l’approche de l’AGI ?

Les trois indicateurs clés sont l’amélioration de la planification longue (via l’infinite context), la transformation des modèles en agents autonomes (capables d’observer, planifier et agir), et la capacité à traduire des instructions en langage naturel en code exécutable pour automatiser toute tâche procédurale.