Aller au contenu principal

AI Beyond the Scaling Laws

Engouement, limites et perspectives d'avenir.

La Selection par Maud Clerc

La progression exponentielle de l’IA montre des signes de ralentissement. Sur la voie de l’IA générale, deux visions se dessinent : l’IA comme technologie classique, ou comme force de rupture surhumaine et surintelligente.

C'est un secret bien gardé dans le secteur de l'IA : depuis plus d'un an, les modèles de pointe semblent avoir atteint leurs limites. Les lois d'échelle qui ont permis la progression exponentielle des grands modèles de langage (LLM) comme GPT-4 et alimenté les prédictions audacieuses d'une intelligence artificielle générale (IAG) d'ici 2026 de Sam Altman (OpenAI) et Dario Amodei (Anthropic) commencent à montrer leurs limites. Au sein des laboratoires, le consensus se renforce : l'ajout de données et de puissance de calcul ne suffira pas à créer les « dieux numériques omniscients » promis autrefois (TechCrunch). De nombreuses voix respectées, de Yann LeCun à Michael Jordan, affirment depuis longtemps que les LLM ne nous mèneront pas à l'IAG. Le progrès exigera de nouvelles percées, car la courbe de l'innovation s'aplatit. La déception et les réactions négatives suscitées par la sortie de GPT-5 n'ont fait que rendre ces limites plus visibles.

J'ai trouvé particulièrement fascinant de voir comment ce tournant a ouvert un débat plus large sur ce que l'on peut attendre, ou craindre, de l'IA dans les années à venir. Cela me donne même des arguments pour répondre aux questions difficiles de mes enfants : « maman, est-ce que les robots vont remplacer les humains ? »

Avec des modèles de raisonnement construits sur des techniques de post-entraînement (apprentissage par renforcement) comme GPT-O1, Claude 3.7 Sonnet ou DeepSeek R1, assistons-nous à « l’émergence de nouvelles lois d’échelle » (Satya Nadella) ? Ou simplement à « l’illusion de penser » (Apple Machine Learning Research), une critique d’un discours visant à maintenir un flux constant d’investissements dans des infrastructures informatiques toujours plus vastes et des projets de centres de données colossaux ? Les enjeux sont considérables dans cette course effrénée vers l’intelligence artificielle générale.

Que pouvons-nous attendre de l'IA dans l'année à venir, et quels en seront les impacts économiques et sociétaux ? La moitié des emplois de cols blancs débutants disparaîtront-ils d'ici cinq ans à cause de l'automatisation par l'IA, comme le prédit Dario Amodei d'Anthropic ? Sam Altman, PDG d'OpenAI, prévoit que l'IA automatisera 30 à 40 % des emplois dans le monde d'ici 2030. Ces deux dirigeants entrevoient des bouleversements majeurs, avec un risque de suppression d'emplois à une échelle sans précédent.

Les sceptiques rétorquent qu'il existe peu de preuves empiriques de pertes d'emplois à grande échelle à ce jour, suggérant plutôt que l'IA automatisera des tâches plutôt que des professions entières. Selon eux, l'avenir proche réside dans des agents plus petits, spécialisés par secteur d'activité, conçus pour améliorer la productivité plutôt que de remplacer purement et simplement les travailleurs.

Au cœur du débat se trouvent deux visions opposées du rythme d'évolution et d'adoption de l'IA. Faut-il considérer l'IA comme une « technologie normale » (Arvind Narayanan, Sayash Kapoor)? à l'instar de l'électricité ou d'Internet, transformatrice mais s'intégrant progressivement à la société ? Ou entrons-nous plutôt dans l'ère de la plus grande perturbation de l'histoire de l'humanité, avec des entités superintelligentes quasi humaines - des « IA surhumaines » (IA 2027) - qui s'emparent des emplois, remodèlent les économies et les sociétés, et menacent peut-être même la survie de l'humanité ?

Les sources de la revue de presse

Et si l'IA ne s'améliorait guère davantage ?

Cal Newport, The New Yorker, 12 août 2025
Réflexions d’un informaticien sur le moment de « plateau » de l’IA : ses implications pour les attentes, l’innovation et le travail humain.
Ecouter le podcast (en français)

Les lois de mise à l'échelle de l'IA montrent des rendements décroissants, obligeant les laboratoires d'IA à changer de cap

Maxwell Zeff, TechCrunch, 20 novembre 2024
La fin de la croissance exponentielle : pourquoi les laboratoires d’IA repensent leurs stratégies après l’apparition de rendements décroissants.

La foi dans les grands modèles de langage divins s'amenuise

The Economist, 8 septembre 2025
L’enthousiasme des investisseurs et du public se refroidit à mesure que les LLM ne parviennent pas à tenir leur promesse de devenir des « dieux du numérique ».

L'IA comme technologie normale

Arvind Narayanan & Sayash Kapoor, Normal Tech, 15 avril 2025
Un argument convaincant pour considérer l'IA non pas comme de la magie, mais comme une technologie transformatrice dont l'adoption est lente et régulière.

IA 2027

Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean, ai-2027.com
Scénarios spéculatifs d’une « IA surhumaine » d’ici 2027 : les machines nous surpasseront-elles en intelligence et en contrôle ?

Une traduction de l'anglais assistée par LLM.

Maud Clerc
L’auteur
Maud Clerc

Maud Clerc est rédactrice en chef de Dare. Au sein de la Direction de la Communication d’HEC Paris, elle pilote la stratégie digitale et de contenu avec une équipe d’experts, qui sont les architectes et contributrices du HEC Media Hub.

Sa curiosité est nourrie par une question centrale : comment...

Dare, la newsletter

Chaque mois, les sujets qui comptent et les personnes qui osent.