Un virage vers plus de centralisation et plus de concentration pourrait étouffer le potentiel productif de la technologie

Au milieu du XXe siècle, les succès technologiques de l’Union soviétique, notamment le lancement de Spoutnik et l’envoi de Youri Gagarine dans l’espace, ont convaincu de nombreux observateurs que les économies dirigées pouvaient être plus performantes que les économies de marché. Des économistes de renom comme Paul Samuelson prédisaient que l’URSS allait bientôt dépasser les États-Unis sur le plan économique, tandis qu’Oskar Lange, économiste et socialiste polonais, affirmait que les technologies informatiques émergentes pourraient remplacer le mécanisme de marché devenu obsolète.

Or, paradoxalement, l’URSS s’est effondrée au moment même où la révolution informatique prenait son essor. Malgré des investissements considérables, notamment la tentative de Nikita Khrouchtchev de créer un équivalent soviétique de la Silicon Valley à Zelenograd, à la périphérie de Moscou, l’URSS n’a pas su tirer parti du potentiel prometteur de la technologie informatique. L’échec n’était pas dû à un manque de talents scientifiques, mais à des institutions peu propices à la recherche. Alors que la Silicon Valley prospérait grâce à des expérimentations décentralisées, les inventeurs passant d’une start-up à l’autre pour mener de multiples expériences en parallèle, l’innovation à Zelenograd était contrôlée de manière centralisée et totalement orchestrée par les fonctionnaires de l’État à Moscou.

Comme l’a fait valoir Friedrich Hayek, la principale difficulté de la planification centralisée ne résidait pas dans le traitement des données, mais dans la collecte des connaissances locales essentielles. Les planificateurs soviétiques pouvaient gérer des opérations normalisées, mais échouaient face à l’incertitude technologique, faute de repères pour contrôler les performances des usines et sanctionner les tire-au-flanc. L’URSS, qui avait affiché une croissance rapide, se mit à stagner, incapable de s’adapter aux nouvelles frontières technologiques, et finit par s’effondrer.

Ces réflexions restent d’actualité, d’autant plus que les nouvelles formes d’intelligence artificielle (IA) soulèvent à nouveau la question de savoir si une autorité centralisée, comme l’État chinois qui surveille ses citoyens à l’aide de l’IA, ou une poignée d’entreprises issues d’un mouvement de concentration (comme celui qu’ont connu les bigtech de la Silicon Valley), peut exploiter efficacement les nouvelles technologies pour gérer l’économie et la société.

Innovation de pointe

Les théories classiques sur la richesse et la pauvreté qui mettent l’accent sur des facteurs, tels que la géographie, la culture ou les institutions ont du mal à rendre compte des revirements économiques spectaculaires. Les conditions géographiques, qui sont restées inchangées, ne peuvent expliquer la trajectoire brisée de l’URSS d’une croissance rapide à l’effondrement. Les facteurs culturels évoluent également trop lentement pour être la cause des expansions économiques rapides et des phases de récession qui s’ensuivent. Si les dispositifs institutionnels, tels que les lois et les réglementations, peuvent changer plus subitement, les théories institutionnelles fondées sur des conditions universelles sont tout aussi incomplètes ; par exemple, l’URSS et la Chine ont toutes deux connu des décennies de croissance rapide malgré l’absence de garantie des droits de propriété privée. En fin de compte, pour comprendre le progrès économique, il faut examiner comment les institutions et la culture interagissent de manière dynamique avec les changements technologiques.

Prendre conscience que les résultats économiques sont liés à ces effets réciproques amène à repenser le débat stratégique habituel sur le progrès technique en de nouveaux termes. D’un côté, certains prônent une innovation décentralisée, portée par de petites entreprises dans des marchés peu réglementés ; de l’autre, d’autres préconisent une politique industrielle dirigée par l’État et mise en œuvre par de puissantes bureaucraties. Cependant, ces deux approches ne sont optimales que dans certaines conditions : les bureaucraties centralisées exploitent efficacement les technologies accessibles et stimulent une croissance de rattrapage, tandis que les systèmes décentralisés excellent dans les innovations à la pointe de la technologie. Au fil du temps, la gouvernance économique doit s’adapter sous peine de stagner.

Le Japon médaille d’or

Même lorsque l’Union soviétique s’est dissoute en 1991, le soulagement des États-Unis a été tempéré par une nouvelle inquiétude : de nombreux universitaires et journalistes estimaient que le Japon allait bientôt éclipser les États-Unis. Le best-seller d’Ezra Vogel publié en 1979, Le Japon médaille d’or, avait déjà mis en garde contre l’avance croissante de Tokyo dans les domaines des ordinateurs et des semi-conducteurs, un gain apparemment aussi spectaculaire que son ascension antérieure dans le secteur automobile. Toutefois, la révolution informatique qui s’en est suivie a démenti les pronostics. À partir du début des années 90, la productivité américaine, tirée par les logiciels, s’est envolée, tandis qu’au Japon, les entreprises s’accrochaient obstinément au matériel informatique.

Pour réaliser son ascension, le Japon avait pris appui sur un système de production étroitement coordonné. Les entreprises japonaises pouvant prendre des participations dans leurs fournisseurs, ce que la législation antitrust américaine décourageait, elles ont tissé des réseaux de connaissances denses, renforcés par la logistique du juste à temps, la conception assistée par ordinateur et des machines-outils reprogrammables. Il en a résulté une efficacité remarquable : en 1980, les ouvriers japonais du secteur automobile étaient 17 % plus productifs que leurs homologues américains, ce qui conduisit Ford et GM à des pertes importantes.

L’avantage concurrentiel japonais provenait toutefois moins de l’invention de nouveaux produits que du perfectionnement de produits occidentaux. Les téléviseurs en couleur, le Walkman et les magnétoscopes ne sont devenus des succès mondiaux qu’après avoir été redessinés par des ingénieurs japonais afin d’en réduire le coût et d’en accroître la durabilité. Dans une étude marquante, l’économiste Edwin Mansfield a révélé qu’environ deux tiers de la recherche et développement japonaise visait à améliorer les processus (alors que les États-Unis axaient leurs efforts sur la conception de produits), ce qui permettait au Japon de traduire plus rapidement les avancées obtenues en laboratoire en produits bon marché et commercialisables.

Mais ces points forts sont devenus des facteurs limitants. D’éminents observateurs comme Alfred Chandler Jr. s’attendaient à ce que l’ère informatique récompense le perfectionnement du matériel et la rationalisation de la production, deux facteurs qui favorisaient le Japon, mais c’est le dynamisme des start-up américaines comme Apple et Microsoft qui donna l’avantage aux États-Unis. La politique antitrust américaine, fondée sur le Sherman Antitrust Act de 1890, a forcé l’ouverture des marchés en obligeant IBM à séparer son activité sur les matériels de celle des logiciels et en démantelant AT&T juste avant le décollage commercial d’Internet. En l’absence de monopole, les entrepreneurs ont pu innover librement, et le Web s’est développé sans entrave.

À l’inverse, les règles de concurrence moins strictes du Japon ont favorisé la formation de cartels et consolidé les conglomérats, à savoir les keiretsu. Cette même coordination qui avait auparavant accéléré les améliorations graduelles ralentissait désormais le passage aux modèles commerciaux basés sur les logiciels et Internet, évinçant les nouveaux entrants. La dynamique technologique du Japon se grippa. Même aux États-Unis, les régions qui reposaient sur une concurrence féroce, comme la Silicon Valley, ont surpassé en résultat les zones à activités plus hiérarchisées et à intégration verticale, comme le pôle technologique Route 128 en Nouvelle-Angleterre.

Fin du capitalisme coordonné

Le Japon n’est pas un cas unique. Après la Seconde Guerre mondiale, l’Europe de l’Ouest a connu une croissance économique rapide en adoptant les méthodes américaines de production de masse dans un large éventail d’industries. Cette stratégie a bien fonctionné pendant plusieurs décennies, mais, à partir des années 70, l’Europe avait achevé de rattraper son retard technologique sur les États-Unis. Pour maintenir sa croissance, elle ne pouvait plus se contenter de faire siennes des technologies existantes et devait se tourner vers un modèle basé sur l’innovation.

Ce virage s’est avéré difficile. Les institutions économiques européennes avaient été façonnées par une longue tradition de rattrapage industriel, mise en place à la fin du XIXe siècle pour absorber la technologie britannique, puis renforcée pendant l’après-guerre, lorsque l’Europe a cherché à combler son retard sur les États-Unis. Ces institutions avaient été conçues pour soutenir une croissance économique stable et prévisible grâce à une planification minutieuse, à une coordination des industries et à une coopération étroite entre les entreprises, les banques et les pouvoirs publics. Ce capitalisme coordonné a été efficace lorsque la tâche était claire (rattraper le retard par rapport aux pratiques industrielles établies), mais il est devenu un obstacle face à l’incertitude et aux bouleversements causés par la révolution informatique et les nouvelles technologies de l’information.

En France, le système de planification indicative de l’exécutif, qui fixait des objectifs économiques pour coordonner les investissements, a bien fonctionné tant que les progrès technologiques étaient graduels et prévisibles. Mais, avec l’évolution rapide des technologies, les planificateurs ont été dépassés et incapables de faire des prévisions précises et d’orienter efficacement les ressources.

De même, les entreprises publiques italiennes, qui avaient joué un rôle crucial pendant l’expansion de l’après-guerre, se sont révélées rigides et pas assez réactives dans cette nouvelle ère marquée par les bouleversements technologiques. En Espagne et au Portugal, la forte influence de l’État, combinée à des intérêts bien établis, a considérablement limité la flexibilité économique, entravant l’innovation et l’adaptation. En conséquence, ces pays d’Europe du Sud ont connu une stagnation économique prolongée pendant la révolution informatique, deux décennies souvent qualifiées de « perdues ».

De Hayek à Moravec

La morale est claire : les miracles économiques s’essoufflent lorsque les institutions qui ont permis les succès passés ne sont plus adaptées aux nouveaux défis. L’Union soviétique et une grande partie de l’Europe ont chancelé lorsque les modèles rigides de production de masse n’ont pas su s’adapter à l’imprévisibilité de l’ère informatique, tandis que le Japon a vacillé lorsque l’épicentre de l’innovation est passé du matériel informatique aux logiciels. Aujourd’hui, la croissance de la Chine est de plus en plus freinée par le tour de vis opéré par le parti, et les États-Unis sont confrontés à un risque similaire chaque fois que le pouvoir monopolistique reste sans contrôle. Que la centralisation et la concentration étouffent l’innovation est un danger qui pèse désormais sur l’IA. Étant donné que, par le passé, les résultats de l’IA se sont principalement améliorés grâce à l’augmentation de la puissance de calcul et des données disponibles, de nombreux observateurs en ont conclu que le développement de l’IA était une compétition qu’il valait mieux laisser à une poignée de « champions nationaux ». Cette idée est séduisante, mais erronée.

Comme pour la révolution informatique, les véritables percées proviennent de l’exploration de l’inconnu, et non du perfectionnement de ce qui est déjà élaboré. Les grands modèles de langage (LLM), c’est-à-dire les systèmes d’IA entraînés à générer et à comprendre le langage humain, ont vu leur taille multipliée par 10 000 entre 2019 et 2024, mais n’ont obtenu qu’une note d’environ 5 % au test de raisonnement ARC qui évalue les capacités avancées de résolution de problèmes. Dans le même temps, des approches plus légères, telles que la recherche de programme (qui permet de créer des programmes dans le but précis d’accomplir des tâches), ont décroché une note supérieure à 20 % à ce même test, et de nouvelles méthodes d’apprentissage contextuelles (où les modèles apprennent à partir d’exemples sans être réentraînés) progressent à grands pas.

L’IA ne rendra pas non plus l’exploration humaine obsolète de sitôt. Le constat, ancien, de Hans Moravec se vérifie encore aujourd’hui : ce qui ne demande pas d’effort aux humains (comme suivre un sentier à pied) demeure difficile pour les machines, et vice versa. Les modèles de langage entraînés sur l’ensemble des données de l’Internet n’atteignent toujours pas les capacités sensorimotrices d’un enfant de quatre ans. Tant que nous ne serons pas en mesure d’encoder ce savoir inscrit en nous, les systèmes d’IA centralisés resteront à la traîne par rapport aux milliards de résolutions de problèmes que les humains réalisent chaque jour de façon décentralisée.

L’ingéniosité est féconde précisément là où l’antériorité est rare. Les inventeurs, les scientifiques et les entrepreneurs excellent dans la transformation de l’inconnu en opportunités. À l’inverse, les LLM ne restituent qu’un consensus statistique. Imaginez un LLM formé en 1633 : il défendrait fermement l’idée que la terre est le centre de l’univers. Entraînez-le à partir des travaux scientifiques du XIXe siècle : il nierait avec assurance que les humains puissent un jour voler, faisant écho à la longue liste d’essais infructueux qui précédèrent le succès des frères Wright. Même Demis Hassabis, de Google DeepMind, admet qu’il faudra peut-être « plusieurs innovations supplémentaires » pour parvenir à une véritable IA généraliste.

Contrôle et concurrence

Ces innovations ont peu de chance de naître d’une centralisation à grande échelle. Elles se feront, comme leurs prédécesseuses, à partir d’un élargissement du champ d’expérimentation et d’un abaissement des barrières à l’entrée. Mais, à l’ère de l’IA, la Chine et les États-Unis s’engagent dans la direction opposée en renforçant le contrôle centralisé et en affaiblissant les pressions concurrentielles.

Les secteurs les plus dynamiques de la Chine reposent toujours sur des entreprises à capitaux privés ou étrangers, tandis que les entreprises publiques sont à la traîne. Pourtant, Beijing est en train de recentraliser le pouvoir : les licences, les crédits et les contrats favorisent désormais les conglomérats politiquement fiables, la loi antitrust est appliquée de manière sélective, et les campagnes anticorruption font de la loyauté une condition préalable à la survie. Les expérimentations dans les provinces, autrefois vitales, se sont essoufflées, les fonctionnaires se concentrant sur des indicateurs rudimentaires, tels que le nombre de brevets, inondant les registres de données de faible valeur. Le clientélisme prend le pas sur les règles transparentes, et la loyauté remplace la compétence, érodant la capacité de l’État à encourager l’innovation de pointe et poussant l’économie vers une croissance plus lente et moins axée sur l’innovation.

Il est certain que la Chine bénéficie toujours d’un vivier de talents considérable et d’un gouvernement profondément engagé dans le progrès technologique. Mais comme dans les pays occidentaux, ce sont les entreprises qui ne disposent pas de relations politiques solides, telles que la start-up DeepSeek, spécialisée dans l’IA, qui s’avèrent les plus innovantes. Bien que les autorités puissent autoriser ces entreprises à fonctionner avec une relative autonomie tant que leurs activités restent conformes aux objectifs nationaux, l’absence de protections juridiques robustes les met à la merci d’une réorientation des priorités politiques. Par conséquent, elles doivent affecter des ressources à la création d’alliances politiques, détournant attention et capitaux qui devraient aller à l’innovation. De plus, le contrôle exercé par l’exécutif sur les technologies critiques de l’information incite souvent les autorités à renforcer leur domination politique sur la société civile, ce qui risque d’asphyxier l’innovation non conventionnelle.

Les États-Unis présentent les mêmes symptômes sous une forme différente. Depuis l’ère informatique des années 90, leurs entreprises ont connu un fort mouvement de concentration, minant la concurrence fluide qui caractérisait autrefois la Silicon Valley. Un faisceau de clauses de non-concurrence entrave désormais la mobilité de la main-d’œuvre, bride la transmission du savoir informel et décourage scientifiques et ingénieurs de créer des entreprises concurrentes. Étant donné que les start-up jouent un rôle central dans la transformation des découvertes faites en laboratoire en produits commerciaux, ce frein à la circulation des talents affaiblit le mécanisme même (destruction créatrice) qui réaffecte les parts de marché au profit des idées novatrices. Les économistes Germán Gutiérrez et Thomas Philippon montrent que cette tendance est moins due à des économies d’échelle inévitables qu’au lobbying des acteurs en place qui a conduit à graver dans le marbre des avantages réglementaires, tels que la prolongation des brevets ou les obstacles à l’octroi de licences spécifiques à certains secteurs.

Ce modèle est également une menace pour l’IA. Sous le vernis actuel d’une apparente concurrence féroce, l’alliance profonde entre Microsoft et OpenAI contrôle déjà environ 70 % du marché commercial des LLM, tandis que Nvidia fournit environ 92 % des processeurs graphiques spécialisés (GPU) utilisés pour entraîner ces modèles. Avec Alphabet, Amazon et Meta, ces acteurs historiques ont aussi discrètement acheté des participations dans des start-up prometteuses dans le domaine de l’IA. Or, il est essentiel de maintenir un cadre d’action publique qui protège le marché concurrentiel, plutôt que la fortune de certaines entreprises, si l’on veut que la prochaine génération d’innovateurs radicaux puisse produire les gains de productivité promis. C’était vrai à l’ère de l’informatique. C’est toujours aussi vrai à l’ère de l’IA.

CARL BENEDIKT FREY est professeur associé titulaire de la chaire Dieter Schwarz dans le programme de recherche IA et travail de l’Université d’Oxford. Cet article s’inspire de son dernier ouvrage, How Progress Ends: Technology, Innovation, and the Fate of Nations.

Les opinions exprimées dans la revue n’engagent que leurs auteurs et ne reflètent pas nécessairement la politique du FMI.