Gouverner l'IA dans l'intérêt public

Tommaso Valletti (Imperial College), D. R.

Alors que l'IA pourrait apporter des avantages considérables à l'ensemble de la société, elle risque de produire l'effet inverse si les gouvernements restent des spectateurs passifs. Les décideurs politiques doivent intervenir maintenant pour favoriser un écosystème d'innovation décentralisé qui serve le bien public, et ils doivent prendre conscience de toutes les façons dont les choses peuvent mal tourner.

Par Mariana Mazzucato (UCL) et Tommaso Valletti (Imperial College)

Le Premier ministre britannique Keir Starmer a récemment publié un « plan d'action pour les opportunités de l'IA » qui comprend un investissement gouvernemental de plusieurs milliards de livres dans la capacité d'IA du Royaume-Uni et des engagements de 14 milliards de livres (17,3 milliards de dollars) de la part d'entreprises technologiques. L'objectif déclaré est de multiplier par 20 la puissance de calcul de l'IA sous contrôle public d'ici 2030, et d'intégrer l'IA dans le secteur public afin d'améliorer les services et de réduire les coûts en automatisant les tâches.

Dépasser le déséquilibre

Mais pour gouverner l'IA dans l'intérêt public, les pouvoirs publics devront dépasser les relations déséquilibrées qu'ils entretiennent avec les monopoles numériques. Dans l'état actuel des choses, les pouvoirs publics proposent généralement aux entreprises technologiques des contrats lucratifs non structurés, sans aucune condition. Ils se retrouvent ensuite dans l'obligation de remédier aux défaillances du marché qui s'ensuivent inévitablement. Alors que l'IA a un fort potentiel d'amélioration de la vie, l'approche actuelle ne met pas les gouvernements sur la voie du succès.

Certes, les économistes ne sont pas d'accord sur l'impact de l'IA sur la croissance économique. Le lauréat du prix Nobel d'économie Daron Acemoglu met en garde contre les effets néfastes que l'IA pourrait avoir si elle n'est pas bien dirigée et estime que la technologie n'augmentera la productivité que de 0,07 % par an, au maximum, au cours de la prochaine décennie. En revanche, les enthousiastes de l'IA comme Philippe Aghion et Erik Brynjolfsson estiment que la croissance de la productivité pourrait être jusqu'à 20 fois plus élevée (Aghion estime à 1,3 % par an, tandis que Brynjolfsson et ses collègues soulignent la possibilité d'une augmentation ponctuelle de 14 % en quelques mois seulement).

Un manque de transparence ?

Dans le même temps, des prévisions optimistes sont avancées par des groupes ayant des intérêts particuliers, ce qui suscite des inquiétudes quant au gonflement des chiffres, au manque de transparence et à l'effet de « porte tournante ». Nombre de ceux qui promettent les plus grands bénéfices sont également en passe de profiter des investissements publics dans le secteur. Que penser de la nomination du CEO de Microsoft UK à la présidence du Conseil consultatif sur la stratégie industrielle du ministère britannique de l’Economie et du Commerce ?

La clé de la gouvernance de l'IA est de la considérer non pas comme un secteur méritant plus ou moins de soutien, mais plutôt comme une technologie polyvalente susceptible de transformer tous les secteurs. Ces transformations ne seront pas neutres en termes de valeur. Si elles peuvent être réalisées dans l'intérêt du public, elles peuvent aussi consolider le pouvoir des monopoles existants. Pour orienter le développement et le déploiement de la technologie dans une direction positive, les gouvernements devront favoriser un écosystème d'innovation décentralisé au service du bien public.

La tentation de la facilité

Les décideurs politiques doivent également prendre conscience de toutes les façons dont les choses peuvent mal tourner. L'un des principaux risques est le renforcement des plateformes dominantes comme Amazon et Google, qui ont tiré parti de leur position de gardiens pour extraire des « rentes d'attention algorithmiques » des utilisateurs. S'ils ne sont pas correctement gérés, les systèmes d'IA d'aujourd'hui pourraient suivre la même voie, conduisant à une extraction de valeur improductive, à une monétisation insidieuse et à une détérioration de la qualité de l'information. Pendant trop longtemps, les décideurs politiques ont ignoré ces externalités.

Pourtant, les gouvernements pourraient être tentés d'opter pour l'option la moins chère à court terme : permettre aux géants de la technologie de posséder les données. Cela peut aider les entreprises établies à stimuler l'innovation, mais cela leur permettra également de tirer parti de leur pouvoir de monopole à l'avenir. Ce risque est particulièrement important aujourd'hui, étant donné que le principal goulot d'étranglement dans le développement de l'IA est la puissance de l'informatique en nuage, le cloud, dont le marché est contrôlé à 67 % par Amazon, Google et Microsoft.

Mieux réfléchir la stratégie publique

Si l'IA peut faire beaucoup de bien, elle n'est pas une baguette magique. Elle doit être développée et déployée dans le cadre d'une stratégie publique mûrement réfléchie. La liberté économique et la liberté politique sont profondément liées, et aucune n'est compatible avec une forte concentration du pouvoir. Pour éviter cette voie dangereuse, le gouvernement Starmer devrait repenser son approche. Plutôt que d'agir principalement comme un « réparateur de marché » qui interviendra plus tard pour remédier aux pires excès des entreprises d'IA (des deepfakes à la désinformation), l'État devrait intervenir très tôt pour façonner le marché de l'IA.

Cela signifie qu'il ne faut pas allouer des milliards à des initiatives liées à l'IA vaguement définies et dépourvues d'objectifs clairs, ce qui semble être le plan de Starmer en matière d'IA. Les fonds publics ne doivent pas être canalisés entre les mains d'entreprises étrangères de grande envergure : cela détourne l'argent des contribuables vers les poches des entreprises les plus riches du monde et leur fait perdre le contrôle de leurs données. L'accord passé avec Palantir par le NHS, le Service national de santé britannique, est un parfait exemple de ce qu'il faut éviter.

L’IA comme complément

Si la croissance induite par l'IA ne se matérialise pas comme prévu, le Royaume-Uni risque de se retrouver avec un déficit public plus important et des infrastructures cruciales aux mains d'entreprises étrangères. En outre, le fait de compter uniquement sur les investissements dans l'IA pour améliorer les services publics pourrait conduire à leur détérioration. L'IA doit compléter, et non remplacer, les investissements réels dans les capacités du secteur public.

L’Etat doit prendre des mesures concrètes pour s'assurer que l'IA sert le bien public. Par exemple, des audits algorithmiques obligatoires peuvent mettre en lumière la manière dont les systèmes d'IA monétisent l'attention des utilisateurs. Le gouvernement devrait également tirer les leçons des erreurs passées, telles que l'acquisition par Google de la start-up DeepMind basée à Londres. Comme l'a fait remarquer l'investisseur britannique Ian Hogarth, le gouvernement britannique aurait peut-être mieux fait de bloquer cette transaction afin de maintenir une entreprise d'IA indépendante. Aujourd'hui encore, les propositions visant à annuler l'acquisition méritent d'être examinées.

Soutenir les PME

La politique gouvernementale doit également reconnaître que les grandes entreprises technologiques disposent déjà d'une échelle et de ressources, alors que les petites et moyennes entreprises (PME) ont besoin d'un soutien pour se développer. Le financement public devrait agir comme un « investisseur de premier recours » pour aider ces entreprises à surmonter le biais du premier arrivé et à se développer. Il est essentiel de donner la priorité au soutien des entrepreneurs et des initiatives nationaux plutôt qu'aux entreprises étrangères dominantes.

Enfin, étant donné que les plateformes d'IA extraient des données du patrimoine numérique (l'Internet), elles bénéficient d'une manne économique importante. Il s'ensuit qu'une taxe sur la manne numérique devrait être appliquée pour aider à financer l'IA à code source ouvert et l'innovation publique. Le Royaume-Uni doit développer sa propre infrastructure publique d'IA guidée par un cadre de valeur publique, en suivant le modèle de l'initiative EuroStack dans l'Union européenne.

L’intérêt public d’abord

L'IA doit être un bien public, pas un péage pour les entreprises. L'objectif principal du gouvernement Starmer devrait être de servir l'intérêt public. Cela signifie qu'il faut prendre en compte l'ensemble de la chaîne d'approvisionnement – des logiciels et de la puissance de calcul aux puces et à la connectivité. Le Royaume-Uni doit investir davantage dans la création, l'organisation et la fédération des actifs existants (sans nécessairement remplacer entièrement les actifs des grandes entreprises technologiques). Ces efforts devraient être guidés et co-financés dans un cadre politique cohérent visant à créer un écosystème d'IA viable et compétitif. Ce n'est qu'à cette condition qu'ils pourront garantir que la technologie crée de la valeur pour la société et sert véritablement l'intérêt public.

Pour en savoir plus :

Mariana Mazzucato, professeur d'économie de l'innovation et de la valeur publique à l'University College London, est directrice fondatrice de l'UCL Institute for Innovation and Public Purpose, coprésidente de la Global Commission on the Economics of Water et coprésidente du groupe d'experts de la Taskforce du G20 pour une mobilisation mondiale contre le changement climatique.

Tommaso Valletti, professeur d'économie à l'Imperial College de Londres, est directeur du Centre for Economic Policy Research et ancien économiste en chef de la concurrence à la Commission européenne.

Cet article a initialement été publié le 11 février en anglais sur Project Syndicate, traduction : Qant.

Qant est membre de Project Syndicate.

L’essentiel