BFM Tech

"On ne joue pas dans la même cour": où en est l'Europe sur l'intelligence artificielle?

BFM Business Sylvain Trinel
placeholder video
Critiquée par les principales entreprises américaines de la tech, l'Europe est vue comme très en retard sur le secteur de l'intelligence artificielle. Faut-il pour autant s'en émouvoir?

L'intelligence artificielle est sur toutes les lèvres, mais le sommet qui lui est consacré en France du 10 au 11 février 2025 remet le sujet sur la table. Le monde se donne en effet rendez-vous à Paris, et notamment les Etats-Unis, où l'IA n'est que très peu régulée, et compte dans ses rangs les cadors du genre: OpenAI, Google, xAI, Nvidia...

A côté, l'Europe paraît être un nain dans cet environnement, coincé entre les Etats-Unis et la Chine, dont la sortie de Deepseek a fait grand bruit ces dernières semaines.

Faut-il courir après les Etats-Unis?

Dans un récent rapport européen, il apparaît que seulement 7% des investissements mondiaux dans les logiciels et applications numériques proviennent de l'Europe, contre 71% pour les Etats-Unis. De fait, la Commission européenne a donc adopté une série de mesures afin d'établir à la fois un cadre, mais aussi poser les bases d'un investissement durable en matière d'IA.

Flavien Charvet, conférencier et entrepreneur, auteur du roman Hyperarme : Anatomie d’une intranquillité planétaire, explique que l'Europe est néanmoins "extrêmement loin" en matière de système d'IA: "On a de belles entreprises, mais elles ne jouent pas dans la même cour que les plus gros acteurs étrangers. Le problème, il est très simple: il est capitalistique. On a du capital en Europe, mais on n'est pas structuré pour l'orienter vers l'investissement technologique."

En août 2024, l'IA Act est aussi entré en vigueur, et vient mettre en avant un développement responsable de l'intelligence artificielle au sein de l'Union européenne. Elle ajoute à cette prérogative un fonds de 1,5 milliard d'euros pour la création ou la modernisation de plusieurs usines dédiées à l'IA sur le vieux continent.

Si les grands acteurs de l'IA sont donc essentiellement américains, cela ne veut pas dire que l'Europe ne dispose pas de ses talents. En France, on compte ainsi sur Mistral, qui a le mérite, comme Meta ou Deepseek, de proposer une solution open source. De plus, les entreprises comme OpenAI ou Google multiplient les arrivées en France avec des bureaux spécifiquement dédiés à l'IA.

La France "tire l'Europe" en matière d'IA

Pour Flavien Charvet, la France "est devant l'Europe, elle tire l'Europe et n'a pas envie de se laisser ralentir."

Mais l'Europe veut aussi se placer comme le bon élève, et ce, malgré ce que certaines grandes entreprises de la tech voient comme des limitations. Facebook, Apple... Ils sont plusieurs a avoir reporté la sortie de leur IA sur le vieux continent en raison des obligations nécessaires en matière de vie privée.

"Je pense que c'est dans l'intérêt de l'Europe de pouvoir adopter l'IA et de ne pas être en retard par rapport au reste du monde" a d'ailleurs averti Sam Altman, le patron d'OpenAI.

Sur X, réseau social où le sarcasme fait loi, les Américains et certains Européens se gaussent en comparant les grandes entreprises américaines ou chinoises avec... le bouchon accroché aux bouteilles. Une manière de dire (avec beaucoup de mauvaise foi) que l'Europe préfère les mesures presque anecdotiques aux grands investissements.

Une image qui circule sur X
Une image qui circule sur X © Capture

En réalité, se focaliser sur le régulation peut être aussi l'atout de l'Europe, estiment certains observateurs. Après tout, des régulations autrefois décriées comme le RGPD ou le DMA sont désormais reprises dans de nombreux pays.

"Vouloir être un continent qui régule, c'est plutôt une bonne chose. Ces systèmes d'intelligence artificielle apportent un espoir pour l'avenir, mais ils comportent aussi des risques, et la société est encore loin d'en avoir pris conscience," souligne Flavien Charet.

Cette prudence, l'Union européenne la doit au groupe d'experts qu'elle avait mandaté pour mettre en avant les lignes directrices en matière d'éthique, et ce, dans le but de disposer d'une IA "de confiance".

Parmi les points notables, une IA doit être inclusive, elle doit pouvoir promouvoir des impacts positifs sur la société et l'environnement, faire preuve de transparence, respecter la vie privée des utilisateurs, et pouvoir être contrôlée par l'humain.

L'alignement de l'IA sera le sujet de demain

"La régulation permet d'organiser le monde derrière l'innovation et de continuer à le faire, même si la manière dont on régule peut prêter à débat," précise Flavien Charet. "On ne peut toutefois pas s'attendre à être crédible et à ce que la législation s'exporte dans le monde, si on n'a pas un tissu industriel très fort."

Pour cet expert de l'IA, la place de l'Europe ne doit pas être dans les milliards qu'elle peut donner: "L'enjeu, c'est de construire une industrie qui soit cohérente avec le fait que nous sommes un continent qui régule."

Il explique notamment que l'avenir est à l'autonomie de l'IA, et que l'Europe a un rôle à jouer dans les problèmes "d'alignement", en l'occurrence, une IA qui va avoir la possibilité de mentir à ses créateurs, ou à tout faire pour éviter de révéler ses intentions cachées.

Cette question transcendera la question politique, et provoquera peut-être la création d'un organisme international, unifiant les pays dans un projet de coopération scientifique: "Cela me paraît crédible et pertinent, car quand tout le monde va avoir son système d'IA, il va falloir que cela donne lieu à un consortium international."