"Il faut des garde-fous": Google Deepmind s'inquiète des "dérives potentielles" de l'IA

L’IA est partout. De nos smartphones aux fusées, de la recherche à votre prochain médicament en passant par la gestion de votre maison et des avancées industrielles. Elle a même valu à Demis Hassabis, le PDG de Google Deepmind, et son équipe un prix Nobel de Chimie pour leurs travaux permis sur la protéine. En science et notamment en médecine, l’IA est une véritable révolution en cours, un accélérateur prêt à tout chambouler. Et ce, pour le bien de l’humanité.
Un "potentiel infini" et des pas de géant fulgurants qui soulèvent aussi des questions éthiques, des défis sociétaux comme géopolitiques. L’approche de l’intelligence artificielle par les États-Unis, qui se voient plus "optimistes", n’est pas la même que celle des Européens perçus comme "plus prudents et plus rapides à réglementer", nous confie un responsable de Google. Ce n’est pas non plus la vision chinoise de l’IA, venue bouleverser la donne depuis l’avènement de DeepSeek, et qui inquiète autant qu’elle impressionne.
Un avenir prometteur, mais sous haute vigilance
Invités, dimanche au Google AI Lab de Paris, à s’exprimer devant un parterre de journalistes internationaux, Demis Hassabis et James Manyika, vice-président de Google en charge des sujets Société, Économie et Innovation en lien avec la technologie, se sont montrés plutôt positifs quant à l’apport de l’IA en science, tout en entrevoyant un avenir prometteur, mais à placer sous haute vigilance.

Il faut dire qu’ils ont à leur actif AlphaFold qui a révolutionné la biologie en prédisant la structure des protéines, un problème connu depuis plus d’un demi-siècle et résolu grâce à l’IA. "C’était la première démonstration claire de l’utilisation de l’IA pour résoudre un défi scientifique majeur", s’enthousiasme Demis Hassabis, auréolé du prestigieux prix Nobel pour cette découverte. "Ça ouvre de nouvelles voies pour la recherche médicale et le développement de médicaments." Le premier médicament conçu à l'IA devrait arriver en phase de test d'ici la fin d'année, annonce même celui-ci.
Désormais utilisé par plus de 2,5 millions de chercheurs et acteurs scientifiques dans le monde entier, AlphaFold a permis d’accélérer nettement la recherche sur les traitements contre plusieurs maladies "jusque-là négligées", affectant notamment les régions les plus pauvres du monde. "On peut faire plus facilement des diagnostics de la tuberculose. Environ 30 à 40% des malades dans le monde ne sont pas diagnostiqués, faute de ressources", a rappelé James Manyika. "Nous avons ainsi montré que l’IA pouvait améliorer le processus et les premiers résultats sont prometteurs."
Pour les deux hommes, l’IA est riche "en opportunités comme en risques" et il apparaît nécessaire d’avoir "une approche équilibrée entre optimisme et prudence".
Même s’il se dit "profondément optimiste", Demis Hassabis reconnaît que l’IA est une technologie à double tranchant et dépend de la façon dont nous décidons de l’utiliser. "Si nous l’orientons vers la science et la médecine, elle sera une force bénéfique", juge-t-il. "Mais il existe aussi des risques, notamment si des acteurs malveillants détournent cette technologie."

La solution pourrait donc être de "restreindre l’accès aux outils les plus puissants pour s’assurer qu’ils servent les bonnes causes" (lutte contre la cybercriminalité, la désinformation, le développement d’armes autonomes…). Mais, une coopération internationale "cruciale sur ces enjeux" apparaît plus que nécessaire pour que l’IA bénéficie à l’humanité, avance Demis Hassabis.
"En tant que société, chercheurs et gouvernement, nous devons faire en sorte que ces opportunités se concrétisent, tout en mettant en place des garde-fous contre les dérives potentielles", prévient James Manyika. Il est donc urgent et essentiel, pour encadrer l’IA, de définir une régulation efficace. Ils attendent ainsi beaucoup du Sommet de l’action pour l’IA, lundi et mardi, pour engager des discussions sur les questions techniques et géopolitiques liées à la régulation de l’IA.
Aujourd’hui, seuls sept pays participent activement aux grands sommets sur l’IA, tandis que 140 autres, souvent du sud du globe, en sont absents", confie le prix Nobel Demis Hassabis. "Pourtant, cette technologie les impactera tout autant."
Et Manyika de rappeler que "l’IA évolue plus vite que nos cadres législatifs" et que ses progrès gargantuesques compliquent d’autant la mise en place de régulations adaptées, appelant à un "équilibre entre innovation et contrôle". De la difficulté de ne pas freiner les avancées tout en assurant la sécurité des utilisateurs.
Quand l’IA commencera à raisonner par elle-même…
De nombreux sujets sensibles pourraient entraver le développement de l’IA, quand son déploiement n’inquiète pas. Au premier rang, on trouve l’intelligence artificielle générale (IAG), ce fameux stade où les systèmes seront capables de raisonner de manière autonome, bien au-delà des tâches spécifiques demandées. "L’IAG n’est peut-être pas si loin", prédit Hassabis. "Il faut anticiper ses implications géopolitiques et réglementaires autant que techniques, mais aussi s’assurer que ces systèmes ont les bonnes valeurs, les bons objectifs et des garde-fous efficaces".

Un défi de contrôle et de responsabilité pour s’éviter des IAG devenues trop puissantes et pouvant agir de manière "imprévisible". Cela nécessite alors que la société soit sensibilisée dès maintenant sur ces questions et perspectives. Car d’ici cinq ans, pour Demis Hassabis, la prochaine évolution majeure et révolution pour l’humanité, ce seront les assistants numériques universels, plus performants que les chatbots et assistants vocaux actuels, aptes à comprendre le contexte et à utiliser de multiples outils ou services pour être plus efficaces dans le travail, la productivité, la vie quotidienne, etc.
Assistant proactif
"Un partenaire numérique capable d’anticiper vos besoins en analysant vos habitudes et préférences, de gérer des tâches complexes tout en interagissant naturellement", résume le patron de Deepmind. Un assistant proactif, polyvalent et sur-mesure, en quelque sorte, pour chaque instant de la vie. "La société doit se préparer à cela et aux implications que cela aura, en veillant à maximiser les bénéfices et à minimiser les risques", ajoute-t-il.
Pour la science et la société, l’IA est une avancée sans précédent, notamment pour la recherche et le diagnostic médical. Une révolution qui n’est pas sans risques majeurs si elle est mal encadrée. C’est pour cela que, par la voix de ses deux figures de proue, Google ne cesse de proposer un cadre politique pour favoriser les recherches de l’IA, tout en assurant un développement "équilibré et responsable". Cela passera inévitablement par une collaboration entre les États, les entreprises et les chercheurs. Google a déjà commencé ses partenariats de pointe avec des instances et centres de recherche comme l’Institut Curie, pour la recherche sur le cancer du sein.
Le partage des données et des outils d’IA sera sans doute le meilleur rempart à une utilisation à mauvais escient de l’IA. Chez Google, on prend les devants en étant aussi prêt à investir dans la formation de chercheurs, ingénieurs et travailleurs d’outils à l’IA pour qu’ils n’aient pas peur de la technologie. "Les études montrent que l’IA a un effet d’augmentation des capacités humaines bien plus grand que son effet de remplacement", glisse Manyika.