BFM Tech

Facebook autorise l'utilisation de son intelligence artificielle à des fins militaires

BFM Business Sylvain Trinel
placeholder video
L'entreprise Meta, qui détient Facebook, va autoriser les agences gouvernementales à utiliser son intelligence artificielle dans un objectif de sécurité nationale.

Le modèle d'intelligence artificielle générative de Facebook, Llama, va être utilisé par les agences gouvernementales et leurs partenaires, le tout, dans un objectif de sécurité nationale. Meta a en effet autorisé son utilisation à des fins militaires, a annoncé l'entreprise lundi 4 novembre.

C'est un revirement pour Meta, qui interdisait jusqu'à présent ce type d'utilisation. L'autorisation concerne une grande partie des secteurs de la défense, dont ceux de l'armée et de l'industrie nucléaire. Les agences fédérales et plusieurs entreprises privées pourront donc se servir de Llama, capable de générer des textes et des images, à l'image de ChatGPT d'OpenAI.

Préserver la sécurité des Etats-Unis

"Meta veut prendre sa part dans l'effort de sécurité et de prospérité économique des Etats-Unis, et de ses plus proches alliés," explique Nick Clegg, responsable des affaires publiques de Meta.

Pour expliquer ce revirement, il met en avant le fait que l'intelligence artificielle de Meta soit en source ouverte, avec un code librement accessible.

Nick Clegg explique que le gouvernement américain sera en mesure de traquer les terroristes et d'améliorer la sécurité des institutions du pays, tout en permettant aux Etats-Unis d'être en avance sur le terrain des nouvelles technologies.

Cinq pays vont par ailleurs être concernés par un partage des ressources technologiques dans le cadre de l'alliance "Five Eyes", qui rassemble plusieurs entités gouvernementales, dont celle du Canada, du Royaume-Uni, de l'Australie et de la Nouvelle-Zélande.

Mais un tel accord pourrait aussi créer des remous en interne. Lors de contrats similaires, des employés de Microsoft et Google s'étaient opposés à l'utilisation de leurs outils par l'armée. D'autres entreprises, comme OpenAI, n'ont de leur côté pas souhaité réaliser ce type d'échange avec le gouvernement, expliquant que leurs outils étaient "trop puissants" et susceptibles d'être utilisés abusivement.