Pourquoi OpenAI veut se débarrasser de sa dépendance à Nvidia

Faut-il aller voir ailleurs pour devenir rentable? Cette question, OpenAI, doit sans doute se la poser régulièrement alors que ChatGPT, l'intelligence artificielle générative conçue par ses soins est très dépendante des puces qu'elle utilise.
Car derrière la quasi-totalité des IA génératives présentes sur le marché, on trouve des puces Nvidia au sein des centres de données. L'entreprise qui était autrefois connue pour ses cartes graphiques à destination des joueurs, l'est désormais davantage pour son rôle de leader dans l'industrie de l'IA. Mais qui dit leader, dit aussi prix en fortes hausses.
Limiter sa dépendance à Nvidia
Pour éviter de devoir payer trop cher et de ne plus dépendre que d'un seul acteur, OpenAI souhaiterait concevoir ses propres puces spécialisées dans l'IA, annonce Reuters.
La société dirigée par Sam Altman aurait ainsi approché TSMC, qui dispose d'une finesse de gravure de 3 nanomètres (assurant des performances idéales), pour créer des puces avec "une mémoire à large bande passante" et "des capacités réseau étendues".
L'objectif serait de faire comme Apple et Google, qui conçoivent avec TSMC leurs propres puces. L'intérêt pour ces deux entreprises, mais aussi pour OpenAI, c'est de bénéficier d'un produit qui pourra s'adapter à ses propres besoins, tout en dépensant moins d'argent. Cependant, le déploiement en interne ne serait prévu qu'à "une échelle limitée" pour exécuter des modèles d'IA.
Un démarrage en douceur pour ne sans doute pas froisser son principal partenaire, Nvidia, dont la croissance est avant tout basée sur sa domination dans les data centers du monde entier. Si elle devait voir ses puces être remplacées demain par un concurrent ou une solution interne, cela signifierait une baisse de ses profits inéluctable.
A la tête du projet, il n'est toutefois pas étonnant de retrouver Richard Ho, la tête pensante du projet de puce Google équipant désormais les smartphones Pixel. Son équipe au sein d'OpenAI se compose désormais d'une quarantaine de personnes.
A l'heure où Deepseek a montré qu'il ne fallait pas forcément des puces puissantes pour certaines tâches IA, OpenAI semble avoir pris cette leçon au pied de la lettre.