Qualcomm est officiellement entré dans la course aux puces IA avec le lancement de ses deux nouvelles puces accélératrices. Avec cette décision, la société vise un changement majeur par rapport à son orientation traditionnelle vers les semi-conducteurs pour smartphones et connectivité sans fil. Avec le lancement de ses nouvelles puces AI200 et AI250, l'entreprise se positionne comme un nouveau challenger sur le marché en plein essor des datacenters, actuellement dominé par Nvidia et AMD.

Qualcomm annonce les puces accélératrices AI200 et AI250

Selon une annonce officielle, Qualcomm prévoit de commercialiser sa nouvelle puce accélératrice, l'AI200, en 2026. L'AI250 devrait être lancée plus tard en 2027. Ces deux puces sont conçues pour les racks de serveurs à grande échelle refroidis par liquide. Ils sont capables d’alimenter un rack entier contenant jusqu’à 72 puces agissant comme un seul système.

Qualcomm construit ses puces de centre de données sur la même unité de traitement neuronal (NPU) hexagonale que ses processeurs mobiles. Selon Durga Malladi, directeur général des centres de données et de la périphérie de l'entreprise, cela fait partie d'une démarche stratégique. Elle dit que « Nous avons d’abord fait nos preuves dans d’autres domaines, puis nous sommes passés au niveau des centres de données. »

Les nouvelles puces IA rivalisent en termes de coût, d'efficacité et de flexibilité

Contrairement à NVIDIA, dont les GPU sont principalement utilisés pour entraîner des modèles d'IA, les puces de Qualcomm se concentrent sur l'inférence, exécutant efficacement des modèles pré-entraînés. L'entreprise affirme que ses systèmes à l'échelle du rack coûteront moins cher à exploiter. Il consommerait environ 160 kilowatts par rack, ce qui est à peu près similaire aux systèmes de Nvidia.

Malladi ajoute en outre dans sa déclaration que Qualcomm proposera des ventes modulaires. Les clients pourront acheter des racks complets ou des composants individuels. Il est intéressant de noter que même des concurrents comme Nvidia ou AMD pourraient utiliser les processeurs de Qualcomm ou d'autres composants de centre de données. Les nouvelles cartes AI seraient également capables de gérer 768 Go de mémoire, surpassant NVIDIA et AMD dans cette mesure.

A lire également