High-Tech

Nouvelles puces IA de Qualcomm : la riposte s’organise contre Nvidia et AMD

Nouvelles puces IA de Qualcomm la riposte s’organise contre Nvidia et AMD

Historiquement associé aux processeurs pour smartphones et à la connectivité mobile, Qualcomm étend désormais son champ d’action aux centres de données d’intelligence artificielle. Avec la présentation des puces IA200 et IA250, l’entreprise se place comme un acteur capable de concurrencer Nvidia et AMD sur un marché en forte croissance.

Les centres de données IA, utilisés pour le cloud, la recherche et les services avancés, représentent un marché de plusieurs milliards de dollars. Qualcomm entend y apporter de nouvelles solutions modulaires et économes en énergie, avec une mise en production prévue pour 2026 pour l’IA200 et 2027 pour l’IA250.

Deux puces pour des besoins différents : IA200 et IA250

IA200 : la solution flexible pour les serveurs

L’IA200 est conçue pour les serveurs à grande échelle, avec un refroidissement liquide capable de gérer jusqu’à 72 puces dans un seul rack intégré. Son architecture repose sur une unité de traitement neuronal hexagonale (NPU), héritée des processeurs Snapdragon.

Cette puce est pensée pour l’inférence, c’est-à-dire l’exécution de modèles d’IA déjà entraînés, offrant ainsi une performance énergétique comparable à celle des systèmes Nvidia, autour de 160 kilowatts par installation, tout en réduisant le coût opérationnel global. La modularité permet aux entreprises de choisir un système complet ou des composants individuels selon leurs besoins.

IA250 : puissance et mémoire étendues

La puce IA250, prévue pour 2027, élève la capacité de traitement avec jusqu’à 768 Go de mémoire, surpassant les offres actuelles de Nvidia et AMD. Cette mémoire accrue est essentielle pour les applications IA complexes, comme le traitement du langage naturel ou les simulations à grande échelle.

Avec cette solution, Qualcomm cible le segment haut de gamme des centres de données, où les exigences en performance et densité de calcul sont maximales.

Comment Qualcomm se démarque dans le marché des accélérateurs IA ?

Contrairement aux GPU de Nvidia, largement utilisés pour l’entraînement des modèles IA, les puces Qualcomm sont optimisées pour l’inférence, c’est-à-dire l’exécution rapide de modèles déjà entraînés. Cette approche permet aux entreprises d’exploiter l’IA de manière plus efficace et moins coûteuse, sans dépenses énergétiques superflues.

Durga Malladi, directeur de la division centres de données de Qualcomm, souligne que l’entreprise s’appuie sur son expertise mobile pour adapter ses NPU aux serveurs, offrant ainsi un compromis rare entre puissance et efficacité énergétique.

Modularité pour une adoption flexible

Les systèmes Qualcomm offrent une flexibilité inédite :

  • Achat d’un rack complet optimisé pour 72 puces.
  • Acquisition de modules individuels pour compléter des infrastructures existantes.

Cette souplesse permet aux clients utilisant déjà Nvidia ou AMD de combiner différentes technologies, ce qui est encore peu courant dans l’industrie.

Impact potentiel sur le marché mondial de l’IA

Le marché des centres de données IA pourrait atteindre plus de 50 milliards de dollars d’ici 2028, tiré par la demande croissante pour le cloud, la recherche et les services financiers. Avec l’IA200 et l’IA250, Qualcomm cherche à prendre une part significative de ce marché en offrant des solutions à la fois performantes et économiques.

Une concurrence renforcée pour Nvidia et AMD

L’arrivée de Qualcomm pourrait accroître la compétition sur la performance, l’efficacité énergétique et la modularité, poussant les autres acteurs à innover davantage. Les solutions modulaires de Qualcomm et leur coût opérationnel optimisé représentent un atout face aux offres traditionnelles.

Technologie et architecture des puces Qualcomm

L’architecture hexagonale des NPU, déjà éprouvée dans les Snapdragon, est adaptée aux besoins des centres de données. Elle permet :

  • Une exécution rapide des modèles d’IA.
  • Une consommation énergétique optimisée.
  • La combinaison de plusieurs puces dans un même rack.

Cette transposition de la mobilité aux serveurs constitue un avantage technologique distinctif pour Qualcomm.

Refroidissement liquide et densité de calcul

Les puces Qualcomm sont intégrées dans des racks avec refroidissement liquide, capables de maintenir la performance même avec 72 puces par rack. Cette solution garantit une stabilité indispensable pour les workloads intensifs tels que la simulation ou le deep learning à grande échelle.

A LIRE AUSSI Un passionné transforme sa Game Boy LEGO en vraie console en moins de 10 minutes !

Pourquoi cette initiative peut transformer l’équilibre du marché ?

En entrant sur le marché des accélérateurs IA, Qualcomm réduit sa dépendance au secteur mobile, saturé et concurrentiel. L’entreprise s’oriente vers un segment à forte valeur ajoutée, où la performance et l’efficacité énergétique sont déterminantes pour les clients.

Influence sur l’écosystème IA

Avec l’IA200 et l’IA250, Qualcomm ne se limite pas à produire des puces : l’entreprise cherche à influencer les choix technologiques des data centers, offrant des alternatives modulaires et économes aux acteurs existants.

Vous aimerez aussi

Laissez un message

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *