Confronter nvlink?Des géants de la technologie tels que Intel, AMD, Microsoft et Broadcom Form Ualink
Huit géants de la technologie, dont Intel, Google, Microsoft et Meta, créent un nouveau groupe industriel appelé UALINK Promotion Group pour guider le développement de composants reliant les puces d'accélérateur d'IA dans les centres de données.
L'équipe de promotion d'Ualink a été annoncée jeudi, et ses membres incluent également AMD, HP Enterprise, Broadcom et Cisco.Le groupe a proposé une nouvelle norme de l'industrie pour connecter un nombre croissant de puces d'accélérateur d'IA dans les serveurs.Dans un sens large, un accélérateur d'IA est une puce conçue d'un GPU à une solution personnalisée pour accélérer la formation, le réglage fin et le fonctionnement des modèles d'IA.
"L'industrie a besoin d'une norme ouverte qui peut être rapidement avancée, permettant à plusieurs entreprises d'ajouter de la valeur à l'ensemble de l'écosystème en un format ouvert.""L'industrie a besoin d'une norme qui permet à l'innovation d'avoir lieu à un rythme rapide sans être contraint par une seule entreprise", a déclaré Forrest Norrod, directeur général d'AMD Data Center Solutions, lors d'un briefing mercredi
La première version de la norme proposée, Ualink 1.0 , jusqu'à 1024 accélérateurs AI sera connectée dans un seul pod informatique - GPU uniquement.(Le groupe définit POD comme un ou plusieurs racks dans un serveur.) UALINK 1.0 est basé sur des "normes ouvertes" et comprend l'architecture infinie d'AMD.Il permettra le chargement direct et le stockage de la mémoire supplémentaire entre les accélérateurs d'IA et améliorent globalement la vitesse et réduisent la latence de transmission des données par rapport aux spécifications d'interconnexion existantes.
Le groupe a déclaré qu'il créerait une alliance, l'alliance Ualink, au troisième trimestre pour superviser le développement futur des normes Ualink.UALINK 1.0 sera fourni aux sociétés rejoignant l'alliance au cours de la même période, avec une spécification de mise à jour de bande passante plus élevée pour UALINK 1.1.Il devrait être lancé au quatrième trimestre de 2024.
Le premier lot de produits Ualink sera lancé "dans les années à venir", a déclaré Norrod.
Nvidia, le plus grand fabricant d'accélérateur d'IA à ce jour, avec une part de marché estimée de 80% à 95%, est clairement absente de la liste des membres du groupe.Nvidia a refusé de commenter cela.Mais il n'est pas difficile de voir pourquoi ce fabricant de puces n'est pas désireux de soutenir les spécifications basées sur la technologie des concurrents.
Premièrement, NVIDIA fournit sa propre technologie d'interconnexion propriétaire pour les GPU dans ses serveurs de centres de données.L'entreprise peut ne pas être disposée à soutenir les normes en fonction de la technologie des concurrents.
Vient ensuite le fait que Nvidia opère à partir d'une position d'immense force et influence.
Au cours du dernier trimestre budgétaire de NVIDIA (T1 2025), les ventes de centres de données, y compris ses ventes de puces AI, ont augmenté de plus de 400% par rapport à la même période l'année dernière.Si Nvidia poursuit sa trajectoire de développement actuelle, elle dépassera Apple à un moment donné cette année pour devenir l'entreprise la plus précieuse au monde.
Par conséquent, en termes simples, si Nvidia ne veut pas participer, il n'a pas besoin de participer.
Quant à Amazon Web Services (AWS), qui est le seul géant public du cloud qui n'a pas contribué à Ualink, il peut être en mode attendre car il réduit ses divers efforts matériels accélérateurs internes.Il pourrait également s'agir d'AWS, de s'appuyer sur son contrôle sur le marché des services cloud et de ne voir aucune signification stratégique pour s'opposer à NVIDIA, qui a fourni la plupart de ses GPU à ses clients.
AWS n'a pas répondu à la demande de commentaires de TechCrunch.
En fait, les plus grands bénéficiaires d'Ualink - à part AMD et Intel - semblent être Microsoft, Meta et Google, qui ont dépensé des milliards de dollars pour acheter des GPU NVIDIA pour conduire leurs nuages et former leurs modèles d'IA croissants.Tout le monde veut se débarrasser d'un fournisseur qu'il considère comme trop dominant dans l'écosystème matériel de l'IA.
Google a des puces personnalisées, TPU et Axion pour la formation et l'exécution de modèles d'IA.Amazon a plusieurs familles de puces AI.Microsoft a rejoint le concours entre Maia et Cobalt l'année dernière.Meta améliore sa série d'accélérateur.
Pendant ce temps, Microsoft et son partenaire proche OpenAI prévoient de dépenser au moins 100 milliards de dollars pour un supercalculateur pour former des modèles d'IA, qui seront équipés de futures puces Cobalt et Maia.Ces puces auront besoin de quelque chose pour les connecter ensemble - peut-être que ce sera Ualink.