La nouvelle génération de calcul IA : le parcours de NVIDIA de Hopper à Blackwell

La nouvelle génération de calcul IA : le parcours de NVIDIA de Hopper à Blackwell

Le paysage de l'IA connaît une transformation révolutionnaire grâce aux dernières avancées de NVIDIA, passant des architectures Hopper à Blackwell. En mars 2025, NVIDIA a dévoilé la plateforme Blackwell Ultra AI Factory, marquant une transition décisive vers l'ère du raisonnement IA. Cette plateforme représente non seulement une amélioration progressive, mais aussi une avancée majeure qui offre des capacités inédites en matière d'entraînement, de raisonnement et d'inférence IA.

Le passage de Hopper à Blackwell représente une avancée technologique majeure, conçue pour répondre aux exigences croissantes de l'intelligence artificielle (IA) et du calcul haute performance (HPC). Ce blog se penchera sur les principales caractéristiques de ces deux architectures, soulignant leurs avancées techniques et leur impact plus large sur le développement de l'IA.

Présentation de l'architecture Hopper de NVIDIA

Fondation technique

L'architecture Hopper, du nom de Grace Hopper, pionnière de l'informatique, s'appuie sur la technologie de gravure 4 nm de TSMC. Elle a introduit les cœurs Tensor de quatrième génération et a été le pionnier du moteur Transformer, spécialement conçu pour accélérer les charges de travail de l'IA. L'architecture intègre la technologie d'interconnexion NVLink 4.0 et utilise la mémoire HBM3, établissant ainsi de nouvelles normes en matière de calcul haute performance.

Indicateurs de performance clés

L'architecture Hopper représente un bond en avant significatif GPU Technologie offrant des améliorations substantielles sur de multiples indicateurs de performance, tout en maintenant l'accent sur l'efficacité du centre de données. Des améliorations spectaculaires des performances de l'IA aux opérations de mémoire optimisées et aux capacités d'interconnexion avancées, Hopper s'impose comme une solution complète pour relever les défis informatiques modernes.

Principales caractéristiques de l'architecture Hopper :

  1. Améliorations des performances de calcul :
  • Prise en charge du format FP8 avec augmentation du débit FP6 de 32x
  • Amélioration de 3x des performances du FP64
  • Augmentation de 30 fois des performances de l'IA
  1. Optimisation de la mémoire et des instructions :
  • Latence et débit des opérations de mémoire améliorés
  • Performances optimisées des instructions du noyau tenseur
  1. Technologie d'interconnexion :
  • Prise en charge de PCIe Gen 5
  • NVLink de quatrième génération
  • Capacités d'interconnectivité améliorées
  1. Caractéristiques du centre de données :
  • Focus sur l’efficacité énergétique
  • Adapté au déploiement à grande échelle
  • Optimisé pour les centres de données avancés et les applications d'IA

Avancées et améliorations majeures

  • Moteur de transformateur:Permet des ajustements de précision dynamiques, optimisant les charges de travail de l'IA.
  • Consignes DPX: Améliorez les tâches de programmation dynamique, telles que l'alignement de séquences.
  • Mémoire partagée distribuée: Améliore le multi-GPU communication et évolutivité.

Architecture Blackwell : Quoi de neuf et d'amélioré ?

Principaux points forts technologiques

L'architecture Blackwell, annoncée lors de la GTC 2024, est conçue pour révolutionner l'IA générative et les charges de travail d'IA à grande échelle. Elle intègre la technologie NVLink avancée, des cœurs Tensor personnalisés et un moteur RAS, permettant de générer des modèles d'IA en temps réel avec jusqu'à 10 25 milliards de paramètres. Blackwell vise à réduire considérablement, jusqu'à XNUMX fois, la consommation d'énergie nécessaire à l'inférence de l'IA.

Mettre en évidence les améliorations significatives des performances

La nouvelle architecture offre des gains de performances sans précédent :

  • Amélioration de 3x des performances du FP8
  • Des capacités de formation d'IA 4 fois plus rapides
  • Augmentation de 40 fois des performances d'inférence
  • Des rapports d'efficacité énergétique nettement meilleurs

Ces améliorations permettent une formation plus rapide de modèles d’IA plus volumineux et des opérations d’inférence plus efficaces.

Comparaison technique : Hopper vs. Blackwell

La transition de NVIDIA de l'architecture Hopper (H100) à l'architecture Blackwell (B200) marque un saut technologique significatif dans GPU conception. La nouvelle architecture Blackwell démontre des améliorations substantielles sur tous les indicateurs clés, avec des avancées notables dans le nombre de transistors, la bande passante mémoire, la vitesse d'interconnexion et les performances de l'IA.

Le tableau suivant fournit une comparaison détaillée des spécifications entre les deux générations :

CaractéristiqueTrémie (H100)Blackwell (B200)
FabricationTSMC 4N (transistors 80B)TSMC 4NP (transistors 208B)
Mémoire80 Go HBM3 (3 To/s)144 Go HBM3e (4.8 To/s)
NVLink4e génération (900 Go/s)5e génération (1.8 To/s)
Performances de l'IA4 PFLOPS (FP16)20 PFLOPS (FP16)
L'efficacité énergétiqueBaselineAmélioration de 25x de l'inférence
Cas d'utilisation clésCharges de travail IA/HPC étenduesIA générative, modèles à mille milliards de paramètres

Hopper et Blackwell dans les applications de l'IA dans le monde réel

Produits d'architecture Hopper

L'architecture Hopper est disponible sur plusieurs gammes de produits :

ProduitH100 SXMPCIe H100H200 SXM
Mémoire80GB HBM380 Go HBM2e141 Go HBM3e
Bande passante mémoire3.35 TB / s2.04 TB / s4.8 TB / s
NVLink900 GB / sN/D900 GB / s
Max TDPJusqu'à 700W350WJusqu'à 700W
Multi-instance GPUsJusqu'à 7 MIG à 10 GoN/DJusqu'à 7 MIG à 16.5 Go

Produits d'architecture Blackwell

Blackwell présente une nouvelle génération d'accélérateurs d'IA :

ProduitB100B200GB200 (Grace Blackwell)
DesignBlackwell GPUBlackwell GPU2× B200 GPUs + Grace CPU
Mémoire192 Go HBM3e192 Go HBM3e384 Go HBM3e
Bande passante mémoire8 TB / s8 TB / s16 TB / s
NVLink1.8 To/s (5e génération)1.8 To/s (5e génération)1.8 To/s (5e génération)
Performances FP47hXNUMX FPLOPS9hXNUMX FPLOPS20hXNUMX FPLOPS
TDP700W1000WN/D

Capacités de formation de modèles d'IA générative

Les deux architectures présentent des capacités exceptionnelles pour l'entraînement de modèles d'IA de grande taille, Blackwell affichant des vitesses d'entraînement jusqu'à trois fois supérieures à celles de Hopper. Parmi les principales améliorations, citons un traitement optimisé des transformateurs, une bande passante mémoire optimisée et des capacités de traitement parallèle plus performantes. Ces architectures permettent l'entraînement de modèles de langage de plus en plus volumineux tout en réduisant la consommation d'énergie et le temps d'entraînement.

Blackwell Ultra : la prochaine évolution de l'IA

Annoncé le 18 mars 2025 lors de la GTC 2025, Blackwell Ultra représente la dernière évolution de la plateforme de calcul IA de NVIDIA.

Spécifications techniques et améliorations

  • La gamme de produits comprend GB300 NVL72 et HGX B300 NVL16
  • Le GB300 NVL72 offre 1.5 fois plus de performances d'IA que le GB200 NVL72
  • L'architecture HGX B300 NVL16 comparée à l'architecture Hopper permet d'obtenir :
    • Inférence 11 fois plus rapide
    • 7 fois plus de puissance de calcul
    • Mémoire 4x plus grande
  • Intègre NVIDIA Spectrum-X Ethernet et Quantum-X800 InfiniBand, offrant un débit de données de 800 Gb/s par GPU
  • Caractéristiques BlueField-3 DPU pour la mise en réseau multi-locataires, GPU élasticité du calcul et détection de sécurité en temps réel

Solutions avancées de mémoire et de refroidissement

  • Utilise ConnectX-8 SuperNIC pour des capacités RDMA hautes performances
  • Optimisé pour les usines d'IA et les centres de données cloud pour éliminer les goulots d'étranglement des performances
  • Prend en charge diverses configurations :
    • 72 Blackwell Ultra GPUs
    • 36 processeurs Grace basés sur Arm Neoverse
    • Conception à l'échelle du rack fonctionnant comme un seul bloc massif GPU

LLM Fonctionnalités d'optimisation

  • Optimisé pour le raisonnement IA et l'IA agentique :
    • Prend en charge le raisonnement et la planification itérative pour les problèmes complexes en plusieurs étapes
    • Capable de générer des vidéos synthétiques en temps réel pour la formation
  • Support logiciel:
    • Nouveau framework d'inférence open source NVIDIA Dynamo
    • Prise en charge des modèles NVIDIA Llama Nemotron Reason
    • Intégration avec la plateforme logicielle NVIDIA AI Enterprise
  • Disponibilité prévue auprès des principaux fabricants de serveurs et fournisseurs de services cloud au second semestre 2025

Choisissez Novita AI pour votre confiance GPU Partenaire

Alors que l'informatique IA continue d'évoluer avec les architectures révolutionnaires de NVIDIA, choisir la bonne GPU Le partenaire cloud devient crucial. Novita AI offre une plateforme complète qui donne accès à des solutions hautes performances GPUs avec des avantages de coût significatifs

Si vous êtes intéressé par Novita AI, procédez comme suit pour commencer :

Step1 :Créer un compte

Visiter Novita AIPour créer un compte, rendez-vous sur le site web de . Après votre inscription, rendez-vous sur la page « GPUSection « s » pour explorer les ressources disponibles et démarrer votre parcours en IA.

Novita AI capture d'écran du site Web

Step2 :Sélectionnez votre GPU

Notre plateforme propose une variété de modèles préconfigurés adaptés à vos besoins spécifiques, ainsi que la flexibilité de créer des modèles personnalisés selon vos besoins.

novita ai capture d'écran du site Web utilisant le GPU cloud

Step3 :Personnalisez votre configuration

Lancez votre projet dès aujourd'hui avec 60 Go de stockage conteneurisé gratuit, sans frais initiaux. Adaptez votre stockage à la demande à mesure que vos charges de travail d'IA augmentent, en ne payant que pour l'espace supplémentaire dont vous avez besoin.

novita ai capture d'écran du site Web

Step4 :Lancez votre instance

Sélectionnez simplement « À la demande », confirmez vos paramètres et vos tarifs, puis cliquez sur « Déployer » pour commencer.

novita ai capture d'écran du site Web

Conclusion

Le passage de Hopper à Blackwell représente une avancée significative dans les capacités de calcul de l'IA. Tandis que Hopper établit de nouvelles normes en matière de formation à l'IA et de calcul scientifique, Blackwell repousse ces limites grâce à des améliorations spectaculaires en termes de performances, d'efficacité et de polyvalence. Cette évolution renforce non seulement le leadership technique de NVIDIA, mais accélère également l'adoption de l'IA dans tous les secteurs. À l'avenir, ces avancées architecturales continueront d'ouvrir de nouvelles perspectives en intelligence artificielle et en calcul scientifique.

Questions fréquemment posées

Qu'est-ce qui différencie Blackwell Ultra du Blackwell standard GPUs?

Blackwell Ultra représente le summum de l'architecture avec des améliorations de performances supplémentaires, des solutions de refroidissement avancées et des fonctionnalités spécialisées optimisées spécifiquement pour la formation et l'inférence de modèles de langage volumineux.

Laquelle GPU Quelle architecture dois-je choisir pour mon projet d'IA ?

Le choix optimal dépend de vos besoins spécifiques. Hopper est idéal pour les workflows d'IA établis, tandis que Blackwell offre des performances supérieures pour les applications de pointe. Novita AI peut fournir des recommandations personnalisées en fonction de vos besoins.

Dans quelle mesure est-il difficile de migrer des charges de travail de Hopper vers Blackwell ?

NVIDIA a maintenu la compatibilité logicielle entre les générations, ce qui simplifie considérablement la migration. La plupart du code optimisé pour Hopper s'exécutera sur Blackwell sans modification. Il est toutefois recommandé de recompiler avec la dernière version de CUDA pour bénéficier des optimisations spécifiques à Blackwell.

Novita AI est une plateforme cloud d'IA qui offre aux développeurs un moyen simple de déployer des modèles d'IA à l'aide de notre API simple, tout en fournissant une solution abordable et fiable GPU Cloud pour la construction et la mise à l'échelle.

lecture recommandée

GPU Comparaison pour la modélisation de l'IA : un guide complet

Quelle quantité de RAM est nécessaire pour l’apprentissage automatique ?

Choisir le meilleur GPU pour l'apprentissage automatique en 2025 : un guide complet


Découvrez-en plus sur Novita

Abonnez-vous pour recevoir les derniers articles envoyés à votre adresse e-mail.

Laisser un commentaire

Remonter en haut

Découvrez-en plus sur Novita

Abonnez-vous maintenant pour continuer à lire et accéder aux archives complètes.

Lire la suite