Economisez €4.355

NVIDIA A100 SXM4 80 Go avec dissipateur thermique


SKU: 965-2G506-0030-200
Prix:
4.443 95
8.798 , 95
LIVRAISON GRATUITE
- +
Demander un devis
  • warranty-icon
    1-Garantie Premium d’un an ?
  • return-icon
    Garantie de retour de 30 jours
  • tech-support-icon
    Assistance technique gratuite
NVIDIA A100 SXM4 80 Go avec dissipateur thermique

Spécifications techniques

Fabricant NVIDIA
Numéro de pièce MFG (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)
Mémoire GPU 80 Go HBM2e
Interface mémoire HBM2e (mémoire à large bande passante 2e) 5120 bits
Bande passante mémoire 2,039 Go/s
Consommation d'énergie 400 W

Garantie et assistance

Warranty Icon

1-Garantie Premium d’un an

1-année garantie sur les pièces et la main d'oeuvre

1-année couverture de prêt

1-année assistance technique

Moneyback Icon

Garantie de retour de 30 jours

Ayez l'esprit tranquille grâce à notre garantie de retour de 30 jours

Technical Support Icon

Assistance technique gratuite

1 (800) 801-8432


Le NVIDIA L'A100 80 Go SXM4 est un GPU de centre de données hautes performances conçu pour accélérer les charges de travail d'IA, de calcul haute performance (HPC) et d'analyse de données les plus exigeantes. Construit sur l'architecture Ampere, l'A100 offre un débit de calcul massif, des capacités GPU multi-instances (MIG) avancées et une bande passante mémoire de pointe pour répondre aux besoins des environnements informatiques modernes à grande échelle.

Conçu pour être intégré dans NVIDIA Plateformes HGX via le facteur de forme SXM4, l'A100 offre une puissance optimisée et prend en charge les interconnexions à large bande passante telles que NVLink et NVSwitch, ce qui en fait la première solution pour la formation, l'inférence, la simulation scientifique et le déploiement à grande échelle de l'IA d'entreprise.

Caractéristiques

Mémoire HBM2e à large bande passante de 80 Go

  • Fournit 80 Go de ECC-HBM2e protégé, permettant la formation sur de grands modèles et ensembles de données.
  • Offre jusqu'à 2 To/s de bande passante mémoire, parmi les plus rapides de tous les GPU.

NVIDIA Architecture d'Ampère

  • Construit avec des cœurs Tensor de 3e génération et des cœurs CUDA améliorés pour une IA, un HPC et une analyse de données accélérés.
  • Améliore considérablement les performances de formation et d’inférence par rapport aux générations précédentes.

Noyaux tenseurs de 3e génération

  • Matériel spécialisé pour accélérer les charges de travail d'IA telles que la formation, l'inférence, les opérations matricielles et le calcul scientifique.
  • Prend en charge le tenseur FP64 Core accélération, précision BFLOAT16, TF32, FP16, INT8 et INT4.

GPU multi-instances (MIG)

  • Permet de partitionner un seul GPU A100 en jusqu'à sept instances de GPU isolées.
  • Permet une utilisation maximale et des opérations multi-tenant sécurisées dans les environnements de centre de données.

Interconnexions à haut débit

  • Prend en charge NVLink bidirectionnel à 600 Go/s, permettant une mise à l'échelle multi-GPU avec une latence minimale.
  • S'intègre aux systèmes HGX A100 avec NVSwitch pour les clusters GPU à grande échelle.

Facteur de forme SXM4

  • Optimisé pour le déploiement de serveurs avec une alimentation électrique, des performances thermiques et une bande passante d'interconnexion supérieures.
  • Il ne s'agit pas d'une carte PCIe : conçue pour les plates-formes de serveurs OEM et hyperscale.

Performances de calcul inégalées

  • Excellent pour la formation de modèles d'IA, l'inférence à grande échelle, la simulation, la science informatique et l'analyse du Big Data.
  • Offre des performances d'IA multipétaflopiques lorsqu'il est déployé sur plusieurs GPU.

ECC Fiabilité et fonctionnement sécurisé

  • Code de correction d'erreur complet (ECC) protection de la mémoire et du cache L2.
  • Conçu pour les charges de travail d'entreprise critiques nécessitant précision et stabilité.

Documents et pilotes

Critiques

Ajouter votre avis

Posez votre question