Einsparung $4,900

NVIDIA A100 SXM4 80GB GPU für HGX Tensor Core KI-GPU (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)


SKU: 965-2G506-0030-200
Preis:
$ 4,999 99
$ 9,899 . 99
KOSTENLOSER VERSAND

Net 30 or as low as $472 /mo with Credit Key Apply Now

- +
Fordern Sie ein Angebot an
  • warranty-icon
    1-Jahr Premium-Garantie ?
  • return-icon
    30 Tage Rückgabegarantie
  • tech-support-icon
    Kostenloser technischer Support
NVIDIA A100 SXM4 80GB GPU für HGX Tensor Core KI-GPU (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)

Technische Spezifikationen

Hersteller NVIDIA
MFG Part# (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)
GPU Memory 80 GB HBM2e
Memory Interface 5120-Bit HBM2e (High Bandwidth Memory 2e)
Memory Bandwidth 2,039 GB/s
Power Consumption 400 W

Garantie und Support

Warranty Icon

1-Jahr Premium-Garantie

1-Jahr Garantie auf Teile und Arbeit

1-Jahr Kreditgeberdeckung

1-Jahr Technischer Support

Moneyback Icon

30 Tage Rückgabegarantie

Genießen Sie die Sicherheit mit unserer 30-tägigen Rückgabegarantie

Technical Support Icon

Kostenloser technischer Support

1 (800) 801-8432


Der NVIDIA A100 80GB SXM4 ist eine Hochleistungs-Rechenzentrum-GPU, die darauf ausgelegt ist, die anspruchsvollsten KI-, High-Performance-Computing- (HPC) und Datenanalyse-Workloads zu beschleunigen. Basierend auf der Ampere-Architektur liefert der A100 enorme Rechenleistung, fortschrittliche Multi-Instanz-GPU-(MIG)-Fähigkeiten und branchenführende Speicherbandbreite, um den Anforderungen moderner großflächiger Rechenumgebungen gerecht zu werden.

Entwickelt für die Integration in NVIDIA HGX-Plattformen über den SXM4-Formfaktor liefert der A100 optimierte Leistung und unterstützt Verbindungen mit hoher Bandbreite wie NVLink und NVSwitch, was ihn zur führenden Lösung für Unternehmens-KI-Training, Inferenz, wissenschaftliche Simulation und Hyperscale-Bereitstellung macht.

Funktionen

80 GB HBM2e-Speicher mit hoher Bandbreite

  • Bietet 80 GB von ECC-geschütztes HBM2e, das das Training großer Modelle und Datensätze ermöglicht.
  • Bietet eine Speicherbandbreite von bis zu 2 TB/s und gehört damit zu den schnellsten aller GPUs.

NVIDIA Ampere-Architektur

  • Gebaut mit Tensorkernen der 3. Generation und verbesserten CUDA-Kernen für beschleunigte KI, HPC und Datenanalyse.
  • Verbessert die Trainings- und Inferenzleistung deutlich im Vergleich zu früheren Generationen.

3. Generation Tensorkerne

  • Spezialisierte Hardware zur Beschleunigung von KI-Workloads wie Training, Inferenz, Matrixoperationen und wissenschaftlichem Rechnen.
  • Unterstützt FP64 Tensor Core Beschleunigung, BFLOAT16, TF32, FP16, INT8 und INT4 Präzision.

Multi-Instanz-GPU (MIG)

  • Ermöglicht es, eine einzelne A100-GPU in bis zu sieben isolierte GPU-Instanzen zu partitionieren.
  • Ermöglicht maximale Auslastung und sichere Multi-Tenant-Operationen in Rechenzentrumsumgebungen.

Hochgeschwindigkeitsverbindungen

  • Unterstützt bidirektionales NVLink bei 600 GB/s, was eine Multi-GPU-Skalierung mit minimaler Latenz ermöglicht.
  • Integriert sich in HGX A100-Systeme mit NVSwitch für große GPU-Cluster.

SXM4-Formfaktor

  • Optimiert für den Servereinsatz mit hervorragender Stromversorgung, Thermik und Verbindungsbandbreite.
  • Keine PCIe-Karte – konzipiert für OEM- und Hyperscale-Serverplattformen.

Unübertroffene Rechenleistung

  • Hervorragend geeignet für KI-Modelltraining, groß angelegte Inferenz, Simulation, Informatik und Big-Data-Analyse.
  • Bietet Multi-Petaflop-KI-Leistung bei Bereitstellung auf mehreren GPUs.

ECC Zuverlässigkeit und sicherer Betrieb

  • Vollständiger Fehlerkorrekturcode (ECC) Schutz im gesamten Speicher und L2-Cache.
  • Entwickelt für geschäftskritische Unternehmens-Workloads, die Genauigkeit und Stabilität erfordern.

Dokumente und Treiber

Rezensionen

Bewertung hinzufügen

Stellen Sie Ihre Frage