Ahorrar $4,900

NVIDIA A100 SXM4 80GB: Potencia y Rendimiento


SKU: 965-2G506-0030-200
Precio:
$ 4,999 99
$ 9,899 . 99
ENVÍO GRATUITO

Net 30 or as low as $472 /mo with Credit Key Apply Now

- +
Solicite un presupuesto
  • warranty-icon
    1-Garantía Premium de un año ?
  • return-icon
    Garantía de devolución de 30 días
  • tech-support-icon
    Soporte técnico gratuito
NVIDIA A100 SXM4 80GB: Potencia y Rendimiento

Especificaciones técnicas

Fabricante NVIDIA
Número de pieza MFG (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)
Memoria de GPU 80 GB HBM2e
Interfaz de memoria HBM2e de 5120 bits (Memoria de Alta Ancho de Banda 2e)
Ancho de banda de memoria 2,039 GB/s
Consumo de Energía 400 W

Garantía y soporte

Warranty Icon

1-Garantía Premium de un año

1-año garantía en piezas y mano de obra

1-año cobertura de prestamo

1-año soporte técnico

Moneyback Icon

Garantía de devolución de 30 días

Disfrute de la tranquilidad con nuestra garantía de devolución de 30 días

Technical Support Icon

Soporte técnico gratuito

1 (800) 801-8432


el NVIDIA A100 80GB SXM4 es una GPU para centros de datos de alto rendimiento diseñada para acelerar las cargas de trabajo más exigentes de IA, informática de alto rendimiento (HPC) y análisis de datos. Construido sobre la arquitectura Ampere, el A100 ofrece un rendimiento computacional masivo, capacidades avanzadas de GPU (MIG) de instancias múltiples y ancho de banda de memoria líder en la industria para satisfacer las necesidades de los entornos informáticos modernos a gran escala.

Diseñado para la integración en NVIDIA Plataformas HGX a través del factor de forma SXM4, el A100 ofrece potencia optimizada y admite interconexiones de gran ancho de banda como NVLink y NVSwitch, lo que lo convierte en la principal solución para capacitación, inferencia, simulación científica e implementación de hiperescala de IA empresarial.

Características

Memoria HBM2e de alto ancho de banda de 80 GB

  • Proporciona 80 GB de ECC-HBM2e protegido, que permite el entrenamiento en grandes modelos y conjuntos de datos.
  • Ofrece hasta 2 TB/s de ancho de banda de memoria, uno de los más rápidos de cualquier GPU.

NVIDIA Arquitectura amperio

  • Construido con Tensor Cores de tercera generación y núcleos CUDA mejorados para IA, HPC y análisis de datos acelerados.
  • Mejora significativamente el rendimiento del entrenamiento y la inferencia en comparación con generaciones anteriores.

Núcleos tensoriales de tercera generación

  • Hardware especializado para acelerar cargas de trabajo de IA como entrenamiento, inferencia, operaciones matriciales y computación científica.
  • Soporta tensor FP64 Core aceleración, precisión BFLOAT16, TF32, FP16, INT8 e INT4.

GPU de instancias múltiples (MIG)

  • Permite dividir una única GPU A100 en hasta siete instancias de GPU aisladas.
  • Permite la máxima utilización y operaciones seguras de múltiples inquilinos en entornos de centros de datos.

Interconexiones de alta velocidad

  • Admite NVLink bidireccional a 600 GB/s, lo que permite el escalado de múltiples GPU con una latencia mínima.
  • Se integra en sistemas HGX A100 con NVSwitch para clústeres de GPU a gran escala.

Factor de forma SXM4

  • Optimizado para la implementación de servidores con entrega de energía, térmica y ancho de banda de interconexión superiores.
  • No es una tarjeta PCIe, diseñada para plataformas de servidores OEM y de hiperescala.

Rendimiento informático inigualable

  • Excelente para entrenamiento de modelos de IA, inferencia a gran escala, simulación, ciencia computacional y análisis de big data.
  • Ofrece rendimiento de IA de múltiples petaflops cuando se implementa en varias GPU.

ECC Fiabilidad y funcionamiento seguro

  • Código de corrección de errores completo (ECC) protección en memoria y caché L2.
  • Diseñado para cargas de trabajo empresariales de misión crítica que requieren precisión y estabilidad.

Documentos y controladores

Comentarios

Agregar tu reseña

Haz tu pregunta