Salvar €4.282

NVIDIA GPU A100 SXM4 80GB para HGX Tensor Core AI GPU (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)


SKU: 965-2G506-0030-200
Preço:
4.370 95
8.652 , 95
FRETE GRÁTIS
- +
Solicitar um orçamento
  • warranty-icon
    1-Garantia Premium de Ano ?
  • return-icon
    Garantia de devolução de 30 dias
  • tech-support-icon
    Suporte técnico gratuito
NVIDIA GPU A100 SXM4 80GB para HGX Tensor Core AI GPU (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)

Especificações técnicas

Fabricante NVIDIA
Número da Peça MFG (965-2G506-0030-200) (699-2G506-0210-300) (699-2G506-0210-332)
Memória GPU 80GB HBM2e
Interface de memória HBM2e (Memória de Alta Largura de Banda 2e) de 5120 bits
Largura de banda de memória 2,039GB/s
Consumo de Energia 400 W

Garantia e suporte

Warranty Icon

1-Garantia Premium de Ano

1-ano garantia em peças e mão de obra

1-ano cobertura de empréstimo

1-ano suporte técnico

Moneyback Icon

Garantia de devolução de 30 dias

Desfrute de tranquilidade com nossa garantia de devolução de 30 dias

Technical Support Icon

Suporte técnico gratuito

1 (800) 801-8432


O NVIDIA A100 80GB SXM4 é uma GPU de alto desempenho para data centers, projetada para acelerar as cargas de trabalho de IA, computação de alto desempenho (HPC) e análise de dados mais exigentes. Construída sobre a arquitetura Ampere, a A100 oferece um enorme rendimento computacional, avançadas capacidades de GPU de múltiplas instâncias (MIG) e largura de banda de memória líder do setor para atender às necessidades de ambientes de computação em grande escala modernos.

Projetada para integração em NVIDIA plataformas HGX através do fator de forma SXM4, a A100 oferece energia otimizada e suporta interconexões de alta largura de banda, como NVLink e NVSwitch, tornando-se a solução ideal para treinamento de IA em nível empresarial, inferência, simulação científica e implantação em hiperescala.

Recursos

Memória HBM2e de alta largura de banda de 80GB

  • Fornece 80 GB de ECCHBM2e protegida, permitindo treinamento em grandes modelos e conjuntos de dados.
  • Oferece largura de banda de memória de até 2 TB/s, uma das mais rápidas de qualquer GPU.

NVIDIA Arquitetura Ampère

  • Desenvolvido com Tensor Cores de 3ª geração e núcleos CUDA aprimorados para IA acelerada, HPC e análise de dados.
  • Melhora significativamente o desempenho de treinamento e inferência em comparação com as gerações anteriores.

Núcleos tensores de 3ª geração

  • Hardware especializado para acelerar cargas de trabalho de IA, como treinamento, inferência, operações matriciais e computação científica.
  • Suporta aceleração FP64 Tensor Core, precisão BFLOAT16, TF32, FP16, INT8 e INT4.

GPU multi-instâncias (MIG)

  • Permite que uma única GPU A100 seja particionada em até sete instâncias de GPU isoladas.
  • Permite utilização máxima e operações seguras de vários locatários em ambientes de data center.

Interconexões de alta velocidade

  • Suporta NVLink bidirecional a 600 GB/s, permitindo escalonamento multi-GPU com latência mínima.
  • Integra-se em sistemas HGX A100 com NVSwitch para clusters de GPU em grande escala.

Fator de forma SXM4

  • Otimizado para implantação de servidores com fornecimento de energia, térmicas e largura de banda de interconexão superiores.
  • Não é uma placa PCIe — projetada para plataformas de servidores OEM e de hiperescala.

Desempenho de computação incomparável

  • Excelente para treinamento de modelos de IA, inferência em larga escala, simulação, ciência computacional e análise de big data.
  • Oferece desempenho de IA multipetaflop quando implantado em várias GPUs.

ECC Confiabilidade e operação segura

  • Código completo de correção de erros (ECC) proteção na memória e no cache L2.
  • Desenvolvido para cargas de trabalho empresariais de missão crítica que exigem precisão e estabilidade.

Documentos e drivers

Opiniões

Adicionar sua avaliação

Faça sua pergunta