Por que usar Blocos de capacidade do EC2 para ML?
Com os blocos de capacidade do Amazon Elastic Compute Cloud (Amazon EC2) para ML, você pode facilmente reservar instâncias com computação acelerada para uma data de início futura. Os blocos de capacidade oferecem suporte a instâncias P5e, P5 e P4d do Amazon EC2, com tecnologia das mais recentes GPUs NVIDIA H200 Tensor Core, NVIDIA H100 Tensor Core e NVIDIA A100 Tensor Core, respectivamente, bem como a instâncias Trn1 fornecidas pelo AWS Trainium. Os Blocos de capacidade do EC2 são colocados em UltraClusters Amazon EC2 projetados para workloads de machine learning (ML) de alta performance. Você pode reservar instâncias com computação acelerada por até 28 dias em clusters que medem de uma a 64 instâncias (512 GPUs ou 1024 chips Trainium), proporcionando flexibilidade para executar uma ampla variedade de workloads de ML. Os blocos de capacidade do EC2 podem ser reservados com até oito semanas de antecedência.
Benefícios
Casos de uso
-
NVIDIA
-
Arcee
-
Amplify Partners
-
Canva
-
Dashtoon
-
Leonardo.Ai
-
OctoAI
-
Snorkel