Amazon SageMaker HyperPod

Reduzca el tiempo necesario para entrenar los modelos fundacionales hasta en un 40 % y escale en más de mil aceleradores de IA de manera eficiente

¿Qué es SageMaker HyperPod?

Amazon SageMaker HyperPod elimina el trabajo pesado e indiferenciado que implica crear y optimizar la infraestructura de machine learning (ML). Está preconfigurado con las bibliotecas de entrenamiento distribuidas de SageMaker, que dividen automáticamente las cargas de trabajo de entrenamiento en miles de aceleradores de IA, de modo que las cargas de trabajo se puedan procesar en paralelo para mejorar el rendimiento del modelo. SageMaker HyperPod garantiza un entrenamiento de FM ininterrumpido al guardar periódicamente los puntos de control. Detecta de forma automática un error de hardware cuando ocurre, repara o reemplaza la instancia con errores y reanuda el entrenamiento desde el último punto de control guardado, por lo que ya no es necesario administrar este proceso de forma manual. El entorno flexible le permite entrenar modelos durante semanas o meses en un entorno distribuido sin interrupciones, por lo que se ahorra hasta un 40 % en tiempo de entrenamiento. SageMaker HyperPod también es altamente personalizable, lo que le permite ejecutar y escalar de manera eficiente las cargas de trabajo de FM y compartir con facilidad la capacidad de computación entre diferentes cargas de trabajo, desde el entrenamiento a gran escala hasta la inferencia.

Beneficios de SageMaker HyperPod

Amazon SageMaker HyperPod viene preconfigurado con bibliotecas de entrenamiento distribuido de Amazon SageMaker, lo que permite dividir automáticamente sus modelos y conjuntos de datos de entrenamiento en instancias de clúster de AWS para ayudarlo a escalar de manera eficiente las cargas de trabajo de entrenamiento.
Las bibliotecas de entrenamiento distribuido de Amazon SageMaker optimizan su trabajo de formación para la infraestructura de red y la topología de clústeres de AWS mediante dos técnicas: el paralelismo de datos y el paralelismo de modelos. El paralelismo de modelos divide modelos demasiado grandes para caber en una sola GPU en partes más pequeñas antes de distribuirlos entre varias GPU para entrenarlos. El paralelismo de datos divide grandes conjuntos de datos para entrenarlos de forma simultánea con el fin de mejorar la velocidad de entrenamiento.
SageMaker HyperPod posibilita un entorno de entrenamiento más flexible al detectar, diagnosticar y recuperarse automáticamente de los errores, lo que permite entrenar de forma continua los modelos fundacionales durante meses sin interrupciones.