Amazon SageMaker HyperPod

Kurangi waktu untuk melatih model fondasi hingga 40% dan skalakan di lebih dari seribu akselerator AI secara efisien

Apa itu SageMaker HyperPod?

Amazon SageMaker HyperPod menghilangkan pekerjaan berat yang tidak terdiferensiasi yang terlibat dalam pembangunan dan pengoptimalan infrastruktur machine learning (ML). SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi SageMaker, yang membagi beban kerja pelatihan secara otomatis ke lebih dari ribuan akselerator AI sehingga beban kerja dapat diproses secara paralel untuk meningkatkan performa model. SageMaker HyperPod memastikan pelatihan FM Anda tidak terganggu dengan menyimpan pos pemeriksaan secara berkala. Fitur ini secara otomatis mendeteksi kegagalan perangkat keras ketika terjadi, memperbaiki atau mengganti instans yang rusak, dan melanjutkan pelatihan dari pos pemeriksaan terakhir yang disimpan sehingga Anda tidak perlu mengelola proses ini secara manual. Lingkungan yang tangguh memungkinkan Anda untuk melatih model selama berminggu-minggu atau berbulan-bulan dalam pengaturan terdistribusi tanpa gangguan sehingga menghemat waktu pelatihan hingga 40%. SageMaker HyperPod juga sangat dapat disesuaikan, yang memungkinkan Anda menjalankan dan menskalakan beban kerja FM secara efisien dan berbagi kapasitas komputasi antara beban kerja yang berbeda dengan mudah, mulai dari pelatihan skala besar hingga inferensi.

Manfaat SageMaker HyperPod

Amazon SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi Amazon SageMaker, memungkinkan Anda membagi model dan set data pelatihan secara otomatis di seluruh instans klaster AWS untuk membantu Anda menskalakan beban kerja pelatihan secara efisien.
Pustaka pelatihan terdistribusi Amazon SageMaker mengoptimalkan tugas pelatihan Anda untuk infrastruktur jaringan AWS dan topologi klaster melalui dua teknik: paralelisme data dan paralelisme model. Paralelisme model membagi model yang terlalu besar untuk ditampung pada satu GPU menjadi bagian-bagian yang lebih kecil sebelum mendistribusikannya ke beberapa GPU untuk dilatih. Paralelisme data membagi set data besar untuk dilatih secara bersamaan untuk meningkatkan kecepatan pelatihan.
SageMaker HyperPod memungkinkan lingkungan pelatihan yang lebih tangguh dengan mendeteksi, mendiagnosis, dan memulihkan kesalahan secara otomatis, yang memungkinkan Anda untuk terus melatih FM selama berbulan-bulan tanpa gangguan.