Amazon SageMaker HyperPod

Kurangi waktu untuk melatih model pondasi hingga 40% dan menskalakan lebih dari seribu akselerator AI secara efisien

Apa itu SageMaker HyperPod?

Amazon SageMaker HyperPod menghilangkan beban berat yang tidak terdiferensiasi yang terlibat dalam membangun dan mengoptimalkan infrastruktur machine learning (ML). SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi SageMaker yang memungkinkan Anda membagi beban kerja pelatihan secara otomatis ke ribuan akselerator, sehingga beban kerja dapat diproses secara paralel untuk meningkatkan performa model. SageMaker HyperPod memastikan pelatihan FM Anda tidak terganggu dengan menyimpan pos pemeriksaan secara berkala. Ini secara otomatis mendeteksi kegagalan perangkat keras ketika itu terjadi, memperbaiki atau mengganti instans yang rusak, dan melanjutkan pelatihan dari pos pemeriksaan terakhir yang disimpan, menghilangkan kebutuhan bagi Anda untuk mengelola proses ini secara manual. Lingkungan tangguh memungkinkan Anda melatih model selama seminggu atau berbulan-bulan dalam pengaturan terdistribusi tanpa gangguan, menghemat waktu pelatihan hingga 40%. SageMaker HyperPod juga sangat dapat disesuaikan, memungkinkan Anda menjalankan dan menskalakan beban kerja FM secara efisien dan dengan mudah berbagi kapasitas komputasi antara beban kerja yang berbeda, mulai dari pelatihan skala besar hingga inferensi.

Manfaat SageMaker HyperPod

Amazon SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi Amazon SageMaker, memungkinkan Anda membagi model dan set data pelatihan secara otomatis di seluruh instans klaster AWS untuk membantu Anda menskalakan beban kerja pelatihan secara efisien.
Pustaka pelatihan terdistribusi Amazon SageMaker mengoptimalkan tugas pelatihan Anda untuk infrastruktur jaringan AWS dan topologi klaster melalui dua teknik: paralelisme data dan paralelisme model. Paralelisme model membagi model yang terlalu besar untuk ditampung pada satu GPU menjadi bagian-bagian yang lebih kecil sebelum mendistribusikannya ke beberapa GPU untuk dilatih. Paralelisme data membagi set data besar untuk dilatih secara bersamaan untuk meningkatkan kecepatan pelatihan.
SageMaker HyperPod memungkinkan lingkungan pelatihan yang lebih tangguh dengan mendeteksi, mendiagnosis, dan memulihkan kesalahan secara otomatis, yang memungkinkan Anda untuk terus melatih FM selama berbulan-bulan tanpa gangguan.

Skalabilitas dan pemanfaatan sumber daya yang dioptimalkan

Anda dapat mengelola dan mengoperasikan klaster HyperPod SageMaker dengan pengalaman administrator berbasis Kubernetes yang konsisten. Ini memungkinkan Anda menjalankan dan menskalakan beban kerja FM secara efisien, mulai dari pelatihan, penyempurnaan, eksperimen, hingga inferensi. Anda dapat dengan mudah berbagi kapasitas komputasi dan beralih antara Slurm dan EKS untuk berbagai jenis beban kerja.

Pemeriksaan dan perbaikan kondisi klaster otomatis

Jika ada instans yang rusak selama beban kerja pelatihan, SageMaker HyperPod secara otomatis mendeteksi dan menukar simpul yang rusak dengan simpul yang normal. Untuk mendeteksi perangkat keras yang rusak, SageMaker HyperPod secara rutin menjalankan serangkaian pemeriksaan kondisi untuk GPU dan integritas jaringan. 

Pengamatan lanjutan untuk peningkatan kinerja

Anda dapat menggunakan alat ML bawaan di SageMaker HyperPod untuk meningkatkan kinerja model. Misalnya, Amazon SageMaker dengan TensorBoard membantu Anda menghemat waktu pengembangan dengan memvisualisasikan arsitektur model untuk mengidentifikasi dan memperbaiki masalah konvergensi dan Amazon SageMaker Debugger menangkap metrik dan membuat profil pekerjaan pelatihan secara real time. Integrasi dengan Amazon CloudWatch Container Insight memberikan wawasan yang lebih mendalam tentang kinerja, kesehatan, dan pemanfaatan klaster. 

Pelajari selengkapnya »

Pustaka pelatihan terdistribusi berkinerja tinggi

Dengan pustaka pelatihan terdistribusi SageMaker, Anda dapat menjalankan tugas pelatihan deep learning paralel dan model paralel data kustom yang sangat skalabel dan hemat biaya. SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka terdistribusi SageMaker. Dengan hanya beberapa baris kode, Anda dapat mengaktifkan paralelisme data dalam skrip pelatihan Anda. SageMaker HyperPod mempercepat pelaksanaan pelatihan terdistribusi dengan membagi model dan set data pelatihan Anda secara otomatis di seluruh instans GPU AWS.

Pelajari selengkapnya

Penjadwalan dan orkestrasi beban kerja

Antarmuka pengguna SageMaker HyperPod sangat dapat disesuaikan menggunakan Slurm atau Amazon EKS. Anda dapat memilih dan menginstal kerangka kerja atau alat apa pun yang diperlukan. Semua klaster disediakan dengan tipe dan jumlah instans yang Anda pilih, dan klaster tersebut dipertahankan untuk Anda gunakan di seluruh beban kerja.