Blok Kapasitas Amazon EC2 untuk ML

Cadangkan instans komputasi yang dipercepat di Amazon EC2 UltraClusters untuk menjalankan beban kerja ML Anda

Mengapa menggunakan Blok Kapasitas EC2 untuk ML?

Dengan Blok Kapasitas Amazon Elastic Compute Cloud (Amazon EC2) untuk ML, Anda dapat dengan mudah memesan instans komputasi yang dipercepat untuk tanggal mulai di masa mendatang. Blok Kapasitas mendukung instans Amazon EC2 P5enP5e, P5, dan P4d yang masing-masing didukung oleh GPU NVIDIA H200 Tensor Core, GPU NVIDIA H100 Tensor Core, dan GPU NVIDIA A100 Tensor Core terbaru, serta instans Trn2 dan Trn1 yang didukung oleh AWS Trainium. Blok Kapasitas EC2 dikolokasikan di Amazon EC2 UltraClusters yang dirancang untuk beban kerja machine learning (ML) performa tinggi. Anda dapat memesan instans komputasi terakselerasi hingga enam bulan dalam ukuran klaster satu hingga 64 instans (512 GPU atau 1.024 chip Trainium), yang memberi Anda fleksibilitas untuk menjalankan berbagai beban kerja ML. Blok Kapasitas EC2 dapat dipesan hingga delapan minggu sebelumnya.

Manfaat

Rencanakan pengembangan ML Anda dengan percaya diri dengan memastikan kapasitas yang tersedia pada masa mendatang untuk instans komputasi yang dipercepat.

Dapatkan konektivitas jaringan dengan latensi rendah dan throughput tinggi melalui kolokasi di Amazon EC2 UltraClusters untuk pelatihan terdistribusi.

Dapatkan akses yang dapat diprediksi ke instans komputasi yang dipercepat dengan performa tertinggi di Amazon EC2 untuk machine learning.

Kasus penggunaan

Dapatkan akses tanpa gangguan ke instans komputasi yang dipercepat yang Anda pesan untuk menyelesaikan penyempurnaan dan pelatihan model ML.

Jalankan eksperimen dan bangun prototipe yang memerlukan instans komputasi yang dipercepat untuk waktu singkat.

Penuhi kebutuhan pertumbuhan Anda dengan memesan jumlah kapasitas yang tepat untuk melayani pelanggan Anda.

  • NVIDIA

    Permintaan untuk komputasi yang dipercepat tumbuh secara eksponensial karena perusahaan di seluruh dunia memanfaatkan AI generatif untuk membentuk kembali bisnis mereka. Dengan Blok Kapasitas EC2 untuk ML milik AWS yang baru, perusahaan AI dunia kini dapat menyewa H100 tidak hanya satu server pada satu waktu, tetapi pada skala khusus yang tersedia secara unik di AWS—yang memungkinkan mereka melatih model bahasa besar dengan cepat dan hemat biaya serta menjalankan inferensi di cloud saat mereka membutuhkannya.

    Ian Buck, Vice President of Hyperscale dan HPC Computing, NVIDIA
  • Arcee

    Arcee menyediakan platform AI yang memungkinkan pengembangan dan kemajuan dari yang kami sebut sebagai SLM—model bahasa kecil, khusus, aman, dan dapat diskalakan. Blok Kapasitas Amazon EC2 untuk ML adalah bagian penting dari lanskap komputasi ML kami untuk pelatihan SLM di AWS karena memberi akses yang andal ke kapasitas GPU saat kami membutuhkannya. Artinya, tim internal kami dan pelanggan kami mendapatkan manfaat dari fleksibilitas. Mengetahui bahwa klaster GPU bida didapatkan dalam beberapa hari dan tanpa komitmen jangka panjang telah mengubah keadaan kami.

    Mark McQuade, CEO dan Co-Founder, Arcee
  • Amplify Partners

    Kami telah menjalin kemitraan dengan beberapa pendiri yang memanfaatkan deep learning dan model bahasa besar untuk membawa inovasi terobosan ke pasar. Kami percaya bahwa akses yang dapat diprediksi dan tepat waktu ke kapasitas komputasi GPU sangat penting agar para pendiri tidak hanya dengan cepat dapat mewujudkan ide-ide mereka, tetapi juga terus melakukan iterasi visi mereka dan memberikan nilai yang meningkat kepada pelanggan mereka. Ketersediaan hingga 512 GPU NVIDIA H100 melalui Blok Kapasitas EC2 adalah terobosan baru di lingkungan yang terbatas pasokan saat ini karena kami percaya hal ini akan memberi kapasitas komputasi GPU yang dibutuhkan oleh perusahaan rintisan, pada saat dibutuhkan, tanpa membuat komitmen modal jangka panjang. Kami berharap dapat mendukung para pendiri yang membangun di AWS dengan memanfaatkan blok kapasitas GPU dan portofolio machine learning dan layanan AI generatif terdepan di industri.

    Mark LaRosa, Operating Partner, Amplify Partners
  • Canva

    Saat ini, Canva memberdayakan lebih dari 150 juta pengguna aktif bulanan untuk membuat aset visual menarik yang dapat dipublikasikan di mana saja. Kami telah menggunakan instans EC2 P4de untuk melatih model multimodal yang mendukung alat AI Generatif baru sehingga pengguna kami dapat bereksperimen dengan ide-ide secara bebas dan cepat. Saat kami ingin melatih model yang lebih besar, kami membutuhkan kemampuan untuk menskalakan ratusan GPU secara terprediksi selama pelatihan kami berlangsung. Sangat menarik melihat AWS meluncurkan Blok Kapasitas EC2 dengan dukungan untuk instans P5. Kini kami bisa mendapatkan akses yang dapat diprediksi hingga 512 GPU NVIDIA H100 dalam EC2 UltraClusters dengan latensi rendah untuk melatih model yang lebih besar dari sebelumnya.

    Greg Roodt, Head of Data Platforms, Canva
  • Dashtoon

    Dashtoon memadukan AI mutakhir dengan kreativitas untuk mengubah pendongeng menjadi seniman yang dapat membuat komik digital, terlepas dari keterampilan artistik atau pengetahuan teknis mereka, sehingga dapat meruntuhkan hambatan tradisional dalam pembuatan konten bergambar. Kami memiliki lebih dari 80 ribu pengguna aktif bulanan (MAU) yang menggunakan aplikasi kami untuk membaca komik, sementara para kreator kami menghasilkan lebih dari 100 ribu gambar per hari di Dashtoon Studio. Kami telah menggunakan AWS sejak awal, dan kami menggunakan instans P5 Amazon EC2 untuk melatih dan menyempurnakan model multimodal, termasuk Stable Diffusion XL, GroundingDINO, dan Segment Anything. Kami melihat peningkatan performa hingga 3x lipat saat menggunakan instans P5, yang ditenagai oleh GPU NVIDIA H100, dibandingkan dengan instans P4d yang setara, yang ditenagai oleh GPU NVIDIA A100. Set data pelatihan kami memiliki ukuran yang bervariasi, dan saat kami ingin melakukan penskalaan pada pelatihan model kami, Blok Kapasitas Amazon EC2 untuk ML memungkinkan penyesuaian kebutuhan GPU kami dengan waktu tunggu yang rendah dan dapat diprediksi (segera setelah hari berikutnya) sehingga membantu kami mengurangi waktu untuk merilis kemampuan baru bagi pengguna kami. Kami sangat senang untuk terus memanfaatkan Blok Kapasitas EC2 guna mempercepat inovasi kami.

    Soumyadeep Mukherjee, Co-Founder dan Chief Technology Officer, Dashtoon
  • Leonardo.Ai

    Tim kami di Leonardo memanfaatkan AI generatif untuk memungkinkan para profesional dan penggemar kreatif menghasilkan aset visual dengan kualitas, kecepatan, dan konsistensi gaya yang tak tertandingi. Fondasi kami bertumpu pada serangkaian model AI yang disempurnakan dengan baik serta peralatan yang kuat, yang memberikan kontrol terperinci, baik sebelum maupun setelah dihasilkan. Kami memanfaatkan berbagai layanan AWS untuk tidak hanya membangun dan melatih model kami, tetapi juga untuk melakukan host guna mendukung penggunaan dari jutaan pelanggan aktif bulanan. Kami sangat senang dengan adanya peluncuran Blok Kapasitas EC2 untuk ML. Hal ini memungkinkan kami untuk mengakses kapasitas GPU secara fleksibel untuk pelatihan dan bereksperimen sekaligus mempertahankan opsi untuk beralih ke instans EC2 yang berbeda yang mungkin lebih memenuhi persyaratan komputasi kami.

    Peter Runham, CTO, Leonardo.Ai
  • OctoAI

    Di OctoAI, kami memberdayakan pembuat aplikasi untuk menjalankan, menyetel, dan melakukan penskalaan AI generatif dengan mudah sehingga mengoptimalkan eksekusi model dan menggunakan otomatisasi guna meningkatkan layanan mereka dan mengurangi beban teknik. Kemampuan kami untuk menaikkan skala kapasitas GPU dalam jangka waktu yang singkat sangat penting, terutama karena kami bekerja dengan pelanggan yang ingin melakukan penskalaan aplikasi ML mereka dengan cepat dari nol hingga jutaan pengguna sebagai bagian dari peluncuran produk mereka. Blok Kapasitas EC2 untuk ML memungkinkan kami menjalankan berbagai ukuran klaster GPU yang sesuai dengan peningkatan skala yang direncanakan pelanggan kami, sekaligus memberikan penghematan biaya potensial dibandingkan dengan komitmen kapasitas jangka panjang atau deployement on-prem.

    Luis Ceze, CEO, OctoAI
  • Snorkel

    Platform pengembangan data AI milik Snorkel membantu perusahaan membuat dan menggunakan AI dengan cepat. Penggunaannya makin meningkat, termasuk penyulingan informasi dari LLM intensif komputasi ke model khusus yang lebih kecil, yang membutuhkan lonjakan komputasi jangka pendek selama pengembangan. Blok Kapasitas EC2 untuk ML berpotensi memberikan peningkatan besar atas opsi yang sudah ada untuk memperoleh kapasitas GPU. Akses terjamin ke kapasitas GPU jangka pendek dan performa jaringan yang tinggi dari EC2 UltraClusters merupakan penentu penting untuk alur kerja pengembangan AI yang perlu didukung perusahaan saat ini dan untuk tahun-tahun mendatang.

    Braden Hancock, Co-Founder dan Head of Technology, Snorkel