FAQ Amazon SageMaker AI
Umum
Apa itu Amazon SageMaker?
Amazon SageMaker adalah platform terpadu untuk data, analitik, dan AI. Dengan menyatukan kemampuan machine learning (ML) dan analitik AWS yang digunakan secara luas, SageMaker generasi berikutnya menghadirkan pengalaman terintegrasi untuk analitik dan AI dengan akses terpadu ke semua data Anda. SageMaker memungkinkan Anda berkolaborasi dan membangun dari studio terpadu dengan lebih cepat menggunakan alat AWS yang sudah biasa digunakan untuk pengembangan model, AI generatif, pemrosesan data, dan analitik SQL, yang dipercepat oleh Amazon Q Developer, yang merupakan asisten AI generatif yang paling mumpuni untuk pengembangan perangkat lunak. Selain itu, Anda dapat mengakses semua data Anda, baik yang disimpan di danau data, gudang data, sumber data pihak ketiga atau gabungan, dengan tata kelola yang dibangun untuk memenuhi kebutuhan keamanan korporasi.
Di AWS Region mana SageMaker tersedia?
Untuk daftar Region SageMaker yang didukung, kunjungi halaman Layanan Regional AWS. Selain itu, untuk informasi selengkapnya, lihat Titik akhir regional dalam panduan referensi umum AWS.
Apa itu ketersediaan layanan SageMaker?
Bagaimana cara SageMaker mengamankan kode saya?
SageMaker menyimpan kode dalam volume penyimpanan ML, yang diamankan oleh grup keamanan dan secara opsional dienkripsi saat diam.
Tindakan keamanan apa yang dimiliki SageMaker?
SageMaker memastikan bahwa artefak model ML dan artefak sistem lainnya dienkripsi saat transit dan saat diam. Permintaan ke API SageMaker dan konsol dibuat melalui koneksi aman (SSL). Anda meneruskan peran AWS Identity and Access Management ke SageMaker untuk memberikan izin mengakses sumber daya atas nama Anda untuk pelatihan dan deployment. Anda dapat menggunakan bucket Amazon Simple Storage Service (Amazon S3) terenkripsi untuk artefak dan data model, serta meneruskan kunci AWS Key Management Service (AWS KMS) ke notebook SageMaker, tugas pelatihan, dan titik akhir untuk mengenkripsi volume penyimpanan ML yang terpasang. SageMaker juga mendukung Amazon Virtual Private Cloud (Amazon VPC) dan dukungan AWS PrivateLink.
Apakah SageMaker menggunakan atau berbagi model, data pelatihan, atau algoritma?
SageMaker tidak menggunakan atau berbagi model pelanggan, data pelatihan, atau algoritma. Kami memahami bahwa pelanggan sangat peduli dengan privasi dan keamanan data. Ini menjadi alasan AWS memberi Anda kepemilikan dan kontrol terhadap konten Anda melalui alat yang disederhanakan dan canggih yang memungkinkan untuk menentukan lokasi penyimpanan konten, mengamankan konten bergerak atau diam, dan mengelola akses Anda ke layanan dan sumber daya AWS bagi pengguna Anda. Kami juga menerapkan kontrol teknis dan fisik yang dirancang untuk mencegah akses tidak sah atau pengungkapan terhadap konten Anda. Sebagai pelanggan, Anda menjaga kepemilikan konten Anda dan memilih layanan AWS mana yang dapat memproses, menyimpan, dan meng-hosting konten Anda. Kami tidak mengakses konten Anda untuk tujuan apa pun tanpa persetujuan Anda.
Bagaimana saya dikenakan biaya untuk SageMaker?
Anda membayar sumber daya komputasi, penyimpanan, dan pemrosesan data ML yang Anda gunakan untuk meng-hosting notebook, melatih model, melakukan prediksi, dan mencatat output. Dengan SageMaker, Anda dapat memilih jumlah dan tipe instans yang digunakan untuk notebook yang di-hosting, pelatihan, dan hosting model. Anda hanya membayar untuk apa yang Anda gunakan, saat Anda menggunakannya; tidak ada biaya minimum dan tidak ada komitmen di muka. Untuk detail selengkapnya, lihat Harga Amazon SageMaker dan Kalkulator Harga Amazon SageMaker.
Bagaimana cara mengoptimalkan biaya SageMaker saya, seperti mendeteksi dan menghentikan sumber daya yang tidak digunakan untuk menghindari biaya yang tidak perlu?
Ada beberapa praktik terbaik yang dapat Anda terapkan untuk mengoptimalkan penggunaan sumber daya SageMaker Anda. Beberapa pendekatan melibatkan optimisasi konfigurasi; yang lain melibatkan solusi terprogram. Panduan lengkap tentang konsep ini, lengkap dengan tutorial visual dan contoh kode, dapat ditemukan di posting blog ini.
Bagaimana jika saya memiliki notebook, pelatihan, atau lingkungan hosting sendiri?
SageMaker menyediakan alur kerja yang lengkap dan lengkap, tetapi Anda dapat terus menggunakan alat yang ada dengan SageMaker. Anda dapat dengan mudah mentransfer hasil setiap tahapan masuk dan keluar SageMaker sesuai kebutuhan bisnis Anda.
Apakah R didukung dengan SageMaker?
Ya. Anda dapat menggunakan R dalam instans notebook SageMaker, yang mencakup kernel R prainstal dan pustaka reticulate. Reticulate menawarkan antarmuka R untuk Amazon SageMaker Python SDK, yang membantu praktisi ML membangun, melatih, menyetel, dan melakukan deployment model R. Anda juga dapat meluncurkan RStudio, lingkungan pengembangan terintegrasi (IDE) untuk R di Amazon SageMaker Studio.
Apa itu Amazon SageMaker Studio?
Amazon SageMaker Studio menyediakan satu antarmuka visual berbasis web tempat Anda dapat melakukan semua langkah pengembangan ML. SageMaker Studio memberi Anda akses, kontrol, dan visibilitas penuh ke dalam setiap langkah yang diperlukan untuk menyiapkan data serta membangun, melatih, dan melakukan deployment model. Anda dapat dengan cepat mengunggah data, membuat notebook baru, melatih dan menyetel model, beralih antar langkah untuk menyesuaikan eksperimen, membandingkan hasil, dan deploy model ke semua produksi di satu tempat, sehingga membuat Anda jadi lebih produktif. Semua kegiatan pengembangan ML termasuk notebook, manajemen eksperimen, pembuatan model otomatis, debugging dan profiling, serta deteksi penyimpangan model dapat dilakukan dalam antarmuka visual SageMaker Studio yang seragam.
Bagaimana cara kerja penetapan harga SageMaker Studio?
Tidak ada biaya tambahan yang dikenakan untuk menggunakan SageMaker Studio. Anda hanya membayar biaya komputasi dan penyimpanan dasar pada layanan yang Anda gunakan di dalam SageMaker Studio.
Di Region mana SageMaker Studio didukung?
Anda dapat menemukan Region tempat SageMaker Studio didukung di Panduan Developer Amazon SageMaker .
Bagaimana cara memeriksa ketidakseimbangan dalam model saya?
Amazon SageMaker Clarify membantu meningkatkan transparansi model dengan mendeteksi bias statistik di seluruh alur kerja ML. SageMaker Clarify memeriksa ketidakseimbangan selama persiapan data, setelah pelatihan, dan berkelanjutan dari waktu ke waktu, serta menyertakan alat untuk membantu menjelaskan model ML dan prediksinya. Temuan dapat dibagikan melalui laporan penjelasan.
Apa itu RStudio di SageMaker AI?
RStudio di SageMaker AI adalah RStudio Workbench terkelola penuh pertama di cloud. Anda dapat dengan cepat meluncurkan lingkungan pengembangan terintegrasi (IDE) RStudio yang sudah dikenal dan menyesuaikan sumber daya komputasi yang mendasarinya tanpa mengganggu pekerjaan Anda, sehingga memudahkan untuk membangun solusi ML dan analitik di R dalam skala besar. Anda dapat dengan mudah beralih antara notebook RStudio IDE dan SageMaker Studio untuk pengembangan R dan Python. Semua pekerjaan Anda, termasuk kode, set data, repositori, dan artefak lainnya, secara otomatis disinkronkan di antara dua lingkungan untuk mengurangi peralihan konteks dan meningkatkan produktivitas.
Bias seperti apa yang dideteksi oleh SageMaker Clarify?
Bagaimana SageMaker Clarify meningkatkan kejelasan model?
SageMaker Clarify terintegrasi dengan SageMaker Experiments untuk menyediakan grafik pentingnya fitur yang merinci pentingnya setiap input untuk keseluruhan proses pengambilan keputusan model Anda setelah model dilatih. Detail ini dapat membantu menentukan apakah input model tertentu mempunyai pengaruh lebih besar daripada yang seharusnya terhadap perilaku model secara keseluruhan. SageMaker Clarify juga menyediakan penjelasan untuk prediksi individu melalui API.
SageMaker dan AI SageMaker
Apa itu AI Amazon SageMaker? Apa bedanya dengan Amazon SageMaker?
AI Amazon SageMaker (sebelumnya Amazon SageMaker) adalah layanan terkelola penuh yang menyatukan beragam set alat untuk memungkinkan machine learning (ML) beperforma tinggi dan berbiaya rendah untuk kasus penggunaan apa pun. Dengan AI SageMaker, Anda dapat membangun, melatih, dan melakukan deployment model ML dalam skala besar. SageMaker adalah platform terpadu untuk data, analitik, dan AI. Layanan ini memberikan pengalaman pengembangan terpadu yang ditenagai AI baru bagi pelanggan untuk membangun aplikasi dengan mudah dan cepat di AWS.
Fitur AI SageMaker apa yang akan tersedia di Amazon SageMaker Unified Studio baru di re:Invent 2024?
Di re:Invent 2024, kemampuan yang didukung termasuk titik akhir inferensi, JumpStart, Pelatihan, MLFlow, Registri Model, aplikasi AI partner, HyperPod, Pipelines, dan lainnya. Kami berusaha untuk menggabungkan semua fungsionalitas yang ada yang mendukung seluruh perjalanan pengembangan model, mulai dari pelatihan hingga deployment, di Unified Studio baru.
Saat ini saya menggunakan AI Amazon SageMaker melalui API, Konsol Manajemen AWS, instans notebook Amazon SageMaker, atau Amazon SageMaker Studio. Dengan peluncuran platform terpadu baru untuk data, analitik, dan AI, apakah saya perlu mengambil tindakan untuk memastikan alur kerja saya yang ada terus berfungsi?
SageMaker memberikan pengalaman data dan AI terpadu untuk menemukan, mengakses, dan bertindak berdasarkan data Anda, yang mempercepat analitik dan inisiatif AI. AI SageMaker akan terus didukung, jadi Anda tidak perlu mengambil tindakan apa pun untuk memastikan alur kerja yang ada terus berfungsi. Misalnya, Anda dapat terus menggunakan klaster Amazon SageMaker HyperPod yang ada sebagaimana adanya. Jika Anda ingin menggunakannya di SageMaker Unified Studio baru, atur koneksi dengan klaster ini. Semua konfigurasi HyperPod Anda yang ada akan dimigrasikan ke proyek Anda secara otomatis di SageMaker, dan performa serta penghematan biaya akan tetap sama. Namun, pengalaman SageMaker Unified Studio dapat meningkatkan produktivitas dengan menyatukan semua alat ke satu tempat.
Saat ini saya menggunakan SageMaker Studio, dan saya tertarik untuk mengevaluasi SageMaker Unified Studio. Bagaimana saya memulai?
Kami sangat senang mengumumkan unified studio yang memungkinkan Anda untuk berkolaborasi dan membangun lebih cepat. Dari SageMaker Unified Studio, Anda dapat menemukan data, mengueri data, melatih model AI, dan membangun aplikasi AI generatif. Kami di sini untuk mendukung setiap langkah Anda. Kami akan memberikan panduan yang mudah digunakan untuk membawa proyek Anda yang ada ke unified studio pada Kuartal 1 2025. Jika Anda memiliki pertanyaan, jangan ragu untuk menghubungi tim akun Anda.
Apakah ada perbedaan antara alat saat ini yang saya gunakan di SageMaker Studio dan yang ada di SageMaker Unified Studio baru?
SageMaker Studio tetap menjadi pilihan tepat bagi pelanggan yang membutuhkan pengalaman pengembangan ML yang andal dan efisien. Organisasi yang ingin mengeksplorasi kemampuan data dan analitik akan menemukan tata kelola terintegrasi, analitik canggih, dan fitur AI generatif yang menarik dari platform terpadu baru. Dengan pengalaman terintegrasi SageMaker Unified Studio baru, Anda dapat menyiapkan dan mengintegrasikan data, menjelajahi data menggunakan SQL, dan menemukan serta mengatur data dengan katalog terpadu.
Apakah saya dapat mengakses HyperPod, JumpStart, MLFlow, JupyterLab, dan Pipelines di SageMaker Unified Studio baru?
Ya, HyperPod, JumpStart, MLFlow, JupyterLab, dan Pipelines semuanya tersedia di SageMaker Unified Studio baru. Selain itu, titik akhir inferensi, Pelatihan, Registri Model, dan kemampuan SageMaker populer lainnya juga didukung di Unified Studio baru.
Seperti apa alur kerja AI generatif pada umumnya dengan pengalaman terpadu yang baru?
Perjalanan 1. Pilih, sesuaikan, dan lakukan deployment model fondasi (FM):
- Jelajahi dan pilih set data
- Pilih FM
- Evaluasi model (otomatis dan bantuan manusia)
- Sesuaikan, sempurnakan: Optimalkan harga, performa, dan kualitas FM
- Optimalkan dan lakukan deployment untuk inferensi
- Otomatiskan dengan FMOps dan pemantauan model
Perjalanan 2. Bangun, latih, dan lakukan deployment model ML dalam skala besar:
- Percepat dan skalakan persiapan data untuk ML
- Bangun model ML
- Melatih dan menyetel model ML
- Lakukan deployment dalam produksi
- Kelola dan pantau
- Otomatiskan siklus hidup ML
Perjalanan 3. Pilih model, bangun, dan lakukan deployment aplikasi AI generatif:
- Pilih model dan sempurnakan
- Impor model ke Amazon Bedrock
- Bangun dan lakukan deployment aplikasi AI generatif yang terintegrasi dengan titik akhir Anda
Perjalanan 4. Pilih dan lakukan deployment model ke titik akhir, dan hubungkan titik akhir ke aplikasi AI generatif:
- Pilih model
- Lakukan deployment model ke titik akhir SageMaker
- Hubungkan titik akhir ke aplikasi AI generatif Anda
Bagaimana cara kerja penetapan harga untuk pengalaman pengembangan terpadu yang ditenagai AI?
Pengalaman pengembangan terpadu yang baru memiliki model penetapan harga berbasis penggunaan untuk Studio dan penetapan harga pass-through untuk semua layanan yang mendasarinya. Unified Studio akan mengenakan biaya untuk penyimpanan metadata, permintaan API, dan tata kelola. Untuk detail selengkapnya, kunjungi harga Amazon SageMaker.
Tata kelola ML
Apa saja alat tata kelola ML disediakan SageMaker?
SageMaker menyediakan alat tata kelola ML yang dibangun khusus di seluruh siklus hidup ML. Dengan menggunakan Amazon SageMaker Role Manager, administrator dapat menentukan izin minimum dalam hitungan menit. Kartu Model Amazon SageMaker memudahkan dalam menangkap, mengambil, serta berbagi informasi model penting dari pembuatan konsepsi hingga deployment, dan Dasbor Model Amazon SageMaker memberi Anda informasi tentang perilaku model produksi, semuanya di satu tempat. Untuk
informasi selengkapnya, lihat Tata Kelola ML dengan Amazon SageMaker.
Apa fungsi Manajer Peran SageMaker?
Anda dapat menentukan izin minimum dalam hitungan menit dengan Manajer Peran SageMaker. Ini memberikan serangkaian izin dasar untuk aktivitas dan persona ML dengan katalog kebijakan IAM yang telah dibuat sebelumnya. Anda dapat menetapkan atau mengustomisasi izin dasar lebih lanjut berdasarkan kebutuhan tertentu Anda. Dengan beberapa petunjuk panduan mandiri, Anda dapat dengan cepat menginput konstruksi tata kelola umum seperti batasan akses jaringan dan kunci enkripsi. Kemudian, SageMaker Role Manager akan membuat kebijakan IAM secara otomatis. Anda dapat menemukan peran yang sudah dibuat dan kebijakan terkait melalui konsol AWS IAM. Selanjutnya, sesuaikan izin dengan kasus penggunaan Anda, lampirkan kebijakan IAM terkelola Anda ke IAM role yang Anda buat dengan SageMaker Role Manager. Anda juga dapat menambahkan tanda untuk membantu mengidentifikasi peran dan mengatur seluruh layanan AWS.
Apa fungsi Kartu Model SageMaker?
Kartu Model SageMaker membantu Anda memusatkan dan menstandardisasi dokumentasi model di seluruh siklus hidup ML dengan menciptakan satu sumber kebenaran untuk informasi model. Kartu Model SageMaker secara otomatis mengisi detail pelatihan untuk mempercepat proses dokumentasi. Anda juga dapat menambahkan detail seperti tujuan model dan sasaran performa. Anda dapat melampirkan hasil evaluasi model ke kartu model Anda dan memberikan visualisasi untuk mendapatkan wawasan penting tentang performa model. Kartu Model SageMaker dapat dengan mudah dibagikan kepada orang lain dengan mengekspor ke format PDF.
Apa fungsi Dasbor Model SageMaker?
Dasbor Model SageMaker memberi Anda gambaran menyeluruh tentang model dan titik akhir yang di-deploy, memungkinkan Anda melacak sumber daya dan pelanggaran perilaku model melalui satu panel. Ini memungkinkan Anda memantau perilaku model dalam empat dimensi, termasuk kualitas data dan model, serta bias dan penyimpangan atribusi fitur melalui integrasinya dengan SageMaker Model Monitor dan SageMaker Clarify. Dasbor Model SageMaker juga memberikan pengalaman terintegrasi untuk menyiapkan dan menerima peringatan untuk tugas pemantauan model yang hilang dan tidak aktif, serta penyimpangan dalam perilaku model untuk kualitas model, kualitas data, penyimpangan bias, dan penyimpangan atribusi fitur. Selanjutnya, Anda dapat memeriksa tiap-tiap model dan menganalisis faktor yang memengaruhi performa model dari waktu ke waktu. Kemudian, Anda dapat melakukan tindak lanjut bersama para praktisi ML untuk mengambil tindakan korektif.
Model fondasi
Bagaimana cara memulai SageMaker dengan cepat?
SageMaker JumpStart membantu Anda memulai menggunakan ML dengan cepat dan mudah. SageMaker JumpStart menyediakan serangkaian solusi untuk kasus penggunaan paling umum yang dapat di-deploy dengan mudah hanya dalam beberapa langkah. Solusi ini sepenuhnya dapat disesuaikan serta menampilkan penggunaan templat AWS CloudFormation dan arsitektur referensi sehingga Anda dapat mempercepat perjalanan ML Anda. SageMaker JumpStart juga menyediakan model fondasi dan mendukung deployment satu langkah dan penyesuaian lebih dari 150 model sumber terbuka populer, seperti transformator, deteksi objek, dan model klasifikasi gambar.
Model fondasi apa saja yang tersedia di SageMaker JumpStart?
SageMaker JumpStart menyediakan model eksklusif dan publik. Untuk daftar model fondasi yang tersedia, lihat Memulai Amazon SageMaker JumpStart.
Bagaimana cara saya mulai menggunakan model dasar di SageMaker JumpStart?
Anda dapat mengakses model fondasi melalui SageMaker Studio, SageMaker SDK, dan Konsol Manajemen AWS. Untuk memulai menggunakan model fondasi eksklusif, Anda harus menerima ketentuan penjualan di AWS Marketplace.
Apakah data saya akan digunakan atau dibagikan untuk memperbarui model dasar yang ditawarkan kepada pelanggan menggunakan SageMaker JumpStart?
Tidak. Data inferensi dan pelatihan Anda tidak akan digunakan atau dibagikan untuk memperbarui atau melatih model dasar yang SageMaker JumpStart tampilkan kepada pelanggan.
Bisakah saya melihat bobot model dan skrip model eksklusif dengan SageMaker JumpStart?
Tidak. Model eksklusif tidak mengizinkan pelanggan melihat bobot dan skrip model.
Di Region mana model fondasi SageMaker JumpStart tersedia?
Model dapat ditemukan di semua Region tempat SageMaker Studio tersedia, tetapi kemampuan untuk melakukan deployment model berbeda-beda berdasarkan ketersediaan model dan instans dari tipe instans yang diperlukan. Anda dapat merujuk ke ketersediaan AWS Region dan instans yang diperlukan dari halaman detail model di AWS Marketplace .
Bagaimana harga model fondasi SageMaker JumpStart?
Untuk model eksklusif, Anda dikenakan biaya untuk harga perangkat lunak yang ditentukan oleh penyedia model dan biaya infrastruktur SageMaker berdasarkan instans yang digunakan. Untuk model yang tersedia untuk umum, Anda dikenakan biaya infrastruktur SageMaker berdasarkan instans yang digunakan. Untuk informasi selengkapnya, lihat Harga Amazon SageMaker dan AWS Marketplace.
Bagaimana SageMaker JumpStart membantu melindungi dan mengamankan data saya?
Keamanan adalah prioritas utama di AWS, dan SageMaker JumpStart didesain agar aman. Itulah alasan SageMaker memberi Anda kepemilikan serta kontrol terhadap konten melalui alat canggih yang disederhanakan, yang memungkinkan Anda untuk menentukan lokasi penyimpanan konten, mengamankan konten yang sedang dalam kondisi bergerak atau diam, dan mengelola akses ke layanan serta sumber daya AWS bagi pengguna.
- Kami tidak membagikan informasi pelatihan dan inferensi pelanggan dengan penjual model di AWS Marketplace. Demikian pula, artefak model penjual (misalnya, bobot model) tidak dibagikan dengan pembeli.
- SageMaker JumpStart tidak menggunakan model pelanggan, data pelatihan, atau algoritma untuk meningkatkan layanannya dan tidak membagikan data pelatihan dan inferensi pelanggan dengan pihak ketiga.
- Di SageMaker JumpStart, artefak model ML dienkripsi saat bergerak dan saat diam.
- Di bawah Model Tanggung Jawab Bersama AWS, AWS bertanggung jawab untuk melindungi infrastruktur global yang menjalankan semua AWS. Anda bertanggung jawab untuk menjaga kontrol atas konten Anda yang di-hosting di infrastruktur ini.
Dengan menggunakan model dari AWS Marketplace atau SageMaker JumpStart, pengguna dianggap bertanggung jawab atas kualitas output model dan memahami kemampuan serta batasan yang dijelaskan dalam deskripsi model individual.
Model yang tersedia untuk umum mana yang didukung dengan SageMaker JumpStart?
SageMaker JumpStart menyertakan lebih dari 150 model yang telah dilatih sebelumnya yang tersedia secara publik dari PyTorch Hub dan TensorFlow Hub. Untuk tugas penglihatan seperti klasifikasi citra dan deteksi objek, Anda dapat menggunakan model seperti RESNET, MobileNet, dan single-shot detector (SSD). Untuk tugas teks seperti klasifikasi kalimat, klasifikasi teks, dan menjawab pertanyaan, Anda dapat menggunakan model seperti BERT, RoBERTa, dan DistilBERT.
Bagaimana cara membagi artefak ML dengan orang lain dalam organisasi saya?
Dengan SageMaker JumpStart, ilmuwan data dan developer ML dapat dengan mudah berbagi artefak ML, termasuk notebook dan model, dalam organisasi mereka. Administrator dapat mengatur repositori yang dapat diakses oleh sekelompok pengguna tertentu. Semua pengguna yang memiliki izin untuk mengakses repositori dapat menelusuri, mencari, dan menggunakan model dan notebook serta konten publik di dalam SageMaker JumpStart. Pengguna dapat memilih artefak untuk melatih model, melakukan deployment titik akhir, dan menjalankan notebook di SageMaker JumpStart.
Mengapa saya sebaiknya menggunakan SageMaker JumpStart untuk berbagi artefak ML dengan orang lain dalam organisasi saya?
Dengan SageMaker JumpStart, Anda dapat mempercepat waktu pemasaran saat membangun aplikasi ML. Model dan notebook yang dibuat oleh satu tim dalam organisasi Anda dapat dibagikan dengan mudah kepada tim lain dalam organisasi Anda hanya dalam beberapa langkah. Berbagi pengetahuan internal dan penggunaan kembali aset dapat meningkatkan produktivitas organisasi Anda secara signifikan.
Bagaimana cara mengevaluasi dan memilih model fondasi?
Dapatkah admin mengontrol apa yang tersedia untuk pengguna mereka?
Ya. Admin dapat mengontrol model Amazon SageMaker JumpStart yang bisa dilihat dan digunakan oleh pengguna mereka di beberapa akun AWS serta pengguna utama pengguna. Untuk mempelajari selengkapnya, lihat dokumentasi.
Apa itu toolkit optimisasi inferensi?
Toolkit optimisasi inferensi memudahkan Anda menerapkan teknik optimisasi inferensi terbaru untuk mencapai performa biaya tercanggih (SOTA) di Amazon SageMaker, sekaligus menghemat waktu developer selama berbulan-bulan. Anda dapat memilih dari menu teknik optimisasi populer yang disediakan oleh SageMaker dan menjalankan tugas optimisasi terlebih dahulu, melakukan tolok ukur model untuk metrik performa dan akurasi, lalu melakukan deployment model yang dioptimalkan ke titik akhir SageMaker untuk inferensi. Toolkit menangani semua aspek optimisasi model, sehingga Anda dapat lebih fokus pada tujuan bisnis Anda.
Mengapa saya harus menggunakan toolkit optimisasi inferensi?
Toolkit optimisasi inferensi membantu Anda meningkatkan performa biaya dan waktu pemasaran untuk aplikasi AI generatif. Toolkit optimisasi model yang dikelola penuh memberi Anda akses ke teknik optimisasi terbaru dengan alat yang mudah digunakan. Peningkatan ke solusi terbaik yang tersedia juga mudah dilakukan seiring berjalannya waktu karena toolkit ini terus beradaptasi dengan inovasi tercanggih, perangkat keras baru, dan fitur hosting.
Toolkit optimisasi inferensi mendukung teknik optimisasi, seperti Dekoding Spekulatif, Kuantisasi, dan Kompilasi. Anda dapat memilih optimisasi yang ingin ditambahkan ke model Anda dalam beberapa klik, dan Amazon SageMaker akan mengelola semua pekerjaan berat yang tidak terdiferensiasi dalam pengadaan perangkat keras, pemilihan kontainer deep learning, dan parameter penyetelan yang sesuai untuk menjalankan tugas optimisasi, lalu menyimpan artefak model yang dioptimalkan di lokasi S3 yang Anda berikan.
Untuk Dekode Spekulatif, Anda dapat memulai dengan model draf yang disediakan SageMaker, sehingga Anda tidak perlu membuat model draf Anda sendiri dari awal, dan meminta optimisasi tingkat sistem serta perutean. Dengan Kuantisasi, Anda cukup memilih tipe presisi yang ingin digunakan dan memulai pekerjaan pembandingan (benchmarking) untuk mengukur tradeoff akurasi versus performa. Amazon SageMaker akan menghasilkan laporan evaluasi yang komprehensif sehingga Anda dapat dengan mudah menganalisis tradeoff antara performa dan akurasi. Dengan Kompilasi, untuk model paling populer dan konfigurasinya, Amazon SageMaker akan otomatis mengambil artefak model yang dikompilasi selama pengaturan titik akhir dan penskalaan, ini akan menghilangkan kebutuhan Anda untuk menjalankan tugas kompilasi terlebih dahulu, sehingga menghemat biaya perangkat keras.
Toolkit optimisasi inferensi Amazon SageMaker membantu mengurangi biaya dan waktu Anda untuk mengoptimalkan model GenAI, sehingga Anda dapat fokus pada tujuan bisnis Anda.
ML kode rendah
Apa itu Amazon SageMaker Canvas?
SageMaker Canvas adalah layanan tanpa kode dengan antarmuka tunjuk dan klik yang intuitif yang memungkinkan Anda membuat prediksi berbasis ML yang sangat akurat dari data Anda. SageMaker Canvas memungkinkan Anda mengakses dan menggabungkan data dari berbagai sumber menggunakan antarmuka pengguna seret dan lepas, yang secara otomatis membersihkan dan menyiapkan data untuk meminimalkan pembersihan manual. SageMaker Canvas menerapkan berbagai algoritma ML canggih untuk menemukan model prediktif yang sangat akurat dan menyediakan antarmuka intuitif untuk membuat prediksi. Anda dapat menggunakan SageMaker Canvas untuk membuat prediksi yang jauh lebih tepat dalam berbagai aplikasi bisnis dan berkolaborasi dengan mudah dengan ilmuwan data dan analis di perusahaan Anda dengan berbagi model, data, dan laporan. Untuk selengkapnya tentang SageMaker Canvas, lihat FAQ Amazon SageMaker Canvas .
Bagaimana cara kerja penetapan harga SageMaker Canvas?
Dengan SageMaker Canvas, Anda membayar berdasarkan penggunaan. SageMaker Canvas memungkinkan Anda menyerap, menjelajahi, dan menyiapkan data secara interaktif dari berbagai sumber, melatih model ML yang sangat akurat dengan data Anda, dan menghasilkan prediksi. Ada dua komponen yang menentukan tagihan Anda: biaya sesi berdasarkan jumlah jam di mana SageMaker Canvas digunakan atau masuk, dan biaya untuk melatih model berdasarkan ukuran set data yang digunakan untuk membangun model. Untuk informasi selengkapnya, lihat Harga Amazon SageMaker Canvas .
Alur kerja ML
Bagaimana cara membangun alur kerja ML berulang di SageMaker?
Amazon SageMaker Pipelines membantu Anda membuat alur kerja ML yang sepenuhnya otomatis mulai dari persiapan data hingga deployment model, sehingga Anda dapat menskalakan ribuan model ML dalam produksi. Anda dapat membuat Pipeline dengan SageMaker Python SDK dan melihat, mengeksekusi, mengauditnya dari antarmuka visual SageMaker Studio. SageMaker Pipelines menangani pengelolaan data antarlangkah, pengemasan resep kode, dan pengoordinasian eksekusinya, sehingga mengurangi waktu pengodean dari berbulan-bulan menjadi hanya beberapa jam. Setiap kali alur kerja dijalankan, catatan lengkap data yang diproses dan tindakan yang diambil disimpan, sehingga ilmuwan data dan developer ML dapat dengan cepat melakukan debug masalah.
Bagaimana cara melihat semua model terlatih saya untuk memilih model terbaik yang akan dipindahkan ke produksi?
Komponen SageMaker mana yang dapat ditambahkan ke SageMaker Pipelines?
Bagaimana cara melacak komponen model saya di seluruh alur kerja ML?
Bagaimana cara kerja penetapan harga SageMaker Pipelines?
Tidak ada biaya tambahan yang dikenakan untuk SageMaker Pipelines. Anda hanya membayar untuk komputasi dasar atau layanan AWS terpisah yang Anda gunakan dalam SageMaker Pipelines.
Bisakah saya menggunakan Kubeflow dengan SageMaker?
Bagaimana cara kerja penetapan harga Komponen SageMaker untuk Kubeflow Pipelines?
Tidak ada biaya tambahan untuk menggunakan Komponen SageMaker untuk Kubeflow Pipelines.
Keterlibatan manusia
Apa yang dimaksud dengan human-in-the-loop dan mengapa hal ini penting dalam membangun aplikasi yang didukung AI?
Human-in-the-loop adalah proses memanfaatkan input manusia di seluruh siklus hidup ML untuk meningkatkan akurasi dan relevansi model. Manusia dapat melakukan berbagai tugas, mulai dari pembuatan data dan anotasi, hingga peninjauan dan penyesuaian model. Intervensi manusia sangat penting terutama untuk aplikasi AI generatif, yang umumnya manusia berperan sebagai peminta dan konsumen konten. Oleh karena itu, sangat penting bahwa manusia melatih model fondasi (FM) untuk merespons dengan akurat, aman, dan relevan terhadap instruksi pengguna. Umpan balik manusia dapat diterapkan untuk membantu Anda menyelesaikan banyak tugas. Pertama, membuat set data pelatihan berlabel berkualitas tinggi untuk aplikasi AI generatif melalui pembelajaran yang diawasi (dengan manusia menyimulasikan gaya, panjang, dan akurasi tentang bagaimana model harus merespons permintaan pengguna) dan pembelajaran penguatan dengan umpan balik manusia (dengan manusia memberi peringkat dan mengklasifikasikan tanggapan model). Kedua, menggunakan data yang dihasilkan manusia untuk menyesuaikan FM pada tugas tertentu atau dengan data spesifik perusahaan dan domain Anda serta membuat output model relevan untuk Anda.
Bagaimana kemampuan human-in-the-loop dapat digunakan untuk aplikasi AI generatif yang didukung oleh FM?
Kemampuan human-in-the-loop berperan penting dalam menciptakan dan meningkatkan aplikasi AI generatif yang didukung oleh FM. Tenaga kerja manusia yang sangat terampil yang dilatih berdasarkan pedoman tugas dapat memberikan umpan balik, panduan, input, dan penilaian dalam aktivitas seperti menghasilkan data demonstrasi untuk melatih FM, mengoreksi dan meningkatkan respons sampel, menyempurnakan model berdasarkan data perusahaan dan industri, bertindak sebagai perlindungan terhadap toksisitas dan bias serta banyak lagi. Oleh karena itu, kemampuan human-in-the-loop dapat meningkatkan akurasi dan performa model.
Apa perbedaan antara layanan mandiri Amazon SageMaker Ground Truth dan penawaran yang dikelola AWS?
Amazon SageMaker Ground Truth menawarkan serangkaian kemampuan human-in-the-loop yang paling komprehensif. Ada dua cara untuk menggunakan Amazon SageMaker Ground Truth, penawaran layanan mandiri dan penawaran yang dikelola AWS. Dalam penawaran layanan mandiri, anotator data, pembuat konten, dan teknisi perintah Anda (internal, yang dikelola vendor, atau memanfaatkan kerumunan publik) dapat menggunakan antarmuka pengguna kode rendah kami untuk mempercepat tugas yang bersifat human-in-the-loop, sekaligus memiliki fleksibilitas untuk membangun dan mengelola alur kerja kustom Anda sendiri. Dalam penawaran yang dikelola AWS (SageMaker Ground Truth Plus), kami menangani tugas berat untuk Anda, termasuk memilih dan mengelola tenaga kerja yang tepat untuk kasus penggunaan Anda. SageMaker Ground Truth Plus merancang dan menyesuaikan alur kerja menyeluruh (termasuk pelatihan tenaga kerja terperinci dan langkah-langkah jaminan kualitas) dan menyediakan tim terampil yang dikelola AWS yang dilatih mengenai tugas spesifik dan memenuhi persyaratan kualitas, keamanan, dan kepatuhan data Anda.
Siapkan data
Bagaimana SageMaker menyiapkan data untuk ML?
SageMaker Data Wrangler mengurangi waktu yang diperlukan untuk mengumpulkan dan menyiapkan data untuk ML. Dari satu antarmuka di SageMaker Studio, Anda dapat menelusuri dan mengimpor data dari Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake, dan Databricks hanya dalam beberapa langkah. Anda juga dapat melakukan kueri dan mengimpor data yang ditransfer dari lebih dari 50 sumber data dan terdaftar di Katalog Data AWS Glue oleh Amazon AppFlow. SageMaker Data Wrangler akan secara otomatis memuat, menggabungkan, dan menampilkan data mentah. Setelah mengimpor data ke SageMaker Data Wrangler, Anda dapat melihat ringkasan kolom dan histogram yang dibuat secara otomatis. Anda selanjutnya dapat menggali lebih dalam untuk memahami data Anda dan mengidentifikasi potensi kesalahan dengan laporan Kualitas Data dan Wawasan SageMaker Data Wrangler, yang memberikan ringkasan statistik dan peringatan kualitas data. Anda juga dapat menjalankan analisis bias yang didukung oleh SageMaker Clarify langsung dari SageMaker Data Wrangler untuk mendeteksi potensi bias selama persiapan data. Dari sana, Anda dapat menggunakan transformasi bawaan SageMaker Data Wrangler untuk menyiapkan data Anda. Setelah data Anda siap, Anda dapat membangun alur kerja ML yang sepenuhnya otomatis dengan Amazon SageMaker Pipelines atau mengimpor data tersebut ke Amazon SageMaker Feature Store .
Tipe data apa yang didukung SageMaker Data Wrangler?
Bagaimana cara membuat fitur model dengan SageMaker Data Wrangler?
Bagaimana cara memvisualisasikan data saya di SageMaker Data Wrangler?
Bagaimana cara kerja penetapan harga SageMaker Data Wrangler?
Anda membayar semua sumber daya komputasi, penyimpanan, dan pemrosesan data ML yang Anda gunakan untuk SageMaker Data Wrangler. Anda dapat meninjau semua detail harga SageMaker Data Wrangler di sini. Sebagai bagian dari AWS Tingkat Gratis , Anda juga dapat memulai SageMaker Data Wrangler secara gratis.
Bagaimana cara melatih model ML dengan data yang disiapkan di SageMaker Data Wrangler?
Bagaimana cara SageMaker Data Wrangler menangani data baru ketika saya telah menyiapkan fitur pada data historis?
Bagaimana cara kerja SageMaker Data Wrangler dengan proses CI/CD saya?
Model mana yang digunakan Model Cepat SageMaker Data Wrangler?
Berapa ukuran data yang didukung SageMaker Data Wrangler?
Apakah SageMaker Data Wrangler berfungsi dengan SageMaker Feature Store?
Apa itu SageMaker Feature Store?
SageMaker Feature Store adalah platform yang dikelola sepenuhnya dan dibuat khusus untuk menyimpan, berbagi, dan mengelola fitur model machine learning (ML). Fitur dapat ditemukan dan dibagikan agar mudah digunakan kembali di seluruh model dan tim dengan akses dan kontrol yang aman, termasuk di seluruh akun AWS. SageMaker Feature Store mendukung fitur online dan offline untuk inferensi waktu nyata, inferensi batch, dan pelatihan. Ia juga mengelola alur rekayasa fitur batch dan streaming untuk mengurangi duplikasi dalam pembuatan fitur dan meningkatkan akurasi model.
Apa saja fitur offline?
Apa itu fitur online?
Bagaimana cara menjaga konsistensi antara fitur online dan offline?
Bagaimana cara mereproduksi fitur dari momen waktu tertentu?
Bagaimana cara kerja penetapan harga untuk SageMaker Feature Store?
Anda dapat memulai SageMaker Feature Store secara gratis, sebagai bagian dari AWS Tingkat Gratis . Dengan SageMaker Feature Store, Anda membayar untuk menulis ke dalam penyimpanan fitur, serta membaca dan menyimpan dari penyimpanan fitur online. Untuk detail harga, lihat Harga Amazon SageMaker .
Apa yang ditawarkan SageMaker untuk pelabelan data?
SageMaker menyediakan dua penawaran pelabelan data, Amazon SageMaker Ground Truth Plus dan Amazon SageMaker Ground Truth. Kedua opsi ini memungkinkan Anda untuk mengidentifikasi data mentah, seperti gambar, file teks, dan video, dan menambahkan label informatif untuk membuat set data pelatihan berkualitas tinggi untuk model ML Anda. Untuk mempelajari selengkapnya, lihat Pelabelan Data Amazon SageMaker .
Apa itu data geospasial?
Apa saja kemampuan geospasial SageMaker?
Mengapa saya sebaiknya menggunakan ML geospasial di SageMaker?
Bangun model
Apa itu notebook Amazon SageMaker Studio?
Bagaimana cara kerja notebook SageMaker Studio?
Notebook SageMaker Studio adalah notebook Jupyter satu langkah yang dapat diputar dengan cepat. Sumber daya komputasi utamanya sepenuhnya elastis, sehingga Anda dapat dengan mudah menaikkan atau menurunkan sumber daya yang tersedia dan perubahan terjadi secara otomatis di latar belakang tanpa mengganggu kerja Anda. SageMaker juga memungkinkan berbagi notebook dalam satu langkah. Anda dapat dengan mudah berbagi notebook dengan orang lain dan mereka akan mendapatkan notebook yang persis sama, yang disimpan di tempat yang sama.
Dengan notebook SageMaker Studio, Anda dapat masuk dengan kredensial korporasi Anda menggunakan Pusat Identitas IAM. Berbagi notebook di dalam dan di antara tim menjadi mudah karena dependensi yang diperlukan untuk menjalankan notebook secara otomatis dilacak dalam citra kerja yang dienkapsulasi dengan notebook saat dibagikan.
Apa perbedaan notebook SageMaker Studio dengan penawaran notebook berbasis instans?
Bagaimana cara kerja notebook SageMaker Studio dengan layanan AWS lainnya?
Bagaimana cara kerja penetapan harga notebook SageMaker Studio?
Apakah saya dikenakan biaya terpisah untuk setiap notebook yang dibuat dan dijalankan di SageMaker Studio?
Tidak. Anda dapat membuat dan menjalankan beberapa notebook pada instans komputasi yang sama. Anda hanya membayar untuk komputasi yang Anda gunakan, bukan untuk masing-masing item. Anda dapat membaca lebih lengkap tentang hal ini di panduan pengukuran kami .
Selain notebook, Anda juga dapat memulai dan menjalankan terminal dan shell interaktif di SageMaker Studio, semuanya pada instans komputasi yang sama. Setiap aplikasi berjalan dalam kontainer atau citra. SageMaker Studio menyediakan beberapa citra bawaan yang dibuat khusus dan dikonfigurasikan sebelumnya untuk ilmu data dan ML.
Bagaimana cara memantau dan mematikan sumber daya yang digunakan oleh notebook saya?
Anda dapat memantau dan mematikan sumber daya yang digunakan oleh notebook SageMaker Studio Anda melalui antarmuka visual SageMaker Studio dan Konsol Manajemen AWS. Lihat dokumentasi untuk detail selengkapnya.
Saya menjalankan notebook SageMaker Studio. Apakah saya akan tetap dikenakan biaya jika saya menutup peramban, menutup tab notebook, atau membiarkan peramban tetap terbuka?
Apakah saya dikenakan biaya untuk membuat dan menyiapkan domain SageMaker Studio?
Tidak, Anda tidak dikenakan biaya untuk membuat atau mengonfigurasi domain SageMaker Studio, termasuk menambahkan, memperbarui, dan menghapus profil pengguna.
Bagaimana cara melihat rincian biaya untuk notebook SageMaker Studio atau layanan SageMaker lainnya?
Sebagai admin, Anda dapat melihat daftar rincian biaya untuk SageMaker, termasuk SageMaker Studio, di konsol Penagihan AWS. Dari Konsol Manajemen AWS untuk SageMaker, pilih Layanan di menu atas, ketik "penagihan" di kotak pencarian dan pilih Penagihan dari dropdown, lalu pilih Tagihan di panel kiri. Di bagian Detail, Anda dapat memilih SageMaker untuk memperluas daftar Region dan menelusuri rincian biaya.
Apa itu Amazon SageMaker Studio Lab?
Mengapa saya sebaiknya menggunakan SageMaker Studio Lab?
Bagaimana cara kerja SageMaker Studio Lab dengan layanan AWS lainnya?
Latih Model
Apa itu Amazon SageMaker HyperPod?
Kapan saya sebaiknya menggunakan SageMaker HyperPod?
Apakah SageMaker mendukung pelatihan terdistribusi?
Ya. SageMaker dapat secara otomatis mendistribusikan model deep learning dan serangkaian pelatihan besar di seluruh instans GPU AWS dalam waktu yang sangat singkat untuk membangun dan mengoptimalkan strategi distribusi ini secara manual. Dua teknik pelatihan terdistribusi yang diterapkan SageMaker adalah paralelisme data dan paralelisme model. Paralelisme data diterapkan untuk meningkatkan kecepatan pelatihan dengan membagi data secara merata ke beberapa instans GPU, sehingga setiap instans dapat dilatih secara bersamaan. Paralelisme model berguna untuk model yang terlalu besar untuk disimpan pada satu GPU dan mengharuskan model dipartisi menjadi bagian yang lebih kecil sebelum didistribusikan ke beberapa GPU. Dengan hanya beberapa baris kode tambahan dalam skrip pelatihan PyTorch dan TensorFlow, SageMaker akan secara otomatis menerapkan paralelisme data atau paralelisme model untuk Anda, sehingga Anda dapat mengembangkan dan melakukan deployment model lebih cepat. SageMaker akan menentukan pendekatan terbaik untuk membagi model Anda dengan menggunakan algoritma partisi grafik untuk menyeimbangkan komputasi setiap GPU sekaligus meminimalkan komunikasi di antara instans GPU. SageMaker juga mengoptimalkan tugas pelatihan terdistribusi Anda melalui algoritma yang sepenuhnya memanfaatkan komputasi dan jaringan AWS untuk mencapai efisiensi penskalaan mendekati linier, sehingga Anda dapat menyelesaikan pelatihan lebih cepat dibandingkan implementasi sumber terbuka manual.
Apa itu Amazon SageMaker Experiments?
Apa itu Amazon SageMaker Debugger?
Apa itu Pelatihan Spot Terkelola?
Bagaimana cara menggunakan Pelatihan Spot Terkelola?
Kapan saya sebaiknya menggunakan Pelatihan Spot Terkelola?
Bagaimana cara kerja Pelatihan Spot Terkelola?
Apakah saya perlu melakukan pemeriksaan berkala dengan Pelatihan Spot Terkelola?
Bagaimana Anda menghitung penghematan biaya dengan tugas Pelatihan Spot Terkelola?
Instans mana yang dapat saya gunakan dengan Pelatihan Spot Terkelola?
Region mana yang didukung dengan Pelatihan Spot Terkelola?
Pelatihan Spot Terkelola didukung di semua Region tempat SageMaker saat ini tersedia .
Adakah batasan ukuran set data yang bisa saya gunakan untuk pelatihan?
Tidak ada batasan tetap mengenai ukuran set data yang dapat Anda gunakan untuk model pelatihan dengan SageMaker.
Algoritma apa yang digunakan SageMaker untuk menghasilkan model?
Apa itu Penyesuaian Model Otomatis?
Model apa saja yang dapat disesuaikan dengan Penyesuaian Model Otomatis?
Bisakah saya menggunakan Penyesuaian Model Otomatis di luar SageMaker?
Tidak pada saat ini. Performa dan pengalaman penyesuaian model terbaik ada dalam SageMaker.
Apa algoritma penyesuaian yang mendasari untuk Penyesuaian Model Otomatis?
Saat ini, algoritma untuk menyesuaikan hiperparameter merupakan implementasi khusus dari Bayesian Optimization. Hal ini bertujuan untuk mengoptimalkan metrik objektif yang ditentukan pelanggan selama proses penyesuaian. Secara khusus, ini memeriksa metrik objek dari tugas pelatihan yang telah diselesaikan, dan menggunakan pengetahuan tersebut untuk menyimpulkan kombinasi hiperparameter untuk tugas pelatihan berikutnya.
Apakah Penyesuaian Model Otomatis merekomendasikan hiperparameter khusus untuk penyesuaian?
Tidak. Pengaruh hiperparameter tertentu terhadap performa model bergantung pada berbagai faktor, dan sulit untuk mengatakan secara pasti bahwa satu hiperparameter lebih penting daripada yang lain sehingga perlu disesuaikan. Untuk algoritma bawaan dalam SageMaker, kami menentukan apakah hiperparameter dapat diatur atau tidak.
Berapa lama waktu yang diperlukan untuk melakukan penyesuaian hiperparameter?
Waktu yang diperlukan tugas penyesuaian hiperparameter bergantung pada beberapa faktor, termasuk ukuran data, algoritma yang mendasarinya, dan nilai hiperparameter. Selain itu, pelanggan dapat memilih jumlah tugas pelatihan simultan dan jumlah total tugas pelatihan. Semua pilihan ini memengaruhi berapa lama tugas penyesuaian hiperparameter dapat bertahan.
Bisakah saya mengoptimalkan beberapa tujuan secara bersamaan, seperti mengoptimalkan model agar cepat dan akurat?
Tidak pada saat ini. Saat ini, Anda perlu menentukan satu metrik objektif untuk mengoptimalkan atau mengubah kode algoritma agar menghasilkan metrik baru, yang merupakan rata-rata tertimbang antara dua atau beberapa metrik yang berguna, dan mengoptimalkan proses penyesuaian terhadap metrik objektif tersebut.
Berapa biaya Penyesuaian Model Otomatis?
Tidak ada biaya untuk tugas penyesuaian hiperparameter itu sendiri. Anda akan dikenakan biaya berdasarkan tugas pelatihan yang diluncurkan oleh tugas penyesuaian hiperparameter, berdasarkan harga pelatihan model .
Bagaimana cara saya memutuskan untuk menggunakan SageMaker Autopilot atau Penyesuaian Model Otomatis?
SageMaker Autopilot mengotomatiskan segala sesuatu dalam alur kerja ML pada umumnya, termasuk prapemrosesan fitur, pemilihan algoritma, dan penyesuaian hyperparameter, sekaligus secara khusus berfokus pada kasus penggunaan klasifikasi dan regresi. Di sisi lain, Penyesuaian Model Otomatis dirancang untuk menyempurnakan model apa pun, tidak peduli apakah model tersebut didasarkan pada algoritma bawaan, kerangka deep learning, atau kontainer khusus. Sebagai gantinya, Anda harus secara manual memilih algoritma tertentu, mengatur hyperparameter, dan menentukan rentang pencarian yang sesuai.
Apa itu pembelajaran penguatan?
Pembelajaran penguatan adalah teknik ML yang memungkinkan agen belajar dalam lingkungan interaktif melalui trial and error dengan menggunakan umpan balik dari tindakan dan pengalamannya sendiri.
Bisakah saya melatih model pembelajaran penguatan di SageMaker?
Ya, Anda dapat melatih model pembelajaran penguatan di SageMaker selain model pembelajaran yang diawasi dan tanpa pengawasan.
Apa perbedaan pembelajaran penguatan dengan pembelajaran yang diawasi?
Meskipun pembelajaran yang diawasi dan pembelajaran penguatan menggunakan pemetaan antara input dan output, tidak seperti pembelajaran yang diawasi saat umpan balik yang diberikan kepada agen adalah serangkaian tindakan yang benar untuk melakukan tugas, pembelajaran penguatan menggunakan umpan balik yang tertunda saat sinyal penghargaan dioptimalkan untuk memastikan tujuan jangka panjang melalui serangkaian tindakan.
Kapan saya sebaiknya menggunakan pembelajaran penguatan?
Tujuan dari teknik pembelajaran yang diawasi adalah untuk menemukan jawaban yang benar berdasarkan pola dalam data pelatihan, sedangkan tujuan dari teknik pembelajaran tanpa pengawasan adalah untuk menemukan persamaan dan perbedaan di antara titik data. Sebaliknya, tujuan teknik pembelajaran penguatan (RL) adalah mempelajari cara mencapai hasil yang diinginkan meskipun tidak jelas bagaimana cara mencapai hasil tersebut. Hasilnya, RL lebih cocok untuk mengaktifkan aplikasi cerdas ketika agen dapat membuat keputusan otonom seperti robotika, kendaraan otonom, HVAC, kontrol industri, dan banyak lagi.
Tipe lingkungan apa yang dapat saya gunakan untuk melatih model RL?
Amazon SageMaker RL mendukung sejumlah lingkungan berbeda untuk melatih model RL. Anda dapat menggunakan layanan AWS seperti AWS RoboMaker, lingkungan sumber terbuka atau lingkungan khusus yang dikembangkan menggunakan antarmuka Open AI Gym, atau lingkungan simulasi komersial seperti MATLAB dan SimuLink.
Apakah saya perlu menulis algoritma agen RL saya sendiri untuk melatih model RL?
Tidak, RL SageMaker menyertakan toolkit RL seperti Coach dan Ray RLLib yang menawarkan implementasi algoritma agen RL seperti DQN, PPO, A3C, dan banyak lagi.
Bisakah saya membawa pustaka RL dan implementasi algoritma saya sendiri, lalu menjalankannya di RL SageMaker?
Ya, Anda dapat membawa pustaka RL dan implementasi algoritma Anda sendiri di Kontainer Docker, lalu menjalankannya di RL SageMaker.
Bisakah saya melakukan peluncuran terdistribusi menggunakan RL SageMaker?
Ya. Anda bahkan dapat memilih klaster heterogen tempat pelatihan dapat dijalankan pada instans GPU dan simulasi dapat dijalankan pada beberapa instans CPU.
<i>Deploy</i> model
Opsi deployment apa yang disediakan SageMaker?
Apa itu Inferensi Asinkron Amazon SageMaker?
Bagaimana cara mengonfigurasi pengaturan penskalaan otomatis untuk menurunkan skala jumlah instans menjadi nol saat tidak aktif memproses permintaan?
Anda dapat menurunkan skala jumlah instans titik akhir Inferensi Asinkron SageMaker menjadi nol untuk menghemat biaya saat Anda tidak secara aktif memproses permintaan. Anda perlu menentukan kebijakan penskalaan yang menskalakan metrik kustom "ApproximateBacklogPerInstance" dan menetapkan nilai "MinCapacity" ke nol. Untuk petunjuk langkah demi langkah, kunjungi bagian menskalakan otomatis titik akhir asinkron dalam panduan developer.
Apa itu Inferensi Nirserver Amazon SageMaker?
SageMaker Serverless Inference adalah opsi penyajian model nirserver yang dibuat khusus untuk memudahkan deployment dan penskalaan model ML. Titik akhir Inferensi Nirserver SageMaker secara otomatis memulai sumber daya komputasi dan mengurangi dan menambahkan skalanya tergantung pada lalu lintas, sehingga Anda tidak perlu memilih tipe instans, menjalankan kapasitas yang disediakan, atau mengelola penskalaan. Anda juga dapat menentukan persyaratan memori untuk titik akhir inferensi nirserver Anda. Anda hanya membayar untuk durasi menjalankan kode inferensi dan jumlah data yang diproses, bukan untuk periode idle.
Mengapa saya sebaiknya menggunakan Inferensi Nirserver SageMaker?
Apa yang dimaksud dengan Konkurensi yang Disediakan untuk Inferensi Nirserver SageMaker?
Mengapa sebaiknya saya menggunakan Konkurensi yang Tersedia?
Dengan titik akhir nirserver sesuai permintaan, jika titik akhir Anda tidak menerima lalu lintas untuk sementara waktu, lalu titik akhir Anda tiba-tiba menerima permintaan baru, titik akhir Anda mungkin memerlukan waktu untuk memutar sumber daya komputasi untuk memproses permintaan tersebut. Ini disebut cold start. Cold start juga dapat terjadi jika permintaan konkuren Anda melebihi penggunaan permintaan konkuren saat ini. Waktu cold start bergantung pada ukuran model Anda, berapa lama waktu yang diperlukan untuk mengunduh model, dan waktu mulai kontainer Anda.
Untuk mengurangi variabilitas dalam profil latensi, Anda dapat mengaktifkan Konkurensi yang Disediakan untuk titik akhir nirserver secara opsional. Dengan Konkurensi yang Disediakan, titik akhir nirserver Anda selalu siap dan dapat langsung melayani lonjakan lalu lintas, tanpa cold start.
Bagaimana perhitungan biaya Konkurensi yang Disediakan?
Seperti pada Inferensi Nirserver sesuai permintaan, saat Konkurensi yang Disediakan diaktifkan, Anda membayar kapasitas komputasi yang digunakan untuk memproses permintaan inferensi, ditagih per milidetik, dan jumlah data yang diproses. Anda juga membayar penggunaan Konkurensi yang Disediakan, berdasarkan memori yang dikonfigurasi, durasi yang disediakan, dan jumlah konkurensi yang diaktifkan. Untuk informasi selengkapnya, lihat Harga Amazon SageMaker.
Apa itu pengujian bayangan SageMaker?
Mengapa saya sebaiknya menggunakan SageMaker untuk pengujian bayangan?
Apa itu Amazon SageMaker Inference Recommender?
SageMaker Inference Recommender mengurangi waktu yang diperlukan untuk memproduksi model ML dengan mengotomatiskan tolok ukur performa dan menyesuaikan performa model di seluruh instans ML SageMaker. Anda sekarang dapat menggunakan SageMaker Inference Recommender untuk melakukan deployment model Anda ke titik akhir yang memberikan performa terbaik dan meminimalkan biaya. Anda dapat memulai dengan SageMaker Inference Recommender dalam hitungan menit sambil memilih tipe instans dan mendapatkan rekomendasi untuk konfigurasi titik akhir yang optimal dalam hitungan jam, menghilangkan waktu pengujian manual dan waktu penyesuaian selama berminggu-minggu. Dengan SageMaker Inference Recommender, Anda hanya membayar untuk instans ML SageMaker yang digunakan selama pengujian beban, dan tidak ada biaya tambahan.
Mengapa saya sebaiknya menggunakan SageMaker Inference Recommender?
Bagaimana cara kerja SageMaker Inference Recommender dengan layanan AWS lainnya?
Bisakah SageMaker Inference Recommender mendukung titik akhir multimodel atau titik akhir multikontainer?
Tidak, saat ini kami hanya mendukung satu model per titik akhir.
Tipe titik akhir apa yang didukung oleh SageMaker Inference Recommender?
Saat ini kami hanya mendukung titik akhir waktu nyata.
Bisakah saya menggunakan SageMaker Inference Recommender di satu Region dan tolok ukur di Region berbeda?
Kami mendukung semua Region yang didukung oleh Amazon SageMaker, kecuali Region AWS Tiongkok.
Apakah SageMaker Inference Recommender mendukung instans Inf1 Amazon EC2?
Ya, kami mendukung semua tipe kontainer. Amazon EC2 Inf1, berdasarkan chip AWS Inferentia, memerlukan artefak model yang dikompilasi menggunakan kompiler Neuron atau Amazon SageMaker Neo. Setelah Anda memiliki model yang dikompilasi untuk target Inferentia dan URI citra kontainer terkait, Anda dapat menggunakan SageMaker Inference Recommender untuk melakukan uji coba performa tipe instans Inferentia yang berbeda.
Apa itu Amazon SageMaker Model Monitor?
Bisakah saya mengakses infrastruktur yang dijalankan SageMaker?
Tidak. SageMaker mengoperasikan infrastruktur komputasi atas nama Anda, memungkinkannya melakukan pemeriksaan kondisi, menerapkan patch keamanan, dan melakukan perawatan rutin lainnya. Anda juga dapat melakukan deployment artefak model dari pelatihan dengan kode inferensi khusus di lingkungan hosting Anda sendiri.
Bagaimana cara menskalakan ukuran dan performa model SageMaker setelah produksi?
Hosting SageMaker secara otomatis menskalakan performa yang diperlukan untuk aplikasi Anda menggunakan Penskalaan Otomatis Aplikasi. Selain itu, Anda dapat mengubah nomor dan tipe instans secara manual tanpa menimbulkan waktu henti dengan mengubah konfigurasi titik akhir.
Bagaimana cara memantau lingkungan produksi SageMaker saya?
SageMaker memancarkan metrik performa ke Metrik Amazon CloudWatch, sehingga Anda dapat melacak metrik, mengatur alarm, dan secara otomatis bereaksi terhadap perubahan lalu lintas produksi. Selain itu, SageMaker menulis log ke Log Amazon CloudWatch agar Anda dapat memantau dan memecahkan masalah lingkungan produksi Anda.
Model seperti apa yang dapat di-host dengan SageMaker?
SageMaker dapat meng-host model apa pun yang mematuhi spesifikasi terdokumentasi untuk citra Docker inferensi. Ini termasuk model yang dibuat dari artefak model SageMaker dan kode inferensi.
Berapa banyak permintaan API waktu nyata konkuren yang didukung SageMaker?
SageMaker dirancang untuk menskalakan sejumlah besar transaksi per detik. Jumlah pastinya bervariasi berdasarkan model yang dilakukan deployment dan jumlah serta tipe instans tempat model tersebut dilakukan deployment.
Bagaimana SageMaker mendukung hosting model dan manajemen yang dikelola penuh?
Apa itu Transformasi Batch?
Transformasi Batch memungkinkan Anda menjalankan prediksi pada data batch besar atau kecil. Tidak perlu memecah set data menjadi beberapa bagian atau mengelola titik akhir waktu nyata. Dengan API sederhana, Anda dapat meminta prediksi untuk catatan data dalam jumlah besar dan mengubah data dengan cepat dan mudah.
Opsi titik akhir deployment apa yang didukung SageMaker?
Apa yang dimaksud dengan penskalaan otomatis untuk elastisitas?
Apa itu Amazon SageMaker Edge Manager?
SageMaker Edge Manager mempermudah pengoptimalan, mengamankan, memantau, dan memelihara model ML pada armada perangkat edge seperti kamera pintar, robot, komputer pribadi, dan perangkat seluler. SageMaker Edge Manager membantu developer ML mengoperasikan model ML di berbagai perangkat edge dalam skala besar.
Bagaimana cara memulai SageMaker Edge Manager?
Untuk memulai SageMaker Edge Manager, Anda perlu mengompilasi dan mengemas model ML terlatih Anda di cloud, mendaftarkan perangkat Anda, dan menyiapkan perangkat Anda dengan SageMaker Edge Manager SDK. Untuk mempersiapkan deployment model Anda, SageMaker Edge Manager menggunakan SageMaker Neo untuk mengompilasi model Anda untuk perangkat keras edge target Anda. Setelah model dikompilasi, SageMaker Edge Manager menandatangani model dengan kunci yang dihasilkan AWS, lalu mengemas model tersebut dengan runtime dan kredensial yang Anda perlukan agar siap untuk deployment. Di sisi perangkat, daftarkan perangkat Anda ke SageMaker Edge Manager, unduh SageMaker Edge Manager SDK, lalu ikuti petunjuk untuk menginstal agen SageMaker Edge Manager di perangkat Anda. Notebook tutorial memberikan contoh langkah demi langkah tentang cara Anda dapat menyiapkan model dan menghubungkan model Anda pada perangkat edge dengan SageMaker Edge Manager.
Perangkat apa saja yang didukung oleh SageMaker Edge Manager?
SageMaker Edge Manager mendukung perangkat umum berbasis CPU (ARM, x86) dan GPU (ARM, Nvidia) dengan sistem operasi Linux dan Windows. Seiring waktu, SageMaker Edge Manager akan berkembang untuk mendukung lebih banyak prosesor tertanam dan platform seluler yang juga didukung oleh SageMaker Neo.
Apakah saya perlu menggunakan SageMaker untuk melatih model saya agar dapat menggunakan SageMaker Edge Manager?
Tidak, Anda tidak perlu menggunakannya. Anda dapat melatih model Anda di tempat lain atau menggunakan model terlatih dari sumber terbuka atau dari vendor model Anda.
Apakah saya perlu menggunakan SageMaker Neo untuk mengompilasi model saya agar dapat menggunakan SageMaker Edge Manager?
Ya, Anda dapat melakukannya. SageMaker Neo mengonversi dan mengompilasi model Anda menjadi model yang dapat dieksekusi yang kemudian dapat Anda kemas dan deploy pada perangkat edge Anda. Setelah paket model dilakukan deployment, agen SageMaker Edge Manager akan membongkar paket model dan menjalankan model pada perangkat.
Bagaimana cara melakukan deployment model ke perangkat edge?
SageMaker Edge Manager menyimpan paket model di bucket Amazon S3 yang Anda tentukan. Anda dapat menggunakan fitur deployment lewat udara (OTA) yang disediakan oleh AWS IoT Greengrass atau mekanisme deployment lainnya dari pilihan Anda untuk melakukan deployment paket model dari bucket S3 Anda ke perangkat.
Apa perbedaan SageMaker Edge Manager SDK dengan runtime SageMaker Neo (dlr)?
Neo dlr adalah runtime sumber terbuka yang hanya menjalankan model yang dikompilasi oleh layanan SageMaker Neo. Dibandingkan dengan dlr sumber terbuka, SageMaker Edge Manager SDK menyertakan agen pada perangkat tingkat perusahaan dengan keamanan tambahan, manajemen model, dan fitur penyajian model. SageMaker Edge Manager SDK cocok untuk deployment produksi dalam skala besar.
Bagaimana hubungan SageMaker Edge Manager dengan AWS IoT Greengrass?
SageMaker Edge Manager dan AWS IoT Greengrass dapat bekerja sama dalam solusi IoT Anda. Setelah model ML Anda dikemas dengan SageMaker Edge Manager, Anda dapat menggunakan fitur pembaruan OTA AWS IoT Greengrass untuk melakukan deployment paket model ke perangkat Anda. AWS IoT Greengrass memungkinkan Anda memantau perangkat IoT Anda dari jarak jauh, sementara SageMaker Edge Manager membantu Anda memantau dan memelihara model ML pada perangkat.
Bagaimana hubungan SageMaker Edge Manager dengan AWS Panorama? Kapan sebaiknya saya menggunakan SageMaker Edge Manager dibandingkan dengan AWS Panorama?
AWS menawarkan kemampuan terluas dan mendalam untuk menjalankan model pada perangkat edge. Kami memiliki layanan untuk mendukung berbagai kasus penggunaan, termasuk penglihatan komputer, pengenalan suara, dan pemeliharaan prediktif.
Bagi perusahaan yang ingin menjalankan penglihatan komputer pada perangkat edge seperti kamera dan peralatan, Anda dapat menggunakan AWS Panorama. AWS Panorama menawarkan aplikasi penglihatan komputer yang siap dilakukan deployment untuk perangkat edge. Sangat mudah untuk memulai AWS Panorama dengan masuk ke konsol cloud, menentukan model yang ingin Anda gunakan di Amazon S3 atau SageMaker, lalu menulis logika bisnis sebagai skrip Python. AWS Panorama mengompilasi model untuk perangkat target dan membuat paket aplikasi, sehingga dapat dilakukan deployment ke perangkat Anda hanya dengan beberapa klik. Selain itu, vendor perangkat lunak independen yang ingin membangun aplikasi khusus mereka sendiri dapat menggunakan AWS Panorama SDK, dan produsen perangkat dapat menggunakan Device SDK untuk menyertifikasi perangkat mereka untuk AWS Panorama.
Pelanggan yang ingin membuat model mereka sendiri dan memiliki kontrol yang lebih terperinci atas fitur model dapat menggunakan SageMaker Edge Manager. SageMaker Edge Manager adalah layanan terkelola untuk mempersiapkan, menjalankan, memantau, dan memperbarui model ML di seluruh armada perangkat edge seperti kamera pintar, speaker pintar, dan robot untuk kasus penggunaan apa pun seperti pemrosesan bahasa alami, deteksi penipuan, dan pemeliharaan prediktif. SageMaker Edge Manager ditujukan untuk developer edge ML yang ingin mengontrol model mereka, termasuk merekayasa fitur model yang berbeda dan model pemantauan untuk drift. Developer edge ML mana pun dapat menggunakan SageMaker Edge Manager melalui konsol SageMaker dan API SageMaker. SageMaker Edge Manager menghadirkan kemampuan SageMaker untuk membangun, melatih, dan melakukan deployment model di cloud ke perangkat edge.
Di Region mana SageMaker Edge Manager tersedia?
SageMaker Edge Manager tersedia di enam Wilayah: AS Timur (Virginia Utara), AS Timur (Ohio), AS Barat (Oregon), UE (Irlandia), UE (Frankfurt), dan Asia Pasifik (Tokyo). Untuk detailnya, lihat daftar Layanan Regional AWS .
Apa itu Amazon SageMaker Neo?
SageMaker Neo memungkinkan model ML dilatih sekali dan dijalankan di mana saja, baik di cloud maupun di edge. SageMaker Neo secara otomatis mengoptimalkan model yang dibangun dengan kerangka kerja DL populer yang dapat digunakan untuk dilakukan deployment pada berbagai platform perangkat keras. Model yang dioptimalkan berjalan hingga 25 kali lebih cepat dan menggunakan kurang dari sepersepuluh sumber daya model ML pada umumnya.
Bagaimana cara memulai SageMaker Neo?
Untuk memulai SageMaker Neo, masuk ke konsol SageMaker, pilih model terlatih, ikuti contoh untuk mengompilasi model, dan lakukan deployment model yang dihasilkan ke platform perangkat keras target Anda.
Apa saja komponen utama SageMaker Neo?
SageMaker Neo berisi dua komponen utama: compiler dan runtime. Pertama, compiler SageMaker Neo membaca model yang diekspor oleh kerangka kerja berbeda. Ini kemudian mengubah fungsi dan operasi khusus kerangka kerja menjadi representasi perantara tanpa kerangka kerja. Selanjutnya, compiler melakukan serangkaian optimisasi. Kemudian, compiler menghasilkan kode biner untuk operasi yang dioptimalkan dan menulisnya ke pustaka objek bersama. Compiler juga menyimpan definisi model dan parameter ke dalam file terpisah. Selama eksekusi, runtime SageMaker Neo memuat artefak yang dihasilkan oleh compiler—definisi model, parameter, dan pustaka objek bersama untuk menjalankan model.
Apakah saya perlu menggunakan SageMaker untuk melatih model saya agar dapat menggunakan SageMaker Neo untuk mengonversi model?
Tidak. Anda dapat melatih model di tempat lain dan menggunakan SageMaker Neo untuk mengoptimalkannya untuk instans ML SageMaker atau perangkat yang didukung AWS IoT Greengrass.
Model mana yang didukung SageMaker Neo?
Saat ini, SageMaker Neo mendukung model DL terpopuler yang mendukung aplikasi penglihatan komputer dan model pohon keputusan terpopuler yang digunakan di SageMaker saat ini. SageMaker Neo mengoptimalkan performa model AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet, dan DenseNet yang dilatih di MXNet dan TensorFlow, serta model klasifikasi dan tebang hutan acak yang dilatih di XGBoost.
Platform perangkat keras mana yang didukung SageMaker Neo?
Anda dapat menemukan daftar instans cloud, perangkat edge, dan versi kerangka kerja yang didukung dalam dokumentasi SageMaker Neo.
Di Wilayah mana SageMaker Neo tersedia?
Untuk melihat daftar Wilayah yang didukung, lihat daftar Layanan Wilayah AWS.
Amazon SageMaker Savings Plans
Apa itu Savings Plans Amazon SageMaker?
Mengapa saya harus menggunakan Savings Plans SageMaker?
Bagaimana cara memulai SageMaker Savings Plans?
Apa perbedaan Savings Plans untuk SageMaker dari Compute Savings Plans untuk Amazon EC2?
Bagaimana cara kerja Savings Plans dengan AWS Organizations/Consolidated Billing?
Savings Plans dapat dibeli di akun apa pun dalam keluarga AWS Organization/Consolidated Billing. Secara default, keuntungan yang diberikan oleh Savings Plans berlaku untuk penggunaan di semua akun dalam keluarga AWS Organization/Consolidated Billing. Namun, Anda juga dapat memilih untuk membatasi keuntungan Savings Plans hanya pada akun yang membelinya.