AWS での Apache MXNet

すばやくトレーニングしてどこででも実行できる、機械学習アプリケーションを構築

Apache MXNet on AWS は、高速でスケーラブルなトレーニングおよび推論フレームワークで、機械学習用の使いやすく簡潔な API が付属しています。

MXNet に含まれている Gluon インターフェイスにより、デベロッパーは、自身のスキルレベルにかかわらず、クラウド、エッジデバイス、モバイルアプリでの深層学習を開始できます。数行の Gluon コードで、オブジェクト検出、音声認識、レコメンデーション、パーソナライズといった用途の直線回帰、畳み込みネットワーク、リカレント LSTM を構築できます。

完全マネージド型の MxNet エクスペリエンスで、規模に合わせて機械学習を構築、トレーニング、デプロイできるプラットフォームである、Amazon SageMaker の使用を今すぐ開始できます。別の方法として、AWS Deep Learning AMI を MxNet および他のフレームワーク (TensorFlow、PyTorch、Chainer、Keras、Caffe、Caffe2、Microsoft Cognitive Toolkit など) と共に使用して、カスタム環境とワークフローを構築できます。

Apache MXNet プロジェクトに貢献する

GitHub プロジェクトページで、サンプルコード、ノートブック、チュートリアルのコンテンツを入手します。

MXNet を使用した深層学習の利点

Gluon による使いやすさ

MXNet の Gluon ライブラリは、トレーニングのスピードを犠牲にすることなく深層学習モデルのプロトタイプの作成、トレーニング、デプロイを簡単に行うことが可能な、ハイレベルなインターフェイスを提供します。Gluon では、定義済みレイヤー、損失関数、オプティマイザ用のハイレベルな抽象化が提供されています。また、構造は柔軟なため直感的に作業でき、デバッグも容易です。

さらに優れたパフォーマンス

深層学習ワークロードは複数の GPU に線形に近いスケーラビリティで分散させることができます。つまり、非常に巨大なプロジェクトを短い時間で処理できます。さらに、スケーリングはクラスター内の GPU 数に応じて自動的に実行されます。また、開発者はサーバーレスかつバッチベースの推測を実行することで、時間を節約して生産性を向上させることができます。

IoT およびエッジ向け

クラウド内での複数 GPU トレーニングおよび複雑なモデルのデプロイに加えて、MXNet では Raspberry Pi、スマートフォン、ラップトップなどマシンパワーの低いエッジデバイスで実行でき、リモートでデータのリアルタイム処理が可能な、軽量なニューラルネットワークモデル表現も生成されます。

柔軟性と選択肢

MXNet では、C++、JavaScript、Python、R、Matlab、Julia、Scala、Clojure、Perl といったプログラミング言語が幅広くサポートされているため、自分のすでに知っている言語で開始することができます。ただし、バックエンドではすべてのコードが C++ にコンパイルされるため、モデル構築に使用された言語にかかわりなく最大限のパフォーマンスを発揮できます。

お客様のモメンタム

Cimpress
logo beeva horizontal1

導入事例

MXNet プロジェクトには、Amazon、NVIDIA、Intel、Samsung、Microsoft の開発者を含め、500 を超えるコントリビューターが存在します。お客様がどのように MXNet を深層学習プロジェクトに利用しているかご覧ください。他のケーススタディについては、AWS 機械学習ブログMXNet ブログをご覧ください。

Amazon SageMaker を機械学習で使用する

Amazon SageMaker の詳細

Amazon SageMaker は、開発者やデータサイエンティストが機械学習モデルをあらゆる規模で、短期間で簡単に構築、トレーニング、デプロイできるようにする完全マネージド型サービスです。Amazon SageMaker を使用すると、通常、開発者による機械学習の足手まといになるような障壁をすべて取り除きます。

ご不明な点がおありですか?
お問い合わせ