Avec les instances Amazon EC2, Amazon SageMaker et les bibliothèques PyTorch.
Pour atteindre des déploiements à l’échelle de production en utilisant les bibliothèques PyTorch.
À l’aide des services de machine learning (ML) AWS entièrement gérés ou autogérés.
Utilisez les systèmes DDP (Distributed Data Parallel) de PyTorch pour entraîner de grands modèles de langage avec des milliards de paramètres.
Mettez l'inférence à l'échelle à l'aide de SageMaker et des instances Amazon EC2 Inf1 pour répondre à vos exigences en matière de latence, de débit et de coût.
Utilisez les bibliothèques multimodales de PyTorch pour créer des modèles personnalisés pour des cas d'utilisation tels que la reconnaissance de l'écriture manuscrite en temps réel.