¿Por qué elegir las instancias P5 de Amazon EC2?
Las instancias P5 de Amazon Elastic Compute Cloud (Amazon EC2), impulsadas por las GPU NVIDIA H100 Tensor Core, y las instancias P5e y P5en, impulsadas por las GPU NVIDIA H200 Tensor Core, ofrecen el máximo rendimiento en Amazon EC2 para aplicaciones de aprendizaje profundo (DL) y computación de alto rendimiento (HPC). Le ayudan a acelerar el tiempo de creación de soluciones hasta cuatro veces, en comparación con las instancias de EC2 basadas en GPU de la generación anterior, y a reducir los costos de entrenamiento de ML hasta un 40 %. Las instancias P5 le ayudan a iterar sus soluciones a un ritmo más rápido y a lanzarlas al mercado con mayor rapidez. Puede usar las instancias P5, P5e y P5en para entrenar e implementar modelos de lenguaje grande (LLM) y modelos de difusión cada vez más complejos que impulsan las aplicaciones de inteligencia artificial (IA) generativa más exigentes. Estas aplicaciones incluyen la respuesta a preguntas, la generación de código, la generación de video e imágenes y el reconocimiento de voz. También puede usar las instancias para implementar aplicaciones de HPC exigentes a escala en el descubrimiento farmacéutico, el análisis sísmico, la previsión meteorológica y la modelización financiera.
Para ofrecer estas mejoras de rendimiento y ahorro de costos, las instancias P5 y P5e complementan las GPU NVIDIA H100 y H200 Tensor Core con un rendimiento de la CPU 2 veces superior, 2 veces más memoria del sistema y 4 veces más almacenamiento local en comparación con las instancias basadas en GPU de la generación anterior. Las instancias P5en combinan las GPU NVIDIA H200 Tensor Core con la CPU Intel Sapphire Rapids de alto rendimiento, lo que permite utilizar Gen5 PCIe entre la CPU y la GPU. Las instancias P5en proporcionan hasta 4 veces más ancho de banda entre la CPU y la GPU y reducen la latencia de red en comparación con las instancias P5e y P5, lo que mejora el rendimiento del entrenamiento distribuido. La compatibilidad con las instancias P5 y P5e proporciona hasta 3200 Gbps de red mediante el adaptador Elastic Fabric Adapter (EFA) de segunda generación. Las instancias P5en, con la tercera generación de EFA que utiliza Nitro v5, muestran una mejora de la latencia de hasta un 35 % en comparación con las instancias P5, que utilizan la generación anterior de EFA y Nitro. Esto ayuda a mejorar el rendimiento de las comunicaciones colectivas para cargas de trabajo de entrenamiento distribuido, como el aprendizaje profundo, la IA generativa, el procesamiento de datos en tiempo real y las aplicaciones de computación de alto rendimiento (HPC). Para ofrecer procesamiento a gran escala con baja latencia, estas instancias se implementan en Amazon EC2 UltraClusters, que permiten escalar hasta 20 000 GPU H100 o H200 interconectadas con una red sin bloqueos a escala de petabits. Las instancias P5, P5e y P5en en UltraClusters de EC2 pueden ofrecer hasta 20 exaflops de capacidad de cálculo agregada, un rendimiento equivalente al de una supercomputadora.
Instancias P5 de Amazon EC2
Beneficios
Características
Testimonios de clientes
Estos son algunos ejemplos de cómo los clientes y socios lograron sus objetivos empresariales con las instancias P4 de Amazon EC2.
-
Anthropic
Anthropic crea sistemas de IA confiables, interpretables y dirigibles que tendrán muchas oportunidades de crear valor de manera comercial y beneficiar al público.
En Anthropic, estamos trabajando para crear sistemas de IA confiables, interpretables y dirigibles. Si bien los grandes sistemas generales de IA actuales pueden tener beneficios significativos, también pueden ser impredecibles, poco confiables y opacos. Nuestro objetivo es avanzar en estos temas e implementar sistemas que las personas consideren útiles. Nuestra organización es una de las pocas en el mundo que está creando modelos fundamentales para la investigación del aprendizaje profundo. Estos modelos son muy complejos y, para desarrollar y entrenar estos modelos de vanguardia, necesitamos distribuirlos de manera eficiente en grandes clústeres de GPU. En la actualidad, utilizamos ampliamente las instancias P4 de Amazon EC2 y nos entusiasma el lanzamiento de las instancias P5. Esperamos que ofrezcan beneficios sustanciales en relación con la relación precio-rendimiento en comparación con las instancias P4d, y que estén disponibles a la escala masiva necesaria para crear LLM de próxima generación y productos relacionados.
Tom Brown, Cofounder, Anthropic -
Cohere
Cohere, uno de los principales pioneros en IA lingüística, permite a todos los desarrolladores y empresas crear productos increíbles con la tecnología de procesamiento de lenguaje natural (NLP) líder en el mundo y, al mismo tiempo, mantener sus datos privados y seguros
Cohere es líder a la hora de ayudar a todas las empresas a aprovechar el poder de la IA lingüística para explorar, generar, buscar y actuar en función de la información de una manera natural e intuitiva, ya que permite implementarla en múltiples plataformas de nube en el entorno de datos que mejor funcione para cada cliente. Las instancias P5 de Amazon EC2 con tecnología de NVIDIA H100 darán rienda suelta a la capacidad de las empresas para crear, crecer y escalar más rápido con su potencia de computación combinada con las capacidades de IA generativa y LLM de última generación de Cohere.
Aidan Gomez, CEO, Cohere -
Hugging Face
Hugging Face tiene la misión de democratizar el buen ML.
Como la comunidad de código abierto de ML de más rápido crecimiento, ahora ofrecemos más de 150 000 modelos previamente entrenados y 25 000 conjuntos de datos en nuestra plataforma para NLP, visión artificial, biología, aprendizaje por refuerzo, etc. Con avances significativos en LLM e IA generativa, estamos trabajando con AWS para crear y contribuir a los modelos de código abierto del mañana. Esperamos poder utilizar las instancias P5 de Amazon EC2 a través de Amazon SageMaker a escala en UltraClusters con EFA para acelerar la entrega de nuevos modelos básicos de IA para todos.
Julien Chaumond, CTO y Cofounder, Hugging Face
Detalles del producto
Tamaño de la instancia | vCPU | Memoria de la instancia (TiB) | GPU | Memoria de GPU | Ancho de banda de la red (Gbps) | GPUDirect RDMA | GPU de pares | Almacenamiento de la instancia (TB) | Ancho de banda de EBS (Gbps) |
---|---|---|---|---|---|---|---|---|---|
p5.48xlarge | 192 | 2 | 8 H100 | 640 GB HBM3 |
3200 Gbps EFA | Sí | 900 GB/s NVSwitch | 8 x 3,84 SSD NVMe | 80 |
p5e.48xlarge | 192 | 2 | 8 H200 | 1128 GB HBM3e |
3200 Gbps de EFA | Sí | 900 GB/s NVSwitch | 8 x 3,84 SSD NVMe | 80 |
p5en.48xlarge | 192 | 2 | 8 H200 | 1128 GB HBM3e | 3200 Gbps de EFA | Sí | 900 GB/s NVSwitch | 8 x 3,84 SSD NVMe | 100 |
Introducción a los casos de uso de ML
Introducción a los casos de uso de HPC
Las instancias P5, P5e y P5en son una plataforma ideal para ejecutar simulaciones de ingeniería, finanza computacional, análisis sísmico, modelado molecular, genómica, representaciones y otras cargas de trabajo de HPC con GPU. Con frecuencia, las aplicaciones de HPC exigen un alto nivel de rendimiento de red, almacenamiento ágil, gran capacidad de memoria, capacidades informáticas altas o todas estas características juntas. Estos tres tipos de instancia son compatibles con EFA, que permite que las aplicaciones de HPC que utilizan Message Passing Interface (MPI) escalen a miles de GPU. AWS Batch y AWS ParallelCluster ayudan a los desarrolladores de HPC a crear y escalar rápidamente aplicaciones de HPC distribuidas.
Más información