Bloques de capacidad de Amazon EC2 para ML

Reserve instancias de computación acelerada en Amazon EC2 UltraClusters para ejecutar sus cargas de trabajo de ML

¿Por qué elegir los bloques de capacidad de Amazon EC2 para ML?

Con los bloques de capacidad para ML de Amazon Elastic Compute Cloud (Amazon EC2), puede reservar fácilmente instancias de procesamiento acelerado para una fecha de inicio futura. Los bloques de capacidad admiten instancias P5e, P5 y P4d de Amazon EC2, con las últimas GPU NVIDIA H200 Tensor Core, NVIDIA H100 Tensor Core y NVIDIA A100 Tensor Core más recientes, respectivamente, así como instancias Trn1 con tecnología de AWS Trainium. Los bloques de capacidad de EC2 están ubicados en los UltraClusters de Amazon EC2, diseñados para cargas de trabajo de machine learning (ML) de alto rendimiento. Puede reservar instancias de computación acelerada por hasta 28 días en tamaños de clúster de una a 64 instancias (512 GPU o 1024 chips de Trainium), lo que brinda la flexibilidad de ejecutar una amplia gama de cargas de trabajo de ML. Los bloques de capacidad de EC2 se pueden reservar con hasta ocho semanas de antelación.

Beneficios

Planifique su desarrollo de ML con confianza al garantizar la capacidad disponible en el futuro para las instancias de computación acelerada.

Obtenga conectividad de red de baja latencia y alto rendimiento mediante la coubicación en UltraClusters de Amazon EC2 para un entrenamiento distribuido.

Obtenga un acceso predecible a las instancias de computación acelerada con el mayor rendimiento de Amazon EC2 para machine learning.

Casos de uso

Obtenga acceso ininterrumpido a las instancias de computación acelerada que reserve para completar el entrenamiento y el refinamiento de los modelos de ML.

Realice experimentos y cree prototipos que requieran instancias de computación acelerada durante periodos cortos.

Satisfaga sus necesidades de crecimiento al reservar la cantidad adecuada de capacidad para atender a sus clientes.

  • NVIDIA

    La demanda de computación acelerada crece exponencialmente a medida que las empresas de todo el mundo adoptan la IA generativa para remodelar sus negocios. Con los nuevos bloques de capacidad de EC2 para ML de AWS, las empresas de IA del mundo ahora pueden alquilar H100 no solo un servidor a la vez, sino a una escala dedicada, disponible de forma exclusiva en AWS, lo que les permite entrenar modelos de lenguaje de gran tamaño de forma rápida y rentable y ejecutar inferencias en la nube exactamente cuando las necesitan.

    Ian Buck, Vice President of Hyperscale and HPC Computing de NVIDIA
  • Arcee

    Arcee proporciona una plataforma de IA que permite el desarrollo y el avance de lo que denominamos SLM: modelos de lenguaje pequeños, especializados, seguros y escalables. Los bloques de capacidad de Amazon EC2 para ML son una parte importante de nuestro entorno informático de ML para el entrenamiento de los SLM en AWS, ya que nos proporcionan un acceso fiable a la capacidad de la GPU cuando la necesitamos. Esto, a su vez, significa que tanto nuestro equipo interno como nuestros clientes se benefician de la flexibilidad. Saber que podemos obtener un clúster de GPU en un par de días y sin un compromiso a largo plazo ha supuesto un punto de inflexión para nosotros.

    Mark McQuade, director ejecutivo y cofundador de Arcee
  • Amplify Partners

    Nos hemos asociado con varios fundadores que aprovechan el aprendizaje profundo y los modelos de lenguaje de gran tamaño para lanzar al mercado innovaciones revolucionarias. Creemos que el acceso predecible y oportuno a la capacidad de procesamiento de la GPU es fundamental para que los fundadores no solo puedan hacer realidad sus ideas rápidamente, sino también continuar con su visión y ofrecer un valor cada vez mayor a sus clientes. La disponibilidad de hasta 512 GPU NVIDIA H100 a través de los bloques de capacidad de EC2 supone un punto de inflexión en el entorno actual de escasez de suministro, ya que creemos que proporcionará a las startups la capacidad de procesamiento de GPU que necesitan, cuando la necesitan, sin tener que asumir compromisos de capital a largo plazo. Esperamos poder ayudar a los fundadores que trabajan con AWS a aprovechar los bloques de capacidad de GPU y su cartera líder del sector de servicios de machine learning e IA generativa.

    Mark LaRosa, socio operativo de Amplify Partners
  • Canva

    En la actualidad, Canva permite a más de 150 millones de usuarios activos al mes crear recursos visuales atractivos que se pueden publicar en cualquier lugar. Hemos estado utilizando las instancias P4de de EC2 para entrenar modelos multimodales que impulsan las nuevas herramientas de IA generativa, lo que permite a nuestros usuarios experimentar con ideas de forma rápida y libre. A medida que buscamos entrenar modelos más grandes, necesitamos la capacidad de escalar cientos de GPU de manera predecible durante nuestras sesiones de entrenamiento. Es emocionante ver a AWS lanzar los bloques de capacidad de EC2 con soporte para instancias P5. Ahora podemos obtener un acceso predecible a hasta 512 GPU NVIDIA H100 en UltraClusters de EC2 de baja latencia para entrenar modelos aún más grandes que antes.

    Greg Roodt, Head of Data Platforms de Canva
  • Dashtoon

    Dashtoon combina la IA de vanguardia con la creatividad para convertir a los narradores de historias en artistas que pueden crear cómics digitales independientemente de sus habilidades artísticas o conocimientos técnicos, lo que rompe las barreras tradicionales en la creación de contenido ilustrado. Tenemos más de 80 000 usuarios activos mensuales (MAU) que utilizan nuestra aplicación para consumir cómics, mientras que nuestros creadores generan más de 100 000 imágenes al día en Dashtoon Studio. Llevamos usando AWS desde nuestros inicios y utilizamos instancias P5 de Amazon EC2 para entrenar y ajustar modelos multimodales, incluidos Stable Diffusion XL, GroundingDINO y Segment Anything. Hemos visto que el rendimiento se ha triplicado al usar instancias P5, con GPU NVIDIA H100, en comparación con el uso de instancias P4d equivalentes, con GPU NVIDIA A100. Nuestros conjuntos de datos de entrenamiento varían en tamaño y, a medida que buscamos escalar el entrenamiento de nuestros modelos, los bloques de capacidad de Amazon EC2 para ML nos permiten adaptarnos a nuestras necesidades de GPU con plazos de entrega bajos y predecibles (al día siguiente), lo que nos ayuda a reducir el tiempo necesario para lanzar nuevas capacidades para nuestros usuarios. Nos entusiasma seguir aprovechando los bloques de capacidad de EC2 para acelerar nuestra innovación.

    Soumyadeep Mukherjee, cofundador y director de tecnología de Dashtoon
  • Leonardo.Ai

    Nuestro equipo de Leonardo aprovecha la IA generativa para permitir a los profesionales y entusiastas de la creatividad producir recursos visuales con una calidad, velocidad y consistencia de estilo incomparables. Nuestra base se apoya en un conjunto de modelos de IA perfeccionados y herramientas potentes, que ofrecen un control preciso tanto antes como después de apretar el botón de generar. Aprovechamos una amplia gama de servicios de AWS no solo para crear y entrenar nuestros modelos, sino también para alojarlos y permitir su uso por parte de millones de clientes activos al mes. Estamos encantados con el lanzamiento de los bloques de capacidad de EC2 para ML. Nos permite acceder de forma elástica a la capacidad de la GPU para entrenar y experimentar, a la vez que nos permite cambiar a diferentes instancias de EC2 que puedan cumplir mejor con nuestros requisitos de procesamiento.

    Peter Runham, director de tecnología de Leonardo.Ai
  • OctoAI

    En OctoAI, capacitamos a los creadores de aplicaciones para ejecutar, ajustar y escalar fácilmente la IA generativa mediante la optimización de la ejecución de los modelos y la utilización de automatización para escalar los servicios y reducir la carga de ingeniería. Es fundamental que podamos ampliar la capacidad de la GPU durante periodos cortos, en especial cuando trabajamos con clientes que buscan escalar rápidamente sus aplicaciones de ML de cero a millones de usuarios como parte del lanzamiento de sus productos. Los bloques de capacidad de EC2 para ML nos permiten crear clústeres de GPU de diferentes tamaños de manera predecible que se ajusten a las ampliaciones planificadas por nuestros clientes, al tiempo que ofrecen posibles ahorros de costos en comparación con la asignación de capacidad a largo plazo o la implementación en las instalaciones.

    Luis Ceze, director ejecutivo de OctoAI
  • Snorkel

    La plataforma de desarrollo de datos de IA de Snorkel ayuda a las empresas a crear y utilizar la IA rápidamente. Cada vez más, esto incluye destilar la información de los LLM con uso intensivo de computación y convertirla en modelos especializados más pequeños, lo que requiere ampliaciones de computación a corto plazo durante el desarrollo. Los bloques de capacidad de EC2 para ML tienen el potencial de ofrecer una mejora importante con respecto a las opciones existentes para adquirir capacidad de GPU. El acceso garantizado a la capacidad de GPU a corto plazo y el alto rendimiento de red de los UltraClusters de EC2 son factores fundamentales para los flujos de trabajo de desarrollo de IA que las empresas necesitan admitir hoy y en los próximos años.

    Braden Hancock, cofundador y director de tecnología de Snorkel