Llama de Meta en Amazon Bedrock

Construya el futuro de la IA con Llama

Presentación de Llama 3.3

Llama 3.3 es un modelo de solo texto de 70B, ajustado a instrucciones, que proporciona un rendimiento mejorado en comparación con Llama 3.1 70B y Llama 3.2 90B cuando se utiliza para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar a Llama 3.1 405B, aunque solo requiere una fracción de los recursos informáticos.

La capacitación integral de Llama 3.3 70B ofrece sólidas capacidades de comprensión y generación en diversas tareas. Este modelo admite la IA conversacional de alto rendimiento diseñada para la creación de contenido, las aplicaciones empresariales y la investigación, y ofrece capacidades avanzadas de comprensión del lenguaje, que incluyen el resumen de textos, la clasificación, el análisis de opiniones y la generación de código.

Llama 3.2 90B es el modelo más avanzado de Meta y es ideal para aplicaciones de nivel empresarial. Llama 3.2 es el primer modelo de Llama que admite tareas de procesamiento de imágenes o videos, con una nueva arquitectura de modelo que integra representaciones de codificadores de imágenes en el modelo de lenguaje. Este modelo destaca en conocimientos generales, generación de textos largos, traducción multilingüe, codificación, matemáticas y razonamiento avanzado. También introduce capacidades de razonamiento de imágenes, lo que permite una comprensión de imágenes y un razonamiento visual avanzados. Este modelo es ideal para los siguientes casos de uso: subtitulado de imágenes, recuperación de imágenes y textos, fundamentación visual, respuesta a preguntas visuales y razonamiento visual, y respuesta a preguntas visuales en documentos.

Llama 3.2 11B es ideal para la creación de contenidos, la IA conversacional, la comprensión del lenguaje y las aplicaciones empresariales que requieren razonamiento visual. El modelo demuestra un gran rendimiento en tareas de resumen de textos, análisis de sentimientos, generación de código y seguimiento de instrucciones, con la capacidad añadida de razonamiento sobre imágenes. Este modelo es ideal para los siguientes casos de uso: subtitulado de imágenes, recuperación de imágenes y textos, fundamentación visual, respuesta a preguntas visuales y razonamiento visual, y respuesta a preguntas visuales en documentos.

Llama 3.2 3B ofrece una experiencia de IA más personalizada, con procesamiento en el dispositivo. Llama 3.2 3B está diseñado para aplicaciones que requieren inferencias de baja latencia y recursos de computación limitados. Destaca por su capacidad para resumir, clasificar y traducir textos. Este modelo es ideal para los siguientes casos de uso: asistentes de escritura móviles con tecnología de IA y aplicaciones de atención al cliente.

Llama 3.2 1B es el modelo más ligero de la colección de modelos Llama 3.2 y es perfecto para la recuperación y el resumen para dispositivos periféricos y aplicaciones móviles. Habilita capacidades de IA en el dispositivo a la vez que protege la privacidad del usuario y minimiza la latencia. Este modelo es ideal para los siguientes casos de uso: gestión de información personal y recuperación de conocimientos multilingües.

Beneficios

Llama 3.2 ofrece una experiencia de IA más personalizada, con procesamiento en el dispositivo. Los modelos Llama 3.2 están diseñados para ser más eficientes, con una latencia reducida y un rendimiento mejorado, lo que los hace adecuados para una amplia gama de aplicaciones.
La longitud de contexto de 128 000 permite a Llama captar relaciones con más matices en los datos.
Los modelos de Llama se entrenan con 15 billones de tokens de orígenes de datos públicos en línea para comprender mejor las complejidades del lenguaje.
Llama 3.2 es multilingüe y admite ocho idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
La API administrada de Amazon Bedrock hace que utilizar modelos Llama sea más fácil que nunca. Organizaciones de todos los tamaños pueden acceder a la potencia de Llama sin preocuparse de la infraestructura subyacente. Dado que Amazon Bedrock no tiene servidores, no tiene que administrar ninguna infraestructura y puede integrar y desplegar de forma segura las capacidades de IA generativa de Llama en sus aplicaciones utilizando los servicios de AWS con los que ya está familiarizado. Esto significa que puede centrarse en lo que mejor sabe hacer: crear sus aplicaciones de IA.

Conozca Llama

Durante la última década, Meta se ha centrado en poner herramientas en manos de los desarrolladores y fomentar la colaboración y los avances entre desarrolladores, investigadores y organizaciones. Los modelos Llama están disponibles en una gama de tamaños de parámetro, lo que permite a los desarrolladores seleccionar el modelo que mejor se adapte a sus necesidades y presupuesto de inferencia. Los modelos Llama en Amazon Bedrock abren un mundo de posibilidades porque los desarrolladores no tienen que preocuparse de la escalabilidad ni de administrar la infraestructura. Amazon Bedrock es una forma muy sencilla de que los desarrolladores empiecen a usar Llama.

Casos de uso

Los modelos Llama destacan en comprensión de imágenes y razonamiento visual, matices lingüísticos, comprensión contextual y tareas complejas como análisis de datos visuales, subtitulación de imágenes, generación de diálogos, traducción y generación de diálogos, y pueden gestionar tareas de varios pasos sin esfuerzo. Otros casos de uso para los que los modelos Llama son perfectos son el razonamiento y la comprensión visual sofisticados, la recuperación de imágenes y textos, la fundamentación visual, la respuesta a preguntas visuales en documentos, el resumen y la precisión de textos, la clasificación de textos, el análisis de sentimientos y el razonamiento de matices, el modelado del lenguaje, los sistemas de diálogo, la generación de código y el seguimiento de instrucciones.

Versiones de modelos

Llama 3.3 70B

Modelo 70B con instrucciones de solo texto que proporciona un rendimiento mejorado en relación con Llama 3.1 70B y Llama 3.2 90B cuando se usa para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar al Llama 3.1 405B, aunque solo requiere una fracción de los recursos informáticos.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, español y tailandés.

Compatible con ajustes de precisión: no

Casos de uso compatibles: IA conversacional diseñada para la creación de contenido, aplicaciones empresariales e investigación, que ofrece capacidades avanzadas de comprensión del lenguaje, como el resumen de textos, la clasificación, el análisis de opiniones y la generación de código. El modelo también admite la capacidad de aprovechar los resultados del modelo para mejorar otros modelos, incluida la generación y destilación de datos sintéticos.

Llama 3.2 90B

Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos, los chatbots multimodales y los sistemas autónomos.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: no

Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal, lo que permite aplicaciones avanzadas como la subtitulación de imágenes, la recuperación de imágenes y texto, la base visual, la respuesta visual a preguntas y la respuesta visual a preguntas de documentos, con una capacidad única de razonar y sacar conclusiones a partir de entradas visuales y textuales.

Lea el blog

Llama 3.2 11B

Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos y los chatbots multimodales.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: no

Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal, que permiten aplicaciones avanzadas como la subtitulación de imágenes, la recuperación de texto de imágenes, la base visual, la respuesta visual a preguntas y la respuesta visual a preguntas de documentos.

Lea el blog

Llama 3.2 3B

Modelo ligero de solo texto diseñado para ofrecer resultados altamente precisos y relevantes. Está diseñado para aplicaciones que requieren inferencias de baja latencia y recursos de computación limitados. Ideal para consultas y peticiones de reescritura, asistentes de escritura móviles con tecnología de inteligencia artificial y aplicaciones de servicio al cliente, especialmente en dispositivos periféricos, donde su eficiencia y baja latencia permiten una integración perfecta en varias aplicaciones, incluidos los asistentes de escritura móviles impulsados por IA y los chatbots de servicio al cliente.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: no

Casos de uso compatibles: generación avanzada de texto, resumen, análisis de opiniones, inteligencia emocional, comprensión contextual y razonamiento de sentido común.

Lea el blog

Llama 3.2 1B

Modelo ligero de solo texto creado para ofrecer respuestas rápidas y precisas. Ideal para dispositivos periféricos y aplicaciones móviles. El modelo habilita capacidades de IA en el dispositivo a la vez que protege la privacidad del usuario y minimiza la latencia.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: no

Casos de uso compatibles: casos de uso del diálogo multilingüe, como la administración de información personal, la recuperación de conocimientos multilingües y las tareas de reescritura.

Leer el blog

Llama 3.1 405B

Ideal para aplicaciones empresariales, investigación y desarrollo, generación de datos sintéticos y destilación de modelos. Con capacidades de inferencia optimizadas para la latencia disponibles en versión preliminar pública, este modelo ofrece un rendimiento y una escalabilidad excepcionales, lo que permite a las organizaciones acelerar sus iniciativas de IA y, al mismo tiempo, mantener resultados de alta calidad en diversos casos de uso.

Cantidad máxima de tokens
: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes: próximamente

Casos de uso compatibles: el modelo destaca en conocimientos generales, generación de textos largos, traducción automática, comprensión contextual mejorada, razonamiento y toma de decisiones avanzados, gestión de la ambigüedad y la incertidumbre mejorados, mayor creatividad y diversidad, maniobrabilidad, matemáticas, uso de herramientas, traducción multilingüe y codificación.

Leer el blog

Llama 3.1 70B

Ideal para la creación de contenido, la IA conversacional, la comprensión del lenguaje, el desarrollo de la investigación y las aplicaciones empresariales. Con las nuevas capacidades de inferencia optimizadas para la latencia disponibles en versión preliminar pública, este modelo establece un nuevo punto de referencia de rendimiento para las soluciones de IA que procesan entradas de texto extensas, lo que permite a las aplicaciones responder con mayor rapidez y gestionar consultas más largas de forma más eficiente.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: sí

Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas.

Leer el blog

Llama 3.1 8B

Ideal para recursos y potencia computacionales limitados, tiempos de entrenamiento más rápidos y dispositivos de periferia.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

Compatible con ajustes de precisión: sí

Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas.

Leer el blog

Llama 3 70B

Ideal para la creación de contenido, la IA conversacional, la comprensión del lenguaje, el desarrollo de la investigación y las aplicaciones empresariales. 

Cantidad máxima de tokens: 8000

Idiomas: inglés

Compatible con ajustes de precisión: no

Casos de uso compatibles: resumen y precisión del texto, clasificación y matiz del texto, análisis de opiniones y razonamiento matizado, modelado del lenguaje, sistemas de diálogo, generación de código y seguimiento de instrucciones.

Leer el blog

Llama 3 8B

Ideal para recursos y potencia computacionales limitados, tiempos de entrenamiento más rápidos y dispositivos de periferia.

Cantidad máxima de tokens: 8000

Idiomas: inglés

Compatible con ajustes de precisión: no

Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas

Leer el blog

Llama 2 70B

Modelo perfeccionado en el tamaño de parámetros de 70B. Adecuado para tareas a mayor escala, como el modelado del lenguaje, la generación de texto y los sistemas de diálogo.

Cantidad máxima de tokens: 4000

Idiomas: inglés

Compatible con ajustes de precisión: sí

Casos de uso compatibles: chat similar al de un asistente

Leer el blog

Llama 2 13B

Modelo perfeccionado en el tamaño de parámetros de 13B. Adecuado para tareas de menor escala, como la clasificación de textos, el análisis de opiniones y la traducción de idiomas.

Cantidad máxima de tokens: 4000

Idiomas: inglés

Compatible con ajustes de precisión: sí

Casos de uso compatibles: chat similar al de un asistente

Leer el blog

Nomura utiliza modelos Llama de Meta en Amazon Bedrock para democratizar la IA generativa

 

Aniruddh Singh, director ejecutivo y arquitecto empresarial de Nomura, describe el viaje de la institución financiera para democratizar la IA generativa en toda la empresa utilizando Amazon Bedrock y los modelos Llama de Meta. Amazon Bedrock proporciona acceso crítico a modelos fundacionales líderes como Llama, lo que permite una integración perfecta. Llama ofrece ventajas clave a Nomura, entre las que se incluyen una innovación más rápida, transparencia, barreras de protección contra sesgos y un rendimiento sólido en el resumen de textos, la generación de códigos, el análisis de registros y el procesamiento de documentos. 

TaskUs revoluciona la experiencia del cliente utilizando modelos Llama de Meta en Amazon Bedrock

TaskUs, proveedor líder de servicios digitales externalizados y experiencia de cliente de nueva generación para las empresas más innovadoras del mundo, ayuda a sus clientes a representar, proteger y hacer crecer sus marcas. Su innovadora plataforma TaskGPT, impulsada por Amazon Bedrock y los modelos Llama de Meta, capacita a los compañeros de equipo para ofrecer un servicio excepcional. TaskUs construye herramientas sobre TaskGPT que utilizan Amazon Bedrock y Llama para el parafraseo, la generación de contenidos, la comprensión y la gestión de tareas complejas de forma rentable.