Presentación de Llama 3.3
Llama 3.3 es un modelo de solo texto de 70B, ajustado a instrucciones, que proporciona un rendimiento mejorado en comparación con Llama 3.1 70B y Llama 3.2 90B cuando se utiliza para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar a Llama 3.1 405B, aunque solo requiere una fracción de los recursos informáticos.
Beneficios
Conozca Llama
Durante la última década, Meta se ha centrado en poner herramientas en manos de los desarrolladores y fomentar la colaboración y los avances entre desarrolladores, investigadores y organizaciones. Los modelos Llama están disponibles en una gama de tamaños de parámetro, lo que permite a los desarrolladores seleccionar el modelo que mejor se adapte a sus necesidades y presupuesto de inferencia. Los modelos Llama en Amazon Bedrock abren un mundo de posibilidades porque los desarrolladores no tienen que preocuparse de la escalabilidad ni de administrar la infraestructura. Amazon Bedrock es una forma muy sencilla de que los desarrolladores empiecen a usar Llama.
Casos de uso
Los modelos Llama destacan en comprensión de imágenes y razonamiento visual, matices lingüísticos, comprensión contextual y tareas complejas como análisis de datos visuales, subtitulación de imágenes, generación de diálogos, traducción y generación de diálogos, y pueden gestionar tareas de varios pasos sin esfuerzo. Otros casos de uso para los que los modelos Llama son perfectos son el razonamiento y la comprensión visual sofisticados, la recuperación de imágenes y textos, la fundamentación visual, la respuesta a preguntas visuales en documentos, el resumen y la precisión de textos, la clasificación de textos, el análisis de sentimientos y el razonamiento de matices, el modelado del lenguaje, los sistemas de diálogo, la generación de código y el seguimiento de instrucciones.
Versiones de modelos
Llama 3.3 70B
Modelo 70B con instrucciones de solo texto que proporciona un rendimiento mejorado en relación con Llama 3.1 70B y Llama 3.2 90B cuando se usa para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar al Llama 3.1 405B, aunque solo requiere una fracción de los recursos informáticos.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, español y tailandés.
Compatible con ajustes de precisión: no
Casos de uso compatibles: IA conversacional diseñada para la creación de contenido, aplicaciones empresariales e investigación, que ofrece capacidades avanzadas de comprensión del lenguaje, como el resumen de textos, la clasificación, el análisis de opiniones y la generación de código. El modelo también admite la capacidad de aprovechar los resultados del modelo para mejorar otros modelos, incluida la generación y destilación de datos sintéticos.
Llama 3.2 90B
Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos, los chatbots multimodales y los sistemas autónomos.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: no
Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal, lo que permite aplicaciones avanzadas como la subtitulación de imágenes, la recuperación de imágenes y texto, la base visual, la respuesta visual a preguntas y la respuesta visual a preguntas de documentos, con una capacidad única de razonar y sacar conclusiones a partir de entradas visuales y textuales.
Llama 3.2 11B
Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos y los chatbots multimodales.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: no
Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal, que permiten aplicaciones avanzadas como la subtitulación de imágenes, la recuperación de texto de imágenes, la base visual, la respuesta visual a preguntas y la respuesta visual a preguntas de documentos.
Llama 3.2 3B
Modelo ligero de solo texto diseñado para ofrecer resultados altamente precisos y relevantes. Está diseñado para aplicaciones que requieren inferencias de baja latencia y recursos de computación limitados. Ideal para consultas y peticiones de reescritura, asistentes de escritura móviles con tecnología de inteligencia artificial y aplicaciones de servicio al cliente, especialmente en dispositivos periféricos, donde su eficiencia y baja latencia permiten una integración perfecta en varias aplicaciones, incluidos los asistentes de escritura móviles impulsados por IA y los chatbots de servicio al cliente.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: no
Casos de uso compatibles: generación avanzada de texto, resumen, análisis de opiniones, inteligencia emocional, comprensión contextual y razonamiento de sentido común.
Llama 3.2 1B
Modelo ligero de solo texto creado para ofrecer respuestas rápidas y precisas. Ideal para dispositivos periféricos y aplicaciones móviles. El modelo habilita capacidades de IA en el dispositivo a la vez que protege la privacidad del usuario y minimiza la latencia.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: no
Casos de uso compatibles: casos de uso del diálogo multilingüe, como la administración de información personal, la recuperación de conocimientos multilingües y las tareas de reescritura.
Llama 3.1 405B
Ideal para aplicaciones empresariales, investigación y desarrollo, generación de datos sintéticos y destilación de modelos. Con capacidades de inferencia optimizadas para la latencia disponibles en versión preliminar pública, este modelo ofrece un rendimiento y una escalabilidad excepcionales, lo que permite a las organizaciones acelerar sus iniciativas de IA y, al mismo tiempo, mantener resultados de alta calidad en diversos casos de uso.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes: próximamente
Casos de uso compatibles: el modelo destaca en conocimientos generales, generación de textos largos, traducción automática, comprensión contextual mejorada, razonamiento y toma de decisiones avanzados, gestión de la ambigüedad y la incertidumbre mejorados, mayor creatividad y diversidad, maniobrabilidad, matemáticas, uso de herramientas, traducción multilingüe y codificación.
Llama 3.1 70B
Ideal para la creación de contenido, la IA conversacional, la comprensión del lenguaje, el desarrollo de la investigación y las aplicaciones empresariales. Con las nuevas capacidades de inferencia optimizadas para la latencia disponibles en versión preliminar pública, este modelo establece un nuevo punto de referencia de rendimiento para las soluciones de IA que procesan entradas de texto extensas, lo que permite a las aplicaciones responder con mayor rapidez y gestionar consultas más largas de forma más eficiente.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: sí
Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas.
Llama 3.1 8B
Ideal para recursos y potencia computacionales limitados, tiempos de entrenamiento más rápidos y dispositivos de periferia.
Cantidad máxima de tokens: 128 000
Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.
Compatible con ajustes de precisión: sí
Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas.
Llama 3 70B
Ideal para la creación de contenido, la IA conversacional, la comprensión del lenguaje, el desarrollo de la investigación y las aplicaciones empresariales.
Cantidad máxima de tokens: 8000
Idiomas: inglés
Compatible con ajustes de precisión: no
Casos de uso compatibles: resumen y precisión del texto, clasificación y matiz del texto, análisis de opiniones y razonamiento matizado, modelado del lenguaje, sistemas de diálogo, generación de código y seguimiento de instrucciones.
Llama 3 8B
Ideal para recursos y potencia computacionales limitados, tiempos de entrenamiento más rápidos y dispositivos de periferia.
Cantidad máxima de tokens: 8000
Idiomas: inglés
Compatible con ajustes de precisión: no
Casos de uso compatibles: resumen de texto, clasificación de textos, análisis de opiniones y traducción de idiomas
Llama 2 70B
Modelo perfeccionado en el tamaño de parámetros de 70B. Adecuado para tareas a mayor escala, como el modelado del lenguaje, la generación de texto y los sistemas de diálogo.
Cantidad máxima de tokens: 4000
Idiomas: inglés
Compatible con ajustes de precisión: sí
Casos de uso compatibles: chat similar al de un asistente
Llama 2 13B
Modelo perfeccionado en el tamaño de parámetros de 13B. Adecuado para tareas de menor escala, como la clasificación de textos, el análisis de opiniones y la traducción de idiomas.
Cantidad máxima de tokens: 4000
Idiomas: inglés
Compatible con ajustes de precisión: sí
Casos de uso compatibles: chat similar al de un asistente
Nomura utiliza modelos Llama de Meta en Amazon Bedrock para democratizar la IA generativa
Aniruddh Singh, director ejecutivo y arquitecto empresarial de Nomura, describe el viaje de la institución financiera para democratizar la IA generativa en toda la empresa utilizando Amazon Bedrock y los modelos Llama de Meta. Amazon Bedrock proporciona acceso crítico a modelos fundacionales líderes como Llama, lo que permite una integración perfecta. Llama ofrece ventajas clave a Nomura, entre las que se incluyen una innovación más rápida, transparencia, barreras de protección contra sesgos y un rendimiento sólido en el resumen de textos, la generación de códigos, el análisis de registros y el procesamiento de documentos.
TaskUs revoluciona la experiencia del cliente utilizando modelos Llama de Meta en Amazon Bedrock
TaskUs, proveedor líder de servicios digitales externalizados y experiencia de cliente de nueva generación para las empresas más innovadoras del mundo, ayuda a sus clientes a representar, proteger y hacer crecer sus marcas. Su innovadora plataforma TaskGPT, impulsada por Amazon Bedrock y los modelos Llama de Meta, capacita a los compañeros de equipo para ofrecer un servicio excepcional. TaskUs construye herramientas sobre TaskGPT que utilizan Amazon Bedrock y Llama para el parafraseo, la generación de contenidos, la comprensión y la gestión de tareas complejas de forma rentable.