Información general
QnABot en AWS es una solución de inteligencia artificial (IA) generativa que responde a las consultas de los clientes en varios idiomas y plataformas, lo que permite mantener conversaciones a través del chat, la voz, los SMS y Amazon Alexa. Este asistente versátil ayuda a las organizaciones a mejorar el servicio al cliente mediante respuestas instantáneas y consistentes en una variedad de canales de comunicación sin necesidad de codificación.
Beneficios
Ofrece tutoriales personalizados y facilita el modelo de preguntas y respuestas con una interacción inteligente multiparte. Importe y exporte fácilmente las preguntas desde su configuración de QnABot.
Use las capacidades de procesamiento de lenguaje natural (NLP) de Amazon Kendra para comprender mejor las preguntas humanas. Cree aplicaciones conversacionales con Amazon Bedrock, un servicio administrado que ofrece modelos básicos de alto rendimiento.
Automatice los flujos de trabajo de atención al cliente. Ahorre en costos y atienda mejor a sus clientes para que puedan obtener respuestas precisas y ayuda rápidamente.
Utilice la concordancia de intenciones y espacios para diversos flujos de trabajo de preguntas y respuestas. Aproveche la comprensión del lenguaje natural, la gestión del contexto y los diálogos de varios turnos a través de modelos de lenguaje grandes (LLM) y generación aumentada por recuperación (RAG).
Detalles técnicos
Puede implementar automáticamente esta arquitectura con la guía de implementación y la plantilla apropiada de AWS CloudFormation. Si desea llevar a cabo la implementación mediante una VPC, primero implemente una VPC con dos subredes privadas y dos públicas distribuidas en dos zonas de disponibilidad y, a continuación, utilice la plantilla de AWS CloudFormation de QnABot para VPC. De lo contrario, utilice la plantilla principal de AWS CloudFormation de QnABot.
Paso 1
El administrador implementa la solución en la cuenta de AWS, abre la interfaz de usuario (IU) del diseñador de contenido o el cliente web Amazon Lex y utiliza Amazon Cognito para autenticarse.
Paso 2
Tras la autenticación, Amazon API Gateway y Amazon Simple Storage Service (Amazon S3) entregan el contenido de la interfaz de usuario del diseñador de contenidos.
Paso 3
El administrador configura las preguntas y respuestas en el diseñador de contenidos y la interfaz de usuario envía solicitudes a API Gateway para guardar las preguntas y respuestas.
Paso 4
La función de AWS Lambda del diseñador de contenidos guarda la entrada en Amazon OpenSearch Service en un índice de banco de preguntas. Si se utilizan incrustaciones de texto, estas solicitudes pasan por LLM alojados en Amazon SageMaker o Amazon Bedrock para generar incrustaciones antes de guardarse en el banco de preguntas de OpenSearch Service.
Además, el diseñador de contenido guarda los ajustes de configuración predeterminados y personalizados en la base de datos de Amazon Dynamo.
Paso 5
Los usuarios del asistente interactúan con Amazon Lex a través de la interfaz de usuario del cliente web, de Amazon Alexa o Amazon Connect.
Paso 6
Amazon Lex reenvía las solicitudes a la función de Lambda Bot Fulfillment. Los usuarios también pueden enviar solicitudes a esta función de Lambda a través de dispositivos con Amazon Alexa.
NOTA: cuando la transmisión está habilitada, el cliente de chat usa el identificador de sesión de Amazon Lex (sessionID) para establecer conexiones WebSocket a través de API Gateway V2.
Paso 7
La información del usuario y del chat se almacena en DynamoDB para eliminar la ambigüedad de las preguntas de seguimiento del contexto anterior de preguntas y respuestas.
Paso 8
La función deLambda Bot fulfillment usa Amazon Comprehend y, si es necesario, Amazon Translate para traducir las solicitudes en un idioma no nativo al idioma nativo seleccionado por el usuario durante el despliegue. A continuación, la función consulta al servicio OpenSearch para obtener la respuesta adecuada.
Paso 9
Si utiliza capacidades de modelos de lenguaje gran tamaño (LLM), como la generación de texto y la incrustación de texto, estas solicitudes pasarán primero por varios modelos fundamentales alojados en Amazon Bedrock. Esto generará la consulta de búsqueda y las incrustaciones, que luego se compararán con las guardadas en el banco de preguntas del servicio OpenSearch.
Paso 9A
Si las barreras de protección de preprocesamiento están habilitadas, escanean y bloquean las entradas de usuario potencialmente dañinas antes de que lleguen a la aplicación QnABot. Esto actúa como la primera línea de defensa para evitar que se procesen consultas malintencionadas o inapropiadas.
Paso 9B
Si utiliza Amazon Bedrock como barrera de protección para LLM o Amazon Bedrock Knowledge Bases, puede aplicar controles de protección y seguridad contextuales durante la inferencia del LLM para garantizar la generación de respuestas adecuadas.
Paso 9C
Si las barreras de protección de posprocesamiento están habilitadas, escanean, enmascaran o bloquean el contenido potencialmente dañino en las respuestas finales antes de enviarlas al cliente a través de Lambdade cumplimiento. Esto constituye la última línea de defensa para garantizar que la información confidencial, como la información de identificación personal (PII), esté debidamente enmascarada y que se bloquee el contenido inapropiado.
Paso 10
Si el banco de preguntas o los pasajes de texto del servicio OpenSearch no devuelven ninguna coincidencia, la función de LambdaBot fulfillment reenvía la solicitud de la siguiente manera:
Paso 10A
Si un índice de Amazon Kendra está configurado como opción alternativa, la función de Lambda Bot Fulfillment reenvía la solicitud a Amazon Kendra si el banco de preguntas del servicio OpenSearch no devuelve ninguna coincidencia. Opcionalmente, el LLM de generación de texto puede utilizarse para crear la consulta de búsqueda y sintetizar una respuesta a partir de los extractos de documentos devueltos.
Paso 10B
Si se configura un ID de Amazon BedrockKnowledge Base, la función de Lambda Bot Fulfillment reenvía la solicitud a Amazon BedrockKnowledge Base. La función de LambdaBot Fulfillment usa las API RetrieveAndGenerate o RetrieveAndGenerateStream para obtener los resultados relevantes de una consulta de usuario, aumentar la petición del modelo fundamental y devolver la respuesta.
Paso 11
Cuando la transmisión está habilitada, las respuestas de LLM de pasajes de texto u origen de datos externo se mejoran mediante la generación aumentada de recuperación (RAG). Las respuestas se transmiten a través de conexiones WebSocket con el mismo ID de sesión de Amazon Lex, mientras que la respuesta final se procesa mediante la función de cumplimiento de Lambda.
Paso 12
Las interacciones de los usuarios con la función Bot Fulfillment se registran y los datos de las métricas resultantes se envían a Amazon Data Firehose y, a continuación, se reenvían a Amazon S3 para su posterior análisis.
Paso 13
Los paneles de OpenSearch se pueden usar para ver una variedad de análisis, incluido el historial de uso, las expresiones registradas, las expresiones sin resultados, los comentarios positivos de los usuarios, los comentarios negativos de los usuarios, y la posibilidad de crear informes personalizados.
Paso 14
Con Amazon CloudWatch, los administradores pueden supervisar los registros de servicio y utilizar el panel de CloudWatch creado por QnABot para supervisar el estado operativo del despliegue.
Contenido relacionado
- Fecha de publicación