Visão geral
Um dos principais desafios na criação de aplicativos de IA generativa é a configuração complexa da nuvem e a necessidade de uma profunda experiência em IA. O Generative AI Application Builder na AWS simplifica esse processo, ajudando você a desenvolver, testar e implantar aplicativos de IA sem amplo conhecimento de IA. Essa solução acelera o desenvolvimento de IA ao incorporar facilmente seus dados comerciais, comparar o desempenho de grandes modelos de linguagem (LLMs), executar tarefas de várias etapas por meio de agentes de IA, criar rapidamente aplicativos extensíveis e implantá-los com arquitetura de nível corporativo. O Generative AI Application Builder vem com um chatbot e uma API de IA generativa prontos para uso que podem ser rapidamente integrados aos seus processos ou aplicativos de negócios.
Essa solução inclui integrações com o Amazon Bedrock e seus LLMs, além dos LLMs implantados no Amazon SageMaker. Ele usa as ferramentas Amazon Bedrock para a geração aumentada via recuperação (Retrieval Augmented Generation, RAG) para aprimorar as respostas de IA, o Amazon Bedrock Guardrails para implementar as proteções e reduzir alucinações e os Amazon Bedrock Agents para criar fluxos de trabalho para tarefas complexas. Você também pode se conectar a outros modelos de IA usando o LangChain ou o AWS Lambda. Comece com o assistente simples, sem código, para criar aplicações de IA para pesquisa conversacional, chatbots gerados por IA, geração de texto e resumo de texto.
Benefícios
Essa solução permite que os usuários façam experimentos rapidamente, eliminando o trabalho pesado necessário para implantar várias instâncias com configurações diferentes e comparar os resultados e o desempenho. Experimente várias configurações de vários LLMs, engenharia de prompts, bases de conhecimento corporativas, barreiras de proteção, agentes de IA e outros parâmetros.
Com conectores predefinidos para uma variedade de LLMs, como modelos disponíveis por meio do Amazon Bedrock, essa solução oferece a flexibilidade de implantar o modelo de sua escolha, bem como os principais serviços de FM e da AWS de sua preferência. Você também pode permitir que os agentes do Amazon Bedrock cumpram várias tarefas e fluxos de trabalho.
Criada com os princípios de projeto do AWS Well-Architected, essa solução oferece segurança e escalabilidade em nível empresarial com alta disponibilidade e baixa latência, garantindo uma integração perfeita em suas aplicações com altos padrões de desempenho.
Estenda a funcionalidade dessa solução integrando seus projetos existentes ou conectando serviços adicionais da AWS nativamente. Como essa é uma aplicação de código aberto, você pode usar a camada de orquestração do LangChain incluída ou as funções do Lambda para se conectar a serviços de sua escolha.
Detalhes técnicos
Você pode implantar automaticamente essa arquitetura usando o guia de implementação e o modelo do AWS CloudFormation que o acompanha, e que implanta três arquiteturas separadas:
- Caso de uso do agente – o caso de uso do agente permite que os usuários entreguem tarefas para serem concluídas usando os agentes Amazon Bedrock. Você pode selecionar um modelo, escrever algumas instruções em linguagem natural e os agentes de IA da Amazon Bedrock analisarão, orquestrarão e concluirão as tarefas conectando-se às suas fontes de dados ou outras APIs para atender à sua solicitação.
- Caso de uso de texto – O Caso de uso de texto permite que os usuários experimentem uma interface de linguagem natural usando IA generativa. Esse caso de uso pode ser integrado a aplicações novas ou existentes e pode ser implantado por meio do Painel de Implantação ou de forma independente por meio de um URL fornecido.
- Painel de implantação – O Painel de implantação é uma interface de usuário da Web que serve como um console de gerenciamento para os usuários administradores visualizarem, gerenciarem e criarem seus casos de uso. Esse painel permite que os clientes experimentem, iterem e implantem aplicações de IA generativa rapidamente, usando várias configurações de LLMs e dados.
-
Caso de uso do agente
-
Caso de uso de texto
-
Painel de implantação
-
Caso de uso do agente
-
Etapa 1
Os usuários corporativos implantam o caso de uso no Painel de implantação. Os usuários corporativos entram na interface de usuário do caso de uso.
Etapa 2
O Amazon CloudFront fornece a interface de usuário da Web, que está hospedada em um bucket do Amazon Simple Storage Service (Amazon S3).
Etapa 3
A interface de usuário da Web utiliza uma integração WebSocket criada usando o Amazon API Gateway. O API Gateway tem o suporte de uma função do AWS Lambda Authorizer, que retorna a política apropriada do AWS Identity and Access Management (IAM) com base no grupo do Amazon Cognito do qual o usuário autenticador faz parte.Etapa 4
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway.Etapa 5
As soluções transferem as solicitações recebidas do usuário do API Gateway para uma fila do Amazon Simple Queue Service (Amazon SQS) e, então, para a função do Lambda. A fila permite a operação assíncrona da integração do API Gateway para a integração com o Lambda.A fila transfere as informações de conexão para a função do Lambda, que então publicará os resultados diretamente na conexão WebSocket do API Gateway para oferecer suporte a invocações de longa duração.
Etapa 6
A função do Lambda usa o Amazon DynamoDB para obter as configurações de casos de uso conforme necessário.
Etapa 7
A função do Lambda usa a entrada do usuário e as configurações de casos de uso relevantes para criar e enviar uma carga útil de solicitação aos agentes da Amazon Bedrock para cumprir a intenção do usuário.Etapa 8
Quando a resposta retorna dos agentes do Amazon Bedrock a função do Lambda a transmite de volta por meio do Websocket do API Gateway para que ela seja consumida pela aplicação do cliente.Etapa 9
Usando o Amazon CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da implantação.
-
Caso de uso de texto
-
Etapa 1
Os usuários administradores implantam o caso de uso no Painel de implantação. Os usuários corporativos fazem login na interface de usuário do caso de uso.
Etapa 2
O CloudFront fornece a IU da Web hospedada em um bucket do S3.Etapa 3
A interface de usuário da Web utiliza uma integração do WebSocket desenvolvida com o uso do API Gateway. O API Gateway tem o suporte de uma função personalizada do Lambda Authorizer, que retorna a política do IAM apropriada com base no grupo do Amazon Cognito ao qual o usuário autenticador pertence. A política é armazenada no DynamoDB.Etapa 4
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway.
Etapa 5
As solicitações recebidas do usuário corporativo são transferidas do API Gateway para uma fila do Amazon SQS e, então, para o Orquestrador do LangChain. O Orquestrador do LangChain é uma coleção de funções e camadas do Lambda que fornecem a lógica de negócios para atender a solicitações do usuário corporativo.A fila permite a operação assíncrona da integração do API Gateway com o Lambda. A fila transfere as informações de conexão para as funções do Lambda, que então publicarão os resultados diretamente na conexão WebSocket do API Gateway para oferecer suporte a chamadas de inferência de longa duração.
Etapa 6
O Orquestrador do LangChain usa o DynamoDB para obter as opções configuradas de LLMs e as informações de sessão necessárias (como o histórico de chats).Etapa 7
Se a implantação tiver uma base de conhecimento configurada, o Orquestrador do LangChain utilizará o Amazon Kendra ou o Knowledge Bases para Amazon Bedrock para executar uma consulta de pesquisa e recuperar trechos de documentos.Etapa 8
Ao usar o histórico de chat, a consulta e o contexto da base de conhecimento, o Orquestrador do LangChain cria o prompt final e envia a solicitação ao LLM hospedado no Amazon Bedrock ou no Amazon SageMaker.Etapa 9
Quando a resposta retorna do LLM, o Orquestrador do LangChain a transmite de volta por meio do WebSocket do API Gateway para que ela seja consumida pela aplicação do cliente.Etapa 10
Usando o CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da implantação. -
Painel de implantação
-
Etapa 1
Os usuários administradores fazem login na interface de usuário do Painel de implantação.Etapa 2
O CloudFront fornece a IU da Web hospedada em um bucket do S3.
Etapa 3
O AWS WAF protege as APIs contra ataques. Essa solução configura um conjunto de regras, chamado de lista de controle de acesso da Web (ACL da Web) que permite, bloqueia ou conta solicitações da Web com base em regras e condições de segurança da Web configuráveis e definidas pelo usuário.
Etapa 4
A interface de usuário da Web utiliza um conjunto de APIs REST que são expostas usando o API Gateway.
Etapa 5
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway. Uma tabela do DynamoDB armazena a política do IAM de usuários autorizados.Etapa 6
O Lambda fornece a lógica de negócios para os endpoints REST. Essa função de apoio do Lambda gerencia e cria os recursos necessários para realizar implantações de casos de uso usando o AWS CloudFormation.Etapa 7
O DynamoDB armazena a lista de implantações.Etapa 8
Quando um novo caso de uso é criado pelo usuário administrador, a função do Lambda de apoio inicia um evento de criação de pilha do CloudFormation para o caso de uso solicitado.Etapa 9
Todas as opções de configuração de LLMs fornecidas pelo usuário administrador no assistente de implantação são salvas no DynamoDB. A implantação usa essa tabela do DynamoDB para configurar o LLM de acordo com o runtime.
Etapa 10
Usando o CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da solução.
- Data de publicação
Conteúdo relacionado
A maneira mais fácil de criar e escalar aplicações de IA generativa com modelos de base.
Esta orientação demonstra como implantar um modelo de inteligência artificial (IA) generativa fornecido pelo Amazon SageMaker JumpStart para criar um endpoint assíncrono do SageMaker com a facilidade do AWS Cloud Development Kit (AWS CDK).
Esta orientação demonstra como criar uma aplicação que permite aos usuários fazer perguntas diretamente em bancos de dados relacionais usando consultas em linguagem natural (NLQ).
Aumente a produtividade, crie experiências diferenciadas e inove mais rapidamente com a AWS.
Esse estudo de caso demonstra como a empresa de transmissão Megamedia criou um chatbot com IA generativa para simplificar o acesso a informações públicas importantes usando a AWS.