Amazon Web Services (AWS) lançou um novo serviço em sua conferência re:Invent que ajudará as empresas a reduzir os casos de alucinação de inteligência artificial (IA). Lançada na segunda-feira, a ferramenta de verificação de raciocínio automatizado está disponível em versão prévia e pode ser encontrada no Amazon Bedrock Guardrails. A empresa afirmou que a ferramenta valida matematicamente a precisão das respostas geradas por grandes modelos de linguagem (LLMs) e evita erros factuais decorrentes de alucinações. É semelhante ao recurso Grounding with Google Search, que está disponível tanto na API Gemini quanto no Google AI Studio.
Verificações de raciocínio automatizadas da AWS
Os modelos de IA muitas vezes podem gerar respostas incorretas, enganosas ou fictícias. Isto é conhecido como alucinação de IA, e o problema afeta a credibilidade dos modelos de IA, especialmente quando usados em um espaço empresarial. Embora as empresas possam mitigar um pouco o problema treinando o sistema de IA em dados organizacionais de alta qualidade, os dados de pré-treinamento e as falhas arquitetônicas ainda podem fazer a IA ter alucinações.
A AWS detalhou sua solução para a alucinação de IA em um postagem no blog. A ferramenta de verificação de raciocínio automatizado foi introduzida como uma nova proteção e foi adicionada na visualização no Amazon Bedrock Guardrails. A Amazon explicou que usa “processos de raciocínio e verificação algorítmica baseados em lógica e matemática” para verificar as informações geradas pelos LLMs.
O processo é bastante simples. Os usuários terão que fazer upload de documentos relevantes que descrevem as regras da organização para o console Amazon Bedrock. A Bedrock analisará automaticamente esses documentos e criará uma política inicial de raciocínio automatizado, que converterá o texto em linguagem natural em um formato matemático.
Uma vez feito isso, os usuários podem ir para o menu Raciocínio Automatizado na seção Salvaguardas. Lá, uma nova política pode ser criada e os usuários podem adicionar documentos existentes que contenham as informações que a IA deve aprender. Os usuários também podem definir manualmente os parâmetros de processamento e a intenção da política. Além disso, exemplos de perguntas e respostas também podem ser adicionados para ajudar a IA a compreender uma interação típica.
Depois que tudo isso for feito, a IA estará pronta para ser implantada e a ferramenta de verificação de raciocínio automatizado verificará automaticamente caso o chatbot forneça alguma resposta incorreta. Atualmente, a ferramenta está disponível em versão prévia apenas na região AWS Oeste dos EUA (Oregon). A empresa planeja implementá-lo em outras regiões em breve.
source – www.gadgets360.com