Grandes modelos de linguagem tornaram-se extremamente poderosos hoje; eles podem ajudar a fornecer respostas para algumas de nossas perguntas mais difíceis. Mas também podem nos desencaminhar: tendem a ter alucinações, o que significa que dão respostas que parecem certas, mas não são.
Aqui, veremos três métodos para impedir que LLMs tenham alucinações: geração aumentada de recuperação (RAG), raciocínio e consulta iterativa.
Com
Uma vez recuperados os documentos relevantes, a consulta, juntamente com esses documentos, é usada pelo LLM para resumir uma resposta para o usuário. Dessa forma, o modelo não precisa depender apenas de seu conhecimento interno, mas pode acessar quaisquer dados que você fornecer no momento certo. De certa forma, fornece ao LLM uma “memória de longo prazo” que ele não possui por si só. O modelo pode fornecer respostas mais precisas e contextualmente apropriadas ao incluir dados proprietários armazenados no banco de dados vetorial.
Uma abordagem RAG alternativa incorpora a verificação de fatos. O LLM é solicitado a fornecer uma resposta, que é então verificada e revisada em relação aos dados do banco de dados vetorial. Uma resposta à consulta é produzida a partir do banco de dados vetorial e, em seguida, o LLM, por sua vez, usa essa resposta como um prompt para discernir se ela está relacionada a um fato.
LLMs são muito bons em muitas coisas. Eles podem prever a próxima palavra de uma frase, graças aos avanços nos “transformadores”, que transformam a forma como as máquinas entendem a linguagem humana, prestando vários graus de atenção a diferentes partes dos dados de entrada. LLMs também são bons para resumir muitas informações em uma resposta muito concisa e encontrar e extrair algo que você procura de uma grande quantidade de texto. Surpreendentemente, o LLMS também pode planejar – eles podem literalmente coletar dados e planejar uma viagem para você.
E talvez ainda mais surpreendente, os LLMs podem usar o raciocínio para produzir uma resposta, de uma forma quase humana. Como as pessoas podem raciocinar, elas não precisam de toneladas de dados para fazer previsões ou tomar decisões. O raciocínio também ajuda os LLMs a evitar alucinações. Um exemplo disso é “
Este método ajuda os modelos a dividir problemas de múltiplas etapas em etapas intermediárias. Com a solicitação de cadeia de pensamento, os LLMs podem resolver problemas de raciocínio complexos que os métodos de solicitação padrão não conseguem (para uma análise aprofundada, confira a postagem do blog
Se você der a um LLM um problema matemático complicado, ele pode errar. Mas se você fornecer ao LLM o problema, bem como o método para resolvê-lo, ele poderá produzir uma resposta precisa – e compartilhar a razão por trás da resposta. Um banco de dados vetorial é uma parte fundamental deste método, pois fornece exemplos de perguntas semelhantes a esta e preenche o prompt com o exemplo.
Melhor ainda, depois de ter a pergunta e a resposta, você pode armazená-las novamente no banco de dados vetorial para melhorar ainda mais a precisão e a utilidade de seus aplicativos generativos de IA.
Há uma série de outros avanços de raciocínio que você pode aprender, incluindo
O terceiro método para ajudar a reduzir as alucinações do LLM é a consulta interativa. Nesse caso, um agente de IA medeia chamadas que vão e voltam entre um LLM e um banco de dados vetorial. Isso pode acontecer várias vezes de forma iterativa, para chegar à melhor resposta. Um exemplo desta geração de recuperação ativa voltada para o futuro, também conhecida como FLARE.
Você responde a uma pergunta e consulta sua base de conhecimento para obter mais perguntas semelhantes. Você receberia uma série de perguntas semelhantes. Em seguida, você consulta o banco de dados vetorial com todas as perguntas, resume a resposta e verifica se a resposta parece boa e razoável. Caso contrário, repita as etapas até que isso aconteça.
Outros métodos avançados de consulta interativa incluem
Existem muitas ferramentas que podem ajudá-lo na orquestração de agentes.
Outra ferramenta desse tipo é
A empresa utiliza uma ampla variedade de dados estruturados e não estruturados para fornecer respostas geradas por IA a perguntas como “Quantos residentes estão atualmente no Medicare?” O CEO da SkyPoint, Tisson Mathew, me contou recentemente. Isto ajuda os prestadores de cuidados de saúde a tomar decisões informadas rapidamente, com base em dados precisos, disse ele.
Chegar a esse ponto, no entanto, foi um processo, disse Mathew. Sua equipe começou pegando um LLM padrão e ajustando-o com dados do SkyPoint. “Ele teve resultados desastrosos – até palavras aleatórias”, disse ele. Compreender e criar prompts era algo que o SkyPoint conseguia lidar, mas precisava de uma pilha de tecnologia de IA para gerar respostas precisas em grande escala.
A SkyPoint acabou construindo um sistema que ingeria dados estruturados de operadoras e provedores, incluindo registros eletrônicos de saúde e dados de folha de pagamento, por exemplo. Isto é armazenado em um banco de dados colunar; RAG é usado para consultá-lo. Dados não estruturados, como políticas e procedimentos e regulamentações estaduais, são armazenados em um banco de dados vetorial:
Tisson fez uma pergunta como exemplo: E se um residente se tornar abusivo? O Astra DB fornece uma resposta que é montada com base nas regulamentações estaduais e no contexto dos usuários e em uma variedade de diferentes documentos e
“Essas são respostas específicas que precisam estar certas”, disse Tisson. “Essas são informações nas quais uma organização se baseia para tomar decisões informadas para sua comunidade e seus negócios.”
SkyPoint AI ilustra a importância de mitigar o risco de alucinações de IA; as consequências poderiam ser potencialmente terríveis sem os métodos e ferramentas disponíveis para garantir respostas precisas.
Com o RAG, o raciocínio e as abordagens de consulta iterativa, como o FLARE, a IA generativa – especialmente quando alimentada por dados proprietários – está a tornar-se uma ferramenta cada vez mais poderosa para ajudar as empresas a servir os seus clientes de forma eficiente e eficaz.
Por Alan Ho, DataStax
Saiba mais sobre como o DataStax ajuda você
Também publicado aqui .