Toda a inteligência artificial generativa atual tem potencial para alucinar, o que é um dos principais problemas da tecnologia. O Google, na tentativa de minimizar o problema, criou DataGemma, uma IA capaz de corrigir a própria IA.
Anunciada nesta quinta-feira (12), a ferramenta é composta por modelos treinados exclusivamente em dados contidos no Data Commonsbanco de dados aberto mantido pelo Google. Porém, diferentemente do conteúdo que circula na internet, as informações da plataforma estão ancoradas em sites de instituições reconhecidas.
O DataGemma atua nas respostas do modelo do Google de duas maneiras: RIG (Geração Intercalada de Recuperação) e RAG (Geração Aumentada de Recuperação).
O Google criou uma IA para corrigir erros e alucinações da própria IA.Fonte: GettyImages
No primeiro método, RIG, DataGemma gera um “rascunho” da resposta e depois compara o resultado com o conteúdo presente no Data Commonscorrigindo tudo que pode ser ajustado com a base de dados pública.
No RAG, é o caminho oposto: primeiro, o modelo verifica se a resposta à pergunta do usuário está contida no Data Commonsgerando uma resposta a partir desses dados. Essa alternativa reduz a possibilidade de alucinações, segundo o Google.
“Nosso objetivo é usar o Data Commons para melhorar o raciocínio dos LLMs (grandes modelos de linguagem), apoiando-os com dados estatísticos do mundo real que podem ser rastreados na origem”, disse o diretor de Data Commons do Google, Prem Ramaswami. O resultado disso é uma IA “mais confiável”, segundo ele.
Atualmente, o DataGemma está disponível exclusivamente para pesquisadores, e existe a possibilidade de que o acesso seja ampliado no futuro. Se tudo correr bem, a solução poderá ser crucial para a implementação de modelos generativos no motor de busca do Google.
Solução também tem defeitos
Obviamente, DataGemma não é perfeito. O O primeiro problema com esta solução é a limitação de dados do Data Commons — se a informação não estiver contida na plataforma, não há como o modelo verificar sua veracidade. Infelizmente, isso acontece em vários cenários.
A ferramenta poderia verificar a consistência dos dados científicos, tais como dados económicos de um determinado país, mas não pude garantir que a data de lançamento do último sucesso de Taylor Swift esteja correta.
De acordo com o Google, o DataGemma não conseguiu extrair informações relevantes em 75% de casos experimentais. Além disso, mesmo que o conteúdo exista no banco de dados, o modelo não conseguiu alcançá-lo para formular uma resposta correta.
Além disso, o DataGemma também comete erros. Os pesquisadores perceberam que o modelo entregava respostas erradas entre 6% e 20% das tentativas ao utilizar o método RAG. O RIG, por sua vez, foi mais eficiente, permitindo que a IA extraísse dados 58% do tempo.
O O princípio DataGemma é o mesmo dos modelos generativos comerciais: quanto maior o banco de dados disponível, mais precisa tende a ser a IA. Portanto, com maior treinamento e refinamentos no modelo, a ferramenta tende a se tornar mais precisa e eficiente na correção das respostas.
De qualquer forma, a solução ainda está longe de ser perfeita e não resolve o problema das alucinações provenientes de IAs generativas, mostrando, mais uma vez, que chatbots não acertam 100% das vezes.
empréstimo consignado descontado em folha de pagamento
zap empréstimo
simular empréstimo fgts bradesco
empréstimo auxílio brasil 2023
limite para empréstimo consignado
nova margem consignavel
empréstimo em belo horizonte