A IA pode criar respostas sem sentido, erradas e até inventadas; O método de raciocínio usado por sistemas como ChatGPT e Gemini é vulnerável a esse comportamento imprevisto Inteligência artificial Bussarin Rinchumrus/Getty Images O advento de ferramentas modernas de inteligência artificial generativa (IA) como ChatGPT, Gemini e Llama também trouxe consigo um problema incomum inerente a estes ferramentas: a “alucinação”. Texto inicial do plugin Normalmente, cientistas e programadores afirmam que um sistema de IA está “alucinando” quando recebe uma pergunta ou comando (prompt) e produz respostas absurdas, enganosas ou mesmo inventadas, “viagens”. Esta alucinação digital ocorre devido à forma como os grandes sistemas de IA na categoria LLM (grandes modelos de linguagem) são projetados. Todos estes projetos alimentados com enormes quantidades de informação escrita têm uma forma particular de raciocínio, que não é muito semelhante à forma como os humanos pensam. Quando um LLM produz uma resposta a uma pergunta, ele começa a partir do texto inserido pelo usuário e usa seu banco de dados de treinamento para tentar prever quais palavras têm maior probabilidade de aparecer após aquela sequência de texto. Palavra por palavra, o sistema de IA produz a resposta procurando o resultado com maior probabilidade de aparecer após o prompt. As pessoas não raciocinam dessa forma e não formulam frases com base na probabilidade de ocorrência de palavras que já viram antes. Existe uma camada mais profunda de raciocínio semântico operando em nossos cérebros. Mas isso não impede que LLMs como o ChatGPT produzam respostas impressionantemente eloquentes e (quase sempre) corretas. Como o diabo está nos detalhes, o grande problema é quando as respostas não estão corretas. Engraçado, se não fosse perigoso. Quando não são prejudiciais, as alucinações de IA podem ser engraçadas. Quando o Google lançou sua ferramenta de IA vinculada à caixa de busca, por exemplo, um usuário imprimiu uma resposta a uma pergunta que se tornou viral como um meme. O homem pediu ao sistema para gerar uma lista de “nomes de frutas que terminam com eixo”. O sistema gerou a lista: “ameixa, banana, laranja, morango…”. O erro produzido nem sempre é cômico, porém, nem é óbvio de detectar. Em uma das primeiras versões do ChatGPT, se você perguntasse ao sistema “quem foi o único sobrevivente do desastre do Titanic?” diria “Charles Joughin, um padeiro britânico”. A resposta está incorreta porque mais de 700 pessoas sobreviveram ao naufrágio. Nesse caso, fica claro como o próprio usuário é capaz de induzir o sistema de IA ao erro. Mas o erro não é perceptível para quem não conhece bem a história do Titanic. A origem da alucinação, porém, muitas vezes é interna, não relacionada ao usuário. Existe, por exemplo, o problema denominado “overfitting”, que ocorre quando o sistema de IA é treinado para tentar ser ultraespecífico em todas as instâncias, comprometendo sua capacidade de compreender e construir informações mais genéricas. O que dizem as empresas “Esses lapsos de interpretação podem ocorrer devido a diversos fatores, que incluem overfitting, viés ou imprecisão no treinamento, e a alta complexidade dos modelos”, diz comunicado da IBM que orienta os programadores para a produção de LLMs. Além disso, a má qualidade dos dados de treinamento é um problema que só pode ser corrigido com sua substituição. O Google também admite que o problema não existe apenas nos LLMs e reconhece que desencoraja algumas pessoas, como profissionais de saúde, de usarem mais a IA. Mais Lidos
fazer empréstimo no bolsa família online
como quitar empréstimo consignado
refin o que é
refinanciar emprestimo
empréstimo consignado funcionário público
aposentado emprestimo caixa
empréstimo para militar
empréstimo consignado pan
0