A voz sintética do ChatGPT é tão convincente que a OpenAI percebeu o risco de gerar apego emocional. Em um artigo, o empresa revelou que a tecnologia acaba persuadindo o usuário a criar vínculos com ela.
As observações sobre o vínculo afetivo foram descritas no tópico “Antropomorfização e dependência emocional” do artigo Cartão do Sistema GPT-4o.
No texto, é mencionado que os usuários escolhidos em um estudo inicial utilizaram um tipo de linguagem que indicou a criação de conexões emocionais com o modelo. A pessoa costumava usar expressões mais íntimas, como “este é o nosso último dia juntos”, durante as interações com a modelo.
A OpenAI observou que a voz sintética do ChatGPT aumenta a chance do usuário criar um vínculo emocional com o modelo.Fonte: GettyImages
A OpenAI acredita que essas ocorrências foram benignas e não representam necessariamente um perigomas motivou a empresa a investigar mais a fundo os efeitos da ferramenta durante longos períodos de uso.
Para a empresa de Sam Altman, o A preocupação é o impacto nas relações humanas reais. “Os usuários podem criar um relacionamento social com inteligência artificial, reduzindo sua necessidade de interação humana. Essa consequência pode ser benéfica para indivíduos solitários, mas pode afetar relacionamentos saudáveis”, explicou a empresa.
“Interações extensas com o modelo podem influenciar as normas sociais. Por exemplo, nossos modelos são respeitosos, permitindo que o usuário interrompa e ‘assuma o controle do microfone’ a qualquer momento, o que é esperado para uma IA, mas isso não é natural nas interações humanas” , explica OpenAI.
No final da seção, a empresa afirma que estudará mais a fundo o potencial de apego emocional nos modelos e como uma integração mais íntima dos sistemas pode moldar o comportamento humano.
Outros riscos da antropomorfização
Ao atribuir características humanas a um modelo de inteligência artificial, o vocêo usuário tende a confiar mais nas respostas do chatbot – e isso é um problema considerando o seu potencial para alucinações.
Ter uma voz extremamente convincente pode aumentar a tendência dos usuários acreditarem que a modelo fala a verdade, como acontece nos diálogos entre as pessoas. Essa consequência pode aumentar a disseminação de informações falsas.
Outro risco ligado à tecnologia é que os seus bloqueios sejam contornados, apresentando assim respostas perigosas. Assim como acontece com os textos, o modelo pode ser enganado e gerar interações indesejadas, talvez até ofendendo o usuário ou entregando dados falsos propositalmente.
empréstimo consignado descontado em folha de pagamento
zap empréstimo
simular empréstimo fgts bradesco
empréstimo auxílio brasil 2023
limite para empréstimo consignado
nova margem consignavel
empréstimo em belo horizonte