ChatGPT: Criadores expõem segredo obscuro sobre ferramenta – e você PRECISA saber!
A ferramenta de Inteligência Artificial tem sido alvo de críticas de especialistas em alguns temas, por, supostamente, fornecer informações falsas.
Provavelmente você usa – ou pelo menos já ouviu falar – do ChatGPT. A ferramenta de Inteligência Artificial teve um “boom” nos últimos meses e tem sido uma “mão na roda” para tirar dúvidas ou mesmo executar trabalhos mais complexos.
No entanto, o sistema esconde um segredo obscuro – e seus criadores sabem disso. Não apenas sabem, como estão arcando com a responsabilidade a respeito dele.
De acordo com a OpenAI, empresa criadora da ferramenta, o ChatGPT sofre de “alucinações”. Ou seja, pode dar informações mentirosas em alguns momentos.
A situação foi anunciada pela companhia na última quarta-feira, 31 de maio. Além disso, já anunciaram, também, um método mais recente e mais potente para treinar a IA.
Por quê é importante corrigir este mau comportamento do ChatGPT?
A explicação básica é de que as pessoas utilizam muito a ferramenta em seu dia a dia. Portanto, é imprescindível que o ChatGPT passe informações fidedignas a quem o utiliza.
Por exemplo, se você utiliza a IA para melhorar um texto de trabalho escolar, ou para buscar receitas específicas, é imprescindível que as informações ali estejam corretas.
Mais do que isso, com o crescente número de usuários do chatbot, uma informação falsa pode ser disseminada facilmente como se fosse uma verdade.
E isso pode causar uma dor de cabeça sem tamanho no ano que vem, quando começam as Eleições dos Estados Unidos – e isso também pode respingar aqui no Brasil!
“Até mesmo os modelos de última geração têm a tendência de produzir falsidades — eles exibem uma tendência de inventar fatos em momentos de incerteza. Essas alucinações são particularmente problemáticas em domínios que exigem raciocínio de várias etapas, uma vez que um único erro lógico é suficiente para desviar uma solução muito maior”, disse a OpenAI em comunicado.
O que fazer para corrigir?
A OpenAI informou que usará uma nova estratégia para combater as “alucinações” do ChatGPT: treinar modelos de IA para se recompensarem por cada etapa correta. Ao invés de só recompensá-la no final, com a resposta completa.
“Detectar e mitigar os erros lógicos ou alucinações de um modelo é um passo crítico para a construção de uma IA geral alinhada. A motivação por trás desta pesquisa é abordar as alucinações para tornar os modelos mais capazes de resolver problemas complexos de raciocínio”, explicou Karl Cobbe, pesquisador de matemática da empresa.
Comentários estão fechados.