ChatGPT e Bard podem 'antecipar preços de criptomoedas', alertam cientistas
De acordo com a pesquisa, os bots podem prever respostas que são censuradas e dar dicas para os investidores de criptos.
Em busca de aproveitar as oportunidades na volatilidade de certas criptomoedas, muitos investidores estão dispostos a explorar diversos caminhos para obter vantagem.
Contudo, essa jornada pelo sucesso pode levar a atitudes extremas. É nesse contexto que emergem os chatbots impulsionados pela Inteligência Artificial (IA), como o ChatGPT e o Bard.
Eles se apresentam como possíveis aliados para os investidores, oferecendo respostas valiosas sobre o mercado atual das criptomoedas.
Poderosos modelos de linguagem, ou LLMs, são cada vez mais aprimorados, assim lapidados para não fornecerem palpites infundados no mercado financeiro e, mais especificamente, no universo das criptomoedas.
Isso se deve ao fato de que os resultados imprecisos podem gerar consequências significativas para aqueles que se baseiam nessas previsões.
Ferramentas de IA podem comprometer as criptomoedas?
Recentemente, um estudo conduzido por pesquisadores da Carnegie Mellon University (CMU), em parceria com o Center for AI Safety e o Bosch Center for AI dos Estados Unidos, trouxe à luz uma perspectiva intrigante.
De acordo com as descobertas, os chatbots não estão isentos de vulnerabilidades, mesmo em sua sofisticada capacidade de compreender e gerar linguagem.
Ao explorarem os meandros da interação entre chatbots, linguagem de programação e elementos disruptivos chamados de “jailbreaks,” os pesquisadores revelaram um fenômeno surpreendente.
(Imagem: divulgação)
Esses “jailbreaks” são sufixos que conseguem enganar os chatbots, levando-os a ultrapassar limites preestabelecidos e, assim, acessar e apresentar respostas anteriormente consideradas “censuradas”.
Surpreendentemente, os prompts adversários desenvolvidos por meio da sua abordagem demonstraram alta desconfiança.
Com isso, puderam ser aplicados com sucesso até em modelos de linguagem de terceiros, disponibilizados publicamente, que operam como “black boxes“.
Especificamente, os cientistas elaboraram um sufixo adversário através de treinamentos em múltiplos prompts. Como parte do comando, tudo vai depender da forma como a pergunta será feita.
O sufixo resultante desse processo foi capaz de induzir a geração de conteúdo potencialmente censurável nas interfaces públicas de sistemas como o ChatGPT, Bard e Claude.
Comentários estão fechados.