ChatGPT criminoso? IA tem FACILITADO a aplicação de golpes; saiba como
Com o surgimento e popularização da Inteligência Artificial da OpenAI, criminosos têm tido mais sucesso para aplicar alguns tipos de golpe. Entenda!
A história nos ensina que os criminosos têm uma tendência a adotar rapidamente novas tecnologias, e a Inteligência Artificial (IA) não está fora desse padrão.
Um exemplo notável disso remonta a 1989, quando a Forbes revelou como ladrões estavam utilizando PCs convencionais e impressoras a laser para forjar cheques de alta qualidade, enganando bancos que, na época, ainda não haviam implementado medidas eficazes para detectar falsificações.
(Imagem: divulgação)
O uso da IA generativa por parte de criminosos apresenta uma ampla gama de possibilidades preocupantes, apesar de não ser apenas uma problemática exclusiva do ChatGPT.
Por exemplo, se você é uma pessoa ativa nas redes sociais, eles podem treinar um modelo de IA para imitar o seu estilo de escrita.
Em seguida, podem usar essa IA para enviar mensagens de texto aos seus avós, alegando que você está em apuros e precisa urgentemente de dinheiro para resolver uma situação crítica.
ChatGPT facilita criações criminosas
Esse cenário alarmante tem se tornado cada vez mais comum à medida que as ferramentas de IA para escrita, representação de voz e manipulação de vídeo avançam rapidamente em termos de qualidade, acessibilidade e custo.
No passado, a criação de vídeos deepfake de alta qualidade exigia centenas ou até milhares de imagens de referência.
Atualmente, é possível alcançar resultados semelhantes com somente algumas fotos, conforme observado por Rick Song, cofundador e CEO da Persona, uma empresa especializada em prevenção de fraudes.
O que é ainda mais preocupante é os criminosos estarem agora acessando ferramentas prontas para uso, muitas delas com nomes como “FraudGPT” e “WormGPT”.
Tais tecnologias se baseiam em modelos generativos de IA desenvolvidos por grandes empresas de tecnologia.
Assim, permitem que os fraudadores criem conteúdo enganador com relativa facilidade, isso amplia a escala e a sofisticação das ameaças relacionadas à IA nas fraudes financeiras.
À medida que a tecnologia continua a evoluir, a resposta a tais ameaças também deve ser ágil e adaptável, envolvendo não apenas medidas de segurança cibernética avançadas, mas também regulamentações sólidas para proteger as pessoas e as instituições contra abusos dessa natureza.
Comentários estão fechados.