ChatGPT criminoso? IA tem FACILITADO a aplicação de golpes; saiba como

Com o surgimento e popularização da Inteligência Artificial da OpenAI, criminosos têm tido mais sucesso para aplicar alguns tipos de golpe. Entenda!

A história nos ensina que os criminosos têm uma tendência a adotar rapidamente novas tecnologias, e a Inteligência Artificial (IA) não está fora desse padrão.

Um exemplo notável disso remonta a 1989, quando a Forbes revelou como ladrões estavam utilizando PCs convencionais e impressoras a laser para forjar cheques de alta qualidade, enganando bancos que, na época, ainda não haviam implementado medidas eficazes para detectar falsificações.

(Imagem: divulgação)

O uso da IA generativa por parte de criminosos apresenta uma ampla gama de possibilidades preocupantes, apesar de não ser apenas uma problemática exclusiva do ChatGPT.

Por exemplo, se você é uma pessoa ativa nas redes sociais, eles podem treinar um modelo de IA para imitar o seu estilo de escrita.

Em seguida, podem usar essa IA para enviar mensagens de texto aos seus avós, alegando que você está em apuros e precisa urgentemente de dinheiro para resolver uma situação crítica.

ChatGPT facilita criações criminosas

Esse cenário alarmante tem se tornado cada vez mais comum à medida que as ferramentas de IA para escrita, representação de voz e manipulação de vídeo avançam rapidamente em termos de qualidade, acessibilidade e custo.

No passado, a criação de vídeos deepfake de alta qualidade exigia centenas ou até milhares de imagens de referência.

Atualmente, é possível alcançar resultados semelhantes com somente algumas fotos, conforme observado por Rick Song, cofundador e CEO da Persona, uma empresa especializada em prevenção de fraudes.

O que é ainda mais preocupante é os criminosos estarem agora acessando ferramentas prontas para uso, muitas delas com nomes como “FraudGPT” e “WormGPT”.

Tais tecnologias se baseiam em modelos generativos de IA desenvolvidos por grandes empresas de tecnologia.

Assim, permitem que os fraudadores criem conteúdo enganador com relativa facilidade, isso amplia a escala e a sofisticação das ameaças relacionadas à IA nas fraudes financeiras.

À medida que a tecnologia continua a evoluir, a resposta a tais ameaças também deve ser ágil e adaptável, envolvendo não apenas medidas de segurança cibernética avançadas, mas também regulamentações sólidas para proteger as pessoas e as instituições contra abusos dessa natureza.

você pode gostar também

Comentários estão fechados.