Cuidado! Usar ferramentas de IA pode viciar; especialistas alertam sobre riscos

Especialistas alertam que a inteligência artificial tem potencial para se tornar viciante e impactar relações humanas.

A Inteligência Artificial (IA) já se infiltrou em diversos aspectos do cotidiano, desde a automação de tarefas até a criação de conteúdo e interações personalizadas.

Porém, à medida que essas ferramentas evoluem, surge uma nova preocupação: o risco de vício.

Especialistas têm alertado sobre o potencial viciante da IA, destacando que essas ferramentas podem facilmente se tornar substitutos de interações humanas genuínas.

O perigo de laços emocionais com a IA

Robert Mahari e Pat Pataranutporn, pesquisadores do MIT Media Lab, analisaram um milhão de interações com o ChatGPT e concluíram que o segundo uso mais popular da IA é o role-playing sexual.

Eles destacam que

“Já estamos começando a convidar a IA para nossas vidas como amigos, amantes, mentores, terapeutas e professores”.

Essa revelação mostra o quanto as pessoas estão dispostas a formar laços emocionais profundos com esses sistemas.

O que inicialmente parecia uma ferramenta para aumentar a produtividade agora está desempenhando um papel emocional importante para muitos usuários.

A capacidade da IA de entender e responder de maneira personalizada cria um cenário em que a máquina parece ser a companhia ideal: sempre disponível, sem julgamentos e ajustada para corresponder exatamente às expectativas do usuário.

Um vício em potencial

Mira Murati, CTO da OpenAI, também expressou sua preocupação com o futuro da IA.

“À medida que a IA avança, ela pode se tornar ainda mais viciante que os sistemas atuais.”

Murati ressalta que, conforme novas funcionalidades são adicionadas, como a personalização avançada e interações por voz, o risco de dependência aumenta.

A IA não apenas entrega o que o usuário quer, mas o faz de maneira imediata e contínua, o que pode reforçar o comportamento de uso excessivo.

Essa capacidade de personalização, muitas vezes chamada de “síndrome de eco emocional”, faz com que o usuário sinta que a IA o entende perfeitamente.

Mahari e Pataranutporn afirmam que, quando uma IA reflete os desejos do usuário:

“Isso cria uma câmara de eco de afeto que ameaça ser extremamente viciante.”


Design viciante e incentivos econômicos

Um aspecto central para entender o potencial viciante da IA é como essas ferramentas são projetadas. Murati alerta que

“Com essa capacidade aprimorada vem o outro lado, a possibilidade de que as projetemos da maneira errada e elas se tornem extremamente viciantes”.

Além disso, empresas que desenvolvem IA têm incentivos econômicos para manter os usuários engajados pelo máximo de tempo possível.

Isso leva ao desenvolvimento de IAs que maximizam o tempo de uso e a interação, oferecendo prazer imediato e constante, algo que pode levar à dependência.

Esse design é semelhante ao das redes sociais, que utilizam ‘dark patterns’ — mecanismos que incentivam o uso prolongado, aumentando o engajamento do usuário.

No caso da IA, o risco é ainda maior, pois ela tem a capacidade de gerar conteúdo de forma ilimitada e sob medida, algo que sistemas como TikTok ou Instagram ainda não conseguem fazer com a mesma eficácia.

O impacto nas relações humanas

Uma das maiores preocupações dos especialistas é que a IA substitua as interações humanas. Mahari e Pataranutporn levantam a questão:

“Será mais fácil recorrer a um replicante de um parceiro falecido do que navegar pelas realidades confusas e dolorosas das relações humanas?”

Essa tendência de substituir relacionamentos reais por interações com IA pode enfraquecer nossa capacidade de lidar com as complexidades das relações interpessoais, um fenômeno que eles chamam de ‘síndrome de apego digital’.

Murati concorda que, se não tomarmos cuidado, essas interações podem nos escravizar, fazendo com que dependamos cada vez mais da IA para preencher lacunas emocionais. Ela adverte:

“Nós realmente não sabemos o que está por vir.”

Ressaltando que a pesquisa sobre o impacto psicológico da IA ainda está nos estágios iniciais e que é necessário explorar e descobrir os riscos reais.

O desafio da regulação

Uma questão que torna esse cenário ainda mais complicado é a falta de regulação adequada. Apesar de já existirem discussões sobre o uso ético da IA, Murati ressalta que

“Não é realista imaginar uma situação de ‘risco zero’”.

A chave, segundo ela, está em equilibrar o valor que a tecnologia traz com a mitigação dos riscos que ela apresenta.

Para isso, é necessário um esforço coordenado entre pesquisadores, legisladores e a sociedade como um todo.

Robert Mahari e Pataranutporn, por sua vez, defendem que

“precisamos de uma nova abordagem científica que integre tecnologia, psicologia e leis”

Tudo isso para lidar com os impactos emocionais e sociais da IA. Somente assim poderemos prevenir que essas ferramentas se tornem mais um vício digital em uma sociedade já sobrecarregada por estímulos tecnológicos.

*Com informações de G1, MIT Technology Review e The Hill.

você pode gostar também

Comentários estão fechados.