Em meio à turbulência, OpenAI identifica ‘risco ao futuro da humanidade’ em IA; entenda!
Recentemente, o conselho administrativo demitiu e readmitiu o fundador da empresa, Sam Altman, no espaço de apenas alguns dias.
A OpenAI, empresa-mãe do ChatGPT, está enfrentando dias de instabilidade administrativa com as idas e vindas de seu idealizador, Sam Altman.
Como se isso já não fosse suficiente, veio a público a informação de que pouco tempo antes da demissão de Altman, que já foi readmitido, o conselho administrativo da empresa recebeu um relatório alarmante.
No documento, pesquisadores apontaram que um programa de IA chamado Q*, ou Q-Star, que está sendo desenvolvido em paralelo, poderia representar um sério risco para a estabilidade da humanidade no futuro.
No que consiste esse tal Q* e por quê ele é uma ameaça?
De acordo com a agência de notícias Reuters, que divulgou essas informações, o Q* usa amplo poder computacional para basicamente responder questões matemáticas de nível fundamental.
Em uma primeira análise, os pesquisadores que estão desenvolvendo a tecnologia ficaram animados com o fato de ela conseguir responder às questões em um tempo relativamente curto e de forma totalmente autônoma.
Contudo, o perigo que essa nova Inteligência Artificial representa não reside nessa conceitualização básica. Afinal, até mesmo simples calculadoras podem realizar operações matemáticas menos complicadas.
O que deixou os especialistas realmente alarmados é a forma com que a Q-Star responde às suas questões. Em vez de utilizar padrões de cálculo estáticos, como os códigos binários das calculadoras convencionais, a IA usa padrões únicos em cada resposta que dá.
Noutras palavras, a Q* pode dar várias respostas distintas para cada questão que é colocada à sua frente, o que abre espaço para “invenções” e até mesmo o fornecimento de dados enganosos.
Inconsistências que podem abalar o mundo
(Imagem: Freepik/reprodução)
Apesar do alarde atual, esse comportamento observado na Q-Star não é uma novidade no mundo da Inteligência Artificial.
Outros chatbots inteligentes, incluindo o próprio ChatGPT, já foram “pegos no flagra” em falhas oriundas do seu próprio método de treinamento.
Em linhas gerais, as IAs são treinadas para ser exatamente como um cérebro humano. Ou seja, elas precisam analisar as informações que lhe são repassadas para tentar identificar padrões e trabalhar em cima deles. É essa lógica que permite a nós, seres humanos, aprender e repassar conhecimento.
Entretanto, delegar tal poder de “raciocínio” a máquinas pode gerar um perigoso precedente para uma espécie de “rebelião” contra a humanidade.
Isso porque nada impede que uma Inteligência Artificial conclua, por meio de uma análise de padrões qualquer, que a humanidade é uma ameaça, ou que determinada pessoa precisa ser eliminada, por exemplo.
Pior que isso, as IAs podem ser usadas por criminosos para praticar crimes, interferir em decisões políticas e comerciais, denegrir a imagem de pessoas, etc.
Para “sujar” a imagem de determinada pessoa, basta fornecer à IA informações negativas sobre tal indivíduo. Por outro lado, chatbots como o ChatGPT podem ser instruídos de alguma forma a influenciar pessoas a aderirem a essa ou aquela vertente política.
À medida que a Inteligência Artificial avança e se espalha por todos os setores da sociedade, as preocupações em torno do seu uso ético e pacífico precisam estar no centro da discussão.
O objetivo da IA deve ser o de impulsionar a humanidade para o seu próximo nível, não ajudar criminosos ou servir como arma para desestabilizar ainda mais as relações humanas.
Comentários estão fechados.