Líderes da OpenAI comentam sobre a necessidade de um órgão regulador para a I.A.
Criadora do ChatGPT, a OpenAI acrescentou diversos detalhes sobre como poderá ser a governança da superinteligência nos próximos anos.
A inteligência artificial é a ferramenta do momento. Com sua rápida evolução, recordes foram batidos em pouco tempo com o fenomenal ChatGPT. Porém, os seus líderes acreditam ser preciso um órgão regulador internacional, semelhante ao que governa a energia nuclear. Existe uma forte preocupação sobre o uso malicioso da ferramenta para criar desinformações e deepfakes.
Em uma publicação no blog da empresa, o fundador da OpenAI Sam Altman, o presidente Greg Brockman e o cientista-chefe Ilya Sutskever se juntaram e derem mais detalhes sobre o que pode ser feito.
O que diz a publicação no blog da OpenAI?
O pessoal que lidera a OpenAI acredita que agora é o melhor momento para refletir sobre a denominada “governança da superinteligência”. A empresa acredita fortemente que a superinteligência — os sistemas de IA nos próximos 10 anos — será muito mais poderosa do que outras tecnologias com as quais a humanidade já lidou.
É dito que podemos ter um futuro dramaticamente mais próspero, mas que é preciso saber administrar os riscos para chegar lá. Os autores comentam que, “dada a possibilidade de risco existencial, não podemos ser apenas reativos. A energia nuclear é um exemplo histórico comumente usado de uma tecnologia com essa propriedade; a biologia sintética é outro exemplo.”
Finaliza os seus primeiros trechos afirmando que devemos mitigar os riscos da tecnologia de IA de hoje, mas que a superinteligência exigirá tratamento e coordenações especiais.
Prossegue, falando sobre essa relação de uma necessidade de um órgão regulador, assim como a já existente Agência Internacional de Energia Atômica, da Organização das Nações Unidas, a ONU.
“Precisamos de algum grau de coordenação entre os principais esforços de desenvolvimento para garantir que o desenvolvimento da superinteligência ocorra de maneira que nos permita manter a segurança e ajudar na integração suave desses sistemas com a sociedade.”
“É provável que eventualmente precisemos de algo como uma [Agência Internacional de Energia Atômica] para esforços de superinteligência; qualquer esforço acima de um determinado limite de capacidade (ou recursos como computação) precisará estar sujeito a uma autoridade internacional que pode inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança, etc”.
Empresa enxerga a contribuição pública como importante no processo
É dito que a governança de sistemas poderosas devem acompanhar uma supervisão pública. É acredito que as pessoas ao redor do mundo devem ter o poder de decidir democraticamente sobre quais serão os limites e padrões dos sistemas de I.A. A empresa ressalta que não sabem ainda como projetar tal mecanismo, mas que o seu desenvolvimento está em planejamento.
Por fim, é ressaltado que é arriscado impedir a criação de uma superinteligência. É destacada suas vantagens e que o número de atores que as constroem está aumentando com rapidez e é inerentemente parte do caminho tecnológico. A empresa pede que as medida tem que ser certeira.
Para acessar a publicação original, clique aqui.
Comentários estão fechados.