Cientistas afirmam que inteligência artificial superinteligente será incontrolável
IA superinteligente tem se mostrado uma preocupação para programadores, já que ela pode se tornar indomável em certo momento.
Sistemas superinteligentes já estão sendo criados e divulgados em todo o globo devido à corrida tecnológica. Por esse motivo, surgem algumas dúvidas: é possível controlar a inteligência artificial até que ponto? Quanto estamos prontos para combater uma IA que atua para além da capacidade humana? O quão ético é criar um programa cujas consequências e impactos ainda não podem ser medidos? Veja agora mais informações sobre esses questionamentos feitos por cientistas.
Leia mais: 7 aplicações de inteligência artificial: algumas já substituem o trabalho humano
Inteligência artificial com superinteligência
Parece enredo de filmes de ficção científica, mas a verdade é que uma inteligência artificial pode, sim, criar autonomia para aprender comandos que mais tarde podem se voltar contra humanos. Não é garantido, por exemplo, que elas seguirão regras como “não cause danos à humanidade”, uma vez que elas irão ser programadas para ter autonomia e podem burlar os limites impostos por programadores.
Problema da parada de Alan Turing
Denominado “problema da parada”, este problema dá duas alternativas para um comando feito a um computador: ou ele vai chegar a uma conclusão e responderá à ela parando, ou ela irá continuar em loop tentando achar uma solução – até encontrá-la. Por esse motivo, é impossível saber se a inteligência artificial irá parar, ou se ela irá encontrar e armazenar todas as conclusões possíveis em sua memória.
O problema disso é que não é possível medir, depois de um tempo, qual a solução ou alternativa que a máquina irá tomar para um determinado problema. Dessa forma, seu comportamento será imprevisível e será inútil criar um algoritmo de contenção.
Divergências entre opiniões de cientistas
Alguns cientistas afirmam que todo o avanço da tecnologia deve ser criado para promover o bem comum de maneira segura e controlada. Dessa forma, uma supermáquina capaz de armazenar todo e qualquer tipo de inteligência, com ineficientes poderes de contenção e capacidade de destruição ainda não mensurada, parece algo perigoso.
Pensando nisso, pesquisadores da computação afirmam que máquinas superinteligentes podem ter malefícios que superam os benefícios, e sua construção deve ser evitada. Muitos programadores constantemente lidam com o fato de que suas máquinas aprenderam a fazer coisas que eles nunca ensinaram ou criaram comandos para que elas aprendessem – e isso, a depender do que elas aprenderem, pode simbolizar um risco.
Questões éticas
Limitar as capacidades da superinteligência pode ser uma alternativa viável. Para isso, é possível cortá-la de partes da internet ou de certas redes. Esses seriam exemplos de mecanismos de contenção. Porém, ainda não se sabe se essas alternativas são viáveis – ou se a máquina teria acesso a esses conteúdos de alguma maneira ainda não desvendada.
Por isso, caso a humanidade continue avançando com a inteligência artificial, é preciso ter bastante cuidado com até que ponto ela deve ser autônoma.
Comentários estão fechados.