Avançando com ética: Google, Microsoft e OpenAI se unem para o futuro da IA
Após pedidos de Joe Biden e do Congresso dos EUA, empresas têm se organizado para desenvolver uma Inteligência Artificial responsável.
As principais empresas de Inteligência Artificial (IA) dos Estados Unidos, Google, Microsoft e OpenAI, estão avançando significativamente em direção ao desenvolvimento responsável da tecnologia.
Em resposta a um chamado da Casa Branca, essas corporações estão se comprometendo voluntariamente a adotar salvaguardas essenciais em suas soluções de IA.
A gestão do presidente Biden enfatizou fortemente a importância de garantir que as empresas de IA desenvolvam sua tecnologia com ética, visando beneficiar a sociedade sem comprometer a segurança, os direitos individuais ou os valores democráticos.
Tanto a vice-presidente Kamala Harris quanto o presidente Joe Biden têm participado ativamente de discussões com líderes da indústria de IA, destacando a urgência de promover a responsabilidade nesse campo.
Crescimento responsável da IA está sendo preparado pelas maiores empresas
Segundo informações de um rascunho do documento obtido pela Bloomberg, as empresas de tecnologia estão sendo convidadas a acatar oito medidas sugeridas relacionadas à segurança, proteção e responsabilidade social. Tais ações objetivam garantir uma abordagem mais consciente ao desenvolver e aplicar a IA.
Algumas delas incluem permitir que especialistas independentes testem os modelos de IA para detectar possíveis comportamentos inadequados, investir em segurança cibernética e encorajar terceiros a identificar brechas no sistema de segurança.
(Imagem: Divulgação)
Como forma de abordar os riscos sociais, incluindo preconceitos e usos inadequados da Inteligência Artificial, as empresas estão direcionando seus esforços para realizar pesquisas aprofundadas e minuciosas sobre as implicações de tal tecnologia.
Além disso, elas estão comprometidas a compartilhar informações confiáveis e relativas à segurança com outras companhias e órgãos governamentais, promovendo uma abordagem colaborativa para o desenvolvimento responsável da IA.
Ao realizar pesquisas detalhadas, as empresas buscam identificar e mitigar possíveis problemas éticos e sociais relacionados ao uso dessa ferramenta.
Tal abordagem proativa pretende assegurar que a IA seja aplicada de forma a proteger os direitos individuais, evitar preconceitos e prevenir consequências negativas não intencionais.
A abordagem voluntária desse acordo deixa evidente os desafios que os legisladores enfrentam para acompanhar o ritmo veloz dos avanços da IA.
Diversos projetos de lei têm sido propostos no Congresso com o intuito de regulamentar a tecnologia, procurando impedir que as empresas se beneficiem das proteções da Seção 230 e escapem da responsabilidade por conteúdos prejudiciais gerados por algoritmos de IA.
Além disso, essas iniciativas também visam exigir divulgações específicas em anúncios políticos que utilizam a IA generativa.
Comentários estão fechados.