Google está OFERECENDO DINHEIRO a quem encontrar falhas na sua IA; saiba mais!

O objetivo da Gigante das Buscas com a empreitada é aprimorar os seus sistemas de Inteligência Artificial. Veja como faturar com isso!

A Inteligência Artificial, apesar de sua notável capacidade, não é imune a falhas e vulnerabilidades. Essas fraquezas podem ser exploradas por indivíduos maliciosos, representando um risco significativo para a segurança cibernética de milhões de indivíduos.

O Google, ciente desse desafio comum para as empresas tecnológicas, está adotando medidas proativas para proteger sua IA e incentivar a comunidade de hackers éticos a identificar e relatar essas vulnerabilidades.

Como parte desse esforço, a Gigante das Buscas ampliou seu Programa de Recompensas de Vulnerabilidade para abranger potenciais falhas na Inteligência Artificial, oferecendo incentivos financeiros para aqueles que descobrirem e reportarem vulnerabilidades que poderiam ser exploradas para fins financeiros.

No ano passado, os “hackers do bem” contribuíram de forma milionária para a empresa. Confira como funciona o esquema oferecido pela grande empresa tecnológica!

Recompensa financeira em 2022

Em 2022, o Google distribuiu mais de US$ 12 milhões em recompensas por meio de seu Programa de Recompensas de Vulnerabilidade, demonstrando seu compromisso com a segurança da tecnologia.

A expansão deste programa para melhorar a Inteligência Artificial surgiu em resposta a descobertas preocupantes feitas por um grupo interno de hackers do Google.

Eles identificaram vulnerabilidades de segurança em produtos de IA que poderiam permitir a inserção de comandos maliciosos para alterar o comportamento dos modelos de linguagem, gerando conteúdo ofensivo e vazamento de informações confidenciais.

Além disso, há o risco de ataques que visam replicar o treinamento da IA ​​para extrair informações pessoais, como senhas e dados bancários.

Para incentivar os hackers a identificar e relatar essas vulnerabilidades, o Google está disposto a oferecer recompensas substanciais, que variam de US$ 5 mil a US$ 31 mil, ou que correspondem a mais de R$ 155 mil na cotação atual.

Os valores menores são destinados a falhas de baixa prioridade em aplicações, enquanto o montante superior é reservado para casos de erros mais graves, refletindo a importância de abordar questões críticas de segurança na IA.

você pode gostar também

Comentários estão fechados.