Risco potencial ao endereço de e-mail associado ao seu login no ChatGPT
Pesquisa revela falha preocupante na segurança de modelos de IA, levantando questões sobre a proteção de informações sensíveis.
Uma notícia perturbadora tomou conta de usuários do chatbot mais conhecido do mundo: uma equipe liderada por Rui Zhu, Ph.D. candidato na Indiana University Bloomington, expôs recentemente uma falha de segurança que coloca em risco a privacidade de dados pessoais vinculados aos poderosos modelos de linguagem da OpenAI, incluindo o GPT-3.5 Turbo.
Esta intrigante descoberta, destacada por contatos feitos com funcionários do New York Times usando endereços de e-mail obtidos do modelo, lança uma clara luz sobre uma preocupante vulnerabilidade.
Levantando novas perspectivas sobre proteção de informações privadas
Zhu e seus colegas demonstraram como, através de manipulações na interface de ajuste fino dos modelos, informações como endereços de trabalho foram precisamente obtidas para 80% dos funcionários do Times testados. Esta revelação suscita sérias preocupações sobre o potencial de ferramentas de IA, como o ChatGPT, para divulgar informações confidenciais com modificações mínimas.
Imagem: OpenIA/reprodução
Apesar dos esforços das empresas como OpenAI, Meta e Google para proteger dados pessoais, os pesquisadores conseguiram contornar as proteções estabelecidas. Ao utilizar a API do modelo em vez da interface padrão, e explorar o ajuste fino, eles expuseram falhas na segurança que desafiam a premissa de proteção de informações sensíveis.
Enquanto a OpenAI reafirma seu compromisso com a segurança e a recusa em fornecer informações privadas, especialistas expressam ceticismo. A falta de transparência em relação aos dados específicos de treinamento e os potenciais riscos associados a modelos de IA contendo informações privadas são pontos de preocupação.
Essa vulnerabilidade descoberta no GPT-3.5 Turbo lança uma sombra sobre a privacidade em grandes modelos de linguagem. Especialistas alertam que modelos disponíveis comercialmente carecem de defesas robustas, representando riscos significativos à medida que continuam a aprender com diversas fontes de dados.
A necessidade de transparência e medidas para proteger informações sensíveis em modelos de IA é enfatizada por críticos, que demandam ações para garantir a segurança desses sistemas.
Comentários estão fechados.