Risco potencial ao endereço de e-mail associado ao seu login no ChatGPT

Pesquisa revela falha preocupante na segurança de modelos de IA, levantando questões sobre a proteção de informações sensíveis.

Uma notícia perturbadora tomou conta de usuários do chatbot mais conhecido do mundo: uma equipe liderada por Rui Zhu, Ph.D. candidato na Indiana University Bloomington, expôs recentemente uma falha de segurança que coloca em risco a privacidade de dados pessoais vinculados aos poderosos modelos de linguagem da OpenAI, incluindo o GPT-3.5 Turbo.

Esta intrigante descoberta, destacada por contatos feitos com funcionários do New York Times usando endereços de e-mail obtidos do modelo, lança uma clara luz sobre uma preocupante vulnerabilidade.

Levantando novas perspectivas sobre proteção de informações privadas

Zhu e seus colegas demonstraram como, através de manipulações na interface de ajuste fino dos modelos, informações como endereços de trabalho foram precisamente obtidas para 80% dos funcionários do Times testados. Esta revelação suscita sérias preocupações sobre o potencial de ferramentas de IA, como o ChatGPT, para divulgar informações confidenciais com modificações mínimas.

Imagem: OpenIA/reprodução

Apesar dos esforços das empresas como OpenAI, Meta e Google para proteger dados pessoais, os pesquisadores conseguiram contornar as proteções estabelecidas. Ao utilizar a API do modelo em vez da interface padrão, e explorar o ajuste fino, eles expuseram falhas na segurança que desafiam a premissa de proteção de informações sensíveis.

Enquanto a OpenAI reafirma seu compromisso com a segurança e a recusa em fornecer informações privadas, especialistas expressam ceticismo. A falta de transparência em relação aos dados específicos de treinamento e os potenciais riscos associados a modelos de IA contendo informações privadas são pontos de preocupação.

Essa vulnerabilidade descoberta no GPT-3.5 Turbo lança uma sombra sobre a privacidade em grandes modelos de linguagem. Especialistas alertam que modelos disponíveis comercialmente carecem de defesas robustas, representando riscos significativos à medida que continuam a aprender com diversas fontes de dados.

A necessidade de transparência e medidas para proteger informações sensíveis em modelos de IA é enfatizada por críticos, que demandam ações para garantir a segurança desses sistemas.

você pode gostar também

Comentários estão fechados.