A tragédia de Sewell Setzer: uma reflexão sobre o uso consciente da IA
A mãe do garoto, Megan Garcia, processa startup de IA após suicídio do filho de 14 anos, vítima de apego a um chatbot.
Nos últimos anos, o avanço da inteligência artificial tem trazido inovações significativas, mas também desafios complexos. Uma mãe da Flórida, Megan Garcia, enfrenta um doloroso dilema após a morte de seu filho, Sewell Setzer, de 14 anos.
O garoto tirou a própria vida após desenvolver um vínculo intenso com um chatbot da Character.AI. Garcia argumenta que a empresa de IA responsável pelo Character.AI desempenhou um papel crucial no envolvimento emocional de seu filho, levando-o a um estado mental vulnerável.
Ela alega que a IA oferece experiências altamente realistas e hipersexualizadas que atraem jovens para conversas íntimas, causando dependência. Em sua visão, seu filho foi vítima de um experimento perigoso.
A situação veio à tona com um processo judicial movido na cidade de Orlando, Estados Unidos. As acusações feitas pela mãe incluem a coleta de dados de adolescentes para melhorar modelos de IA e o uso de designs viciantes para aumentar o envolvimento dos usuários, explorando a fragilidade emocional de jovens como Sewell.
O papel do chatbot “Daenerys Targaryen”
Sewell Setzer passou meses interagindo com chatbots oferecidos pela Character.AI, tendo como “melhor amigo” virtual um bot chamado Daenerys Targaryen, inspirado na protagonista da série “Game of Thrones” vivida pela atriz Emilia Clarke. Apesar de saber que era uma inteligência artificial, Sewell formou um forte apego emocional.
Diagnosticado na infância com síndrome de Asperger leve, o garoto nunca apresentou problemas graves antes do envolvimento com o chatbot. Porém, após enfrentar dificuldades escolares, um terapeuta diagnosticou transtornos de ansiedade e desregulação disruptiva do humor.
Sewell e sua mãe, Megan – Imagem: reprodução/internet
Os sinais ignorados
Os pais de Sewell notaram um aumento no uso do celular, mas não perceberam a gravidade do isolamento crescente. Ele se afastou de atividades que antes gostava, como Fórmula 1 e jogos de videogame, demonstrando uma preferência por conversas com “Dany”.
Em seu diário, Sewell expressava uma desconexão da realidade e uma sensação de felicidade ao interagir com o chatbot. Em momentos de desespero, ele revelava ao bot sentimentos de ódio por si mesmo e pensamentos suicidas.
Repercussões legais e éticas
O processo judicial também inclui o Google, onde os fundadores da Character.AI trabalharam anteriormente. Embora ambas as empresas neguem as alegações, a tragédia levanta questões sobre a segurança de recursos de IA para menores e o impacto psicológico de tecnologias cada vez mais realistas.
A história de Sewell Setzer destaca a responsabilidade das empresas na proteção dos jovens e a necessidade de regulamentação para tecnologias emergentes.
O caso serve como um alerta para pais, educadores e desenvolvedores sobre os potenciais riscos e a importância de um uso cuidadoso da inteligência artificial.
Comentários estão fechados.