Pacientes têm consultas de saúde mental com Inteligência Artificial e não são avisados; atenção!
Foram descobertos atendimentos online com psicólogos que usavam o GPT-3, Inteligência Artificial, sem a autorização do paciente. Entenda.
O aplicativo Koko é útil para disponibilizar apoio emocional para as pessoas que precisam, fazendo o uso de Inteligência Artificial (IA) sem comunicar os pacientes. Ao todo, foram 4 mil pacientes atendidos sem a informação de que estavam consultados por uma máquina.
A descoberta só foi realizada quando Rob Morris, co-fundador do Twitter, divulgou que realizou uma espécie de pesquisa com a nova função. Ao comunicar isso para o público, Morris parecia empolgado com a ideia de que seu projeto estava fluindo bem, mas recebeu duras críticas.
O co-fundador do Twitter explicou que cerca e 30 mil mensagens foram compartilhadas com clientes, utilizando com GPT-3 que é a base do ChatGPT, uma espécie de Inteligência Artificial.
O teste não seguiu as regras estabelecidas
Este foi um teste que violou diretamente o que é permitido pelo Departamento de Saúde dos Estados Unidos. Se tratava de uma pesquisa para a nova função, mas os pacientes precisavam ser avisados do uso da tecnologia.
Após o anúncio no Twitter sobre o uso de Inteligência Artificial, Morris foi duramente criticado pelos internautas. O Koko funciona como um auxílio para as pessoas que estão necessitando de tratamento psicológico e procuram apoio diretamente de profissionais pelo aplicativo.
A realização de um teste tecnológico é considerada antiética, como os próprios usuários do Twitter alertaram. Os profissionais que também realizam pesquisas na área da saúde comprovaram que esta foi uma atitude que não deveria ser tomada.
Na tentativa de se defender, Morris apontou que esses testes seriam somente para a empresa e que não haveria divulgação dos resultados alcançados. Após sair em sua própria defesa, um médico que também participou das avaliações apontou que a forma que a pesquisa foi concedida expôs pessoas vulneráveis.
O resultado dos testes, de acordo com Morris, recebeu avaliações melhores quando as consultas foram realizadas pela IA. A Inteligência Artificial utilizada foi a GPT-3, capaz de reproduzir textos de outras pessoas e causar grande imprecisão nos dados escolhidos.
Após os pacientes ficarem cientes de que estavam recebendo respostas prontas, perderam o interesse.
Comentários estão fechados.