A lição sobre IA que um precursor do ChatGPT nos deixou em 1966
Quando Eliza, um chatbot que substituiu um psiquiatra, surgiu, a humanidade ficou fascinada e incomodada ao mesmo tempo.
“Estou existindo.”
Foi assim que a Cortana, assistente virtual da Microsoft, foi instruída a responder em 2014 quando questionada se estava viva.
Avancemos no tempo, e hoje, enfrentamos desafios sociais e filosóficos trazidos pelas tecnologias de inteligência artificial, como o ChatGPT, que faz parte do mecanismo de pesquisa Bing.
Ainda que estas tecnologias tenham habilidades avançadas, como a capacidade de colaborar, também geram preocupações sobre o crescente envolvimento humano com máquinas.
No entanto, a história indica que é improvável que possamos frear significativamente o seu desenvolvimento. Ao analisar as interações passadas entre pessoas e robôs, é mais provável que, no futuro, aceitemos e até nos adaptemos a eles como uma “família”.
Isso pode ter consequências que ainda não somos capazes de prever.
Eliza – a primeira assistente virtual
A tecnologia de assistentes virtuais remonta à década de 1960, quando o cientista da computação Joseph Weizenbaum, no MIT, projetou Eliza. Este programa de processamento de linguagem natural podia imitar conversas humanas curtas de forma convincente, e em um aplicativo famoso, podia simular a interação entre um cliente e um terapeuta.
Embora funcionasse com base em scripts e correspondência de padrões, os usuários ficavam impressionados com a sua habilidade de imitar conversas humanas. O programa foi experimentado por estudantes e colegas, incluindo a Dra. Sherry Turkle, que desde então tem estudado os efeitos sociais das máquinas.
Apesar de ter sido projetado como uma paródia da relação médico-paciente, os usuários falavam com Eliza, atribuindo-lhe inteligência e compaixão. Embora o criador de Eliza tenha deixado claro que o programa não possuía essas capacidades, ele foi convincente o suficiente para que a secretária de Weizenbaum pedisse que ele saísse da sala para que pudesse falar com Eliza em particular.
Foi somente na década de 2010 que assistentes virtuais como Siri, Cortana e Alexa alcançaram ampla adoção, mas a história dos precursores da tecnologia começou com Eliza, há mais de cinquenta anos.
Em sua aplicação prática, Eliza era restrita e não era intuitiva, requerendo a programação de novos padrões de interação. No entanto, a tendência dos usuários em atribuir capacidades realistas a Eliza foi uma descoberta importante, contradizendo o que o criador, Joseph Weizenbaum, esperava mostrar.
Como ele escreveu mais tarde, ele não percebeu que exposições curtas a um programa de computador simples poderiam levar pessoas normais a pensarem de forma delirante.
Humanos tendem a humanizar máquinas
A Dra. Sherry Turkle explica que essa tendência dos humanos de atribuir emoções, inteligência e até consciência a máquinas é conhecida como o efeito Eliza. É resultado da nossa tendência de criar robôs à nossa própria imagem, nos conectar com eles facilmente e tornarmo-nos vulneráveis ao poder emocional dessa conexão.
Em resumo, os usuários deram vida e personalidade a um chatbot rudimentar que não tinha capacidade de aprendizado ou geração.
Pessoas tendem a extrapolar os limites dos designs dos assistentes virtuais e buscar interações para as quais eles não foram projetados, incluindo declarar seu amor, propondo casamento ou conversando sobre seus dias. Essas necessidades humanas criam as fundações para relações com chatbots, que, graças aos avanços no aprendizado de máquina, parecem mais espontâneos e sociais do que seus predecessores.
Jake Rossen escreve sobre a recepção de Eliza e comenta que na década de 1960 foi um tentador flerte com a inteligência da máquina, mas seu criador, Joseph Weizenbaum, não estava preparado para as consequências. Agora, à medida que entramos em uma época da história em que os assistentes virtuais são cada vez mais comuns e acessíveis, ainda estamos despreparados para as consequências não apenas de suas habilidades, mas também de nossa tendência de acolhê-los e acomodá-los, às vezes em prejuízo próprio.
Fonte: Salon
Comentários estão fechados.