Google formula 'Constituição de Robôs' para proteger humanos de acidentes fatais
Com uma preocupação incomum voltada para a robótica, o Google anunciou que está redigindo uma lei voltada para o uso das máquinas.
Google elaborou uma “constituição dos robôs” como parte de seus esforços para mitigar os danos causados por robôs, protegendo os humanos.
A empresa está direcionando sua divisão Deepmind Robotics para a criação de assistentes pessoais robóticos capazes de atender solicitações cotidianas, como arrumar a casa ou preparar refeições.
Apesar de tamanha evolução, essas tarefas simples podem representar desafios significativos para os robôs, já que a compreensão completa das nuances humanas pode ser complexa e potencialmente perigosa.
Recentemente, a empresa divulgou avanços destinados a facilitar o desenvolvimento de robôs capazes de realizar tarefas sem causar danos.
Esses sistemas visam permitir que os robôs compreendam e naveguem com mais eficiência em seus ambientes, tomando decisões mais rápidas e seguras.
Sistemas para regulamentar robôs
Entre os avanços está o AutoRT, um novo sistema que utiliza inteligência artificial para compreender as metas humanas, usando modelos de linguagem semelhantes aos empregados em plataformas como o ChatGPT.
Para operar, o sistema utiliza dados de câmeras do robô, processando-os em um modelo de linguagem visual (VLM) que interpreta o ambiente e os objetos, descrevendo-os verbalmente.
Essa informação é então encaminhada para um modelo de linguagem de grande escala (LLM) que compreende as descrições, gerando uma lista de possíveis tarefas a partir delas. Em seguida, decide quais tarefas devem ser realizadas.
A Google ressaltou a importância de garantir a segurança ao integrar esses robôs em nossas vidas cotidianas.
Por isso, o LLM responsável pelas decisões no sistema AutoRT recebeu o que a empresa chama de “Constituição do Robô” – um conjunto de diretrizes de segurança a serem seguidas ao selecionar tarefas para os robôs.
O Google explicou que as regras da “Constituição do Robô” são parcialmente inspiradas nas Três Leis da Robótica de Isaac Asimov, destacando especialmente a primeira, que estipula que um robô “não pode ferir um ser humano”.
Além disso, essas regras de segurança proíbem que os robôs realizem tarefas envolvendo humanos, animais, objetos pontiagudos ou aparelhos elétricos.
O objetivo é orientar o comportamento do sistema e evitar atividades potencialmente perigosas, semelhante à forma como o ChatGPT pode ser instruído a não auxiliar em atividades ilegais.
No entanto, o Google reconhece que a confiança total na segurança desses modelos grandes não é suficiente.
Portanto, medidas tradicionais de segurança, como limitar a aplicação excessiva de força e a presença de um supervisor humano capaz de desligar fisicamente os robôs, foram incorporadas ao sistema.
Comentários estão fechados.