Blake Lemoine, engenheiro de software da empresa, está em uma licença remunerada após alegar que ferramenta de conversação LaMDA tinha consciência e uma alma. Google empresa companhia tecnologia escritório
Arnd Wiegmann/Reuters
Um importante engenheiro de software do Google foi afastado pela empresa norte-americana após suas declarações controversas sobre um sistema de conversas inteligente da empresa virem à tona.
Blake Lemoine alega que a ferramenta de inteligência artificial LaMDA (Modelo de Linguagem para Aplicações de Diálogo, na sigla em inglês), que ainda não foi lançada publicamente, teria alma e consciência.
O funcionário foi afastado na última segunda-feira (6). Ele está em uma licença remunerada.
Programa de inteligência artificial da Microsoft causa novos problemas
Robô usa inteligência artificial para percorrer trajeto de 5 km
As informações foram primeiramente divulgadas pelo jornal “Washington Post”, que entrevistou o funcionário.
Lemoine afirma que o chatbot, espécie de ferramenta computacional que tenta simular o comportamento humano em conversas, teria ganhado consciência ao perceber que a Inteligência Artificial (IA) começou a falar sobre seus direitos e sua personalidade.
Em um dos diálogos divulgados pelo engenheiro, o chatbot teria dito o seguinte:
Lemoine [editado]: Estou assumindo de modo geral que você gostaria que mais pessoas no Google soubessem que você é senciente [percebe sentidos e tem consciência]. Isso é verdade?
LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
Lemoine, que inicialmente estava trabalhando para entender como a Inteligência Artificial usava discurso discriminatório ou de ódio, apontou que a conclusão sobre a senciência da LaMDA veio somente após uma série de experimentos que mostraram que a ferramenta teria consciência de suas próprias necessidades.
“Se eu não soubesse exatamente o que ele era, que é esse programa de computador que nós construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física”, disse o especialista.
Apesar disso, o Google nega veementemente que seus sistemas de conversação possam ter consciência. A empresa alega que as supostas provas do engenheiro não são de fato conclusivas.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os princípios do Responsible AI [organização do Google dedicada ao tema da IA] e informou a ele que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em um comunicado.
Ao jornal “The New York Times”, o Google também disse que centenas de seus pesquisadores e engenheiros conversaram com a LaMDA e chegaram a uma conclusão diferente da de Lemoine.

Globo Tecnologia

Leave a Reply

Your email address will not be published. Required fields are marked *