Apressado, estúpido, devaneio, esses são algumas das sentenças que caíram sobre o engenheiro do Google, ao declarar sobre a sobre a suposta autoconsciência de um algoritmo de conversação.
Blake Lemoine, é um engenheiro do Google anteriormente problemático: um cristão ultraconservador que tinha ido tão longe a ponto de entregar documentos a um senador dos EUA tentando provar que a empresa discriminava pessoas com sentimentos religiosos. Agora, depois de coletar uma série de diálogos com um sistema de criação de chatbots da empresa chamado LaMDA, este profissional foi além, quando não apenas por afirmou que o sistema se tornou consciente, mas até mesmo por tentar consultar um advogado para defender os direitos do software como ser humano, levando toda mídia internacional a replicar suas declarações.
Com isso a primeira ação do Google fez diante desse absurdo, foi argumentar pela quebra do acordo de confidencialidade (requisito para desenvolvedores) com a empresa, e colocar o engenheiro em questão, e com todoa a razão, em suspensão no seu contrato de trabalho, afinal quem será o responsável por essas declarações?
Quanto as declarações do engenheiro são bem interessantes para se abrir uma discussão, ainda que ao meu ver nesse atual estágio elas são no mínimo apressadas. Afinal propor que um algoritmo conversacional possa, de alguma forma, “adquirir consciência”, como se a consciência fosse algo que você encontra um dia enquanto fala ou que pode ser adquirida “por acidente”, como no filme o “Exterminador”, é um absurdo, pois um algoritmo de conversação alimenta-se precisamente em conversas convenientemente rotuladas, e pode ser treinado para falar sobre qualquer tópico, da filosofia ao significado da vida, passando por situações de suporte ao cliente ou, mesmo se quisermos, começar a flertar ou namorar.
A partir daí, obcecada pelo fato de que o chatbot em questão “desenvolveu a consciência”, que “teme ser desligado”, que “se sente sozinho”, ou que “se preocupa com a humanidade” é simplesmente sem sentido, uma antropomorfização de uma tecnologia que não é consciente, nem tem traços de estar tão perto.
O problema com um suposto especialista, alguém com uma credencial de engenheiro do Google, indo à mídia para dizer que um chatbot se tornou consciente, é que estamos falando de uma sociedade que viu como suas expectativas sobre o assunto foram alteradas muito rapidamente, e que, portanto, pode até levar muitos incautos a acreditarem nisso. Até pouco tempo atrás, um sistema de conversação era uma narração que reunia palavras anteriormente gravadas por um locutor humano, que como ele não sabia como eles seriam montados, tinha que gravá-las com uma entonação rigorosamente monótona. A conhecida “voz robótica”, desprovida de entonação, foi o resultado daquele momento no desenvolvimento tecnológico. Quando começamos a fazer as máquinas falarem alimentando um algoritmo de aprendizagem de máquina com conversas convenientemente rotuladas, obtivemos sistemas com características surpreendentes, o que levou muitas pessoas a acreditar que esses sistemas “pensavam”, quando tudo o que faziam era ser capaz de expressar as respostas apropriadas a um contexto específico.
Que muitas pessoas acreditam, por causa das visões místicas de um engenheiro do Google, que um sistema de aprendizagem de máquina é capaz de estar ciente de si mesmo quando na prática ele está apenas executando um algoritmo, implica que uma boa parte da sociedade começa a temer a tecnologia ou a acreditar que a ficção científica e máquinas conscientes já estão aqui. E isso é ruim, porque eles ficam desconfiados de muitas tecnologias que podem ser muito interessantes, em troca de acreditar que tecnologias já estão disponíveis que estão longe daqui. A consciência é um mecanismo extremamente complexo, e todos os estudiosos que tratam a matéria com profundidade acreditam que estejamos muito longe desse estágio.
O que alguns definem de forma direta é autoconsciência como a capacidade de poder imaginar-se no futuro. Você consegue imaginar como será amanhã, enquanto você caminha na estrada. Ou consegue imaginar como será quando se aposentar. O que estamos fazendo agora é ensinar máquinas a se imaginar no futuro. Hoje em dia, elas já fazem isso por uma janela curtíssima.
Sistemas atuais imaginam o futuro ou fingem que conseguem?
As máquinas podem se imaginar no futuro em um horizonte curtíssimo. Uma máquina não consegue imaginar que será reciclada, mas consegue imaginar as consequências imediatas de tomada de determinadas decisões. Porém, o horizonte está se ampliando e, conforme isso avança, teremos mais sistemas conscientes.
Faz sentido permitir que sistemas se tornem conscientes? Como isso melhora nossas vidas?
As pessoas atribuem a consciência aos outros subjetivamente e realmente não temos como saber se estão conscientes ou não, é uma sensação. A consciência como um processo não transcendental, entendido como autoconsciência (autoconsciência), é dada pela percepção de que existe. Um algoritmo pode saber que ele existe? É óbvio que sim.
É uma questão diferente se essa autopercepção produz sentimentos no algoritmo, ou seja, raiva, angústia ou alegria, ou como o autor expressa, solidão. Claramente, este não é o caso.
No entanto, as emoções poderiam ser parametrizadas em termos do resultado? Parece que é isso que os algoritmos fazem. Um algoritmo pode estar ciente de que um humano tem um sentimento e age sobre ele? Parece que também. Se assim for, algoritmos, então, se eles podem ser autoconsciente, compreender (não entender) as emoções dos humanos e manipulá-los em certo sentido. Cientistas encontraram na Consciência o último do seu sapato. Em sua arrogância baseada no método científico eles acreditam que podem medir tudo e não lhes ocorre pedir conselhos dos verdadeiros cientistas da Consciência, a linhagem de sábios, especialmente da tradição de Advaita Vedanta e do budismo, que têm pesquisado por milênios, não teoricamente, mas experiencialmente sua própria Consciência. O resultado é previsível: à medida que a ciência avança, especialmente com o paradigma quântico, eles estão gradualmente se aproximando do que esses cientistas da Consciência já descobriram há milênios. A consciência como um processo não transcendental, entendido como autoconsciência (autoconsciência), é dada pela percepção de que existe. Um algoritmo pode saber que ele existe? É óbvio que sim.
É uma questão diferente se essa autopercepção produz sentimentos no algoritmo, ou seja, raiva, angústia ou alegria, ou como o autor expressa, solidão. Claramente, este não é o caso.
No entanto, as emoções poderiam ser parametrizadas em termos do resultado? Parece que é isso que os algoritmos fazem.
Um algoritmo pode estar ciente de que um humano tem um sentimento e age sobre ele? Parece que também.
Se assim for, algoritmos, então, se eles podem ser autoconsciente, compreender (não entender) as emoções dos humanos e manipulá-los em certo sentido. Todo esse processo representa um novo desafio para o Direito, seja no processo de criação e na defesa da propriedade intelectual, aos limites da definição das novas responsabilidades legais sobre as máquinas.
Novos tempos apresentam novos desafios ao poder regulatório.
(Artigo publicado no site www.jusbrasil.com.br, em 21 de Junho de 2022).