Até que ponto a inteligência artificial pode ser utilizada para identificar emoções?
Já pensou se escolas começam a utilizar a inteligência artificial para registro das emoções dos nossos filhos em sala de aula?
Já pensou o registro de rostos na multidão que indicam um quadro depressivo? Já pensou uma pesquisa de opinião pública realizadas através do reconhecimento facial da felicidade?
Uma recente reportagem do jornal Espanhol Expansión, deu destaque a evolução das pesquisas sobre a inteligência artificial e a emoção humana, logo em que pese a confiabilidade da inteligência o mercado de tecnologia de análise facial está crescendo muito rapidamente, embora existam muitas dúvidas entre os cientistas sobre sua confiabilidade, e mais do que sobre a confiabilidade, os limites da legalidade desses registros e dos padrões obtidos como resultado, se estaríamos afinal diante de um padrão emocional, ou diante de um preconceito registrado em meio digital, pois a felicidade tem um padrão ou uma probabilidade numérica identificável?
Em 2020, estudantes da True Light College, uma escola secundária de garotas de Hong Kong, assistiram às aulas de casa. No entanto, ao contrário da maioria das crianças do mundo forçadas pela pandemia a assistir às aulas online, os alunos da True Light estavam sendo observados, nesse grande laboratório que se transformou a pandemia.
Um olhar constante analisou a expressão facial das meninas através das câmeras de seus computadores. O visual pertence a um software chamado 4 Little Trees, um programa de inteligência artificial (IA) que afirma ser capaz de ler as emoções dos alunos enquanto aprendem. O objetivo é ajudar os professores a personalizar e tornar o ensino a distância mais interativo, para que eles possam responder às reações dos alunos em tempo real. O algoritmo 4 Little Trees mede os micromovimentos dos músculos faciais e tenta identificar emoções como alegria, tristeza, raiva, surpresa ou medo. A empresa garante que os algoritmos geram relatórios sobre o estado emocional de cada aluno, podendo também avaliar sua motivação e atenção. Eles também alertam os alunos para “prestarem atenção novamente quando estiverem distraídos”.
Imagine que o mesmo poderia ser utilizado para identificar interesse dos alunos e ou desaprovação dos mesmos as questões e formas como elas são colocadas pelos professores? Imagina a escola remunerando esses professores (apenas como variável) pelo grau de empatia desenvolvido com os alunos?
No caso do programa utilizado na experiência relatada, ele lê corretamente os sentimentos das crianças em aproximadamente 85% dos casos.
Só em Hong Kong, 83 escolas já usam o software, chamado de “Pequena árvores”, utiliza um dos novos algoritmos que, segundo seus criadores, podem reconhecer emoções humanas e estados mentais, como cansaço, estresse e ansiedade através de uma análise de expressão facial, microgestos, movimento ocular e tom de voz. Imagina os intervalos de aula e ou mudança de atividade sendo registradas e cronometradas de acordo com o aumento de cansaço dos alunos que indica um menor aproveitamento da aula?
A tecnologia utilizada nada mais é do que uma evolução dos sistemas de reconhecimento facial, mas muito mais invasiva, já que, supostamente, não só entende como a pessoa se sente em um dado momento, mas pode decodificar suas intenções e prever sua personalidade, com base em expressões fugazes.
Agora imagina a extensão desse programa para os demais ambientes, como trabalho e ou espaços públicos?
Pois isso já acontece, nesse momento centenas de empresas em todo o mundo trabalham com essa tecnologia de decodificação de emoções, tentando ensinar computadores como prever o comportamento humano. Todas as gigantes da tecnologia dos EUA, como Amazon, Microsoft e Google, oferecem análise básica das emoções, enquanto outras empresas menores, como Affectiva e HireVue, as adaptam para setores específicos, como automotivo, publicidade ou recursos humanos. A Disney usou este software para testar as reações de seus voluntários a uma série de filmes, como Star Wars: O Despertar da Força e Zootropolis.
Enquanto isso, empresas automobilísticas, como Ford, BMW e Kia Motors,planejam usá-lo para avaliar o grau de atenção dos motoristas, enquanto empresas de marketing como Millward Brown testaram para analisar a resposta do público a anúncios de clientes como Coca-Cola e Intel.
A tecnologia também começou a entrar no setor público: a polícia de Lincolnshire, no Reino Unido, investiu em sistemas de reconhecimento de emoções para identificar suspeitos, enquanto câmeras no Piccadilly Circus, em Londres, analisaram as reações emocionais do público a anúncios nos grandes outdoors.
Ao mesmo tempo provando que toda cautela é pequena diante dos riscos, e do uso político discriminatório dessa ferramenta, nesse instante as câmeras de reconhecimento de emoções foram instaladas na região de Xinjiang, na China, onde estima-se que mais de um milhão de muçulmanos, estão sendo mantidos em campos.
Em uma reportagem de 2019, Li Xiaoyu, especialista em polícia e funcionário do escritório de Segurança Pública na cidade de Altay, em Ingkiang, disse ao Financial Times que essa tecnologia foi usada principalmente na alfândega para “identificar rapidamente criminosos suspeitos, analisando seu estado mental”. Tente imaginar quais seriam os critérios para prisão de “possíveis criminosos” pelo seu estado mental?
Em pesquisa encomendada pela Psychological Science Association em 2019, cinco distintos cientistas da indústria foram convidados a estudar as evidências disponíveis. Ao longo de dois anos, a equipe analisou mais de mil estudos sobre tecnologia de reconhecimento de emoções e concluiu que as emoções são expressas de inúmeras maneiras, dificultando a dedução confiável de como uma pessoa se sente a partir de um simples conjunto de movimentos faciais. “Os dados mostraram que, no geral, as pessoas desaprovam menos de 30% das vezes quando estão com raiva”, escreve Lisa Feldman Barrett, psicóloga da Universidade Northwestern que participou da pesquisa. “Portanto, franzir a testa é […] uma expressão de raiva, um de muitos. Mais de 70% das vezes, as pessoas não desaprovam quando estão com raiva. E há pessoas que desaprovam quando não estão com raiva.
Os autores então acrescentaram que “não é possível inferir felicidade de um sorriso, raiva de uma carranca ou tristeza de uma careta, como grande parte da tecnologia atual tenta fazer, aplicando o que são equivocadamente considerados dados científicos”.
Na década de 60, o psicólogo, norte americano, Paul Ekman, viajou para Papua-Nova Guiné para realizar uma série de experimentos para demonstrar sua hipótese de que todos os seres humanos, independentemente de sua cultura, gênero, local de origem e circunstâncias, refletem as mesmas seis emoções universais: medo, raiva, alegria, tristeza, nojo e surpresa. Este esquema tem sido usado por diferentes empresas para ensinar às máquinas a linguagem da emoção humana. “Muitos documentos sobre aprendizado de máquina citam Ekman como se suas categorias não apresentassem problemas, muitas vezes esquecendo aspectos mais complexos como contexto, condicionamento, relacionalidade e cultura”, diz Crawford.
É evidente que essa tecnologia tem com as intenções inferidas é que ela leva a decisões cheias de erros e tendenciosas em questões muito sensíveis, como educação, policiamento, recrutamento e controle de fronteiras. “Se você quer usar um sistema automático para tomar decisões, você precisa de dados para ensinar a máquina, e isso deve ser catalogado por uma pessoa, ou seja, alguém tem que decidir o que cada expressão facial significa”.
O fato é que apenas cálculos baseados em probabilidades, não criam ferramentas 100% confiáveis, o que é suficiente para se cometer uma injustiça. É possível identificar certos sinais do que sentimos, mas se eu não sorrir, não significa que não estou feliz, pois a máquina não registra as diferenças históricos culturais das experiências pessoais.
Tente imaginar o risco, do uso dessa tecnologia no setor de recrutamento das empresas? Onde os algoritmos rastreiam a expressão facial dos candidatos a emprego para tirar conclusões sobre sua empregabilidade, como confiabilidade, meticulosidade, inteligência emocional e capacidade cognitiva.
Outra crítica generalizada ao reconhecimento das emoções por algoritmos é que ela não pode ser aplicada universalmente, pois pessoas de diferentes culturas expressam seus sentimentos de diferentes maneiras. O que pode ser muito engraçado para um ocidental pode ser completamente sem graça para um oriental.
Porém, cabe destacar, que mesmo que os algoritmos de expressão facial atinjam extrema precisão, é de se questionar se uma máquina deve ou não ser autorizada a julgar como um humano?
Candidatos podem se negar a serem analisados por esses softwares?
Esses softwares podem ser obrigatórios em processos seletivos?
Em abril último, a questão do direito à privacidade de cada pessoa sobre seus sentimentos foi abordada pela EU, que considerou em sua proposta de regulamentação de IA, como de “alto risco”, a avaliação das emoções por ferramentas de Inteligência Artificial, sendo que seu uso depende de autorização explícita, o que ao nosso ver tem a mesma interpretação no ordenamento jurídico brasileiro.
No nosso entender, a utilização, das expressões faciais de uma pessoa constitui uma invasão de sua privacidade, especialmente se for feita sem o seu conhecimento, logo qualquer que seja o propósito está protegido pela LGPD, e pelo RGPD, e que eventual utilização de software que estabeleça, classificação, score e ou medida, com base no registro da expressão facial, requer o consentimento da pessoa.
Tem muito por avançar e por se discutir, pois são muitos os argumentos também em defesa do seu uso.
Recentemente, Malcolm Gladwell, em seu último livro, “Falando com estranhos”, discorre sobre como a emoção pode embotar nosso julgamento a respeito dos outros. O autor, dá diversos exemplos, e aqui destacamos um bastante interessante em que um sistema de inteligência artificial se mostrou mais eficaz do que juízes na avaliação de acusados de crimes.
No trabalho, um grupo alimentou um sistema de inteligência artificial com as mesmas informações que promotores haviam fornecido a juízes em audiências de custódia em Nova York. O computador analisou mais de 500 mil casos e fez sua própria lista de pessoas que mereciam liberdade. Na disputa homem versus máquina, os resultados não foram nem próximos.
As pessoas que a máquina escolheu libertar se mostraram mais merecedoras dessa liberdade em 25%. Para realizar suas avaliações e prognósticos, juízes de carne e osso contam com um elemento adicional aos dados da máquina: a oportunidade de olhar nos olhos dos acusados. Falar com eles. Some-se a isso suas próprias histórias pessoais e vivências particulares, embebidas em sentimentos, emoções, intuição.
Esse já seria um outro tema para um próximo artigo, desse delicado e instigante assunto.