Pode um algoritmo programado para detectar variações faciais de atenção e emoções servir de base para avaliar professores e alunos em nossas salas de aula?
Um professor pode ser avaliado pelo nível de satisfação visual de seus alunos?
A Intel, em parceria com a Class, apresentou uma ferramenta edtech no Zoom que inclui um algoritmo para monitorar a atenção dos alunos durante as aulas online, um tipo de ferramenta que não é especialmente nova mas que vem tendo seu uso ampliado, e logo lembro que a mesma pode ser adaptada para as aulas presenciais.
Nas primeiras experiências da ferramenta, os fabricantes do software fizeram questão de avisar que o melhor uso para o programa, seria não utilizá-lo como uma forma de controlar os alunos, mas como um instrumento de feedback imediato para o professor, que poderia, por exemplo, incorporar novos elementos ou mudanças de foco na sua comunicação se você detectou uma queda geral na atenção durante uma aula. No final, é algo que os professores, pelo menos, aqueles que se preocupam com a qualidade de nossas aulas, sempre o fizeram: controlar as expressões de nossos alunos para entender se eles estão entendendo algo, até se a sessão está se tornando muito monótona, pesada, etc.
Porém, surge uma questão: como professor, a atitude de seus alunos obviamente influencia quando se trata de classificá-los, especialmente nas disciplinas em que uma parte da avaliação depende de fatores como a participação em sala de aula (nas escolas e no ensino superior em geral, praticamente sempre, uma vez que a participação é considerada parte fundamental do processo em oposição a abordagens como”dar notas”, que praticamente não são usados nesse contexto), o que significa que uma pessoa que mostra uma atitude completamente passiva, chata ou ausente na classe tende a ter uma classificação ruim nesse aspecto. Mas, obviamente, estamos falando de ambientes em que a relação professor/aluno permite não só que você avalie esses aspectos de forma razoavelmente fiel, mas que você até conheça seus alunos de muitas maneiras: o que acontece se você tentar escalar essa metodologia para proporções menos benéficas ou mais massivas? Obviamente, fazê-lo simplesmente confiando na memória do professor seria impossível.
Ao mesmo tempo essa mesma tecnologia de registro biométrico de emoções pode ser considerada assertiva até que ponto? Até que ponto o resultado dela pode influenciar?
O que acontece quando colocamos um algoritmo para avaliar esses tipos de aspectos comportamentais? Em primeiro lugar, você passa de ter sua observação como professor, para ter uma lista de alunos com seus percentuais de atenção durante cada sessão, o que faz de cada aula o foco exclusivo na atenção e aprovação, e logo como distinguir a aceitação da aula com a aceitação do conteúdo? Imagine que estamos diante de um conteúdo indigesto em que todos os alunos tem resistência ou ojeriza a ele (nazismo, extermínio, estupro).
Mesmo que deixemos de lado a óbvia possibilidade de que o algoritmo interprete mal algumas expressões, uma questão que poderia ser pensada para ser corrigida, pois temos mais dados para treiná-lo, a ideia de relaxar o papel do professor em algo tão pessoal quanto avaliar a atenção de seus alunos pode representar alguns problemas em si, além de fazer com que os próprios alunos se sentissem como se estivessem sob vigilância constante em algum tipo de panóptico, algo que parece, do ponto de vista da experiência de aprendizagem, do menos adequado.
Na prática, além das enormes diferenças dependendo do nível de escolaridade, da relação professor/aluno, do ambiente cultural ou de muitos outros fatores, o fundamental é oferecer ao aluno uma experiência o mais próxima possível da que ele terá quando terminar seus estudos, se formar e pretende colocar em prática o que aprendeu. Pela minha experiência como professor em uma escola de administração, sempre procurei propor aos meus alunos uma experiência de aprendizagem o mais próxima possível da realidade empresarial, e sempre considerei, ao avaliá-los, como eu faria isso se, em vez de ser seu professor, eu fosse seu chefe direto no contexto de uma empresa.
Logo lembre-se que a mesma ferramenta pode ter outros usos além das salas de aula, como avaliar trabalhadores e clientes? Portanto, introduzir um algoritmo que coloca os alunos em uma situação que não tem nada a ver com a realidade que eles encontrarão mais tarde é algo que possivelmente levaria a efeitos colaterais que parecem muito desaconselháveis, como tentar falsificar certas expressões, fazendo parecer que eles estão muito interessados, mesmo que de fato não sejam, ou simular um estado de concentração que é tudo menos genuíno. Se eu não acho que a microgestão nas empresas é apropriada, por que me pareceria em um contexto educacional?
Podemos monitorar o nível de atenção dos alunos usando um algoritmo? Muito possivelmente sim, e além disso, é provável que o algoritmo vai acabar indo razoavelmente bem. Claro que nem abordo aqui algo fundamental, que seria a proteção desses registros, que são sim dados sensíveis e logo protegidos pela LGPD.
Tente imaginar que para que a ferramenta seja utilizada na escola do seu filho, é preciso o consentimento para o tratamento desses dados, com todos os cuidados já previstos em lei, e portanto imaginado que apenas uma parcela dos pais concederiam essa permissão, qual o impacto na variação desse algoritmo como instrumento para medir a atenção e desempenho?
Lembro também, que quase toda invasão nas nossas vidas realizada pelas empresas de tecnologia, são sempre antecedidas de uma frase comum, “para melhorar a experiência do usuário”, logo quando voc6e ler essa frase tenha certeza, eles vão ampliar a captura dos seus dados, na observação e registro dos seus hábitos, para melhorar a oferta de produtos e serviços dos patrocinadores e parceiros comerciais, pois com seus dados o design evolui para ampliar seu tempo e sua atenção no maniqueísmo comercial que engole segundos, minutos e horas das nossas vidas, no típico criar a atenção para desenvolver a desatenção.
Em seu último livro, intitulado Ameaças Sociais da Revolução Digital, Roberto Velasco se concentra em uma “sociedade policiada que pode colocar em risco a própria democracia”. Par o economista, questionamos pouco esse “desenvolvimento”.
O melhor exemplo é a inteligência artificial, onde muitos se dividem entre ela ser uma ameaça ou uma oportunidade? Esquecendo que ambos podem ocorrer ao mesmo tempo.
E como evoluir se a tecnologia não é neutra? Pois ela sempre vai trazer o conteúdo ideológico do desenvolvedor e dos seus acionistas, onde na maioria das vezes o propósito comercial atropela nossa livre escolha?
Lembro que para gente como o cientista Stephen Hawking e empresários conhecidos como Bill Gates e Elon Musk, a inteligência artificial é a maior ameaça aos humanos. E que corremos o risco de chegar o dia em que as máquinas podem se reprogramar, decidir assumir o controle da tecnologia e transformar humanos em escravos.
Hoje nossa sociedade está inundada de dados. Apenas no ano passado, mais informações foram produzidas do que as geradas desde o início da civilização humana. Há 30 anos, grandes recursos de computação não estavam disponíveis e não era possível armazenar grandes volumes de dados a baixo custo. A partir de 2010, o custo de armazenamento de informações caiu para um milésimo e o da computação para centésimo. Agora é possível armazenar quantidades gigantescas de informações das impressões digitais eletrônicas de bilhões de pessoas que dão seus dados todos os dias gratuitamente, seja enviando uma foto para o Instagram, comprando com um cartão de crédito ou viajando no Metrô com um cartão magnético.
Fica evidente que na “sociedade vigiada”, os donos de algoritmos e exploradores de big data sabem tudo sobre nós. Existem algoritmos que são usados para fins criminosos e seus proprietários impuseram um modelo de negócio que gira em torno do que agora chamamos de capitalismo de vigilância, que não tem uma única nuance democrática. É um capitalismo digital que tenta nos fisgar sempre em dispositivos para monitorar e controlar nossas vidas e nos conhecer bem. Então, apoiados pelos avanços da neurociência e da psicologia, eles passam a desarmar a capacidade de raciocinar para acessar nosso ser mais emocional para nos vender qualquer tipo de serviço ou discurso ideológico.
A conclusão de tudo isso é nada menos que a necessidade de exigir que os governos adotem políticas públicas que protejam a privacidade dos cidadãos, especialmente as políticas mais indefesas que deveriam ser globais. Um assunto que é tratado com muita parcimônia.
Logo, novos formatos estão sendo testados por essas plataformas para não perder a sua atenção, pouco importando se todo esse barulho gere mais desatenção.
São novos desafios regulatórios criados por ferramentas digitais cada vez mais invasivas e com uso nada neutro. Você concorda com essa invasão de privacidade?
(Artigo publicado no site www.jusbrasil.com.br, em 28 de Abril de 2022).