DEEPFAKES E A SUA INTIMIDADE

O fácil acesso a softwares para produção de deepfakes tem se tornado um verdadeiro pesadelo, afinal se elas usam inteligência artificial combinando as imagens ou sons humanos para dessa forma alterar personagens ou falas em vídeos, conforme aumenta o número de arquivos de áudio e som disponibilizados, cresce o risco de qualquer pessoa ser vítima dessa prática que começou sendo uma brincadeira e vem criando muitos transtornos.

Atualmente o principal uso dessa tecnologia é para criação de vídeos de humor, mas ela já foi usada para fraudes e fake news, o que por sinal é cada dia mais comum considerando as milhares de pessoas que estão sempre com a mentes aberta para acreditar em mentiras e espalhar inverdades.

Recentemente estudantes da University College London (UCL) realizaram um estudo sobre as implicações de deepfakes na segurança online e o resultado desse estudo só faz aumentar as preocupações sobre o tema, conforme reproduzido no canaltech.

Nesse momento existem softwares para a criação de deepfakes open source e gratuitos, cada vez mais acessíveis, fazendo com que sites como Reddit e Twitter tentem banir todo conteúdo deepfake por medidas de proteção à informação.

Segundo a matéria reproduzida no canaltech o objetivo dos estudantes da UCL ao longo da pesquisa, era explorar estruturas de vídeos deepfakes e avaliar a acessibilidade de criação. A conclusão preocupou os pesquisadores, mesmo quando a imagem e som de origem não possuiam os mesmos formatos de som e movimentos que seriam modificados, os resultados foram aceitáveis.

Softwares para criação de deepfakes são gratuitos e fáceis de usar e essa é uma preocupação constante, embora existam obstáculos de estrutura computacional para a criação de resultados aceitáveis (é necessário no mínimo uma placa de vídeo como uma GTX 1060).

Segundo os estudantes, ainda são necessárias mais pesquisas, com mais opções de tecnologia. O estudo só nos faz crer na urgência de se regrar a matéria, pois desde o início da popularização do uso do machine learning para a geração de deepfakes, o que começou em 2018, a evolução do uso dessa tecnologia tem sido inequívoca.

Atualmente 96% dos vídeos criados são pornografia e 99% deles usam imagens de atrizes ou cantoras conhecidas, afinal para alimentar as fantasias de delirantes de plantão, nada melhor do que a imagem de famosos.

Como se sabe, desde os primeiros casos conhecidos até a expansão do fenômeno, um grande número de páginas pornográficas, das mais conhecidas para as menos, foram criadas exclusivamente em torno do fenômeno deepfake, logo já é possível localizar imediatamente o rosto de qualquer mulher minimamente conhecida sobreposta a cenas pornográficas, com resultados que vão do patético ao praticamente indiscernível, logo a veracidade anda de mãos dadas com a maldade.

A atriz Scarlett Johansson, uma das mais atingidas pela prática, considera que apesar do avanço das ferramentas para identificar tais manipulações, a grande maioria de seus usuários está simplesmente procurando um certo nível de realismo, não “acreditar” em um vídeo cuja origem eles sabem perfeitamente bem que ele é manipulado. O problema não é a perda de confiança no conteúdo ou na fonte, mas que o usuário não se importa em nada em saber que o vídeo é sintético, isso permitiu o desenvolvimento de toda uma indústria em torno do fenômeno dos deepfakes, cerca de mil vídeos pornográficos desse tipo são carregados em páginas pornográficas todos os meses e acumulam, em alguns casos, dezenas de milhões de visualizações, gerando benefícios econômicos significativos, ou seja o crime virou um negócio, pois como sempre são os lucros que catalisam a prática.

Se no primeiro momento eram os políticos que estavam preocupados com as possíveis implicações de vídeos desse tipo em campanhas eleitorais ou para empresas tentando legislar sobre ela, a realidade da web foi avançando e gerou um cenário em que qualquer pessoa pode assumir controle total sobre a imagem de uma pessoa, criar um vídeo em que ele aparece fazendo absolutamente tudo o que o criador quer, distribuí-la e também ganhar dinheiro com isso, sem praticamente qualquer controle por parte do partido afetado, basta lembrar do famoso vídeo do Governador João Dória em que o mesmo aparecia em uma festa íntima e que foi utilizado às vésperas da eleição. Porém, como os afetados são majoritariamente mulheres, estamos falando de um problema de exploração da imagem de terceiros com dimensões que vão da moral à econômica, auxiliadas por uma tecnologia praticamente disponível para qualquer pessoa e também misturadas com a complexa rastreabilidade da rede e a enorme dificuldade de remoção de conteúdo nela.

Se alguém é minimamente conhecido e um fotógrafo captura uma imagem dela sem o seu consentimento, é possível não só que ele possa usar e explorar essa imagem livremente, mas mesmo que o protagonista da foto não possa fazê-lo sem chegar a um acordo com aquele que tirou essa imagem, o que abre espaço para muita discussão.

Como combater? Como evitar que o que é piada para um não seja a desgraça para outro? Tente imaginar o uso disso em imagens de adolescentes espalhadas pela escola?

Nessa semana a Microsoft anunciou uma nova ferramenta chamada Video Authenticator, capaz de identificar manipulações em vídeos conhecidas como deepfake. No primeiro momento, o software analisa cada quadro de vídeos e gera uma pontuação de manipulação com uma porcentagem indicando as chances de a mídia ter sido alterada.

Como destaca o site Techmundo, o serviço faz parte do Programa de Defesa da Democracia e foi desenvolvido pelo time de P&D da Microsoft Foundation, que tem parcerias com a AI Foundation e usa dados públicos do Face Forensics++. O objetivo da ferramenta é defender a democracia de ameaças alimentadas pela desinformação. O anúncio foi feito pouco antes das eleições presidenciais dos Estados Unidos, que acontecem em 3 de novembro, mas a pretensão é alimentá-la para o uso de longo prazo.

No primeiro momento o Video Authenticator poderá exibir uma porcentagem de confiança em tempo real em cada quadro de um vídeo, detectando elementos sutis de edição, como desbotamento de cores e escala de cinza, “que não podem ser detectados pelo olho humano”.

A Microsoft sabe que os métodos de criação de deepfakes avançam em sofisticação e que as formas de detecção ainda têm taxas de falha, portanto espera alimentar sua tecnologia e a longo prazo “buscar métodos mais fortes para manter e certificar a autenticidade” de publicações online.

A disponibilidade das suas imagens em redes sociais criam um gigantesco banco de dados para os mal intencionados, e todo cuidado é pouco pelo prejuízo que esse expediente pode acarretar.

É preciso evoluir com tipos penais pois essa brincadeira tem ficado cada dia menos sem graça.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *