INTILIGÊNCIA ARTIFICAL E A REGULAÇÃO DA CAIXA DE PANDORA?

Céticos e entusiasmados podem ver a Inteligência Artificial em seus extremos, para uns como Panaceia na cura de todos os males e para outros como a Caixa de Pandora, portadora de todos os males que assustam a sociedade.

A caixa de Pandora é uma expressão muito utilizada quando se quer fazer referência a algo que gera curiosidade, mas que é melhor não ser revelado ou estudado, sob pena de se vir a mostrar algo terrível, que possa fugir de controle. Esta expressão vem do mito grego, que conta sobre a caixa que foi enviada com Pandora a Epimeteu.

É uma metáfora usada para caracterizar ações que, menosprezando o princípio de precaução, desencadeiam consequências maléficas, terríveis e irreversíveis. O mito de Pandora origina-se nos poemas épicos de Hesíodo (a Teogonia), escritos durante o século VII a.C., considerados uma das mais antigas versões sobre a origem do Universo.

Zeus deu a Pandora, como presente de casamento, uma caixa (na Grécia antiga, um jarro), mas avisou-a para nunca a abrir, pois seria melhor deixá-la intocada. A vontade de abri-la superou qualquer precaução: coisas horríveis voaram para fora, incluindo ganância, inveja, ódio, dor, doença, fome, pobreza, guerra e morte.

Para muitos a caixa de Pandora da IA poderia desencadear todos os males imagináveis, e logo as opiniões parecem na maioria das vezes se dividir entre os extremos, hora é vista como a Caixa de Pandora e por vezes como Panaceia.

Vivemos, tempos privilegiados, que permitem que a mesma geração viva e, ao mesmo tempo, lidere uma transformação tecnológica disruptiva que muda as coisas para sempre. A IA não é apenas mais uma tecnologia, mas vem para mudar nossas vidas. O lançamento do Chat GPT 3, um chatbot generativo de IA, é a melhor prova dessa disrupção. Poucas semanas após seu lançamento, em novembro de 2022, ele já contava com 100 milhões de usuários que puderam verificar a potência e a facilidade de uso do sistema. A inteligência artificial de repente se torna algo real, utilizável e tremendamente útil, apontando um caminho brilhante para um presente cheio de geração de conhecimento e transformação digital, acelerada por um chat tremendamente didático.

E como na era dos extremos, tudo precisa estar entre o céu e o inferno, surgem os primeiros alarmes sobre o lado sombrio dessa inovação. Os riscos associados a um uso malicioso de uma ferramenta tão poderosa são listados: manipulação de sistemas democráticos, vieses, aceleração de ataques cibernéticos, empoderamento da desinformação, usos criminosos, violação de direitos fundamentais, possível deterioração dos direitos dos criadores e uma longa lista de males culminados pela possível irrupção de uma Inteligência artificial autônoma, e logo sem controle humano e com dinâmica, linguagem e propósitos próprios.

Todos clamam reiteradamente por uma regulação legal, o que é marcante, uma vez que os porta-estandartes da tecnologia e, em alguns casos, da obsolescência dos Estados como estruturas obsoletas, recorrem a esse mesmo Estado para pedir que a lei regule essa nova realidade, o que deve ser visto no mínimo com cautela. Pra ficar claro quando um grande player de inteligência artificial sugere a sua regulação, com discurso de quem quer concorrer ao Nobel da Paz, nosso cuidado deve ser redobrado. Se essa empresa após a popularização do ChatGPT se torna uma das cinco empresas de tecnologia mais valiosas do mundo, o cuidado deve ser ainda maior.

A regulamentação da IA, já teve início na EU, inclusive com a possibilidade de uma nova versão do Regulamento de IA pelo Parlamento Europeu. De igual forma nos Estados Unidos, já ocorrem diversas audiências no Congresso com o propósito de modelar essa regulamentação.

Com todo esse movimento, e com tantos e tão variados interesses a primeira pergunta poderia ser, se a regulação da IA é necessária? Para essa pergunta a resposta é simples, pois entendemos por diversas razões que esta regulamentação é essencial e urgente. É preciso um tecido regulatório mínimo, que estabeleça no mínimo o que não pode ser feito com a IA.

Com base nessa premissa, é necessário pensar como deve ser essa regulamentação. O ponto de partida é que a regulamentação não sufoca a inovação e o avanço dessa tecnologia. Deve ser alcançado um equilíbrio fino entre a prevenção de riscos e a viabilização da investigação e aplicação da IA. Outro aspecto fundamental é evitar os mesmos erros que foram cometidos nos anos 90 ao regular o ciberespaço: restrições que favorecem apenas os gigantes da economia digital devem ser evitadas, e surge daí, com base nessa experiência um primeiro temor, quando as big techs pedem uma regulamentação da IA, o que pode estar por trás? Uma reserva de mercado? . Eles já têm controle de mídias sociais e computação em nuvem. Seu poder é imenso e não deve ser reforçado pelo controle total sobre a IA. Portanto, é o mercado que deve decidir, mas não deve ser a regulação que favorece ainda mais essa tendência à concentração do poder digital, uma concentração que nos torna escravos dessa lógica algorítmica.

Ao mesmo tempo, acreditamos que a regulação deve estabelecer vários mecanismos de controle público, uma autoridade responsável e mecanismos de controle cidadão que se articulam por meio de canais de participação. Os Estados terão, necessariamente, de dispor de mecanismos de colaboração público-privado na ausência de capacidades públicas suficientes neste momento para fiscalizar eficazmente este sector de atividade em pleno florescimento, afinal a dinâmica de desenvolvimento da IA é veloz por demais para que o Estado brasileiro possa exercer controle isolado, e logo é fundamental um modelo híbrido com participação da sociedade civil organizada e do próprio mercado.

Na lógica de não ser a caixa de pandora e nem portanto uma panaceia, deve-se evitar as restrições por demais exageradas, não devendo ser impostas ao uso desses sistemas pelas autoridades para processar crimes ou preservar a segurança nacional. Os sistemas de IA já fazem parte dos arsenais de atores maliciosos no ciberespaço e as autoridades públicas devem poder usar essas mesmas ferramentas para combatê-los, sempre sujeitos aos controles do Estado de Direito.

Marco Civil da Internet e a Lei Geral de Proteção de Dados das Pessoas, são instrumentos legais subsidiários a essa regulamentação, visto que a IA se alimenta do tratamento dos dados.

Além disso, será necessário articular mecanismos de verificação em toda a cadeia em relação à cibersegurança e à origem dos dados. Para isso, a melhor ferramenta é a de certificação e auditoria, que permite a um terceiro imparcial verificar o cumprimento do marco regulatório e das normas estabelecidas.

A narrativa de transformar a IA, na abertura da Caixa de Pandora, pode ser estimuladora de uma regulamentação que amplie a concentração de mercado, o que só favorece as grandes empresas de tecnologia. Cada vez mais vemos a narrativa artificialmente desencadeada em torno dos supostos perigos de uma tecnologia como machine learning ou a inteligência artificial como forma de tentar uma certa e considerável viralidade que acelere a regulamentação deve ser vista com muita atenção, pois nesse caso a pressa pode favorecer poucas e privilegiadas empresas. O clamor das ruas e das redes sociais também pode construir inúmeros equívocos.

Imagine a estratégia dos grandes? Geramos uma história sobre os perigos da tecnologia, usamos a engenharia social para dar-lhe uma forte carga viral com enorme transmissibilidade, e depois vamos invocar o regulador para proteger os cidadãos não mais daqueles que criaram a história, que afinal são os que nos alertaram para esses perigos.

É fundamental fazermos esse alerta. Porém onde está o problema? Empresas como a OpenAI, depois de adotar as estratégias de lançamento do Vale do Silício por meio de uma forte alavancagem inicial que lhes permitiu mudar a escala dos projetos de aprendizado de máquina, agora essas mesmas empresas precisam monetizar seu desenvolvimento graças a ser a opção favorita no mercado, ou mesmo uma das poucas que existem. Logo fica claro que para essas empresas e seus investidores, o mais perigoso é que com o tempo possam surgir iniciativas open source que sejam capazes de emular ou melhorar o desempenho de seus modelos, pois isso pode significar uma maior difusão de seu uso sem necessariamente passar pela caixa.

Tente imaginar uma regulamentação da Inteligência Artificial desenvolvida com forte influência da Meta ou do Google?

É bom lembrarmos que máquinas são apenas isso, máquinas, e permanecerão máquinas por muito tempo, e que dentro do que se chama erro plausível pode residir o fantasma do preconceito e da desigualdade, que aniquila os valores que a sociedade elegeu em sua Carta Magna.

Além do desafio legal que às vezes implica, essa característica de alguma IA nada mais é do que uma peculiaridade interessante, quando a IA funciona. No entanto, não ser capaz de entender o raciocínio da IA se torna problemático quando a IA comete o que Borja Adsuara define como “erros plausíveis”. São aquelas respostas de tecnologias de IA que parecem corretas, mas que especialistas ou boas verificações ilustram claramente que não são. Mesmo na ciência da computação fala-se das “alucinações” da IA, porque muitas vezes essas respostas erradas não são baseadas em nenhum dado real.

Um dos exemplos mais ilustrativos desses “erros plausíveis” ou “alucinações” da IA é o caso relatado pelo Washington Post em que um professor de direito nos Estados Unidos foi incluído por uma inteligência artificial generativa em uma lista de acadêmicos denunciados por assédio, referindo-se como fonte a um artigo no Washington Post. O problema é que esse verdadeiro professor nunca havia sido denunciado formal ou informalmente por esse motivo e o artigo do Washington Post que foi citado como fonte sobre o suposto assédio não existia. Não é que tenha sido uma denúncia apresentada ou rejeitada ou informal ou que o artigo tenha sido posteriormente negado. Tudo, exceto o nome do pobre professor de direito, havia sido inventado pela IA.

Isso pra ficarmos em um só exemplo, logo a regulamentação é necessária sim, pra evitar atropelos e principalmente pra evitar a concentração dessa importante ferramenta de trabalho e pesquisa nas mãos de poucos e os mesmos.

Artigo publicado originalmente no site www.jusbrasil.com.br, em 15 de agosto de 2023

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *