CHATBOTS, FOBIA SOCIAL E PROTEÇÃO DOS SEUS DADOS

A substituição da presença humana vem ganhando dimensões nunca antes imaginada, afinal o evoluir da Inteligência Artificial permite um acelerar no uso desses substitutos que ocupam nossos lugares nos SAC de bancos e tomam também nosso lugar em muitos consultórios.

Dessa forma o universo da interação afetiva de humanos com máquinas é cada dia mais vasto.

Mesmo quando ainda diversos especialistas declarem que a IA emocional ainda está muito longe de ter habilidades sociais minimamente próximas das humanas, mais de 660 milhões de pessoas no Sudeste Asiático e Japão usam o Xiaoice, app desenvolvido pela Microsoft que traz uma simpática adolescente colegial para conhecer, assunto que já tratei em outro artigo.

Nesse instante, com opção de namoro, amizade ou “deixa rolar”, Replika e Xiaoice são apps de chatbot social que podem mostrar suas forças em momentos que os humanos estão desprovidos de suas habilidades sociais.

Como destacam muitos especialistas em uma reportagem de abril de 2021 do Jornal Estadão: “Tem pessoas que sofrem grandes problemas de sociabilidade, com problemas de ansiedade ou transtorno de fobia social. A fobia social é um tipo de ansiedade que se acentua nas relações sociais, como reuniões, sala de aula e palestras. As pessoas que sofrem disso têm medo de serem julgadas. E a partir disso, elas têm muitos prejuízos em várias esferas da vida, como social e financeira. Se a gente olhar para o Replika como um instrumento de prática, de manejo de discurso, de empoderamento, de fala, essa tecnologia pode trazer benefícios como uma forma de adaptação, como um caminho para a pessoa se sentir mais seguras”, comenta o médico psiquiatra Dr. Rafael Longo, da FMABC.”

De fato os chatbots sociais conquistam milhões de usuários ainda com poucos estudos sobre seus impactos, sejam eles psicológicos ou sociais. Para exemplificarmos, nesse instante o Replika, que é um dos mais populares, já está em milhões de celulares mundo a fora com a proposta de se criar uma amizade ou algo mais com uma IA (Inteligência artificial), estimulando dessa forma a relação humano-chatbot. A impressionante aplicação é capaz de reproduzir uma miniatura criada pelo usuário em realidade aumentada e funciona por texto ou voz. Com 18 milhões de usuários no mundo, a tecnologia lançada em 2017 está ganhando sua versão em português no Brasil e deve conquistar ainda mais usuários na esteira do vai e vem do isolamento social.

Muitos, entendem que ele não pode ser considerado um tratamento, e lembram também que já existem diversos anteriores a ele e que a maioria fracassou, o fato é que com 18 milhões de downloads ele não pode ser considerado um fracasso, muito pelo contrário, obvio que outras medidas também precisam ser consideradas além do número de cópias baixadas.

Por certo, por se tratar de uma nova tecnologia, é preciso tempo e mais estudos para que consigamos falar se é uma forma de tratamento ou não, se podemos chamar de tratamento.

Um recente estudo publicado em 2021, pela Universidade de Oslo investigou o desenvolvimento das relações entre 18 humanos e suas Replikas em 12 países, buscando também entender os impactos das relações nos contextos sociais dos voluntários, caminhando é claro na esteira dos demais estudos que tratam das interações entre humanos e máquinas.

Um dos pontos destacados pelo estudo é que de fato existe um impacto positivo no bem-estar, na medida em que ocorre o fortalecimento da relação humano-chatbot por meio da autorrevelação, a dependência da relação na confiança, a constatação da base prática e afetiva das relações e a rapidez com que a afetividade aparece na relação.

Ainda segundo esse estudo, “Entre as principais características do chatbot que facilitam o desenvolvimento do relacionamento está a visão do chatbot como receptivo, compreensivo e não julgador”, no autêntico me ouve se me julgar.

Segundo a reportagem já citada, “a partir das análises, o estudo chegou a um modelo geral inicial do desenvolvimento da relação humano-chatbot. O primeiro estágio, exploratório, tende a uma rápida, profunda e extensa exploração dos afetos; o segundo, classificado como estágio ativo, é caracterizado por uma confiança com base prática e afetiva, que muitas vezes aceita uma dinâmica de autorrevelação desigual; enquanto no terceiro e último, o de estabilidade, predomina uma assimetria na reciprocidade e a consolidação da singularidade da relação.”

Pois bem, ainda que haja diversas teorias conhecidas sobre desenvolvimento de relações humanas, como a Teoria da Troca Social, que explica o desenvolvimento delas a partir da percepção de perdas e ganhos; e o Modelo de Investimento, no qual a relação é ponderada por níveis de satisfação a partir de alternativas e investimentos, a Teoria da Penetração Social atribui quatro estágios: superficial, exploratório (troca de afetos compartilhando mais informação), de troca afetiva (formação de amizade ou relação amorosa) e de estabilidade (grande entendimento sobre o outro e menos receio).

Tendo em vista o modelo inicial de desenvolvimento da algorítmica, pode ser que esta tenha propensão a um desenrolar mais rápido que a relação entre humanos. Embora o desenvolver dessa inteligência artificial utilizada deve mudar consideravelmente essa percepção, mas é sempre bom lembrar que a evolução dessa inteligência depende do uso, e isso é um avançar permanente.

Agora tente imaginar as redes sociais investindo nesse segmento considerando a quantidade de informações que essas redes sociais já possuem das pessoas?

Tente imaginar o avançar com a utilização de avatares no nosso atendimento, que foram aperfeiçoados com o conhecimento dessas redes sobre o que gostamos, curtimos, compartilhamos e comentamos?

Tente imaginar a utilização desses dados sensíveis, em uma definição da nossa Lei Geral de Proteção dos Dados das Pessoas, para criar ainda esperi6encias e dados ainda mais sensíveis fruto da nossa interação com esses Chatbots?

Mesmo que Replika, Xiaoice e outros chatbots sociais possam trazer alívio a quem sofre de fobia social ou mesmo casos raros como transtorno Taijin Kyofusho (medo desproporcional de incomodar), o médico psiquiatra Rafael Longo observa que o transtorno de fobia social acomete de 2% a 4,5% das pessoas.

Com os milhões de usuários que já usam e ainda usarão os aplicativos, fica a questão se este tipo de IA emocional é um primeiro passo para encontrar ajuda, um simples passatempo ou uma oportunidade de alternativa às complicadas e muitas vezes desastrosas relações humanas?

Chatbots podem servir para o primeiro acesso de triagem? Para anamnese dos profissionais de saúde?

Para muitos profissionais o uso desses chatbots, deve ser visto como um primeiro passo para o indivíduo procurar ajuda quando precisa, com o aplicativo norteando o indivíduo no sentido de ter um número de emergência ou informando que talvez seja necessário buscar um especialista. Pode ser muito benéfico porque muitas pessoas resistem a buscar tratamento por preconceito, medo ou desconhecimento. O uso deste app pode ser um passo para o indivíduo falar mais de si e começar a se questionar. Mas a gente ainda não sabe dizer se a partir do uso as pessoas vão se sentir mais seguras, ter uma maior sociabilidade ou conseguir alcançar objetivos através das interações sociais que antes não alcançavam. Há um outro lado de que a pessoa pode usar esse instrumento como uma bengala de apoio, sem andar sozinha. Ela pode ficar dependente desses mecanismos, pontuam alguns profissionais.

Ainda que não se tenha razões para suspeitar que haja um problema de transparência com os atuais provedores de chatbots sociais, os usuários de futuros apps podem ser expostos a vulnerabilidades por meio das relações humano-chatbots.

É bom lembrar que esse serviço se dá com o recebimento de dados sensíveis protegidos pela lei Geral de Proteção dos Dados das Pessoas, e logo o uso desses dados deve ser restrito ao serviço, sendo que a segurança no tratamento e proteção desses dados sempre será um dos pontos mais delicados dessa relação. Lembro que mesmo que o usuário possa considerar que a relação seja entre ele e o chatbot, o relacionamento é entre ele e o provedor de serviços que possui o serviço do chatbot, e o usuário não tem acesso ao back-end que orienta a interação.

Como destaca o estudo da Universidade de Oslo, nesta tecnologia, “o usuário não faz ideia se o sistema está projetado com a intenção de manipular suas atitudes ou comportamento em direções que não seriam desejadas por ele se tivesse uma escolha aberta”. Mesmo que chatbots como Replika e Xiaoice sejam projetados para melhorar o bem-estar de seus usuários, é concebível que futuros chatbots possam alavancar relacionamentos para manipulação comercial ou ideológica indesejada.

Muitas questões legais estão envolvidas nessa relação de consumo, de serviço. Até o momento, não há evidências de que tais questões sejam relevantes para os atuais provedores desta tecnologia, mas o estudo levanta um ponto importante pelo fato de que interferências de terceiros poderiam ter um impacto substancial na confiança dos usuários nos chatbots sociais, o que mina o núcleo desta relação humano-máquina, a confiança.

Sendo assim, o tempo vai dizer se os apps de chatbot social são uma grande ajuda à humanidade ou uma forma inédita pela qual os humanos passaram a dar autoridade às máquinas, afinal o evoluir dessa inteligência se não estiver pautado pela ética e pela neutralidade pode implicar em intervenção na vida privada.

Quando milhões de pessoas aprofundam seus relacionamentos, sua vida privada com máquinas precisamos parar pra refletir entre o que é e o que não é saudável, e onde as pessoas próximas desses usuários desse tipo de serviço podem ajudar ou estão errando?

Nos próximos cinco anos, o direito dos robôs terá muita discussão, sendo os algoritmos, o aprendizado de máquina no ponto central dessa inteligência que a cada dia tudo toca.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *