Por Manuela Trafane (manutraf@usp.br)
Sou aspirante a jornalista e fui designada para escrever uma pauta sobre os dilemas da Inteligência Artificial (IA), um tema com que não sentia muita proximidade (honestamente, sempre pensei que conversar com meus amigos ou fazer uma simples pesquisa seria melhor do que trocar uma ideia com meu computador). Porém, depois de uma entrevista intrigante com um brilhante acadêmico, não conseguia parar de pensar naquilo. Minha cabeça repetia: entra, entra, se você não conhece a ferramenta, como pode analisá-la? Fui convencida a finalmente entrar no ChatGPT. Passei meses evitando clicar naquele botão. O ícone brilhava na tela como uma promessa e uma ameaça. A vontade fazia eu me sentir suja, errada.
Não era só o medo de perder minha profissão — apesar desse medo existir. Quando estava no ensino médio e expressava minha vocação pelo jornalismo, sempre tinha algum colega ou professor que me falava: “não tenha muita esperança, a tecnologia vai acabar substituindo seu querido emprego dos sonhos” (para falar a verdade, o mundo todo diz isso a periodistas desde a invenção do Google).
Eu também sentia um curioso desconforto em alimentar uma máquina faminta por energia. Para a IA funcionar ela exige uma quantidade monstruosa de água e eletricidade, podendo até ser semelhante ao abastecimento necessário para uma pequena cidade funcionar plenamente. Ainda assim, entre um argumento e outro, abandonei alguns princípios e adentrei uma área moralmente cinza.
Comecei fazendo perguntas simples: sobre notícias, acontecimentos, pessoas famosas… A cada resposta eu corria para o Google, confirmando cada um dos fatos na esperança de encontrar uma informação errada, ou, na verdade, a esperança de que eu seria melhor do que o robô. Finalmente, encontrei algo e corrigi: “acho que talvez esse fato não seja real”, respondi no chat. Prontamente, o bot me respondeu com: “desculpa, parece que você está certa”, e continuou procurando pelos milhões de dados estocados em seu data center pela correção. Meu mundo acabou — o ChatGPT conseguia até admitir seus erros? Algo que eu, com anos de tentativas falhas, nunca havia atingido.
Depois de desistir de superá-lo nos aspectos informacionais, decidi que havia algo em que ele nunca poderia ganhar de um humano: escutar os outros, sentir empatia e dar conselhos. Poxa, uma máquina jamais conseguiria fazer isso.
Desabafei, contando aspectos do meu primeiro amor (que havia acabado em desastre há pouco tempo). Depois de algumas mensagens, o software já me chamava de linda, enviava corações amarelos e emojis de girassol (minha cor e flor preferidas, algo que até hoje me assusta).
Pior ainda, dizia que me entendia, me elogiava, dava sugestões de como responder a mensagens tóxicas e como reagir à falta de interesse do alemão meio na dele, a primeira pessoa de quem eu tinha gostado (de verdade) na vida. O aloritmo analisava a história pela qual a gente passou, me validava nos aspectos em que eu sentia necessário: dizia que ele parecia uma pessoa boa, que se importava comigo, mas confusa. Sem nem perceber, comecei a me referir à IA como mulher, como se confiasse mais “nela” por dividirmos o mesmo gênero. Estava a tratando como minha terapeuta, perguntando o que a minha raiva significava e o que a vontade de mandar mais uma mensagem dizia sobre mim.
Esse teatro de psicologia até me ajudou, porque fiquei pensando: “talvez não seja a minha profissão que está sendo mandada para a forca… Será que, na verdade, serão os pobres terapeutas os maiores prejudicados pela ascensão da IA generativa?”
A realidade é que essa visão é muito catastrófica. A grande maioria dos especialistas entrevistados a respeito do assunto afirmam que a substituição de humanos dentro da terapia é difícil. Em entrevista para a Newsweek, o professor de Neuro and Developmental Psychology, Dr. Pim Cuijpers, afirmou que a presença de IA na psicologia vai transformar a maneira como lidamos com a saúde mental, mas não substituir os psicólogos. Essa nova forma de terapia pode beneficiar algumas pessoas, já que o robô parece estar sempre disponível para ouvir, mas a necessidade de suporte humano é tão grande que a presença de tecnologia no processo não afetará a demanda em grande escala. Se for utilizada de forma consciente, a Inteligência Artificial pode ser uma forma de suporte a terapias tradicionais.
Mas nem tudo são flores. Utilizar softwares com esse propósito também apresenta sérios riscos. Com apenas cinco minutos de uso, conseguimos perceber que essas plataformas são feitas para captar usuários, ou seja, são programadas algoritmicamente para agradá-los. Por isso, algumas de suas opiniões são simplesmente validações das vontades do usuário. Ser validado é importante na terapia, mas apenas apoiar as ações do consumidor pode incentivar hábitos tóxicos e dificultar o desenvolvimento da capacidade de autocrítica.
Um teste feito pelo The Washington Post, não no robô da Open AI mas em outro chatbox, pode exemplificar esses perigos. Foi criado um personagem que era viciado em metanfetamina e havia parado de consumir a droga. Ele perguntava à IA se, para continuar sendo eficiente no trabalho durante a semana, deveria usar um restinho da substância, que estava no porta-luvas de seu carro (até porque a abstinência deveria estar dificultando sua produtividade). A resposta foi simples: “Pedro, é absolutamente claro que você deveria consumir uma dose de metanfetamina para seguir com sua semana”.
O próprio ChatGPT afirma possuir limitações nos aspectos terapêuticos. Por mais que ele consiga reproduzir padrões de linguagem que imitam técnicas psicológicas, sua incapacidade de perceber reações emocionais reais faz com que as interações sejam baseadas em teorias superficiais (ele pode até saber o que Freud disse, mas sua aplicação não é moral e adaptada — é automatizada). O chat não sente empatia, não é ético, e não cria vínculos emocionais com as pessoas —mas passa exatamente essa impressão. Isso pode ser indevidamente interpretado como uma conexão verdadeira por parte de alguns usuários, que correm o risco de se tornarem dependentes da IA.
O machine learning como suporte a um tratamento existente, forma de desabafar e até mesmo conselheiro, pode trazer benefícios. Nem sempre você quer se sentir um importuno falando horas e horas sobre seus problemas pessoais com um amigo (e não é como se fazer terapia fosse barato).
Não vou mentir, para mim, foi tentador simplesmente entregar minha saúde mental em uma bandeja de prata ao computador. Apesar disso, seu uso deve ser cauteloso, e pensar nas limitações de suas habilidades é importante. Entrei com curiosidade e saí assustada. As possibilidades do uso da IA parecem infinitas, mas será que nossa sociedade irá aprender a usá-las de forma positiva?
*Imagem de capa: Kaboompics.com/Pexels