Por Jean Silva (jeansilva@usp.br)
A Inteligência Artificial (IA) tem se tornado cada vez mais presente no cotidiano, transformando a forma como os seres humanos vivem, trabalham e interagem com a tecnologia. Essa poderosa ferramenta tem o potencial de resolver problemas complexos, impulsionar inovações e melhorar a qualidade de vida das pessoas. No entanto, seu desenvolvimento também traz consigo desafios que precisam ser cuidadosamente abordados.
O que é Inteligência Artificial (IA) e como ela funciona?
“A inteligência artificial é um modelo matemático que simula o comportamento de aprendizagem do nosso cérebro”, afirma Clayton Reginaldo Pereira, docente e pesquisador de matérias das Ciências da Computação na Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP). “O objetivo da IA é criar softwares e algoritmos que possam aprender, raciocinar e tomar decisões de forma semelhante à mente humana”.
Para que isso funcione, ela utiliza técnicas avançadas de processamento de dados, como aprendizado de máquina (machine learning) e redes neurais artificiais. “A primeira delas é o “perceptron”, no qual o processo de aprendizado dos nossos neurônios, que são as sinapses, é simulado através de funções matemáticas”.
A IA utiliza redes neurais artificiais feitas por diversos desses “perceptrons” para simular a inteligência humana. Esses algoritmos são treinados com grandes conjuntos de dados, permitindo que o sistema aprenda padrões e regras a partir dessas informações. A partir disso, a IA pode realizar tarefas específicas, como reconhecimento de imagem, processamento de linguagem natural e tomada de decisões, de maneira cada vez mais eficiente e autônoma.
Qual o grande avanço da tecnologia?
As técnicas de IA, especialmente aquelas baseadas em redes neurais, começaram a ganhar destaque significativo na mídia por volta do final da década de 2010 e início da década de 2020. No entanto, as bases teóricas para os modelos recentes em alta já existiam antes. “De um tempo pra cá, a inteligência artificial teve esse grande “boom” graças ao poder computacional”, conta o professor. “Então, ela não é uma técnica nova, mas ela era inviável, porque não tínhamos capacidade computacional”.
A IA generativa é o tipo específico capaz de criar conteúdo original, como textos, imagens, músicas e vídeos, de forma autônoma, diferente da técnica convencional, que é programada para executar tarefas específicas. Ela utiliza algoritmos para gerar novos conteúdos criativos com base em grandes conjuntos de dados de treinamento. Essa tecnologia, responsável pela recente notoriedade do assunto, não seria possível sem a atual capacidade de armazenamento de dados.
“Um único algoritmo, um único neurônio, que é o “perceptron”, como eu falei agora há pouco, é muito simples de rodar. Mas se a gente pegar as redes neurais ou redes neurais profundas, como é chamado o “deep learning”, precisamos de muito mais poder computacional”, explica Clayton. “Nós precisamos de uma máquina específica, com uma quantidade de memória específica, com processador específico e uma placa de vídeo potente, principalmente”.
Quais inovações já estão a nosso alcance?
A técnica já é aplicada em diversas áreas, com resultados impressionantes. No campo da saúde, sistemas de IA têm demonstrado uma precisão surpreendente no diagnóstico de patologias, como câncer e doenças cardíacas, com base na análise de exames de imagem. Essa tecnologia pode ajudar os médicos a identificar problemas de saúde em estágios iniciais e aumentar as chances de tratamento bem-sucedido.
“Existem aplicações para diagnóstico, reconhecimento ou até predição de casos em estudos recentes que a gente tem feito”, esclarece o pesquisador, que atua junto com médicos para aplicação do recurso na medicina. “Um dos maiores desejos de qualquer país do mundo seria beneficiar a saúde. Se a gente tivesse, por exemplo, a saúde municipal unificada, você conseguiria daqui a cinco ou dez anos predizer uma doença para o seu filho, que provavelmente você e seu pai já tiveram”.
No setor de transporte, os carros autônomos equipados com IA estão se tornando uma realidade cada vez mais concreta. Esses veículos utilizam sensores, câmeras e algoritmos de aprendizado de máquina com o objetivo de navegar pelas ruas de forma segura e reduzir acidentes e congestionamentos. A IA também já foi aplicada em sistemas de gerenciamento de tráfego para otimizar rotas e reduzir o tempo de deslocamento.
Na área financeira, a IA tem sido empregada em sistemas de detecção de fraudes, análise de risco de crédito e até mesmo na gestão de investimentos. Esses sistemas são capazes de processar grandes volumes de dados, identificar padrões e tomar decisões com maior precisão do que os humanos. No entanto, à medida que a IA se torna mais sofisticada, também surgem preocupações éticas que precisam ser abordadas.
Quais os desafios atuais?
Um dos principais desafios éticos da IA é a questão do viés algorítmico. Os algoritmos são treinados com base em dados históricos, que podem refletir preconceitos e desigualdades presentes na sociedade. Isso pode levar a decisões discriminatórias, como a negação de empréstimos ou oportunidades a determinados grupos.
Outro desafio é a questão da propriedade intelectual e direitos autorais, uma vez que pode-se criar conteúdo semelhante a obras já existentes. As discussões sobre inteligência artificial nos últimos anos costumam evidenciar as preocupações sobre plágio ou uso não autorizado de material protegido por direitos autorais.
A desinformação e manipulação também são preocupantes, pois a IA pode ser usada para criar conteúdos falsos ou enganosos, como deepfakes, que podem ser usados para espalhar informações erradas e manipular as pessoas. A privacidade e a segurança dos dados utilizados pelos sistemas também é uma questão: à medida que são coletadas e processadas grandes quantidades de informações pessoais, é essencial garantir que os dados sejam protegidos e utilizados de forma ética e responsável.
“Aqui na universidade, tudo o que fazemos é submetido para a plataforma Brasil, que passa pelo Conselho de Comissão de Ética da UNESP”. Ele alerta para a Legislação de Proteção dos Dados e esclarece que, para o trabalho ser realizado, é necessário “especificar bem quem vai trabalhar e quem é o responsável, que no caso dos meus alunos sempre sou eu”.
O impacto da IA no mercado de trabalho também é uma preocupação. À medida que tarefas rotineiras são automatizadas, alguns empregos podem ser substituídos por máquinas, o que pode acentuar as desigualdades sociais e econômicas. É necessário desenvolver políticas públicas e programas de requalificação profissional para mitigar esses efeitos.
“Há uns anos atrás, as pessoas tinham muito medo do recurso acabar com profissões. Os próprios médicos tinham esse medo. Acredito, sim, que vai acabar com profissões como já acabou com algumas, porém ela acaba com uma e nascem três, quatro”, tranquiliza o doutor.
Regulação e futuro
Para lidar com esses desafios éticos, diversos países e organizações internacionais têm trabalhado no desenvolvimento de diretrizes e regulamentações para o uso responsável da inteligência artificial. A União Europeia, por exemplo, aprovou recentemente a Lei de Inteligência Artificial, que estabelece padrões de segurança e transparência para o desenvolvimento e uso dessa tecnologia.
No Brasil, entidades da cultura, como a Ordem dos Advogados do Brasil, a Câmara Brasileira do Livro e a Associação Brasileira de Imprensa, assinaram uma carta com recomendações para a regulação da IA, visando garantir os direitos de artistas e criadores. Essas iniciativas demonstram a importância de uma abordagem multissetorial na construção de uma governança eficaz para a inteligência artificial.
Bruna Bazaluk, graduanda no IME em ciências da computação, estuda a interseção entre grandes modelos de linguagem, como GPT e BERT, e a causalidade, uma área que estuda relações de causa e efeito e calcula probabilidades relacionadas. “Modelos de linguagem têm dificuldade em entender, fazer inferência causal e calcular as probabilidades. Meu trabalho é fazer um sistema que utilize LMS (Large Language Models), mas consiga resolver problemas de inferência causal com mais acurácia”, conta.
Para a aluna, a sociedade precisa entender os limites das IA’s e que essas ferramentas não serão a solução para tudo. Além disso, diz que “um cuidado ético é necessário para evitar os problemas de viés por parte de quem desenvolve”. Ainda assim, ela acredita que “como qualquer tecnologia, a IA pode diminuir a carga de trabalho do ser humano e auxiliar em tarefas mais procedurais”.