Por Fernanda Zibordi (fernanda.zpaulo@usp.br)
A 16ª edição da Campus Party Brasil (CPBR16) trouxe como uma de suas principais promessas realizar a abertura do 1º Fórum Internacional do Marco Regulatório de Inteligência Artificial (IA), iniciativa que busca democratizar as discussões sobre o uso e os impactos dessa tecnologia na sociedade.
Idealizado pelo Instituto Campus Party, em parceria com o Cappra Institute e o Instituto de Tecnologia e Sociedade do Rio (ITS Rio), os Fóruns consistem em reuniões que, ao longo de três anos, irão ocorrer em vários estados do Brasil. O lançamento do primeiro desses encontros na CPBR não foi por acaso: de acordo com a organização do evento, há o comprometimento de liderar o debate público sobre o futuro da IA e sua regulamentação, similarmente ao que foi feito com o Marco Civil da Internet entre as edições dos anos de 2010 e 2014.
Em vários dias, a programação da CPBR16 foi preenchida com painéis temáticos, palestras, mesas redondas, uma consulta pública e outras atrações que trouxeram especialistas para contribuir com discussões sobre o tema e fomentar a transparência de informações diante do público.
Princípios éticos numa revolução tecnológica
Uma das questões centrais que pautam o assunto de regulamentação de IA é sobre como encontrar soluções para um uso ético dessa tecnologia, de forma que ela colabore com a inovação de sistemas e, ao mesmo tempo, não reproduza preconceitos, desigualdades e violações de direitos. “A IA não é ética. Também não é antiética. Ela é a ética”, declarou Marcelo Graglia, pesquisador em Inteligência Artificial e coordenador do Observatório do Futuro do Trabalho, durante o painel ‘A indústria da IA e a ética’.
Essa apresentação propôs alguns pontos a serem considerados nos primeiros estágios da regulação brasileira. Para o pesquisador convidado, é fato a IA se tratar de uma “tecnologia disruptiva” e com grande poder de concentração informacional, mas isso não deve justificar um contexto de antropomorfização da IA – atribuição de capacidade de julgamento humano a uma máquina. O foco seria transformar discussões em métodos práticos, trabalhando em processos de desenvolvimento de IA que sigam princípios éticos bem estabelecidos.
João Brant, Secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República (SECOM), comentou no painel sobre o olhar da gestão pública no assunto, principalmente com base na posição do governo em relação ao PL 2338/2023, que prevê a regulação da tecnologia no país. Em conjunto com a Casa Civil e a Secretaria das Relações Institucionais, a SECOM procura auxiliar a negociação do projeto de lei em discussão no Senado.
“Nós precisamos de um Marco com três dimensões: uma de proteção de direitos, uma de estímulo à inovação e uma de fomento econômico a outras atividades que se beneficiam dos sistemas de IA”, descreveu o Secretário. Para isso, é estipulado que o PL seja “à prova de futuro”, permitindo que os desenvolvedores tenham autonomia, mas que, durante a construção de seus sistemas, comprometam-se com a integridade das informações bases e a mitigação de riscos de violações de direitos.
Direitos autorais e qualidade da informação
Outro tópico de discussão abordado no painel foi a definição de Propriedade Intelectual, considerando as revoluções tecnológicas do momento. As big techs, que antes se configuravam como curadoras de conteúdos de terceiros, agora oferecem seus próprios serviços de informação gerados por IA. “Primeiro, elas passam a ter responsabilidade editorial pelo o que elas te entregam. Segundo, elas deixam de gerar os incentivos econômicos a outros autores da internet”, explicou Brant.
Informações como dados, notícias e conhecimento cultural e científico necessitam de qualidade em suas produções para se manterem valiosas. Segundo o Secretário, a adequada monetização ao criador dos conteúdos – por parte das desenvolvedoras de IA que os utilizam –, assim como a consideração de quais fontes têm autoridade de oferecer informações, são fatores importantes na busca de evitar um retrocesso do debate público.
“A IA tem que oferecer conteúdo cada vez mais sofisticado. Cada vez mais, democratizar o conteúdo bom.”
João Brant
Partindo do funcionamento da IA generativa – aquela capaz de gerar textos, imagens, áudios ou vídeos –, foram levantados alguns riscos possíveis do uso de uma ferramenta de lógica probabilística na produção de conteúdos informativos.
“Aquilo que aparece mais vezes é o que vai ser selecionado (…) e nem tudo o que a maioria faz é o certo”, disse Graglia. De acordo com ele, uma tecnologia que, em sua lógica, privilegia o quantitativo – em mundo que também possui aspectos qualitativos –, poderia ser um problema para o futuro. Sem a gestão e a regulação adequadas, a perda de qualidade e diversidade de conteúdo teria capacidade de potencializar a disseminação de informações erradas para um grande número de pessoas.
Um dos muitos espaços que podem ser afetados por esse cenário é o ambiente acadêmico. Entrevistado pela Jornalismo Júnior, Graglia, que também é professor na PUC-SP, comentou sobre como universidades e revistas científicas estão definindo seus próprios códigos de uso de IA em um contexto de vácuo de regulação. “Tudo isso faz parte de um movimento em que se busca estabelecer quais são os limites do uso ético.”
O professor destacou um exemplo prático em discussão: como os professores vão lidar com as formas de avaliação que podem ser alteradas pelo uso de IA, como trabalhos assíncronos ou à distância. “A única certeza é que os modelos antigos de avaliação têm que ser repensados à luz dessa realidade.”
Confira as outras matérias da nossa cobertura da CPBR16:
Campus Party Brasil 2024: presença da tecnologia no cotidiano é destaque na 16ª edição nacional
Imagem de capa: Acervo pessoal/Fernanda Zibordi