Neste ano, quase metade da população mundial vai às urnas. E claro que as deep fakes geradas por inteligência artificial (IA) devem ser usadas durante o processo eleitoral. O colunista Diogo Cortiz, de Tilt, escreveu sobre o uso da IA no processo democrático nas eleições deste ano. Segundo ele, já discutimos os efeitos das fake News na polarização e no manejo da opinião pública há algum tempo. No entanto, agora a situação está mais dramática porque estamos lidando com conteúdos mais realistas. Não é à toa que as deepfakes afetam vários aspectos da sociedade. Na última semana, por exemplo, imagens sexuais falsas da cantora Taylor Swift invadiram as redes sociais. Entramos na chamada era da desinformação ultrarrealista, em que vídeos de um jornal de TV que nunca existiu ou o áudio de um candidato falando algo que ele nunca disse podem aparecer a qualquer momento nas nossas redes sociais. TSE se preparaO Tribunal Superior Eleitoral (TSE) está atento para isso. No dia 4 de janeiro, o tribunal divulgou uma minuta das resoluções para as eleições municipais de 2024, que estão sendo discutidas em audiências públicas. Em um dos textos, o tribunal estabelece que os conteúdos para campanhas que sejam fabricados ou manipulados por IA devem ser acompanhados de uma informação explícita em destaque que foi criado ou editado pela tecnologia, além de destacar qual foi utilizada. Alguns ativistas e pesquisadores criticaram a decisão dizendo que isso confundiria ainda mais os cidadãos, além de abrir espaço para a construção de realidades paralelas. Só que em um outro trecho, a minuta proíbe a utilização de desinformação na propaganda eleitoral e impõe responsabilidades ao provedor de aplicação para impedir ou diminuir a circulação de conteúdo. O que o TSE tem pela frente é que a IA impõe um desafio com muitas dimensões, que muitas vezes não é debatido com profundidade. Como regular a IAHoje, a discussão de como regular a IA se faz necessária, mas quando estamos agindo sobre deep fakes, uma regulação ajudaria, mas não resolveria todo o problema. Precisamos entender que o desafio de governança sobre conteúdos sintéticos fabricados por IA envolve duas principais dimensões: a criação e a distribuição. A criação de deep fakes se faz, geralmente, com o uso de ferramentas alternativas, muitas vezes de código aberto. Isso faz com que mesmo uma regulação de IA bastante restritiva, que chegasse ao extremo de banir as ferramentas de criação de imagens, não alcançaria quem, de fato, está causando o problema. Então, além de olhar para a produção, precisamos estar atentos para a distribuição. Não adianta nada alguém produzir um conteúdo se não tiver caminhos para alcançar o máximo número de pessoas. Mas as coisas também não são simples nessa dimensão. Hoje, os principais meios de distribuição são os serviços de grandes plataformas e de redes sociais. Uma das imagens da Taylor Swift foi vista mais de 47 milhões de vezes no X (antigo Twitter) antes de ter sido deletada pela empresa. As grandes plataformas estão sofrendo escrutínio público e pressão para criar mecanismos que identifiquem e moderem conteúdos criados por IA. No caso da Taylor Swift, o X precisou bloquear buscas pelas palavras "Taylor Swift" ou "Taylor Swift AI" para evitar que os usuários conseguissem acessar o conteúdo malicioso, tudo porque a rede social ainda não dispõe de um mecanismo que identifique e modere conteúdo sintéticos. Esse é um dos empecilhos para a governança. Hoje, não existem formas automáticas e confiáveis para detectar conteúdos criados por IA. Grupos de pesquisas ao redor do mundo e os próprios laboratórios das empresas estão debruçados em como criar técnicas para prover marcas d'águas e metadados em conteúdos sintéticos. O desafio, além de técnico, também envolve uma questão de ecossistema. É preciso que todos os atores estejam alinhados em usar os mesmos padrões. |
Nenhum comentário:
Postar um comentário