Advogados analisam desinformação e uso de deepfake nas eleições 2024
Especialistas sugerem a criação de estruturas sólidas nos partidos para monitorar e combater a desinformação, ressaltando a necessidade de regras claras e a pesquisa rigorosa de fontes de informação.
Da Redação
quinta-feira, 3 de outubro de 2024
Atualizado às 14:44
Este ano será marcado por disputas eleitorais em diversos países, com a inteligência artificial desempenhando um papel inédito. No Brasil, as eleições municipais têm sido uma oportunidade de candidatos e apoiadores testarem potenciais aplicações de novas tecnologias. Como aconteceu em anos anteriores, haverá a propagação de informações falsas, as fake news, que serão potencializadas pelo uso de deep fakes – recurso tecnológico que, com a IA, permite manipular fotos e vídeos ao trocar rostos de maneira convincente.
“Pela primeira vez temos ferramentas tecnológicas sofisticadas disponíveis de forma acessível a qualquer pessoa, podendo criar voz e imagem”, explica Camilla Jimene, CEO do escritório Opice Blum Advogados Associados, especializado em Direito Digital.
Se engana quem acha que está isento. A advogada esclarece que, embora contexto seja complexo, na maioria das vezes é possível investigar e identificar a fonte da informação por meio de ferramentas de monitoramento de surface web, que utilizam tecnologia de ponta para rastrear conteúdos de forma rápida, por exemplo.
Além disso, com a evolução das tecnologias, Camilla reforça a importância de os partidos políticos criarem estruturas sólidas para lidar com situações como essa, pois não há como evitar o avanço das ferramentas.
“Apoiamos escritórios especializados em Direito Eleitoral e equipes de marketeiros das campanhas, entre outros, para reunir materiais que comprovem tecnicamente que o conteúdo foi gerado por uma ferramenta de IA e que, posteriormente, poderão ser utilizados como provas caso seja necessário abrir um processo ou mesmo quebrar o sigilo de alguma informação”, conclui a especialista.
É possível combater a desinformação?
Para mitigar os impactos nos resultados das eleições, no início do ano o TSE aprovou algumas normas na tentativa de regulamentar o uso de IA durante as eleições.
Dentre as regras, há criação de rótulos que apontem, explicitamente, que houve utilização de IA no conteúdo; restrições ao uso de chatbots e avatares nas campanhas; proibição absoluta ao uso de deep fake e obriga, sem a necessidade de ordem judicial, que provedores de internet (redes sociais e aplicativos de mensagens, por exemplo) retirem do ar, contas e materiais que promovam condutas e atos antidemocráticos e/ou discursos de ódio, como racismo, homofobia, fascismo e qualquer tipo de preconceito.
“Ainda não existe uma maneira 100% confiável para que um leigo consiga reconhecer se um conteúdo foi alterado com IA. O melhor caminho ainda é pesquisar qual a origem da informação e se a fonte é confiável”, pondera Henrique Fabretti, sócio do escritório Opice Blum Advogados Associados.
Ademais, Fabretti concluiu que “existem conversas sobre a criação de selos que mostrem que um conteúdo foi gerado por IA, como uma marca difícil de tirar para facilitar a identificação por um perito. Mas as discussões ainda precisam avançar”.