A nossa liberdade de expressão e acesso a ferramentas de Vídeo IA estão em risco?
A Electronic Frontier Foundation (EFF) afirma que a versão revista do NO FAKES Act, reintroduzida em abril, seria um desastre para a liberdade de expressão e inovação se for aprovada como lei.
O projeto de lei procura abordar preocupações legítimas sobre réplicas de áudio e vídeo geradas por IA de forma incorreta, argumenta a EFF, estabelecendo um novo direito de propriedade intelectual sobre a imagem de uma pessoa, em vez de um direito de privacidade que impediria réplicas não autorizadas de IA, entre outras falhas alegadas.
O novo direito incentivaria a criação de um mercado para monetizar a simulação de celebridades falecidas e levaria a mais litígios, argumenta a EFF.
E o requisito associado de remoção de conteúdos, segundo o grupo de direitos, colocaria em risco a distribuição de ferramentas de software de IA, incentivaria remoções excessivamente abrangentes de conteúdo, facilitaria a identificação de criadores online e consolidaria o poder das empresas incumbentes com custos de conformidade que startups não poderiam facilmente suportar.
Os críticos receiam que o NO FAKES Act revisto tenha passado de uma proteção direcionada a deepfakes de IA para poderes abrangentes de censura.
O que começou como uma tentativa aparentemente razoável de lidar com deepfakes gerados por IA transformou-se em algo muito mais preocupante, segundo os defensores dos direitos digitais. A muito discutida Lei Nurture Originals, Foster Art, e Keep Entertainment Safe (NO FAKES) – originalmente destinada a prevenir réplicas digitais não autorizadas de pessoas – agora ameaça alterar fundamentalmente o funcionamento da internet.
A expansão do projeto de lei levantou alertas na comunidade tecnológica. Vai muito além de proteger celebridades de vídeos falsos, podendo criar uma estrutura de censura abrangente.
De salvaguardas sensatas a uma abordagem de martelo
A ideia inicial não era totalmente errada: criar proteções contra sistemas de IA que geram vídeos falsos de pessoas reais sem permissão. Todos nós já vimos aqueles deepfakes perturbadores a circular online.
Mas, em vez de criar medidas estreitas e direcionadas, os legisladores optaram pelo que a Electronic Frontier Foundation chama de “sistema federalizado de licenciamento de imagens” que vai muito além de proteções razoáveis.
“O projeto de lei atualizado insiste nesse erro inicial”, nota a EFF, “ao exigir uma infraestrutura de censura totalmente nova para esse sistema, abrangendo não apenas imagens, mas também os produtos e serviços usados para criá-las.”
O que é particularmente preocupante é o requisito do NO FAKES Act para que quase todas as plataformas da internet implementem sistemas que não só removam conteúdos após receberem avisos de remoção, mas também evitem que conteúdos semelhantes sejam carregados novamente. Essencialmente, obriga as plataformas a usar filtros de conteúdo que se mostraram notoriamente pouco confiáveis em outros contextos.
Sistemas Obrigatórios de Remoção: As plataformas de internet seriam obrigadas a remover conteúdos mediante aviso e implementar filtros para impedir reenvios, semelhante a filtros de direitos de autor falhos.
Alvo das Ferramentas: A lei direciona-se a ferramentas usadas para criar imagens não autorizadas, potencialmente sufocando a inovação ao dar poder de veto aos titulares de direitos sobre novas tecnologias.
Salvaguardas Fracas: O sistema de aviso e remoção carece de proteções suficientes, levando a possíveis casos de censura excessiva e abuso. Exceções para paródia e sátira oferecem pouco conforto a quem não pode arcar com desafios legais.
O NO FAKES Act ameaça a expressão anónima
Incorporada na legislação há outra disposição preocupante que poderia expor utilizadores anónimos da internet com base em meras alegações. O projeto de lei permitiria a qualquer pessoa obter uma intimação de um escrivão de tribunal — sem revisão judicial ou provas — obrigando serviços a revelar informações de identificação sobre utilizadores acusados de criar réplicas não autorizadas.
A história mostra que tais mecanismos são propensos a abusos. Críticos com argumentos válidos podem ser desmascarados e potencialmente assediados quando os seus comentários incluem capturas de ecrã ou citações das próprias pessoas que tentam silenciá-los.
Esta vulnerabilidade poderia ter um efeito profundo sobre a crítica legítima e o whistleblowing. Imagine denunciar más condutas corporativas apenas para ter a sua identidade revelada através de um processo de intimação automático.
Esta pressão por regulamentação adicional parece estranha, dado que o Congresso aprovou recentemente o Take It Down Act, que já se dirige a imagens com conteúdo íntimo ou sexual. Essa legislação em si levantou preocupações de privacidade, especialmente em relação ao monitoramento de comunicações criptografadas.
Em vez de avaliar os impactos da legislação existente, os legisladores parecem determinados a avançar com restrições mais amplas que poderiam remodelar a governação da internet nas próximas décadas.
As próximas semanas serão críticas à medida que o NO FAKES Act avança no processo legislativo. Para qualquer pessoa que valorize a liberdade na internet, a inovação e abordagens equilibradas para desafios tecnológicos emergentes, isto merece uma atenção especial.
Parece que, em breve, as pessoas poderão não conseguir criar vídeos curtos humorísticos com a imagem de indivíduos famosos — levantando sérias preocupações sobre liberdade de expressão.
Vídeos de fãs inspirados em franquias icónicas como Star Wars, Star Trek e Marvel também podem estar em risco, uma vez que grandes estúdios estão a começar a processar empresas de IA como a Midjourney.
Silvio Guerrinha
0 Comentários