top of page

Direitos de autor na era da IA: porque é que Hollywood negocia e África paga


Em Bruxelas, no final de Fevereiro de 2026, os representantes do Conselho Europeu de Escritores sentaram-se diante da Comissão de Cultura e Educação do Parlamento Europeu. Representavam 250.000 autores de 34 países, que escrevem em 37 línguas.


OS ESCRITORES FORAM À GUERRA. MAS A GUERRA NÃO ESTÁ ONDE ELES PENSAM.


A submissão que apresentaram não usou a linguagem cautelosa que Bruxelas costuma preferir. Usou a palavra dano — económico, cultural, social. E acrescentou um argumento que raramente aparece nos documentos das federações profissionais: que a inteligência artificial generativa, ao simplificar textos e fornecer respostas pré-fabricadas, ameaça as próprias competências de leitura e escrita das gerações futuras. Não apenas os rendimentos dos escritores. A literacia como prática civilizacional.


Imagem editorial do Atlantic Lisbon para artigo sobre IA generativa, treino de modelos e direitos de autor, destacando a desigualdade entre o poder negocial de Hollywood e a exposição cultural de África.
Capa editorial sobre direitos de autor, inteligência artificial e desigualdade global na proteção dos criadores: porque é que Hollywood consegue negociar e muitos autores africanos continuam a pagar o preço invisível do treino de modelos.

Poucos dias antes, em Amesterdão, a associação de escritores holandesa, o sindicato de jornalistas e uma fundação de gestão de direitos tinham enviado uma carta formal à Meta. Exigiam que a empresa retirasse do mercado europeu os modelos de IA treinados com obras copiadas e distribuídas sem autorização dos criadores, sem consulta, sem remuneração.


Do outro lado do Atlântico, a quatro de Abril de 2026, o WGA anunciou um acordo de quatro anos com os estúdios — o mais longo contrato da história do sindicato desde pelo menos a década de 1940, fechado após menos de um mês de negociações, sem greve, com disposições explícitas sobre o uso de guiões para treinar modelos de IA.


Três movimentos em poucas semanas, com poderes de negociação radicalmente desiguais. E continentes inteiros onde a batalha ainda nem começou, enquanto os seus acervos culturais já estão a ser consumidos.


Os sistemas de inteligência artificial generativa precisam de enormes volumes de texto para aprender a estrutura da linguagem, os padrões narrativos, os registos de estilo.


Esses textos têm autores, têm editoras, têm contratos. Se o seu uso para treino de IA constitui infração de direito de autor está a ser decidido pelos tribunais — e as decisões contradizem-se.


Em Junho de 2025, um tribunal federal norte-americano decidiu, no caso movido por um grupo de autores contra a Anthropic, que o treino com livros protegidos constitui “fair use”.


O juiz descreveu a transformação como “espetacular”. A Anthropic tinha chegado a esse julgamento depois de pagar 1,5 mil milhões de dólares num acordo extrajudicial por ter descarregado milhões de cópias pirateadas para construir os seus conjuntos de dados.


A linha entre uso aceitável e infração depende de como os dados foram obtidos, de como foram usados, e do direito da jurisdição que se aplica — uma linha que só existe, com clareza, onde há tribunais com capacidade e vontade de a fixar.


Na Coreia do Sul, o organismo de propriedade intelectual determinou em 2025 que, numa obra musical criada com assistência de IA, apenas a melodia composta por um humano obtém proteção — o acompanhamento gerado pelo modelo fica em terra de ninguém.


No Japão, a Agência Cultural estabeleceu que guiões de manga produzidos com IA só são elegíveis para proteção se o criador humano tiver definido previamente a lógica de storyboard e o perfil das personagens.


Na China, um tribunal de Changshu protegeu uma obra criada com ajustes sucessivos de prompts e edição humana posterior, porque o processo refletia intenção e escolha demonstráveis.


Quando as editoras japonesas confrontaram publicamente a OpenAI, em Novembro de 2025, sobre violações de direito de autor pelo modelo Sora 2, Sam Altman respondeu prometendo proteções mais fortes aos criadores. Pode ou não cumprir. Houve interlocução.


O Tribunal do Direito de Autor do Quénia chegou em 2025 à mesma conclusão de fundo que Seul e Tóquio: obras criadas exclusivamente por IA não são elegíveis para proteção por falta de autoria humana. Mas o problema dos criadores africanos não é a autoria das obras que produzem com IA. É o que acontece com as obras que produziram sem ela.


A Nollywood nigeriana é a segunda maior indústria cinematográfica do mundo por volume de produção.


Os géneros Afrobeats e Amapiano têm presença global. Publicações como a Nation Media Group, do Quénia, e a Premium Times, da Nigéria, construíram audiências digitais ao longo de décadas.


Esses arquivos — texto, som, imagem acumulados durante anos — estão acessíveis online e estão a ser incorporados, como observadores legais africanos têm documentado, nos conjuntos de dados que treinam os grandes modelos de linguagem. Sem autorização. Sem compensação. Frequentemente sem que os criadores saibam.


O Quénia prepara em 2026 uma revisão à sua lei de direito de autor; o projeto em discussão não inclui ainda disposições sobre IA.


A Tanzânia debate modelos sem ter sindicato de escritores com poder de negociação comparável ao WGA, nem federação regional com assento institucional em Bruxelas.


No Brasil e no Chile, o debate público sobre IA concentra-se em infraestrutura — centros de dados, investimentos de centenas de milhões de dólares, impacto ambiental nas regiões de instalação. Os direitos dos criadores raramente aparecem.


A autora que publica sob o pseudónimo Coral Hart, baseada na África do Sul, utilizou IA para escrever mais de duzentos romances em 2025, publicados em vinte e um nomes diferentes na Amazon, gerando rendimentos na ordem dos seis dígitos. Ensinou o método a mais de 1.600 pessoas.


A mesma região cujos acervos culturais alimentam os modelos sem compensação produz já escritores que extraem rendimento desses mesmos modelos — enquanto a maioria dos criadores africanos não tem o enquadramento legal para reclamar o primeiro, nem o acesso aos mercados para beneficiar do segundo.


O acordo do WGA impede que os estúdios treinem modelos com guiões sem licença e regula, com maior detalhe do que o acordo de 2023, a integração da IA nos processos de desenvolvimento de scripts.


O emprego de escritores de Hollywood caiu 24,3% entre 2022 e 2024, mesmo com as proteções formais da greve anterior — a redução das salas de escrita aconteceu dentro dos limites do contrato. O novo acordo tenta fechar essas brechas.


Não impede, contudo, que um modelo desenvolvido em São Francisco seja treinado com romances de autores nigerianos, crónicas de escritores quenianos ou letras de músicas brasileiras.


A EWC submete documentos ao Parlamento Europeu porque existe há décadas e opera numa jurisdição com regulação de mercados em curso. O Quénia tem jurisprudência porque tem um tribunal que funciona. A diferença não é de vontade.


É de capacidade institucional acumulada ao longo de gerações — e essa capacidade determina quem está sentado à mesa quando os termos são definidos.


Em 2025, autores no Quénia e na Nigéria adotavam já ferramentas de escrita com assistência de IA para responder a prazos e condições de mercado onde os contratos são mal pagos. Não como indústria. Como adaptação.


São esses mesmos autores que não têm enquadramento legal para proteger as obras que produziram antes de a IA existir, que veem os seus acervos potencialmente incorporados em sistemas cujos outputs concorrem com o seu trabalho, e que não têm sindicato com assento nas mesas onde os termos dessa concorrência estão a ser definidos.


O treino que já aconteceu não é reversível. Os dados foram processados. O que os modelos aprenderam, e de quem aprenderam, ficou — enquanto ainda não havia lei nenhuma a perguntar se podiam.


Subscrever a Newsletter


Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page