IAs, Arte Digital, Destruição Ambiental e Roubo de Direitos

Estrela inativaEstrela inativaEstrela inativaEstrela inativaEstrela inativa
 

O uso das Inteligências Artificiais, seja de forma lúdica ou profissional, tem implicações profundas. Vamos refletir sobre seu uso como expressão artística, mas sem esquecer os impactos sociais, ambientais e econômicos que envolvem essa tecnologia.

1. QUANTO À ARTE
Sim, a IA pode ser uma ferramenta legítima para a produção artística, tal como são o Corel Draw, Photoshop, Krita, Blender e tantos outros softwares de arte digital. O problema não está no uso da ferramenta, mas na estrutura de exploração que se forma ao seu redor. A IA, quando utilizada por artistas conscientes e críticos, pode ser uma aliada da criação, da experimentação e até da democratização da arte. Mas, quando apropriada por grandes corporações, transforma-se em uma máquina de extração de valor baseada no roubo de trabalho e saber coletivo.

2. QUANTO AOS RECURSOS NATURAIS
Algumas IAs, especialmente os grandes modelos de linguagem e imagem (como o GPT ou o DALL·E), consomem quantidades absurdas de energia e recursos computacionais, gerando uma pegada ecológica preocupante. No entanto, esse consumo está diretamente ligado ao modelo de negócios predatório das big techs, que priorizam escala e lucro a qualquer custo, sem investir de verdade na eficiência e sustentabilidade. Um bom contraponto é o caso do DEEPSEEK, uma IA baseada em código aberto (software livre), que consome apenas uma fração dos recursos que grandes modelos proprietários consomem. Isso mostra que é possível sim desenvolver tecnologias mais leves, éticas e sustentáveis — desde que o objetivo não seja apenas lucro, mas benefício coletivo.

3. QUANTO AO CONTEÚDO
A questão do conteúdo usado para treinar essas IAs é uma verdadeira zona cinzenta. A falta de regulamentação (sim, REGULAÇÃO!) permite que empresas usem, indiscriminadamente, obras protegidas por direitos autorais, inclusive de artistas independentes, sem qualquer remuneração ou sequer reconhecimento. Enquanto há vastos acervos sob licenças livres (como a GPL, Creative Commons e outras) que podem e devem ser utilizados de forma transparente, as grandes plataformas se recusam a mostrar o algoritmo inacessível de seus datasets.

Pior: plataformas como Facebook, Instagram e WhatsApp (todos da Meta) já usam, por padrão, todo o conteúdo que você posta para treinar suas IAs. Há uma opção para recusar isso, mas ela exige um processo burocrático opaco, e você nunca saberá de fato se sua escolha foi respeitada.

4. COMO DEVERIA SER
A solução não está em atacar ou constranger o usuário comum que se beneficia das IAs — esse caminho apenas enfraquece o debate e divide os que deveriam estar juntos. O que precisamos é de organização política dos artistas, desenvolvedores, designers, criadores e de toda a sociedade civil.

Devemos lutar por:

REGULAMENTAÇÃO BEM DEFINIDA que defina limites para o uso de obras no treinamento de IA.

TRANSPARÊNCIA E IDENTIFICAÇÃO DAS FONTES de dados usados nos modelos.

RECONHECIMENTO E REMUNERAÇÃO AOS ARTISTAS cujos trabalhos são utilizados.

OTIMIZAÇÃO DAS PLATAFORMAS, com redução real no consumo de energia e recursos.

INCENTIVO AO SOFTWARE LIVRE, que promove o uso ético, acessível e transparente da tecnologia.

5. O QUE FAZER?
É urgente criar redes de articulação entre sindicatos, associações de classe, coletivos culturais e movimentos sociais para pressionar por uma regulamentação justa e democrática das IAs. Precisamos de uma cartografia política das tecnologias, mapeando quais ferramentas são mais éticas, sustentáveis e abertas, para apoiar seu uso e desenvolvimento. É hora de discutir soberania digital, justiça ambiental e justiça autoral como pautas centrais.

A IA pode ser libertadora — mas apenas se for construída com base no interesse público, e não nas margens de lucro das big techs.

You have no rights to post comments

©2025 Lablivre. Alguns direitos reservados. Copyleft

Buscar