top of page

Instituto Nacional de Proteção de Dados

  • Instagram
  • Facebook
  • LinkedIn
  • YouTube

Fraude individual, risco sistêmico: o streaming na era da manipulação por IA 

  • Foto do escritor: INPD
    INPD
  • há 2 dias
  • 4 min de leitura

Imagem criada por IA
Imagem criada por IA

Na era da IA generativa, a integridade dos algoritmos torna-se o novo centro da responsabilidade civil das plataformas


Martha Leal, Advogada, vice-presidente do Instituto Nacional de Proteção de Dados – INPD, especialista em Direito Digital e Proteção de Dados, mestre em Direito e Negócios Internacionais, certificada como CDPO pela Maastricht University


A recente denúncia apresentada pelo Departamento de Justiça dos Estados Unidos contra Michael Smith, músico da Carolina do Norte, marca um ponto de inflexão na indústria musical digital. Segundo a acusação, ele teria utilizado ferramentas de inteligência artificial para gerar centenas de milhares de músicas, distribuí-las em grandes plataformas de streaming — como Spotify, Apple Music, Amazon Music e YouTube Music — e, por meio de bots, inflar artificialmente as execuções para capturar mais de US$ 10 milhões em royalties.

À primeira vista, trata-se de um caso clássico de fraude eletrônica e lavagem de dinheiro. Em profundidade, porém, o episódio revela algo mais inquietante: uma vulnerabilidade estrutural do modelo econômico do streaming na era da automação em escala. Estamos diante de uma equação perigosa: custo marginal praticamente zero combinado com remuneração baseada em volume.


O streaming opera majoritariamente pelo modelo chamado pro rata. Toda a receita arrecadada no mês é reunida em um grande “pool” e distribuída proporcionalmente ao número de execuções. Cada play impacta diretamente a divisão do bolo. Se as execuções são infladas artificialmente, o sistema inteiro é distorcido.


Quando a produção musical passa a ter custo quase nulo, graças à IA generativa, e pode ser replicada em massa, o incentivo econômico à manipulação cresce exponencialmente. O fraudador não cria receita nova; ele desloca recursos que deveriam remunerar artistas legítimos. O problema, portanto, não é apenas tecnológico. É estrutural.


A inteligência artificial não inventou a fraude no streaming, mas elevou sua escala a um patamar inédito. Até pouco tempo atrás, criar milhares de músicas exigia estúdio, músicos, tempo e investimento. Hoje, ferramentas generativas permitem a produção industrial de faixas em ritmo acelerado. Aliadas a bots e scripts automatizados, produzem uma simulação de engajamento quase indistinguível do comportamento humano.


Surge, assim, um novo tipo de risco: a economia de atenção artificializada. Plataformas digitais baseadas em métricas quantitativas tornam-se vulneráveis quando a própria métrica pode ser manipulada. O que está em jogo não é apenas o conteúdo publicado, mas a integridade da arquitetura que sustenta a monetização.


Diante desse cenário, uma pergunta inevitável se impõe: as plataformas são vítimas ou corresponsáveis? No caso concreto, figuram como vítimas da fraude. Mas o debate jurídico tende a evoluir. Se o modelo de negócio depende diretamente de dados automatizados de execução, qual é o grau de diligência tecnológica exigido dessas empresas? Sistemas antifraude insuficientes podem caracterizar falha de governança? A responsabilidade civil deve limitar-se ao ilícito individual ou é a fragilidade da arquitetura que permite sua ocorrência?


A discussão desloca o foco do conteúdo para o sistema. Essa tendência dialoga com movimentos regulatórios internacionais. O Digital Services Act europeu, por exemplo, impõe às grandes plataformas deveres proporcionais de mitigação de riscos sistêmicos, inclusive aqueles relacionados à manipulação algorítmica e à integridade dos sistemas digitais. A lógica é clara: quanto maior o impacto estrutural da atividade, maior o dever de governança.

Em uma perspectiva civilista, a reflexão também ganha densidade. À luz dos artigos 186 e 927 do Código Civil brasileiro, discute-se se a exploração econômica de sistemas baseados em métricas automatizadas poderia, em determinados contextos, atrair a incidência da teoria do risco da atividade, especialmente quando a arquitetura se mostra estruturalmente vulnerável a manipulações previsíveis.


Não se trata de defender responsabilização automática. Mas de reconhecer que, em ambientes digitais mediados por algoritmos, a integridade do sistema passa a integrar o próprio dever de diligência empresarial.


Transparência e compliance algorítmico deixam de ser diferenciais reputacionais e passam a compor a infraestrutura de confiança do modelo. Auditorias externas de sistemas antifraude, relatórios de integridade, identificação de conteúdo gerado por IA e a revisão de mecanismos de remuneração — inclusive com o avanço de modelos mais conectados ao consumo real do usuário — tendem a ganhar espaço.


O caso Michael Smith diz menos sobre música feita por IA e muito mais sobre a exploração da arquitetura econômica das plataformas digitais.


Ele sinaliza uma transição paradigmática: saímos da responsabilidade centrada apenas no conteúdo para a responsabilidade voltada à arquitetura do sistema. Quando a monetização depende diretamente de métricas automatizadas, a robustez do mecanismo de aferição torna-se parte essencial do dever de governança.


A inteligência artificial não apenas transforma mercados; ela expõe fragilidades estruturais antes invisíveis. O streaming nasceu como promessa de democratização do acesso à música. Agora enfrenta o teste da integridade. O futuro do setor dependerá menos da quantidade de músicas disponíveis e mais da credibilidade dos mecanismos que sustentam sua monetização.


A pergunta que permanece é simples e incômoda: as plataformas estão preparadas para um ambiente em que parte significativa do engajamento pode ser artificial?


A resposta a essa pergunta não dirá respeito apenas à música, mas à própria sustentabilidade da economia digital.


Comentários


bottom of page