Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Esta semana, o Interactive Advertising Bureau propôs novas proteções para impedir que bots de IA coletem conteúdo online gratuitamente.
A legislação procura responsabilizar as empresas de IA pelo scraping ilícito e pelo não cumprimento das especificações de “não rastreamento” dos editores em seus arquivos robots.txt, que são notoriamente difíceis de aplicar – o não cumprimento apresenta consequências bastante devastadoras para os editores.
TollBit último relatório, lançado esta semana, destaca o amplo ecossistema de web scrapers de terceiros que surgiu – construído para alimentar IA e desenvolvedores corporativos, muitas vezes operando em torno de acessos pagos, contornando os controles da web e alimentando conflitos legais e técnicos. A TollBit documentou quase 40 APIs atendendo a esse setor.
Todos eles desprezam o robots.txt.
Naturalmente, o IAB é um órgão comercial, não um regulador, por isso não pode forçar as empresas de IA a cumprir, mas a sua lei poderia aumentar os riscos legais e de reputação de ignorar as restrições aos editores.
“Em última análise, acreditamos que esta é uma questão absolutamente crítica para o futuro da Internet livre e aberta, que é financiada, em grande parte, por um modelo apoiado por anúncios. Nenhuma indústria pode sobreviver distribuindo os seus produtos gratuitamente”, disse Michael Hahn, vice-presidente executivo e conselheiro geral do IAB e do IAB Tech Lab.
Hahn citou recentes aumentos no tráfego de bots de IA para sites de editorese diminuições no tráfego humano à medida que mais pessoas usam ferramentas de pesquisa de IA para encontrar informações, resultando em menos cliques em sites. “Quando você tem essa dinâmica, isso levará a uma situação terrível para os editores. Não queremos que isso se torne o deserto que existe para a mídia local”, disse Hahn.
As empresas de IA argumentaram em ações judiciais de direitos autorais movidas contra elas por editores que não estão cometendo nenhum delito ao copiar o conteúdo dos editores porque a doutrina do “uso justo” permite o uso de material protegido por direitos autorais para fazer algo novo que não compete com o trabalho original (esta foi a defesa dada pela OpenAI e pela Microsoft no processo do The New York Times contra essas empresas, por exemplo).
Mas esta lei substitui a lei habitual de direitos de autor dos EUA e quaisquer leis de propriedade intelectual a nível estatal, porque se baseia no direito consuetudinário dos EUA. Uma das reivindicações básicas do direito consuetudinário é o “enriquecimento sem causa”, que ocorre quando uma parte tira algo de outra parte sem compensação e lucra com isso, disse Hahn. O que há de único na alegação de “enriquecimento sem causa” é que não existe defesa de “uso justo”, acrescentou.
Aqui está uma versão resumida do que a Lei propõe:
As pessoas podem levar os operadores de bots ao tribunal federal se descobrirem que estão extraindo informações de seus sites sem pagá-los. Se decidirem processar, poderão recuperar o valor do conteúdo ou quaisquer lucros perdidos porque o tráfego foi desviado.
Eles podem:
Os infratores poderiam enfrentar o triplo dos danos, o que significa que pagariam três vezes as perdas que causaram, se:
Visto que é a única empresa a fazer isso atualmente, é uma suposição segura. O regulador do Reino Unido, a Autoridade dos Mercados de Concorrência, deixou bem claro na semana passada com o seu proposta que o Google não fornece nenhum nível de controles úteis para editores que diferenciem entre indexação para descoberta e indexação para uso (para modelos de treinamento ou geração de resumos, por exemplo).
Paralelamente está a investigação antitruste de IA da Comissão Europeia sobre se o Google está usando injustamente o conteúdo de editores da web e os vídeos do YouTube para treinar modelos sem o consentimento dos criadores. Em seguida, o IAB apresenta uma proposta de legislação, que inclui uma linha que impõe penalidades para qualquer empresa que confunda um rastreador de pesquisa com um raspador de bot de IA. “Há obviamente uma empresa que faz isso em grande escala”, disse um executivo editorial que concordou em falar sobre o assunto em troca do anonimato. O facto de existirem agora dois reguladores e agora o maior órgão comercial da indústria dos EUA dizerem a mesma coisa faz com que as alegações contínuas da Google de que a sua utilização seja justa “comecem a soar vazias”, disse o mesmo executivo.
O IAB enviou o projeto de lei ao pessoal do Senado e aos principais membros do Congresso, de acordo com Hahn, e está atualmente em processo de marcação de tempo com os legisladores para explicar a questão e como este projeto de lei poderia resolvê-la. O próximo passo é encontrar um membro do Congresso para patrocinar o projeto de lei e “educar e ganhar força e apoio (no projeto de lei)”, disse Hahn.
“A nossa opinião é que não vamos tentar obter uma solução legislativa quando existir uma crise total, vamos pensar nisso com antecedência”, acrescentou. “Não podemos esperar cinco anos para que todos estes tribunais diferentes provavelmente tomem decisões diferentes, e para que cheguem aos tribunais de recurso e, eventualmente, para que o Supremo Tribunal decida sobre uma questão, porque até lá o dano estará feito. O modelo estará quebrado.”
Se este projeto de lei se tornar uma lei, o ônus legal ainda recairá sobre os editores. Eles precisariam provar que as empresas de IA estão destruindo seus sites sem compensação (rastreando o tráfego de bots de IA) e depois processar as empresas de IA por isso. Mas, eles teriam outra lei como base para suas reivindicações, em oposição à lei de direitos autorais, que tem essa defesa de uso justo, explicou Hahn.
Há uma disposição no projeto de lei que exige “danos triplos”, que Hahn descreveu como o principal “desincentivo” para as empresas de IA continuarem com o seu comportamento de sucata. Se as empresas de IA forem consideradas culpadas de copiar o conteúdo dos editores sem pagá-los, e os danos forem comprovados em tribunal, essas empresas terão de pagar três vezes o montante desses danos.
O cenário ideal é que um projeto como esse passe por diversas comissões, depois por votação geral na Câmara dos Deputados e depois no Senado e, se for aprovado, aguardaria a assinatura do presidente.
“O problema é que há milhares de peças legislativas apresentadas ao Congresso todos os anos e muito poucas delas chegam à mesa do presidente”, disse Aaron G. Rubin, sócio do grupo de transações estratégicas e licenciamento do escritório de advocacia Gunderson Dettmer. “Isso só é ampliado pelo facto de o Congresso dos EUA e a sua relação com o Presidente não estarem totalmente funcionais neste momento. Combinamos isso com a intenção clara de que talvez haja menos regulamentação das empresas de IA do que mais regulamentação neste momento actual, e penso que um projecto de lei como este enfrentaria ventos contrários significativos no Congresso.”
Paul Ragusa, sócio de IP do escritório de advocacia Baker Botts, disse que, embora isso crie bases legais para desafiar a web scraping de dados de treinamento de IA, a lei provavelmente enfrentará resistência tanto da administração atual quanto de partes da indústria de tecnologia. “O Plano de Ação de IA da América do governo visa reduzir a regulamentação e diminuir as barreiras à inovação doméstica em IA”, disse ele. “Eles podem considerar que a lei funciona contra este plano, ao restringir o acesso a determinados dados de formação. A indústria tecnológica tem preocupações semelhantes, especialmente porque a lei anularia a doutrina da utilização justa, uma defesa em que a indústria se tem apoiado fortemente em casos de violação de direitos de autor.
Sim, potencialmente o IAB poderia funcionar em nível estadual. Atualmente, a legislação está redigida de forma a fazer com que seja uma lei federal, observou Rubin. Mas poderia haver um caminho a percorrer estado por estado, se fosse necessário. Foi o que aconteceu com a Lei de Privacidade do Consumidor da Califórnia, aprovada em 2020, que teve um enorme impacto e levou mais de 20 outros estados a seguirem o exemplo com as suas próprias leis de privacidade de dados.
Mas não é o ideal. “O problema de fazer isso em nível estadual significa que isso cria uma colcha de retalhos de leis que dificultam seu cumprimento”, disse Rubin. Dito isto, a proposta atual é relativamente simples – obter o consentimento (dos editores e criadores de conteúdo) e que haja um compromisso juridicamente vinculativo para honrar os arquivos robots.txt, o que poderia tornar mais fácil que as leis fossem suficientemente familiares em diferentes estados, acrescentou Rubin.
Não, o IAB não tem poder governamental para fazer ou fazer cumprir leis. Mas a sua posição como grupo auto-regulador, onde as empresas concordam em seguir regras partilhadas, significa que os seus quadros podem ter um peso real.
Rubin apontou a Digital Advertising Alliance como exemplo – uma estrutura com a qual muitas empresas de publicidade e tecnologia de publicidade assinaram. É voluntário, mas há consequências em que grupos como a Associação de Anunciantes Nacionais podem intervir e as empresas arriscam o escrutínio público se não cumprirem. Além disso, a FTC pode intervir a nível governamental se o comportamento de uma empresa for injusto ou enganoso, acrescentou.
O problema aqui é que não está claro, com um projeto de lei baseado em robots.txt, como a conformidade seria aplicada, uma vez que se aplica a um amplo conjunto de desenvolvedores de IA, em vez de a um grupo definido que concordou com regras compartilhadas.
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp