Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

A decisão da Cloudflare de incluir a startup de IA Human Native em sua pilha sinaliza um ponto de inflexão: conteúdo licenciado e estruturado pode se tornar a base para uma economia de IA mais sustentável.
Embora a notícia da aquisição, anunciada em 15 de janeiro, ainda esteja recente, vários especialistas em mídia e editores consideram isso um sinal de como a Cloudflare planeja ajudar a construir uma infraestrutura para a economia de conteúdo de IA.
E a plataforma da Human Native aborda uma parte vital da luta de compensação de IA que os editores têm enfrentado até o momento: incentivos para que os desenvolvedores de IA optem por participar.
A Cloudflare está efetivamente construindo uma pilha de licenciamento de IA para seus clientes editores. A Human Native, sediada no Reino Unido, ajuda a transformar o conteúdo do editor em dados prontos para IA e garante que as pessoas que o criaram sejam pagas.
Esse é um caminho que a Cloudflare já explorou, tendo iniciado uma versão beta privada para um novo tipo de índice da web, chamado AI Index., projetado para ajudar os criadores a tornar seu conteúdo acessível à IA, fornecendo aos desenvolvedores de IA dados de maior qualidade e uma compensação justa aos criadores. A ferramenta, anunciada em setembro passado, tem um potencial promissor, disse Will Allen, vice-presidente de produtos para editores da Cloudflare, embora não revele detalhes.
Integrar a equipe e a plataforma da Human Native fortalece essa capacidade sob uma missão comum, enfatizou Allen. “Precisamos de muitos colaboradores, e isso significa realmente avançar com melhor controle para os editores, melhor controle para os criadores de conteúdo e melhor conteúdo – melhores dados – para empresas de IA”, disse ele ao Digiday.
Esta é a mais recente de uma série de medidas tomadas pela Cloudflare para corrigir o desequilíbrio entre editores e empresas de IA que roubaram seu conteúdo gratuitamente para treinar seus LLMs.
No ano passado, uma enxurrada de novos produtos da Cloudflare, incluindo bloqueio de bots por padrão, Política de sinais de conteúdoferramentas de pagamento por rastreamento e Índice de IA, sinalizaram a direção que está tomando na construção de uma infraestrutura amigável à IA que ajuda os editores a monetizar o conteúdo, controlar o acesso e garantir uma compensação justa quando seu trabalho é usado por desenvolvedores de IA.
Mas bloquear os rastreadores de IA por si só não é suficiente para os editores – para transformar o conteúdo em um fluxo de receita sustentável, os desenvolvedores de IA precisam de incentivos reais para aceitar e pagar pelo acesso.
Os desenvolvedores de IA não podem confiar no scraping para sempre: sem conteúdo licenciado, os modelos correm o risco de treinamento de baixa qualidade, reações regulatórias e relacionamentos tensos com os próprios editores e criadores cujo trabalho impulsiona seus produtos. Até à data, tem sido difícil incentivar a maior parte dos criadores de IA a pagar, excluindo os maiores (OpenAI e, mais recentemente, Meta) e eles têm incentivos mais profundos do que a ética: mitigação de riscos legais.
“A web é confusa e há muito conteúdo não estruturado e não rotulado por aí que está sendo incluído no treinamento desses modelos e, na verdade, apenas agitado até que algo útil seja lançado”, disse James Smith, cofundador da Human Native. “Você pode economizar muito tempo e esforço e obter resultados superiores se inserir dados melhores e mais estruturados.”
Isso levou a equipe da Human Native a começar a pensar sobre quais eram seus desafios, o que poderia trazê-los à mesa, em vez de saquear o bufê gratuito de conteúdo da web. Deixando de lado a ética e a legalidade, em última análise, não é bom que seus próprios produtos façam isso, enfatizou.
Smith apontou para um cliente, cujo nome ele não quis nomear, mas descreveu como uma startup de IA com sede no Reino Unido. Essa empresa de IA, como a maioria, engoliu todos os vídeos disponíveis na internet para treinar seus modelos. A Human Native começou a fornecer dados de alta qualidade de produtoras de vídeo do Reino Unido que trabalhavam em filmes de Hollywood com grandes talentos. O resultado foi que o modelo de IA foi capaz de ingerir dados e metadados de qualidade e profundidade, organizados e estruturados em um nível nunca antes experimentado, segundo Smith.
Essa produtora de vídeo em particular geralmente opera projeto por projeto, muitas vezes com orçamentos apertados. Normalmente, essas empresas contratam equipes grandes para um único projeto importante, como uma produção de Hollywood, e depois a equipe passa para outros trabalhos de curto prazo para preencher suas agendas. Mas trabalhar com o desenvolvedor de IA para obter royalties de IA significou que o estúdio foi capaz de manter suas instalações ativas durante os intervalos entre os principais projetos e fornecer empregos consistentes para a equipe. Além disso, o trabalho foi estruturado por meio de contratos que refletiam a forma como os filmes lidam com os royalties: todos os artistas envolvidos recebiam pagamentos no estilo de royalties sempre que os conjuntos de dados resultantes eram usados para treinamento em IA, de acordo com Smith.
“Acho que isso dá uma ideia do que o futuro pode ser aqui, onde todos se beneficiam, onde as empresas de IA conseguem algo melhor e os criadores recebem algo em troca de seu trabalho árduo”, disse ele.
A produtora recebeu um pagamento adiantado e, em seguida, um pagamento de bônus vinculado às metas de receita daquela empresa de IA, embora Smith não tenha revelado números específicos.
Smith disse que a equipe aprendeu desde então que pode ser mais agressiva com as condições de pagamento para os editores, tendo visto como, em seus primeiros negócios, as empresas de IA superaram essas metas de receita muito rapidamente, o que significa que demorou menos de 12 meses para atingirem as metas de bônus e serem capazes de fornecer a segunda parcela de pagamentos aos criadores. “Se eu estivesse fazendo esses negócios hoje, estabeleceria uma estrutura de pagamento de bônus com meta de receita mais agressiva, porque acho que as empresas de IA estão crescendo incrivelmente rápido”, acrescentou.
O tempo dirá. “Acho que eles (Human Native) criaram esse nicho para os LLMs menores e para as pessoas que desejam bons dados e querem ser éticos sobre isso ou não têm equipes ou dinheiro para abrir caminho para esse conteúdo”, disse Scott Messer, diretor e fundador da consultoria editorial Messer Media.
“Ainda precisamos de mecanismos empresariais para fazer as coisas legalmente, não podemos continuar a gritar ‘isso é ilegal, não quero que façam isso’ – que é o que estamos a fazer atualmente com os LLMs – estamos a processá-los e a bloqueá-los.” Um mercado como o da Cloudflare com Human Native poderia ajudar a resolver isso, acrescentou.
Não vamos nos deixar levar. Há muitos motivos para gostar de uma aquisição, mas, no fundo, trata-se apenas de um bom negócio, enfatizou David Buttle, fundador da consultoria de mídia DJB Strategies e ex-chefe de estratégia de plataforma do Financial Times. Os editores podem temer um monopólio da Cloudflare, mas o controle de 21% dos sites fica aquém do domínio do Google – embora ainda seja uma fatia significativa.
Buttle vê a aquisição como um movimento tático para melhorar a solução CDN da Cloudflare e expandir sua base de clientes, em vez de uma participação significativa no mercado. “A solução deles é bloqueada pelo fornecedor, então você não pode acessar o mercado deles se não estiver na Cloudflare.”
Mas essa falta de monopólio significa que há pouco risco para os editores. “Se estabelecer normas segundo as quais a propriedade intelectual é paga quando é desenvolvida e implementada por aplicações de IA, então será apenas algo positivo.” Ele acrescentou que a indústria de conteúdo de IA ainda está em seus primeiros dias caóticos, uma reminiscência do boom da tecnologia de publicidade que os editores enfrentaram no início dos anos 2000. “Ainda precisamos criar o mercado. O mercado não existe no momento.”
Mesmo com salvaguardas em vigor, alguns editores temem que, mesmo com melhores licenças e proteções de IA, o conteúdo ainda vaze pela web, acabando sendo reaproveitado ou aparecendo em sites de cauda longa – um problema com o qual eles lutam há anos, seja devido a esquemas de MFA ou cópias de baixa qualidade. Esse longo histórico de vazamento de conteúdo também torna mais fácil para os LLMs absorver e reutilizar o conteúdo do editor sem nunca compensar a fonte original.
“A descoberta e distribuição de conteúdo vaza muito”, disse Tom Bowman, consultor de mídia e ex-vice-presidente de operações de receitas dos estúdios da BBC. “Alguns editores originais às vezes são cúmplices em permitir que isso aconteça e, em outros casos, ficam muito descontentes com isso. O perigo é que é uma espécie de tudo ou nada – os editores têm que fazer isso, porque se alguns deles fizerem isso, então as pessoas (LLMs) poderão contorná-los.”
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp