Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Os criadores do YouTube estão levantando preocupações sobre o sistema de moderação baseado em IA da plataforma. Várias contas descrevem encerramentos repentinos de canais por “spam, práticas enganosas e golpes”, seguidos por rejeições rápidas de recursos com respostas padronizadas.
Em alguns casos, os canais foram restaurados somente depois que o criador chamou a atenção no X ou no Reddit. do YouTube mensagem aos criadores afirma que a empresa “não identificou nenhum problema generalizado” com o encerramento de canais e diz que apenas “uma pequena porcentagem” das ações de fiscalização são revertidas.
Há uma lacuna entre a posição do YouTube e as experiências dos criadores que está gerando um debate.
O padrão que aparece nos threads X e Reddit segue uma sequência semelhante.
Os canais recebem avisos de rescisão citando “spam, práticas enganosas e golpes”. Os recursos são rejeitados em horas, às vezes minutos, com linguagem genérica. Quando os canais são restaurados, os criadores dizem que não recebem nenhuma explicação sobre o que desencadeou o banimento ou como evitar problemas futuros.
Um caso documentado vem do criador do YouTube “Chase Car”, que dirige um canal de notícias EV. Em um postagem detalhada em r/YouTubeCreatorseles descrevem uma sequência em que seu canal foi desmonetizado por um sistema automatizado, limpo por um revisor humano e encerrado meses depois por spam.
O criador diz que encaminhou o caso para um órgão de disputa certificado pela UE de acordo com a Lei de Serviços Digitais. De acordo com o relato deles, a decisão concluiu que a rescisão “não era legítima”. Até a atualização mais recente, o YouTube não havia agido de acordo com a decisão.
Um subconjunto de canais encerrados foi restabelecido depois que seus casos ganharam visibilidade nas redes sociais.
Canal de análise de filmes Veredicto final compartilhou um tópico documentar um encerramento repentino relacionado a spam e reintegração posterior depois que as postagens no X ganharam força.
O canal de crimes reais The Dark Archive tinha seu canal removido e posteriormente restaurado depois de marcar o TeamYouTube publicamente.
Streamer ProkoTV disse que seu canal era restrito de transmissão ao vivo após um aviso de spam. EquipeYouTube mais tarde reconheceu um erro e acesso restaurado.
Essas reversões confirmam que algumas ações de fiscalização são incorretas segundo os próprios padrões do YouTube. Eles também sugerem que a escalada em X pode funcionar como uma via de recurso paralela.
Em alguns casos, o YouTube ou os seus representantes admitiram erros publicamente.
Dexerto relatou sobre um criador cujo canal com mais de 100.000 assinantes foi banido por causa de um comentário que escreveram em uma conta diferente aos 13 anos. O YouTube acabou se desculpando, dizendo ao criador que o banimento “foi um erro da nossa parte”.
Tech YouTuber Enderman, com 350.000 assinantes, disse que um sistema automatizado fechou seu canal após vinculá-lo a uma conta banida não relacionada. Dexerto destacou o caso depois de se espalhar em X.
O YouTube enquadra sua aplicação de maneira diferente da descrita pelos criadores.
A empresa política de spam, práticas enganosas e golpes explica por que toma medidas contra fraude, falsificação de identidade, envolvimento falso e metadados enganosos. A política observa que o YouTube pode agir no nível do canal se existir uma conta “principalmente” para violar regras.
Em um Postagem de perguntas frequentesO YouTube afirma que a “grande maioria” das rescisões é mantida em recurso. A empresa diz estar “confiante” em seus processos, ao mesmo tempo que reconhece “um punhado” de rescisões incorretas que foram posteriormente revertidas.
O YouTube também oferece um Programa piloto “Segundas Chances” isso permite que alguns criadores iniciem novos canais se atenderem a critérios específicos e tiverem sido encerrados há mais de um ano. O programa não restaura vídeos ou assinantes perdidos.
O CEO do YouTube indicou recentemente que a empresa planeja expandir as ferramentas de moderação de IA. Em uma entrevista com o tempoele disse que o YouTube prosseguirá com a aplicação expandida da IA, apesar das preocupações dos criadores.
Se você confia no YouTube como canal principal, essas contas levantam questões práticas. O encerramento de um canal remove toda a sua presença, incluindo assinantes e potencial de receita. Quando as apelações parecem automatizadas, você tem visibilidade limitada sobre o que desencadeou a aplicação.
A linha do tempo do Chase Car mostra que um sistema de IA pode anular um veredicto humano positivo meses depois. Criadores sem muitos seguidores podem ter menos opções de encaminhamento se as apelações formais falharem.
A Lei dos Serviços Digitais da UE dá aos utilizadores europeus acesso a organismos de litígios certificados para decisões de moderação. O caso Chase Car poderia testar como as plataformas respondem a decisões desfavoráveis sob esse sistema.
O YouTube afirma que seu processo de apelação é o canal correto para disputas de aplicação da lei. A empresa não anunciou mudanças em sua abordagem de moderação em resposta às reclamações dos criadores.
Monitore o YouTube comunidade de ajuda oficial para quaisquer atualizações nos procedimentos de apelação ou esclarecimentos sobre políticas.
Imagem em destaque: T. Schneider/Shutterstock
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp