A aplicação da IA ​​do YouTube é questionada à medida que os canais são restaurados

A aplicação da IA ​​do YouTube é questionada à medida que os canais são restaurados


Os criadores do YouTube estão levantando preocupações sobre o sistema de moderação baseado em IA da plataforma. Várias contas descrevem encerramentos repentinos de canais por “spam, práticas enganosas e golpes”, seguidos por rejeições rápidas de recursos com respostas padronizadas.

Em alguns casos, os canais foram restaurados somente depois que o criador chamou a atenção no X ou no Reddit. A mensagem do YouTube aos criadores afirma que a empresa “não identificou nenhum problema generalizado” com o encerramento de canais e diz que apenas “uma pequena porcentagem” das ações de fiscalização são revertidas.

Há uma lacuna entre a posição do YouTube e as experiências dos criadores que está gerando um debate.

O que os criadores estão relatando

O padrão que aparece nos threads X e Reddit segue uma sequência semelhante.

Os canais recebem avisos de rescisão citando “spam, práticas enganosas e golpes”. Os recursos são rejeitados em horas, às vezes minutos, com linguagem genérica. Quando os canais são restaurados, os criadores dizem que não recebem nenhuma explicação sobre o que desencadeou o banimento ou como evitar problemas futuros.

Um caso documentado vem do criador do YouTube “Chase Car”, que dirige um canal de notícias EV. Em uma postagem detalhada no r/YouTubeCreators, eles descrevem uma sequência em que seu canal foi desmonetizado por um sistema automatizado, limpo por um revisor humano e encerrado meses depois por spam.

O criador diz que encaminhou o caso para um órgão de disputa certificado pela UE de acordo com a Lei de Serviços Digitais. De acordo com o relato deles, a decisão concluiu que a rescisão “não era legítima”. Até a atualização mais recente, o YouTube não havia agido de acordo com a decisão.

Canais restaurados após atenção pública

Um subconjunto de canais encerrados foi restabelecido depois que seus casos ganharam visibilidade nas redes sociais.

O canal de análise de filmes Final Verdict compartilhou um tópico documentando um encerramento repentino relacionado a spam e posterior reintegração depois que postagens no X ganharam força.

O canal de crimes reais The Dark Archive teve seu canal removido e posteriormente restaurado após marcar o TeamYouTube publicamente.

O streamer ProkoTV disse que seu canal foi impedido de transmitir ao vivo após um aviso de spam. Posteriormente, o TeamYouTube reconheceu um erro e restaurou o acesso.

Essas reversões confirmam que algumas ações de fiscalização são incorretas segundo os próprios padrões do YouTube. Eles também sugerem que a escalada em X pode funcionar como uma via de recurso paralela.

O YouTube reconhece alguns erros

Em alguns casos, o YouTube ou os seus representantes admitiram erros publicamente.

Dexerto relatou sobre um criador cujo canal com mais de 100.000 assinantes foi banido por causa de um comentário que escreveram em uma conta diferente aos 13 anos. O YouTube acabou se desculpando, dizendo ao criador que o banimento “foi um erro da nossa parte”.

Tech YouTuber Enderman, com 350.000 assinantes, disse que um sistema automatizado fechou seu canal após vinculá-lo a uma conta banida não relacionada. Dexerto destacou o caso depois que ele se espalhou no X.

Posição oficial do YouTube

O YouTube enquadra sua aplicação de maneira diferente da descrita pelos criadores.

A política de spam, práticas enganosas e fraudes da empresa explica por que ela toma medidas contra fraude, falsificação de identidade, envolvimento falso e metadados enganosos. A política observa que o YouTube pode agir no nível do canal se existir uma conta “principalmente” para violar regras.

Em uma postagem de perguntas frequentes, o YouTube afirma que a “grande maioria” das rescisões é mantida em recurso. A empresa diz estar “confiante” em seus processos, ao mesmo tempo que reconhece “um punhado” de rescisões incorretas que foram posteriormente revertidas.

O YouTube também oferece um programa piloto “Second Chances” que permite que alguns criadores iniciem novos canais se atenderem a critérios específicos e tiverem sido encerrados há mais de um ano. O programa não restaura vídeos ou assinantes perdidos.

O CEO do YouTube indicou recentemente que a empresa planeja expandir as ferramentas de moderação de IA. Em uma entrevista à Time, ele disse que o YouTube prosseguirá com a aplicação ampliada da IA, apesar das preocupações dos criadores.

Por que isso é importante

Se você confia no YouTube como canal principal, essas contas levantam questões práticas. O encerramento de um canal remove toda a sua presença, incluindo assinantes e potencial de receita. Quando as apelações parecem automatizadas, você tem visibilidade limitada sobre o que desencadeou a aplicação.

A linha do tempo do Chase Car mostra que um sistema de IA pode anular um veredicto humano positivo meses depois. Criadores sem muitos seguidores podem ter menos opções de encaminhamento se as apelações formais falharem.

Olhando para o futuro

A Lei dos Serviços Digitais da UE dá aos utilizadores europeus acesso a organismos de litígios certificados para decisões de moderação. O caso Chase Car poderia testar como as plataformas respondem a decisões desfavoráveis ​​sob esse sistema.

O YouTube afirma que seu processo de apelação é o canal correto para disputas de aplicação da lei. A empresa não anunciou mudanças em sua abordagem de moderação em resposta às reclamações dos criadores.

Monitore a comunidade de ajuda oficial do YouTube para obter atualizações sobre procedimentos de apelação ou esclarecimentos sobre políticas.


Imagem em destaque: T. Schneider/Shutterstock



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *