STJ decide que YouTube pode e deve moderar conteúdo; por que isso importa
O STJ (Superior Tribunal de Justiça) decidiu pela primeira vez sobre moderação de conteúdo nas plataformas digitais, tratando de questões como a aplicação dos termos de uso pelos provedores, interpretação do Marco Civil da Internet e a prática de shadowbanning.
O caso em julgamento era sobre a remoção de vídeos de um canal no YouTube administrado por um neurologista que atua como "palestrante de liderança, alta performance e desenvolvimento humano".
Em seu canal, assinado por milhares de usuários, o autor recomendava o tratamento da covid-19 com uso da hidroxicloroquina, o que ia de encontro com as orientações da OMS (Organização Mundial de Saúde) e a "Política sobre Desinformação Médica da Covid-19", adotada pelo YouTube.
O autor argumentou que os seus vídeos tinham conteúdo científico e que, por conta da liberdade de expressão, não poderia ter seu material removido por simples análise de funcionário da empresa.
Alegou ainda que nem mesmo a OMS teria autoridade sobre os médicos, já ela também estaria sujeita a equívocos em suas avaliações, cabendo apenas ao Poder Judiciário decidir sobre a remoção de conteúdos na internet à luz do Marco Civil (Lei nº 12.965/14).
O Tribunal do Estado de São Paulo, ao apreciar o caso, já havia decidido que a moderação de conteúdo "não configura censura e, no caso, não se mostrou exagerada, sendo razoável a conduta da ré de fixar diretrizes baseadas nas orientações da OMS e das autoridades locais de saúde."
O STJ, a partir de voto do ministro Ricardo Villas Bôas Cueva, confirmou que plataformas digitais como o YouTube não apenas podem como devem aplicar as regras que elas próprias criaram para organizar os seus ambientes online e que seria errado interpretar o texto do Marco Civil da Internet como uma proibição para que provedores atuassem na moderação de conteúdos antes de uma ordem judicial.
Conforme apontou Cueva em seu voto, o artigo 19 do Marco Civil "não impede nem proíbe que o próprio provedor retire de sua plataforma o conteúdo que violar a lei ou os seus termos de uso".
Segundo o ministro, essa atuação poderia até mesmo ser vista como uma forma de compliance das empresas.
O STJ reforçou que a plataforma tinha o direito de agir conforme suas políticas, que haviam sido aceitas pelo autor ao criar seu canal e postar os vídeos.
A decisão reiterou que essa discussão é diferente do debate sobre o regime de responsabilidade civil previsto no artigo 19, que se aplica a casos em que terceiros são ofendidos por conteúdos postados.
Neste caso, porém, o foco recaiu sobre a moderação de conteúdo e a possível arbitrariedade dessa ação pelas plataformas, o que não restou configurado.
Segundo o STJ, "é legítimo que um provedor de aplicação de internet, mesmo sem ordem judicial, retire de sua plataforma determinado conteúdo (texto, mensagem, vídeo, desenho etc.) quando este violar a lei ou seus termos de uso, exercendo uma espécie de autorregulação regulada: autorregulação ao observar suas próprias diretrizes de uso, regulada pelo Poder Judiciário nos casos de excessos e ilegalidades porventura praticados."
Não se trata assim de dar um cheque em branco para que os provedores possam fazer o que bem entenderem em termos de moderação de conteúdo.
O que não faltam nos tribunais são casos em que os usuários contestam as decisões sobre moderação, apontando como elas falham por vezes em apontar o conteúdo infringente, os motivos para a remoção ou mesmo em oferecer mecanismos de recurso contra a decisão da empresa.
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberO que os tribunais fazem em casos sobre moderação de conteúdo não é necessariamente dizer se a decisão pela moderação estava certa ou errada, mas verificar se as restrições à liberdade de expressão impostas pelas regras das empresas são pertinentes e se, no caso concreto, a publicação do autor ofende alguma norma do ordenamento jurídico.
Dito de outra forma, as empresas cuidam de aplicar as suas regras, enquanto os juízes, por sua vez, analisam se essas regras são compatíveis com o ordenamento jurídico e se, no caso concreto, o conteúdo questionado viola as leis nacionais.
Um ponto adicional abordado na decisão foi a alegação de que o autor teria sido vítima de shadowbanning, prática na qual o conteúdo é ocultado ou tem sua visibilidade reduzida sem que o usuário tenha conhecimento.
O STJ entendeu que essa prática, em tese, poderia caracterizar ato ilícito, arbitrariedade ou abuso de poder, mas que ela não estava presente neste caso, uma vez que a moderação foi transparente e seguiu os termos de uso da plataforma.
Esse caso decidido pelo STJ é importante, porque se trata da primeira vez em que um tribunal superior analisou a questão da moderação de conteúdo em plataformas digitais, desenhando os contornos que serão certamente usados por demais tribunais no enfrentamento do tema.
A decisão preserva o papel dos termos de uso dos provedores, reforça que deve existir transparência nas atividades de moderação e deixa uma pista sobre como o tema do chamado shadowbanning pode aparecer em casos futuros.
Deixe seu comentário