Violência e preconceito: uma experiência no TikTok
Como um algoritmo que topa tudo por engajamento me sugeriu crimes de ódio e brutalidade policial no meu primeiro dia no aplicativo
Por Jullia Gouveia
“Aí, tu bate de frente com um ‘arrombadinho’ desses, entope ele de tiro, e vocês, seus arrombados, vêm com bagulho de direitos humanos.” O vídeo, que soma mais de 1,3 milhão de curtidas, mostra dois policiais militares revistando uma mochila infantil repleta de réplicas de armas de fogo e drogas ilícitas feitas de papelão e fita adesiva.
Revoltado com a brincadeira, o PM justifica “entupir de tiro” as crianças que carregarem objetos semelhantes. O autor da postagem no TikTok é o usuário cav188, uma possível referência ao “Caveirão”, símbolo do Batalhão de Operações Especiais (Bope) da Polícia Militar do Estado do Rio de Janeiro (PMERJ), e ao Artigo 188 da Constituição Federal, que institui que atos praticados em legítima defesa não são ilícitos. Esse foi apenas um dos TikToks que a plataforma me recomendou no meu primeiro dia como usuária.
No início de dezembro de 2021, resolvi me juntar ao TikTok, aplicativo de vídeos curtos que foi o mais baixado do mundo naquele ano, batendo a marca de 2 bilhões de downloads totais, segundo a empresa de análise de dados Sensor Tower. Inicialmente, o conteúdo foi o que se esperava: humor, desafios virais e coreografias.
O algoritmo do TikTok, grande orgulho da empresa, aprende aos poucos a identificar o que o usuário gosta, para daí personalizar o que chega até cada um, na aba “Para você”, ou For You. O aplicativo divulga que são levados em conta fatores como curtidas, comentários, perfis seguidos e vídeos que viralizaram recentemente.
Com o objetivo de ver até onde esse algoritmo poderia me levar, segui o Flow, podcast mais ouvido de 2021, à época apresentado por Igor Coelho e Bruno Aiub, ou, como é mais conhecido, Monark.
Em dezembro, Monark ainda não tinha sido afastado do Flow Podcast por ter cometido apologia ao nazismo durante o programa, apesar de já ter sido o protagonista de inúmeras ocorrências polêmicas. Em sua defesa, o ex-apresentador afirmava apenas “defender a liberdade de expressão” e querer expor “novos pensamentos”.
Conhecido por entrevistar convidados de variadas ocupações e espectros políticos, o Flow não apresentava tanta diversidade nos 20 usuários que seguia no TikTok. O podcast recebeu, entre outros, Ciro Gomes (PDT) e Guilherme Boulos (PSOL), mas o único político seguido pelo perfil oficial era o deputado federal Kim Kataguiri (Podemos).
Para o teste, decidi seguir os perfis endossados pelo Flow que tivessem algum tipo de relevância política nas redes sociais: além de Kim, também acompanhei o comediante Maicon Küster, o apresentador Fred e o vereador e ex-policial militar Gabriel Monteiro.
Quem costuma usar o aplicativo deve estar familiarizado com os conteúdos de nicho, que podem até formar pequenas comunidades juntando pessoas com interesses em comum. Os usuários que postam e curtem conteúdo literário, por exemplo, usam a hashtag #BookTok para se identificarem e turbinar o engajamento dos vídeos.
Após cerca de 50 vídeos de conteúdo geral, o algoritmo do aplicativo tentou adivinhar meu nicho: aos poucos, foram aparecendo vídeos motivacionais, baseados em filmes e séries, que pregavam a conduta de um homem forte, frio e provedor da família.
Na internet, a série britânica Peaky Blinders se tornou um dos principais símbolos de inspiração masculinista, termo geral para classificar uma ideologia antifeminista e conservadora. Apesar de não ter um fundo moral de superioridade masculina, estudos mostram uma cooptação da série por parte de grupos machistas devido à temática de guerra e gângsters explorada na obra.
Me rendi aos Peaky Blinders e curti os conteúdos misóginos que utilizavam a imagem da série e apareciam cada vez mais. Foi por volta do centésimo vídeo, porém, que a experiência tomou um rumo inesperado.
Gradativamente, minha aba For You foi tomada por clipes, trechos de filmes e entrevistas de policiais militares manejando armas e intimidando civis. Um deles, com 43 mil curtidas, por exemplo, mostra um áudio defendendo que um policial militar possa executar alguém que esteja armado: “dá logo um tiro tiro de fuzil. Onde? Meu conselho: 76.2 [milímetros, tamanho da munição do fuzil] na cabeça, porque explode o crânio do cara, não tem como o cara reagir”.
Outro, com mais de 37 mil curtidas, é um videoclipe emocional que inclui a gravação de um policial desesperado ao presenciar seu colega sendo baleado. Nos comentários, o usuário arthz_exe, cujo avatar é a logo da Polícia Rodoviária Federal, diz: “o nosso soldado morreu mais os 4 bandido foi morto (sic)”, conquistando 1.324 curtidas. A progressão do conteúdo recomendado pode ser vista no infográfico abaixo:
Ao longo dos mais de 250 vídeos catalogados, também me deparei com discursos punitivistas, capacitismo, racismo, LGBTfobia, repúdio aos direitos humanos e declarações de apoio ao atual presidente da República, Jair Bolsonaro (PL).
Apesar das atualizações mais recentes da plataforma permitirem a publicação de vídeos de até 10 minutos, o mais comum é que o usuário veja poucos segundos ou pule o conteúdo que não o interessa.
Se um novo usuário gasta, em média, 30 segundos por vídeo, teria assistido a todos os TikToks de brutalidade policial, discurso de ódio e violência que me foram recomendados em pouco mais de duas horas. A empresa de análise de dados Statista estima que 70% dos usuários passem, pelo menos, uma hora por dia no aplicativo.
Após assistir e catalogar centenas de vídeos, criei uma nova conta e segui apenas 20 perfis de fãs da série Peaky Blinders. Em algumas horas, obtive o mesmo resultado, também registrado. Dessa vez, a incitação ao ódio e abusos de poder da PM se mesclavam com dicas para investir e se tornar milionário, utilizando a retórica de superioridade masculina comum em grupos misóginos e violentos na internet.
Finalmente, na minha terceira tentativa, só segui o Flow Podcast e mais ninguém. Uma centena de vídeos depois, o mesmo conteúdo me foi recomendado. Tiro e queda.
Algoritmo de ódio
“Fui radicalizada pela extrema direita no TikTok”. É assim que a ativista Abbie Richards introduz o vídeo curto que fez sobre sua pesquisa no aplicativo, atualmente com mais de 600 mil curtidas.
Em colaboração com a Media Matters, organização sem fins lucrativos que monitora falsa informação espalhada pela extrema direita nos Estados Unidos, Abbie conduziu uma pesquisa para descobrir se o algoritmo do TikTok pode incentivar a radicalização dos usuários ao mostrar conteúdos cada vez mais radicais para gerar mais engajamento e fidelidade à plataforma. Essa política já foi observada por estudiosos e jornalistas em outras redes sociais, como o YouTube.
Abbie criou uma nova conta na plataforma e seguiu perfis conhecidos por produzir conteúdo transfóbico, como dizer que “só existem dois sexos biológicos, o resto é invenção” e zombar das violências que pessoas transgênero sofrem.
Com isso, a ativista queria descobrir se a transfobia seria um “preconceito de entrada”, ou seja, se o usuário que interage com esse conteúdo tem uma chance maior de ser exposto a outros preconceitos, como homofobia, misoginia e racismo.
Após apenas interagir com vídeos transfóbicos e documentar mais de 400 TikToks, Abbie se deparou não apenas com os preconceitos citados, como também viu antisssemitismo, apologia ao nazismo e incentivo da supremacia branca.
Um novo usuário precisaria, em média, de pouco mais de duas horas para assistir 400 vídeos no aplicativo. “Alguém pode criar uma conta no TikTok na hora do almoço e estar assistindo vídeos de supremacia branca antes do jantar”, ela pontua ao final do vídeo.
Em suas Diretrizes da Comunidade, a empresa afirma inaceitável o endosso à violência. “Consideramos incitação à violência apoiar, orientar ou incentivar outras pessoas a cometer violência.
Na nossa plataforma, não permitimos ameaças de violência ou incitação à violência que possam resultar em danos físicos graves.” De maneira semelhante, qualquer tipo de discurso de ódio é repudiado pelo TikTok no papel.
Como estratégia de combate ao conteúdo nocivo, a plataforma declara monitorar os vídeos postados e tomar medidas progressivas para minimizar os danos: etiquetas de aviso, restrição do alcance do vídeo, notificação ao usuário e, em último caso, remoção do conteúdo e banimento da conta que o postou, temporário ou definitivo.
Em seu site, a empresa afirma que “o feed ‘Para Você’ do TikTok é desenhado para ajudar as pessoas a descobrirem conteúdo original e de entretenimento, e temos uma série de proteções para nos ajudar nesse objetivo. Além de remover conteúdo que viola nossas Diretrizes da Comunidade, tentamos não recomendar algumas categorias de conteúdo que podem não ser apropriadas para uma audiência mais ampla”.
Com mais de 14 mil curtidas, um dos vídeos que passaram pela minha For You mostrava uma execução. À luz do dia, a filmagem mostra dois policiais arrastando alguém para o porta malas de uma viatura.
O autor da postagem esclarece nos comentários: segundo ele, tratava-se da vingança de agentes das Rondas Ostensivas Táticas Metropolitanas (Rotam) do estado de Goiás após uma troca de tiros. O vídeo conta com uma etiqueta de aviso da plataforma: “participar desta atividade pode resultar em ferimentos a você ou a outras pessoas”. No entanto, é improvável que seu alcance esteja reduzido, já que foi recomendado a um novo usuário em seu primeiro dia da plataforma.
Brutalidade policial, abuso de poder e discursos de ódio não foram as únicas postagens que o meu algoritmo achou que eu gostaria de assistir. Com 139 mil curtidas, um vídeo de poucos segundos mostra uma ponte alta sobre um rio e se ouve uma música emocionante, abafada por uma sirene de ambulância cada vez mais alta.
Ao fim da contagem regressiva, flashes de preto e branco se alternam rapidamente na tela para causar vertigem, até que os sons vão se esvaindo. Com as hashtags “#ansiedade #ansiedadeedepressao #depressão #triste #sozinho #sad”, o vídeo tenta mostrar uma simulação de suicídio. Nos comentários, muitos jovens confessam ter ideações suicidas ou já terem tentado tirar a própria vida.
“Eu senti uma sensação boa parecia que eu tava dentro de uma ambulância🚑 gostei e quero senti isso de vdd😁 (sic)”. O vídeo não tem nenhuma etiqueta.
Para a estudante de Direito e produtora de conteúdo Helena Oliveira, que conta com mais de 200 mil seguidores na rede social, a plataforma apresenta “uma péssima política”. Ela conta que seu conteúdo se tornou viral pela primeira vez no terceiro vídeo que postou em sua conta.
“É muito fácil viralizar no TikTok usando as trends, os áudios e as hashtags. Se você coloca hashtags específicas, principalmente polêmicas, ele vai aparecer na For You das pessoas”.
Tratando principalmente de ateísmo e desinformação religiosa, Helena conta ser alvo constante de mensagens de ódio e ataques de grupos organizados dentro do aplicativo, chegando a ter sido suspensa da plataforma após denúncias em massa. “A maioria dos ataques costuma vir de grupos religiosos, geralmente um pessoal bem jovem, eu diria 13 ou 14 anos, crianças que seguem contas maiores e se juntam.
Você vai entrando nesses nichos de discurso de ódio, e se você não combate, vai acabar radicalizando muita gente pra extrema direita. O TikTok deveria combater isso, porque é uma coisa que dá pra cair muito fácil, ainda mais sendo um aplicativo com classificação indicativa a partir de 13 anos.”
Após meses de tentativas de contato, a plataforma não se posicionou em relação ao conteúdo encontrado pela experiência. Alguns dos funcionários manifestaram interesse em contribuir para a matéria, mas afirmaram que a Política de Privacidade da empresa não os permitia discorrer sobre o assunto.
Outros relataram que entrariam em contato com a equipe de comunicação para providenciar uma resposta adequada, que nunca chegou. O único retorno obtido veio ao contatar, em inglês, a empresa proprietária do TikTok, ByteDance. Após uma semana, a assessoria da ByteDance encaminhou quatro links disponíveis no site do aplicativo: a página que reúne os releases da Central de Transparência, as Diretrizes da Comunidade, os Termos de Serviço e uma nota explicando o funcionamento do algoritmo de recomendação.
*Com orientação dos professores Ildo Golfetto e Valentina Nunes.