Tecnologia

Pesquisa de Harvard acusa algoritmo do YouTube de alimentar pedofilia

Christiane C., que mora no subúrbio do Rio, viu um vídeo de sua filha de dez anos na piscina ter milhares de visualizações Foto: Maria Magdalena Arrellaga/’New York Times’

“Fiquei assustada com o número de visualizações”, disse Christiane C., moradora de um subúrbio do Rio cuja filha postou um vídeo de si mesma no YouTube brincando na piscina no quintal de casa com uma amiga. “O vídeo é inocente, nada demais”, disse.

Alguns dias depois, a filha voltou para contar à mãe a notícia: o vídeo da piscina tinha milhares de visualizações. Não demorou muito para que chegasse a 400 mil — um número impressionante para um vídeo de uma criança de biquíni brincando com uma amiga.

— Eu vi o vídeo novamente e me assustei com o número de visualizações —disse Christiane.

Ela tinha razão em se preocupar. O sistema de recomendação automatizado do YouTube — que impulsiona a maioria das bilhões de visualizações da plataforma, sugerindo o que os usuários devem ver em seguida — começou a oferecer o vídeo da menina na piscina para usuários que assistiram a outros vídeos de crianças pré-adolescentes e parcialmente vestidas.

Segundo pesquisadores de Harvard , o YouTube fez a curadoria dos vídeos a partir de todos os seus arquivos, às vezes pinçando inofensivos filmes domésticos de famílias. Em muitos casos, o algoritmo encaminhava os usuários a alguns desses vídeos depois que eles assistiam a conteúdo com tema sexual.

Catálogo sexualiza crianças

O resultado foi um catálogo de vídeos que os especialistas dizem sexualizar as crianças.

— É o algoritmo do YouTube que conecta esses canais — disse Jonas Kaiser, um dos três pesquisadores do Centro Berkman Klein para Internet e Sociedade, de Harvard, que tropeçou nos vídeos enquanto analisava o impacto do YouTube no Brasil. — Isso é assustador.

O vídeo da filha de Christiane foi promovido pelos sistemas do YouTube meses depois que a empresa foi alertada de que tinha um problema de pedofilia.

Em fevereiro, agências de notícias informaram que usuários estavam usando a seção de comentários de vídeos do YouTube com crianças para orientar outros pedófilos.

Naquele mês, chamando o problema de “profundamente preocupante”, o YouTube desativou os comentários em muitos vídeos com crianças.

Mas o sistema de recomendação, que permanece em vigor, reuniu dezenas de vídeos desse tipo em um repositório novo e facilmente visível, e os empurrou para um vasto público.

O YouTube nunca se propôs a atender usuários com interesses sexuais em crianças — mas, no fim das contas, segundo Kaiser, o sistema automatizado os mantém conectados, e os usuários não precisam procurar vídeos de crianças para assisti-los. A plataforma pode levá-los até lá por meio de uma progressão de recomendações.

Assim, um usuário que assiste a vídeos eróticos pode ser recomendado para vídeos de mulheres mais jovens e, em seguida, para mulheres que posam provocativamente em roupas de crianças. Eventualmente, alguns usuários podem receber vídeos de meninas de 5 ou 6 anos usando roupas de banho ou se vestindo.

Sozinho, cada vídeo pode ser perfeitamente inocente, como um filme caseiro feito por uma criança. Quaisquer planos reveladores são fugazes e parecem acidentais. Mas, agrupados juntos, seus recursos compartilhados se tornam inconfundíveis.

— Estou com muito medo — disse Christiane. — Com medo pelo fato de que um vídeo como este possa ter caído em tal categoria.

O “New York Times” preservou o sobrenome da família para proteger sua privacidade.

YouTube removeu vídeos…

Quando o jornal alertou o YouTube de que seu sistema estava fazendo circularem vídeos de família para pessoas aparentemente motivadas por interesse sexual em crianças, a empresa removeu vários deles, mas deixou outros, incluindo alguns aparentemente enviados por contas falsas.

O próprio sistema de recomendação também mudou imediatamente, não conectando mais alguns dos vídeos eróticos.

O YouTube disse que isso provavelmente foi resultado de ajustes de rotina em seus algoritmos, em vez de uma mudança política deliberada.

Jennifer O’Connor, diretora de produtos do YouTube, disse que a empresa está comprometida a erradicar a exploração de crianças em sua plataforma e que trabalha desde o início de fevereiro para melhorar a fiscalização.

— Proteger as crianças está no topo da nossa lista — disse ela.

…mas mantém sistema de recomendação

O YouTube , porém, não colocou em prática a única mudança que os pesquisadores de Harvard dizem que impediria que isso acontecesse novamente: desativar o sistema de recomendação em vídeos de crianças, embora a plataforma possa identificar esses vídeos automaticamente.

A empresa informou que, como as recomendações são o maior direcionador de tráfego, removê-las prejudicaria os “criadores” que dependem desses cliques. E afirmou que limitaria as recomendações sobre vídeos que considera colocar em risco as crianças.

O YouTube descreveu seu sistema de recomendação como inteligência artificial que está constantemente aprendendo quais sugestões manterão os usuários observando. Essas recomendações, dizem, conduzem 70% das visualizações, mas a empresa não revela detalhes de como o sistema faz suas escolhas.

Alguns estudos descobriram o que os pesquisadores chamam de “efeito buraco de coelho”: a plataforma, dizem eles, leva os espectadores a vídeos ou tópicos mais extremos, que são pensados para atraí-los.

Assista a alguns vídeos sobre maquiagem, por exemplo, e você pode ser recomendado a um vídeo perturbador de transformação completa. Assista a clipes sobre o uso da bicicleta, e o YouTube pode sugerir acidentes chocantes em corridas de bicicleta.

Pesquisa no Brasil

Kaiser e seus colegas pesquisadores, Yasodara Córdova e Adrian Rauchfleisch, decidiram testar o efeito no Brasil.

Um servidor abriu vídeos e seguiu as principais recomendações do YouTube sobre o que assistir em seguida. A execução deste experimento milhares de vezes permitiu que eles rastreassem algo como um mapa de metrô para saber como a plataforma direciona seus usuários.

Quando seguiam recomendações sobre vídeos com temas sexuais, notaram algo que os incomodava: em muitos casos, os vídeos se tornaram mais bizarros ou extremos e davam mais ênfase à juventude.

Vídeos de mulheres discutindo sexo, por exemplo, às vezes levavam a vídeos de mulheres em roupas íntimas ou amamentando, às vezes mencionando sua idade: 19, 18, até 16 anos.

Algumas mulheres solicitavam doações de “papaizinhos” ou insinuavam o caminho para vídeos em que posavam nuas. Depois de alguns cliques, algumas tocavam mais abertamente na pré-pubescência, posando em roupas infantis.

A partir daí, o YouTube começaria de repente a recomendar vídeos de crianças jovens e parcialmente vestidas, depois um fluxo quase interminável de crianças provenientes principalmente da América Latina e da Europa Oriental.

Córdova, que também estudou a distribuição de pornografia on-line, diz que reconheceu o que estava acontecendo.

Qualquer vídeo individual pode ter a intenção de ser não sexual, talvez enviado por pais que desejavam compartilhar filmes caseiros entre familiares.

Mas o algoritmo do YouTube, em parte aprendendo com os usuários que procuravam imagens reveladoras ou sugestivas de crianças, estava tratando tais vídeos como um destino para pessoas em busca de algo “diferente”.

E o alto número de visualizações — às vezes, milhares — indicou que o sistema encontrou audiência para os vídeos e manteve o público envolvido.

— (O sistema) É incrivelmente poderoso, e as pessoas são atraídas para isso — disse Stephen Blumenthal, um psicólogo de Londres que trata pessoas com desvios de comportamentos sexuais.

E o YouTube, ao exibir vídeos de crianças ao lado de conteúdo sexual mais convencional, bem como exibindo as altas contagens de vídeos, arrisca-se a corroer o tabu contra a pedofilia, dizem psicólogos.

— Você normaliza (a pedofilia) — disse Marcus Rogers, psicólogo da Purdue que estuda pornografia infantil.

O YouTube diz que não há “efeito buraco de coelho”.

— Não está claro para nós que necessariamente o nosso mecanismo de recomendação leva você em uma direção ou outra — disse O’Connor, diretora de produtos do YouTube.

Crianças em risco

A maioria das pessoas que vêem imagens sexualizadas deixa isso de lado, dizem os pesquisadores. Mas alguns dos vídeos no YouTube incluem links para as contas de mídia social dos jovens.

— Muitas pessoas que estão ativamente envolvidas em conversas com crianças são muito, muito hábeis em preparar essas crianças para postar mais fotos sexualizadas, ou se engajar em atividade sexual e tê-las filmadas — disse o Dr. Rogers.

O YouTube não permite que menores de 13 anos tenham canais. A empresa diz que reforça a política de forma agressiva.

Para os pais, não há soluções fáceis, disse Jenny Coleman, diretora do Stop It Now, uma organização que combate a exploração sexual de crianças.

— Até as famílias mais cuidadosas podem ser levadas para algo prejudicial ou criminoso — disse ela.

O Globo

 

Comente aqui

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *