Mais de um ano depois de um escândalo de moderação de conteúdo sobre segurança infantil no YouTube e leva apenas alguns cliques para os algoritmos de recomendação da plataforma redirecionarem uma pesquisa de vídeos de mulheres adultas para clipes de menores seminuas envolvidos em ginástica contorcida corporal ou tomar um banho de gelo ou picolé sugando "desafio".
Um YouTubeO criador Matt Watson sinalizou a questão em um post crítico do Reddit , dizendo que encontrou dezenas de vídeos de crianças onde usuários do YouTube estão trocando comentários inapropriados e timestamps abaixo da dobra, denunciando a empresa por não ter evitado o que ele descreve como "soft-core". anel de pedofilia ”de operar à vista na sua plataforma.
Ele também postou um vídeo no YouTube demonstrando como o algoritmo de recomendação da plataforma leva os usuários ao que ele chama de "buraco de minhoca" de pedofilia, acusando a empresa de facilitar e monetizar a exploração sexual de crianças.
Fomos capazes de replicar facilmente o comportamento do algoritmo do YouTube que Watson descreve em uma sessão de navegação privada limpa pela história que, depois de clicar em dois vídeos de mulheres adultas em biquínis, sugeriu que assistíssemos a um vídeo chamado "sweet sixteen pool party".
Ao clicar nisso, a barra lateral do YouTube serviu vários vídeos de garotas pré-adolescentes em sua seção "próximo", onde o algoritmo cria conteúdo relacionado para incentivar os usuários a continuarem clicando.
Os vídeos que recebemos recomendados nessa barra lateral incluíam miniaturas mostrando garotas jovens demonstrando poses de ginástica, exibindo suas “rotinas matinais” ou lambendo picolés ou gelados.
Watson disse que foi fácil para ele encontrar vídeos contendo comentários impróprios / predatórios, incluindo emoji sexualmente sugestivo e timestamps que parecem ter como objetivo destacar, atalhos e compartilhar as posições mais comprometedoras e / ou momentos nos vídeos dos menores.
Também encontramos vários exemplos de carimbos de data e hora e comentários impróprios em vídeos de crianças que o algoritmo do YouTube recomendou que assistamos.
Alguns comentários de outros usuários do YouTube denunciaram pessoas fazendo comentários sexualmente sugestivos sobre as crianças nos vídeos.
Em novembro de 2017, vários grandes anunciantes congelaram os gastos na plataforma do YouTube após uma investigação da BBC e o Times descobriu comentários obscenos em vídeos de crianças.
No mesmo mês, o YouTube também foi criticado por conteúdo de baixa qualidade que segmenta crianças como espectadores em sua plataforma.
A empresa anunciou uma série de mudanças nas políticas relacionadas a vídeos voltados para crianças , inclusive dizendo que policiaria agressivamente comentários sobre vídeos de crianças e que vídeos com comentários inapropriados sobre as crianças teriam comentários completamente cancelados.
Alguns dos vídeos de garotas que o YouTube recomendou assistir já tinham comentários desativados - o que sugere que sua IA já havia identificado um grande número de comentários impróprios sendo compartilhados (por causa de sua política de desativar comentários em clipes contendo crianças quando os comentários são considerado "inadequado") - ainda os vídeos em si ainda estavam sendo sugeridos para visualização em uma pesquisa de teste que se originou com a frase "bikini haul".
Watson também diz que encontrou anúncios sendo exibidos em alguns vídeos de crianças que contêm comentários inadequados, e afirma que encontrou links para pornografia infantil sendo compartilhados nos comentários do YouTube também.
Não foi possível verificar esses achados em nossos breves testes.
Perguntamos ao YouTube por que seus algoritmos distorcem a recomendação de vídeos de menores, mesmo quando o espectador começa assistindo vídeos de mulheres adultas, e por que comentários impróprios continuam sendo um problema em vídeos de menores mais de um ano após o mesmo assunto ser destacado pelo jornalismo investigativo.
A empresa nos enviou a seguinte declaração em resposta às nossas perguntas:
Qualquer conteúdo - incluindo comentários - que ponha em perigo menores de idade é abominável e temos políticas claras que proíbem isso no YouTube. Nós reforçamos essas políticas agressivamente, reportando-as às autoridades relevantes, removendo-as de nossa plataforma e encerrando contas. Continuamos a investir pesadamente em tecnologia, equipes e parcerias com instituições de caridade para resolver esse problema. Temos políticas rigorosas que regem onde permitimos a exibição de anúncios e aplicamos vigorosamente essas políticas. Quando encontramos conteúdo que viola nossas políticas, paramos imediatamente de veicular anúncios ou removemos completamente o conteúdo.
Um porta-voz do YouTube também nos disse que está analisando suas políticas à luz do que Watson destacou, acrescentando que está no processo de revisar os vídeos e comentários específicos mostrados em seu vídeo - especificando também que algum conteúdo foi retirado como resultado de A revisão.
No entanto, o porta-voz enfatizou que a maioria dos vídeos sinalizados por Watson são gravações inocentes de crianças fazendo coisas cotidianas. (Embora, é claro, o problema seja que conteúdo inocente está sendo reaproveitado e cortado em tempo para gratificação e exploração abusivas.)
O porta-voz acrescentou que o YouTube trabalha com o Centro Nacional para Crianças Desaparecidas e Exploradas para se reportar a contas policiais encontradas fazendo comentários impróprios sobre crianças.
Em uma discussão mais ampla sobre o assunto, o porta-voz nos disse que determinar o contexto continua sendo um desafio para seus sistemas de moderação de IA.
Na frente de moderação humana, ele disse que a plataforma agora tem cerca de 10 mil revisores humanos encarregados de avaliar o conteúdo sinalizado para revisão.
O volume de conteúdo em vídeo enviado para o YouTube é de cerca de 400 horas por minuto, acrescentou.
Ainda existe claramente uma grande assimetria em torno da moderação de conteúdo em plataformas de conteúdo geradas por usuários, com a AI mal ajustada para preencher a lacuna, já que as equipes de moderação humana das plataformas permanecem irremediavelmente sem recursos e em desvantagem em relação à escala da tarefa.
Outro ponto-chave que o YouTube não mencionou é a clara tensão entre modelos de negócios baseados em publicidade que monetizam conteúdo com base no engajamento do espectador (como o próprio) e questões de segurança de conteúdo que precisam considerar cuidadosamente a substância do conteúdo e o contexto no qual foi consumido.
Certamente não é a primeira vez que algoritmos de recomendação do YouTube são chamados para impactos negativos. Nos últimos anos, a plataforma foi acusada de automatizar a radicalização, levando os espectadores a um conteúdo extremista e até mesmo terrorista - o que levou o YouTube a anunciar outra mudança de política em 2017 relacionada à maneira como lida com conteúdo criado por extremistas conhecidos.
O impacto social mais amplo de sugestões algorítmicas que infle teorias conspiratórias e / ou promovam conteúdo falso, anti-factual ou científico também tem sido repetidamente levantado como uma preocupação - inclusive no YouTube.
E somente no mês passado o YouTube disse que reduziria as recomendações do que chamou de "conteúdo limítrofe" e conteúdo que "poderia desinformar os usuários de maneira prejudicial", citando exemplos como vídeos promovendo uma falsa cura milagrosa para uma doença grave ou afirmando que a Terra é apartamento, ou fazendo "descaradamente falsas alegações" sobre eventos históricos, como o ataque terrorista do 11 de setembro em Nova York.
"Embora essa mudança se aplique a menos de um por cento do conteúdo do YouTube, acreditamos que limitar a recomendação desses tipos de vídeos significará uma melhor experiência para a comunidade do YouTube", escreveu então. “Como sempre, as pessoas ainda podem acessar todos os vídeos que estão em conformidade com nossas Diretrizes da comunidade e, quando relevante, esses vídeos podem aparecer nas recomendações dos inscritos e nos resultados de pesquisa. Achamos que essa mudança estabelece um equilíbrio entre manter uma plataforma de liberdade de expressão e cumprir nossa responsabilidade com os usuários ”.
O YouTube disse que a mudança de recomendações algorítmicas em torno de vídeos de conspiração seria gradual e afetaria inicialmente apenas as recomendações de um pequeno conjunto de vídeos nos EUA.
Ele também observou que a implementação do ajuste em seu mecanismo de recomendação envolveria técnicos de aprendizado de máquina e avaliadores humanos e especialistas que ajudariam a treinar os sistemas de IA.
“Com o tempo, à medida que nossos sistemas se tornarem mais precisos, lançaremos essa alteração em mais países. É apenas mais um passo em um processo contínuo, mas reflete nosso compromisso e senso de responsabilidade para melhorar a experiência de recomendações no YouTube ”, acrescentou.
Resta saber se o YouTube expandirá essa mudança de política e decidirá que deve exercer maior responsabilidade em como sua plataforma recomenda e veicula vídeos de crianças para consumo remoto no futuro.
A pressão política pode ser uma força motivadora, com impulso para a regulamentação de plataformas on-line - incluindo chamadas para que as empresas de Internet enfrentem responsabilidades legais claras e até mesmo um dever legal para os usuários vis-à-vis o conteúdo que distribuem e monetizam.
Por exemplo, os reguladores do Reino Unido fizeram da legislação sobre internet e segurança de mídia social uma prioridade política - com o governo que deve publicar neste inverno um documento definindo seus planos para plataformas dominantes.
0 Comentários