Home - Dicas Internet - O escândalo de pedofilia mostra que o mecanismo do YouTube está quebrado, apenas uma mudança radical pode consertá-lo

O escândalo de pedofilia mostra que o mecanismo do YouTube está quebrado, apenas uma mudança radical pode consertá-lo

O YouTube está lutando para impedir que os pedófilos usem seus serviços para ver, discutir e compartilhar vídeos de crianças pequenas. Ele suspendeu os comentários em milhares de vídeos, mas a solução real não é moderação, diz Guillaume Chaslot, um pesquisador de inteligência artificial que trabalhou no mecanismo de recomendação do YouTube entre 2010 e 2013.

“É um problema de inteligência artificial, não um problema de seção de comentários”, diz Chaslot. “Não é um problema de moderação”.

Neste momento, o YouTube está a apagar incêndios, tal como já foi feito em ocasiões anteriores, quando foram trazidos à atenção os comentários pedófilos nos seus vídeos. Um porta-voz nos informa que os comentários foram desativados em dezenas de milhões de vídeos que apresentam menores de idade, além de remover comentários inadequados e as contas que os criam.

“O coração do problema é que esses pedófilos passam horas no YouTube assistindo essas meninas”, diz Chaslot. A AI do YouTube é otimizada principalmente para o tempo de exibição, e se os pedófilos afundam milhares de horas de visualização em vídeos de crianças que consideram atraentes, é mais provável que esses vídeos sejam recomendados.

Mais de 400 horas de vídeo são enviadas para o YouTube a cada minuto e a maioria dos vídeos segmentados por pedófilos são conteúdos totalmente inocentes que simplesmente mostram crianças brincando, dançando e fazendo ginástica.

Então não é simplesmente uma questão de eliminar “vídeos ruins”. O YouTube usa avaliadores de conteúdo humano entre suas medidas para tirar vídeos impróprios de sua plataforma, mas, como Chaslot ressalta, membros da equipe de classificação do YouTube não poderão identificar facilmente quais vídeos de ginástica infantil serão excitantes para pedófilos, porque, simplesmente , o avaliador não é pedófilo e não sabe o que procurar.

Durante nossa pesquisa para confirmar as reivindicações de atividade de pedofilia na plataforma, vimos vários padrões distintos em torno dos vídeos que foram segmentados:

Números de visualizações excepcionalmente altos em relação a outros vídeos em um canal. Normalmente, os vídeos de uma criança podem ter 60 ou 200 visualizações, enquanto os que interessam aos pedófilos aumentam repentinamente para centenas de milhares.

Um grande número de comentários. Geralmente, eles incluem códigos de tempo que direcionam os espectadores a partes específicas do vídeo, emoticons cara-a-cara e frases de “admiração”, frequentemente em idiomas diferentes do inglês.

E, finalmente, um loop de feedback algorítmico de sugestões para mais vídeos desfrutados por pedófilos depois de uma conta ter visto um de dois.

Esses fatores são suficientemente distintos para ajudar a desenvolver uma solução técnica para o problema de pedofilia do YouTube, mas a Chaslot diz que essa é a última característica em que o Google precisa se concentrar.

“Precisamos que isso seja um problema de IA”, explica ele. “Olhe para a rede e diga: ‘Uau, tem um estranho vídeo de ginástica que cria um elo entre o grupo de fitness e o grupo de meninas'”.

Seguindo as últimas revelações, o YouTube também está desatualizando vídeos de crianças. Isso reduz o risco de anúncios de grandes marcas aparecerem ao lado de comentários pedófilos. No entanto, atraem reclamações de vloggers familiares que monetizam vídeos de seus filhos como parte de modelos de negócios estilo reality TV que se tornaram populares na plataforma de streaming.

Logo após a última crise de pedofilia, o YouTube excluiu o conteúdo relacionado a Pokémon Go , aparentemente pela aparição regular do termo “CP” nos comentários – “pontos de combate” no mundo de Pokémon, mas também usado como abreviação de “pornografia infantil” em outros , contextos mais escuros.

Ao discutir o problema com os criadores de conteúdo no Twitter, um representante do YouTube disse que “tivemos que adotar uma abordagem agressiva e uma ação mais ampla no momento. Também estamos investindo no aprimoramento de nossas ferramentas para detectar / remover esse conteúdo, por isso confiamos na sua moderação menos ”.

O YouTube oferece várias opções para criadores de canal nas configurações da comunidade do YouTube Studios. Isso inclui a capacidade de filtrar automaticamente palavras específicas, opções para suspender comentários para aprovação do moderador do canal e bloquear automaticamente hashtags e links.

Infelizmente, muitos dos comentários ofensivos usam palavras inofensivas, strings de emoji e idiomas diferentes do inglês para contornar as ferramentas atuais de detecção de comentários de IA do YouTube e muitas listas de palavras bloqueadas – não há nada intrinsecamente errado com as palavras “bonitinho”, “legal” ou “maiô”, afinal.

Isso nos traz de volta à posição de Chaslot: isso não é realmente um problema de moderação. Ele diz que, desde que o algoritmo de recomendação baseie suas decisões sobre o que mostrar às pessoas sobre o tempo de exibição em redes específicas de vídeos relacionados e desde que seu objetivo principal seja aumentar o tempo de exibição desses vídeos, independentemente do conteúdo, não vai embora.

Vídeos sobre os quais os pedófilos passam muito tempo – se podem comentá-los ou não – ainda serão sugeridos a outras pessoas que demonstrem interesse em conteúdo vagamente parecido. É assim que é possível escapar dos influenciadores exibindo roupas e roupas. campeonatos de ginástica juvenil em crianças pequenas sendo vistos como entretenimento sexual por homens adultos.

A solução, afirma Chaslot, é mudar as prioridades da IA ​​para longe do tempo de exibição, pelo menos quando se trata de conteúdo envolvendo crianças.

“Ao olhar para o número de recomendações [feitas pela IA], você pode resolver o problema antes mesmo de obter um grande número de visualizações.” Como a IA usa o tempo de exibição como um preditor de popularidade futura, bem como para conduzir recomendações, ele diz: “você não precisa proibir todos esses vídeos [inocentes] – apenas pare de recomendar alguns vídeos”.

Se o YouTube quiser ter alguma chance de quebrar o efeito algorítmico do wormhole, ele precisa mudar como e por que recomenda vídeos para as pessoas. E, como Chaslot sugere, o primeiro passo é deixar de priorizar o tempo de exibição a todo custo.

  • Fonte: wired.co.uk


Sobre Suporte Center

Suporte Center é um autor do site centerdicas.com especializado em publicações sobre tecnologia, dicas e reviews

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *