Youtube atualiza políticas para combater deepfakes macabros
O Youtube anunciou, no início de janeiro, uma atualização em suas políticas de combate ao cyberbullying e assédio, visando coibir a disseminação de deepfakes que simulam de maneira realista a morte de menores ou vítimas de casos violentos graves.
A plataforma declarou que, a partir de 16 de janeiro, iniciará a remoção desses conteúdos, que incluem descrições detalhadas das mortes ou violências sofridas pelas vítimas.
Violação das regras
Os usuários que violarem essas novas regras terão seus vídeos retirados e receberão uma advertência, ficando privados do canal por uma semana. Após três advertências em 90 dias, o canal será permanentemente removido da plataforma.
A prática do deepfake, conhecida como “true crime”, começou nos Estados Unidos e se espalhou para outros países, incluindo a França.
Nas redes sociais, circulam vídeos utilizando a técnica que recriam professores franceses assassinados por terroristas em 2020 e 2023, bem como crianças vítimas de crimes hediondos que causaram comoção nacional. O conteúdo desses deepfakes inclui relatos das circunstâncias das mortes das vítimas.
Os deepfakes, que se popularizaram a partir de 2018, usam inteligência artificial para sintetizar imagens ou sons humanos, permitindo a criação de vídeos falsos.
Esses vídeos macabros têm encontrado espaço nas redes sociais, sendo compartilhados especialmente no TikTok nos Estados Unidos. Criadores recriam rostos de vítimas, atribuem vozes geradas por robôs e contam detalhadamente os eventos relacionados às mortes.
Plataformas como Youtube e TikTok têm implementado ferramentas e políticas para combater deepfakes, buscando proteger as vítimas e suas famílias.
O Youtube, por exemplo, já revelou ferramentas baseadas em IA e regras rígidas para conteúdos sintéticos que possam confundir os usuários, enquanto o TikTok exige rotulação de conteúdo gerado por IA.