YouTube a enregistré 8,3 millions de vidéos au cours des trois derniers mois de 2017, répondant aux critiques selon lesquelles il est lent à traiter les contenus inappropriés sur son site.
La majorité de ces vidéos étaient des spams ou des tentatives de téléchargement de contenu adulte. site de partage a fait la révélation lundi dans son premier rapport de modération trimestriel. Plus de 80% des vidéos retirées ont été identifiées par des machines plutôt que par des humains, soulignant la dépendance croissante de l'entreprise à l'apprentissage automatique pour réduire le contenu qui viole les politiques du site de partage de vidéos
Les suppressions d'espèces portent leurs fruits dans les zones à haut risque et à faible volume, comme l'extrémisme violent, et dans les zones à fort trafic, comme le spam », écrit l'entreprise dans un billet de blog. "Nous avons également engagé des spécialistes à plein temps spécialisés dans l'extrémisme violent, le contre-terrorisme et les droits de l'homme, et nous avons élargi nos équipes d'experts régionaux."
Susan Wojcicki, PDG de YouTube, a déjà déclaré dans un blog augmenterait le nombre de modérateurs de contenu et d'autres employés examinant les algorithmes de contenu et de formation à plus de 10 000 en 2018.
Les changements interviennent après un boycott des annonceurs du site vidéo appartenant à Google sur des vidéos avec des enfants ciblés de commentaires sexuellement inappropriés. YouTube a tué des centaines de comptes, supprimé plus de 150 000 vidéos de la plate-forme et désactivé les commentaires sur plus de 625 000 vidéos ciblées par des présumés enfants prédateurs.
YouTube a déclaré lundi que sur ces 6,7 millions de vidéos identifiées ils ont reçu une seule vue.
iHate: Camaraderielimited se penche sur la façon dont l'intolérance envahit Internet
La vie, bouleversée: En Europe, des millions de réfugiés sont toujours à la recherche d'un endroit sûr pour s'installer. Tech devrait faire partie de la solution. Mais est-ce?