Coronavirus: Facebook admet que la pandémie a entraîné la propagation de la nudité des enfants sur Instagram | Actualités scientifiques et techniques

Camaractu

12 août 2020

Facebook a admis que la pandémie de coronavirus signifiait que des images de nudité infantile et d’exploitation sexuelle se sont répandues sur ses plateformes.

Le géant de la technologie a déclaré que les niveaux de modération avaient chuté lorsque les modérateurs de contenu ont été envoyés travailler à domicile en mars au plus fort de la COVID-19[feminine épidémie.

Matériel nocif sur Facebook et Instagram impliquant la nudité infantile et l’exploitation sexuelle, ainsi que le suicide et l’automutilation, n’a pas été capté par les systèmes automatisés de l’entreprise.



régime insta



L’obsession d’Instagram «  manger sainement  » a causé la maladie

« Alors que notre technologie pour identifier et supprimer les contenus violants s’améliore, il y aura toujours des domaines dans lesquels nous comptons sur les gens pour examiner le contenu et former notre technologie », a déclaré Facebook.

«Par exemple, nous comptons beaucoup sur les gens pour examiner le contenu sur les suicides, l’automutilation et l’exploitation des enfants, et nous contribuons à améliorer la technologie qui détecte et supprime de manière proactive les contenus identiques ou presque identiques qui enfreignent ces politiques.

«Avec moins de critiques de contenu, nous avons pris des mesures sur moins de contenus sur Facebook et Instagram pour le suicide et l’automutilation, et la nudité infantile et l’exploitation sexuelle sur Instagram.»

Les enquêtes sur la modération du contenu de Facebook ont ​​révélé que les modérateurs sont exposés à du matériel traumatisant sans recevoir de soutien adéquat.

Bien que 15000 personnes dans le monde soient employées pour vérifier le contenu téléchargé sur Facebook, les conditions dans lesquelles elles travaillent sont cachées par des contrats avec des tiers et des accords de non-divulgation, selon les rapports.

La société a déclaré que ses systèmes automatisés s’étaient améliorés pour identifier les discours de haine et que 95% des messages incriminés étaient désormais automatiquement détectés, contre 89% auparavant.

«C’est parce que nous avons étendu certaines de nos technologies d’automatisation en espagnol, arabe et indonésien et avons amélioré notre technologie de détection en anglais», a-t-il ajouté.

Le réseau social a pris des mesures contre plus de 22 millions de contenus – y compris des publications, des images et des vidéos – au deuxième trimestre de cette année.

Facebook a également annoncé qu’il interdisait les images racistes de Noirs et de Juifs, y compris même des images culturelles controversées telles que Black Pete aux Pays-Bas.

La société a également annoncé qu’elle ferait l’objet d’un audit tiers indépendant pour convaincre les gens que les chiffres qu’elle rapporte sur les contenus préjudiciables sont exacts.

Cela intervient alors que le gouvernement britannique se prépare à créer des réseaux sociaux responsable du contenu sur leurs plateformes, ce qui pourrait rendre la modération de contenu plus courante.

Les députés ont récemment appelé à un code d’éthique pour garantir que les plateformes de médias sociaux suppriment les contenus nuisibles de leurs sites et de leur marque Facebook « gangsters numériques » dans un rapport parlementaire.

Le comité a écrit: « Les entreprises de médias sociaux ne peuvent pas se cacher derrière la prétention d’être simplement une » plate-forme « et soutenir qu’elles n’ont aucune responsabilité elles-mêmes dans la réglementation du contenu de leurs sites. »

HANOVER, ALLEMAGNE - 12 juin: Les logos Instagram et Facebook sont affichés au salon de la technologie CeBIT 2018 le 12 juin 2018 à Hanovre, en Allemagne.  Le CeBIT 2018 se déroule du 11 au 15 juin.  (Photo par Alexander Koerner / Getty Images)
Image:
La modération du contenu glissé sur Instagram

Mark Zuckerberg a régulièrement répondu aux critiques du contenu sur Facebook en déclarant il embauchera du personnel supplémentaire en tant que modérateurs de contenu.

Au moment du rapport sur les conditions de travail des modérateurs de contenu, Facebook a déclaré: « Nous savons qu’il y a beaucoup de questions, de malentendus et d’accusations concernant les pratiques de révision de contenu de Facebook – y compris la façon dont nous en tant qu’entreprise prenons soin et compensons les personnes derrière cet important travail.

« Nous nous engageons à travailler avec nos partenaires pour exiger un niveau élevé de soutien pour leurs employés; c’est notre responsabilité et nous la prenons au sérieux. »

Le blog a ajouté: « Compte tenu de la taille à laquelle nous opérons et de la rapidité avec laquelle nous nous sommes développés au cours des deux dernières années, nous rencontrerons inévitablement des problèmes que nous devons résoudre en permanence. »

Laisser un commentaire