Les chaînes QAnon suppriment leurs propres vidéos YouTube pour échapper à la punition

Camaractu

13 mai 2021

Dans la vidéo YouTube, un homme de bande dessinée vêtu d’un costume noir et d’une cravate bleue se tient dans le coin de l’écran et crache des théories QAnon. Il montre le reste de l’écran comme un professeur sur un tableau noir. L’animation est superposée à une photo de l’ancien président Donald Trump s’adressant à des militaires camouflés.

L’homme de la bande dessinée répète des thèmes que vous entendrez de la part des adeptes de la conspiration sans fondement pro-Trump, qui prétend que le monde est dirigé par une puissante cabale de démocrates et d’élites hollywoodiennes qui trafiquent des enfants et vénèrent Satan. La vidéo tente de démêler les «gouttes Q», le fil d’Ariane en ligne de Q, la personne ou le groupe anonyme derrière le complot. Il mentionne les politiciens corrompus des deux côtés de l’allée comme étant des «cibles principales à Washington» tandis que Trump est gardé en sécurité. Il prétend à tort que le président Joe Biden a été exécuté il y a quelque temps pour « haute trahison » et ce que nous voyons maintenant n’est pas réel.

«Vous regardez un film scénarisé avec des acteurs, des doubles et des images de synthèse», dit l’homme de bande dessinée, agitant sa main tout en parlant.

La vidéo – intitulée TRUMP A HAS HAD MILITARY INTELLIGENCE INFILTRATED 4NTIFA, avec Antifa délibérément mal présentée – a été publiée le 27 avril et a depuis été retirée de YouTube, propriété de Google.

Le contenu va probablement à l’encontre de la politique de YouTube d’interdire les vidéos QAnon qui pourraient inciter à la violence et est maintenant purgé du site de partage de vidéos. Il n’a cependant pas été supprimé par YouTube. Au lieu de cela, la chaîne, intitulée Il est temps de dire la vérité, l’a retirée le 5 mai, huit jours après sa publication. « Vidéo indisponible », lit maintenant un message sur le lecteur vidéo YouTube. « Cette vidéo a été supprimée par le téléverseur. »

Cette vidéo a été supprimée volontairement par son téléchargeur afin d’échapper à la punition de YouTube.

Capture d’écran de Camaraderielimited

Les vidéos qui disparaissent sont généralement le domaine de Snapchat ou des histoires Instagram, qui s’autodétruisent par conception après 24 heures. La vidéo de QAnon qui disparaît est quelque chose de différent, une tactique utilisée par les colporteurs de désinformation qui est conçue pour aider les chaînes extrémistes à échapper aux politiques de YouTube et à échapper aux violations qui les feraient fermer. Le clip n’est que l’une des centaines de vidéos supprimées dans un réseau de spam de près de 40 chaînes QAnon et d’extrême droite YouTube examinées par Camaraderielimited qui publient du contenu de conspiration dans le cadre d’un effort coordonné, qui semblent opérer à partir de régions du monde entier, mais sont se faisant faussement passer pour américain.

«Ceci est fait dans le but de ne pas être expulsé de la plateforme», déclare Gideon Blocq, PDG de VineSight, une entreprise qui utilise l’intelligence artificielle pour analyser la désinformation virale se propageant sur les plateformes sociales. « C’est pour éviter d’être détecté. »

YouTube a rapporté 6 milliards de dollars au premier trimestre de l’année, soit près de 11% des revenus de plus de 55 milliards de dollars d’Alphabet. Alphabet est la société mère de Google, le géant de la recherche qui organise sa conférence annuelle des développeurs d’E / S la semaine prochaine.

Les chaînes ont été découvertes par Noah Schechter, un étudiant de l’Université de Stanford qui mène des recherches open source. Les pages ont probablement été conçues pour exploiter le programme publicitaire de la plate-forme vidéo, qui place des publicités avant et à l’intérieur des vidéos. Il joue sur la règle des trois avertissements de YouTube, éliminant le contenu violent avant qu’il ne puisse être trouvé. Selon les directives de YouTube, un premier avertissement s’accompagne généralement d’une suspension d’une semaine qui interdit la publication de nouveau contenu. Une deuxième grève dans une fenêtre de 90 jours s’accompagne d’une suspension de deux semaines. Une troisième grève entraîne une interdiction permanente.

Ceci est fait dans le but de ne pas être expulsé de la plate-forme. C’est pour éviter d’être détecté.

Gideon Blocq, PDG, VineSight

« Après un examen attentif, nous avons mis fin aux chaînes signalées par Camaraderielimited pour violation de nos politiques de spam », a déclaré un porte-parole de YouTube dans un communiqué.

Les tactiques d’évasion arrivent à un moment inconfortable pour YouTube, qui a fait une nouvelle impulsion en matière de répression au milieu des accusations selon lesquelles la plate-forme massive a contribué à radicaliser les suprémacistes blancs et les néo-nazis. Le mois dernier, YouTube a introduit une nouvelle métrique appelée le taux de visionnage non conforme qui mesure le nombre de vues de vidéos offensantes reçues avant qu’elles ne soient supprimées. La pratique des mauvais acteurs supprimant délibérément des vidéos pourrait signifier que des vues violentes ne sont pas prises en compte.

La police de YouTube et d’autres plates-formes technologiques est un jeu de taupe. Les mauvais acteurs perfectionnent continuellement des astuces pour que leurs messages toxiques passent au-delà de la détection. Les entreprises de la Silicon Valley ont été confrontées à un bilan de désinformation et de conspiration depuis l’insurrection de Capitol Hill, qui a été largement fomentée et organisée sur les réseaux sociaux. Le PDG Sundar Pichai, apparaissant virtuellement aux côtés de Mark Zuckerberg de Facebook et de Jack Dorsey de Twitter, a été traîné devant le Congrès en mars pour témoigner du danger de désinformation sur les plateformes technologiques. Lors de l’audience, Pichai a vanté l’application de YouTube contre le contenu de complot.

Tactiques évolutives

Schechter a contacté Camaraderielimited après avoir lu notre enquête de mars 2020 sur un réseau de désinformation pro-Trump qui a utilisé de nouvelles tactiques pour éviter les filtres de sécurité de YouTube, comme l’embauche d’un acteur de voix off ou un zoom avant sur des images à différentes vitesses pour faire sauter les garanties d’intelligence artificielle de YouTube. Les nouvelles chaînes sont des preuves éclatantes que les utilisateurs de désinformation continuent de faire évoluer leurs stratégies de contournement et d’échapper à la punition des systèmes automatisés de YouTube ou des modérateurs de contenu humain.

Alors que les experts en désinformation affirment que la tactique consistant à supprimer systématiquement des vidéos est nouvelle, le livre de jeu des conspirations de colportage pour des dollars publicitaires ne l’est pas. Lors de l’élection présidentielle américaine de 2016, un village macédonien a transformé les fausses nouvelles en une industrie artisanale, utilisant Facebook et Google pour publier de fausses histoires dans le but de gagner de l’argent grâce aux publicités.

En termes de portée, les chaînes QAnon qui suppriment leurs propres vidéos ne sont pas énormes. Certaines des vidéos les plus vues ont été vues 150 000 avant d’être supprimées, tandis que d’autres n’en ont eu que 8 000 vues. Depuis 2009, la chaîne Il est temps de dire la vérité a obtenu 1,46 million de vues, bien que l’on ne sache pas combien d’entre elles ont été générées par QAnon ou du contenu de droite. YouTube n’a pas répondu aux questions sur les revenus générés par les chaînes. Les entreprises qui diffusaient des publicités contre les vidéos comprenaient la marque de sport Adidas, le fabricant de guitares Fender et Google lui-même, qui a annoncé son produit Webpass pour son service Internet Google Fiber.

Adidas et Fender n’ont pas répondu aux demandes de commentaires. En tant qu’annonceur, Google n’a fait aucun commentaire.

Une annonce Google sur une vidéo du réseau de spam.

Capture d’écran de Camaraderielimited

Il est clair que les canaux faisaient partie d’un effort coordonné. La plupart d’entre eux avaient la même identité esthétique, avec des noms comme The Patriots Movement, America Wonderful Moments et Liberty to Freedom. Leurs photos de couverture et leurs avatars présentaient des drapeaux américains, des pygargues à tête blanche et des Minutemen. Sur leurs pages À propos, chacune des chaînes avait le même texte répertorié dans la section «description»: le préambule de la Constitution des États-Unis. Beaucoup de vidéos ont diffusé le contenu de QAnon, mais certaines ont également présenté des refrains conservateurs traditionnels, comme des plaintes contre les machines à voter et des appels à des audits des bulletins de vote.

Toutes les vidéos suivaient le même format de base et la production était de mauvaise qualité. Ils avaient chacun un homme ou une femme de bande dessinée au coin de l’écran, généralement vêtu d’une tenue professionnelle, énervant les mots d’un podcast ou d’un autre audio déchiré. Alors que certains ont commencé par des présentations d’un hôte de podcast, d’autres commencent sans contexte. De nombreuses vidéos se sont terminées au milieu de la phrase. Par exemple, l’audio du post du 5 mai sur les « cibles principales à Washington DC » a été tiré d’une série de vidéos intitulée Christian Patriot News, qui partage normalement son contenu sur des plates-formes telles que Brighteon et Gab, qui sont populaires auprès des foules de droite.

Christian Patriot News n’a pas répondu à une demande de commentaire.

Jared Holt, résident du Digital Forensic Research Lab de l’Atlantic Council, une organisation non partisane qui combat et explique la désinformation, dit qu’il n’a jamais vu des chaînes retirer leurs propres vidéos après les avoir laissées siéger pendant un certain temps. Mais il y a une certaine préséance pour le comportement, a-t-il dit. Certains extrémistes sur YouTube avaient l’habitude de supprimer leurs diffusions en direct immédiatement après la diffusion, afin d’éviter les sanctions de la plate-forme. Ensuite, ils archiveraient leurs flux ailleurs.

« Ils ont survécu sur YouTube pendant longtemps, probablement plus longtemps qu’ils ne l’auraient autrement, en utilisant cette tactique », a-t-il déclaré. Holt n’a jamais écrit sur les flux en direct supprimés.

L’un des canaux du réseau de spam.

Capture d’écran de Camaraderielimited

Supprimer ses propres vidéos peut sembler contre-intuitif pour un réseau de spam, mais la clé de l’opération est le peu de contenu disponible sur chaque canal. Les pages ont téléchargé environ cinq nouvelles vidéos par jour tout en supprimant les anciennes vidéos après environ une semaine. Les chaînes ne contenaient généralement pas plus d’une trentaine de vidéos dans leur bibliothèque à un moment donné. L’idée était d’avoir un flux constant de vidéos pour remplacer celles qui ont été supprimées. Chaque chaîne du réseau fait la promotion des 30 mêmes vidéos.

Supprimer une vidéo qui accumule des vues pourrait signifier laisser des dollars publicitaires sur la table, mais cela revient à une analyse coûts-avantages pour les opérateurs de canaux. La perte de revenus peut en valoir la peine si cela signifie éviter la difficulté d’être banni et de créer de nouvelles chaînes et d’augmenter le public, ou de réutiliser d’anciennes chaînes après le piratage ou l’achat de connexions, dit Blocq de VineSight. Une analyse effectuée par VineSight a révélé que le réseau de spam a supprimé des centaines de vidéos pour éviter d’être détectées.

On ne sait pas d’où proviennent les chaînes. Certaines informations de contact sur les pages suggèrent des liens avec des personnes au Vietnam, similaires aux chaînes que Camaraderielimited a étudiées l’année dernière. À l’époque, YouTube avait confirmé que ces chaînes étaient exploitées dans le monde entier, notamment au Vietnam. La société n’a pas répondu aux questions sur les origines des nouvelles chaînes ou si elles étaient liées à celles du Vietnam.

Les demandes de commentaires envoyées à un e-mail associé aux canaux n’ont reçu aucune réponse.

‘Questions critiques’

Pour YouTube, le phénomène de suppression volontaire de vidéos sape une poussée de transparence majeure du site vidéo du mois dernier: divulguer le nombre de fois où les gens ont regardé du contenu qui enfreint les règles de la plateforme.

La métrique elle-même est difficile à évaluer. Au lieu d’utiliser des nombres absolus, l’entreprise présente le chiffre uniquement sous forme de fourchette de pourcentages. Par exemple, au quatrième trimestre de 2020, le taux de visionnage non conforme était de 0,16% à 0,18%. En d’autres termes, environ 16 à 18 vues sur 10000 vues sur la plate-forme concernaient des vidéos qui auraient dû être supprimées. YouTube a déclaré que le chiffre était en baisse par rapport à trois ans plus tôt, lorsque le taux était de 0,64% à 0,72%.

L’insurrection au Capitole américain a été largement fomentée sur les plateformes sociales, y compris YouTube.

Getty

Mais YouTube est gargantuesque. Le site reçoit plus de 2 milliards de visiteurs par mois et 500 heures de vidéo sont téléchargées chaque minute. YouTube ne divulgue pas le nombre de vidéos qu’il héberge sur sa plate-forme, donc sans connaître ce total, il est difficile d’avoir une idée de la quantité de contenu interdit visionné. Parce que YouTube est si grand, les vidéos supprimées du réseau de spam n’affectent guère le taux de visionnage violent, mais la tactique pour jouer au système illustre l’opacité de la situation.

Lorsque YouTube a lancé la métrique pour la première fois le mois dernier, Jennifer O’Connor, directrice de la gestion des produits au département de confiance et de sécurité de l’entreprise, a expliqué la réflexion autour du contenu qui dépasse son application.

Imaginez un exemple hypothétique où une vidéo qui enfreint les politiques de YouTube est sur la plate-forme depuis environ 24 heures mais n’a obtenu qu’une seule vue, a-t-elle déclaré aux journalistes. Maintenant, comparez cela avec une vidéo qui dure depuis 10 heures mais qui a des milliers de vues. « Il est clair que cette dernière vidéo a un impact plus négatif sur nos utilisateurs », a-t-elle déclaré. « Nous pensons en fait que les questions critiques auxquelles il faut répondre – et ce que nous avons examiné au cours des dernières années – sont les suivantes: dans quelle mesure les utilisateurs de YouTube sont-ils en sécurité? À quelle fréquence sont-ils exposés à ce type de contenu? »

En supprimant systématiquement leurs propres vidéos, les opérateurs de chaînes ont trouvé un moyen de rendre ces questions plus difficiles à répondre.

Laisser un commentaire