L'intelligence artificielle du réseau social appartenant à Facebook filtrerait également les contenus en rapport avec le handicap, la couleur de peau ou la communauté LGBT.
On le sait, les équipes de modération de Facebook ne plaisantent pas avec la nudité et la moindre photo jugée trop osée est rapidement supprimée du réseau social. Il arrive même que des œuvres d’art soient censurées, ce qui a souvent fait polémique.
Il semblerait pourtant que le géant américain soit un peu plus conciliant sur une autre de ses plateformes. Une enquête relayée par Mediapart révèle en effet que l’algorithme d’Instagram mettrait plus en avant les photos dénudées.
Sur Instagram, nudité = visibilité
C’est une enquête publiée dans la revue spécialisée Algorithm Watch qui révèle qu’Instagram proposerait une sorte de « prime à la nudité ». Les journalistes en chargent de ce travail, Judith Duportail et Nicolas Kayser-Bril, ont en effet eu vent, de la part de plusieurs influenceuses Instagram, que ces dernières ne postaient presque plus que des photos d’elles en petite tenue pour avoir plus de chance d’être visible sur le réseau social.
En partant de ce constat et en analysant de près 1737 posts Instagram et 2400 photos postées par un groupe test de 37 influenceurs, les responsables de l’étude ont remarqué qu’une photo sur laquelle apparaissait une femme dénudée ou en maillot de bain avait 1,6 fois plus de chance d’être mise en avant par l’algorithme qu’une photo classique (1,3 fois plus de chance pour les influenceurs masculins).
L’obésité et le handicap défavorisés ?
Il semblerait que l’algorithme d’Instagram puisse, en analysant l’image, détecter des gammes de couleurs spécifiques associées à la pigmentation de la peau. Plus il en détecterait sur une image, plus il en déduirait qu’il s’agit d’une photo dénudée pour la favoriser dans l’algorithme. Les journalistes évoquent également un « score d’engagement » qui voudrait que plus les internautes interagissent avec un post Instagram, plus ce dernier serait mis en avant.
Autre point encore plus dérangeant relevé par l’enquête, l’algorithme du réseau social mettrait en place un « shadow ban » sur d’autres types d’images. Ce dernier consisterait, une nouvelle fois via l’analyse automatisée du contenu posté, à ne pas favoriser des contenus en rapport avec l’obésité, le handicap ou encore la communauté LGBT. La couleur de peau aurait également une influence sur la capacité d’un post à être favorisé ou non. Les responsables de la communication d’Instagram n’ont pas encore réagi à cette enquête.