Veuillez activer le javascript

Contenus violents en ligne : la difficulté de la modération

Contenus violents en ligne : la difficulté de la modération

/LAPLUME.MG

Après les attentats de Charlie Hebdo qui ont engendré un déferlement de contenus violents sur les réseaux sociaux, les géants du Web ont augmenté le nombre d’équipes dédiées à la modération de leur site en collaborant étroitement avec le gouvernement. Malgré tous ces efforts, on constate encore des imperfections. Photos, vidéos et messages inappropriés passent toujours au travers du filtrage et de la suppression. Décryptage de la difficulté de la modération sur les réseaux sociaux.

Des retraits à la suite d’une requête gouvernementale

gestion réseaux sociaux en ligne
Les équipes de modération ont pourtant travaillé d’arrache-pied pendant toute la nuit pour supprimer les contenus violents publiés à la suite de cet attentat. Celles de Google ont affirmé avoir censuré la diffusion sur YouTube de nombreuses vidéos signalées par des Internautes. Au cours de la même soirée, les modérateurs ont retiré un contenu à la suite d’une requête gouvernementale. De même, certains médias officiels ont reçu un avertissement de l’Autorité compétente quant à la mise en ligne de certaines vidéos susceptibles de choquer l’opinion publique.

Attentat de Nice : renforcement du système de modération des réseaux sociaux

L’attentat perpétré dans la soirée du 14 juillet dernier à Nice a été largement relayé sur les réseaux sociaux. Les contenus illégaux comme les photos de certaines victimes et les vidéos choquantes, les propos islamophobes et les appels au terrorisme ont envahi la Toile. Certes, Facebook, Twitter et Google ont pris leur disposition pour renforcer leur système de modération afin de faire face à ce flux exceptionnel, mais les modérateurs ont été débordés. Des contenus qui auraient dû être censurés continuaient de paraître sur leur site au lendemain de l’attentat. Le 15 juillet vers midi, les Internautes pouvaient encore visionner sur Twitter, Instagram et YouTube des vidéos filmées la veille par des anonymes sur les lieux de l’évènement montrant des images de corps ensanglantés, de cadavres dissimulés sous des draps.

Une modération a posteriori

La raison de la circulation de ces contenus inappropriés sur la toile au lendemain de l’attentat s’explique par le fait que la modération se pratique a posteriori sur les réseaux sociaux. Les modérateurs n’exercent aucune censure avant les publications, à l’encontre de certains grands quotidiens. Leurs actions sont guidées par les signalements émanant des internautes. Pour retirer des contenus, ils se réfèrent d’abord aux règles applicables pour les réseaux sociaux et à certaines clauses de la charte de la modération pour s’adapter à la législation en vigueur dans le pays d’intervention. Ainsi, lorsque les autorités françaises signalent certains contenus, ces derniers deviennent inaccessibles aux internautes résidant en France. Par contre, ils restent disponibles dans d’autres pays.

Après cet attentat de Nice, les réseaux sociaux ont mobilisé d’énormes moyens pour permettre aux internautes de mieux affronter les évènements. Facebook a activé le Safety Check, un système permettant aux utilisateurs de se signaler en toute sécurité. Google a mis en place sur Google Now deux cartes dédiées aux Niçois et aux habitants de la région. Cet outil diffuse régulièrement les informations provenant de la préfecture de Police de la ville.

Pourquoi choisir notre agence de modération

contacter laplume.mg
En faisant appel à notre agence de modération et de rédaction, vous avez la garantie d’un résultat à la hauteur de vos exigences. Notre équipe de modérateurs dispose d’une solide expérience dans le domaine et peut aisément s’adapter aux termes de votre Charte de Modération.

Articles dans la même catégorie