Veuillez activer le javascript

Modération, réseaux sociaux, IA… fait-on face à une discrimination des algorithmes ?

Modération, réseaux sociaux, IA… fait-on face à une discrimination des algorithmes ?

Modération, réseaux sociaux, IA… fait-on face à une discrimination des algorithmes ?

/LAPLUME.MG

Ces derniers temps, les réseaux sociaux ont considérablement investi dans l’Intelligence artificielle. Et pour cause, l’accroissement de la haine en ligne et la prolifération des fakes news les ont contraints à automatiser leur modération.

Hélas, la montée fulgurante de l’IA ne présente pas que des effets positifs. Certains socionautes condamnent la vague de censure abusive de la part des figures de proue que sont Facebook, Twitter, Google et Tiktok si bien qu’on parle aujourd’hui de discrimination algorithmique.

Machine learning : une épée à double tranchant

Dans le cadre de la modération de leur contenu, les plateformes comme Facebook et Twitter recourent généralement à des agences de sous-traitance. Elles disposent également d’équipes en interne pour « nettoyer » les contenus prohibés.

Enfin, comme nous l’avions précisé, les médias sociaux se tournent de plus en plus vers la machine learning pour filtrer les contenus considérés comme illicites conformément à la charte d’utilisation des plateformes.

Pour résumer, le processus de modération est de plus en plus traité par les algorithmes. Hélas, l’IA a récemment fait l’objet d’accusation de discrimination raciale et sexuelle. Cela pouvait prendre la forme de censure automatique de publications, de suppression définitive de compte, de shadowban…

Quelques exemples de discriminations algorithmiques ?

En 2019, un collectif de lesbiennes souhaitait créer un compte comportant le mot « lesbienne ». Ce nom d’utilisateur était automatiquement refusé par les algorithmes de Facebook. Selon le réseau social, « ce nom d’utilisateur comporte des mots interdits sur Facebook.

Ces derniers temps, plusieurs comptes de militants LGBT ont été suspendus à cause de la mention de leur orientation sexuelle dans la description de leur photo (Facebook) ou dans leur bio (Twitter) : les algorithmes considéraient les mots-clés comme “gouine” ou “pédé” comme discriminatoire sans vouloir comprendre le contexte de la publication.

Une étude dirigée par l’Australian Strategic Policy Institute a révélé que certains hashtags LGBT+ faisaient l’objet d’un déréférencement sur la plateforme TikTok. On peut notamment citer #Intersex (intersexe en anglais), #gej (gay en estonien et bosnien) ou encore #ягей (je suis homosexuel en russe).

Les exemples sont évidemment légion, mais les cas de figure cités ci-dessus ne sont qu’un aperçu de ce que les spécialistes appellent aujourd’hui la “discrimination algorithmique”.

L’origine de cette discrimination algorithmique

Cette discrimination trouve son origine dans l’introduction de biais, un processus qui est explicitement expliqué dans ces 2 articles de theconversation.com (ici et ).

Pour résumer, l’intelligence artificielle “apprend” en premier lieu à partir de données (biais). Elle effectue ensuite ses propres actions et ses propres résultats à partir de cet entraînement (concept de la machine learning).

Si l’introduction des biais est biaisée, alors les algorithmes peuvent être à l’origine de discriminations.

Vous l’aurez compris, les IA peuvent parfois être “à côté de la plaque” si bien que cela peut avoir de lourdes conséquences sur la réputation des plateformes. Ainsi, il conviendrait de revoir l’introduction des biais algorithmiques ou pourquoi pas limiter l’action des algorithmes et donner plus d’importance aux interventions humaines.

Articles dans la même catégorie