Veuillez activer le javascript

Machine learning au service de l’automatisation de la modération : un cadeau empoisonné ?

Machine learning au service de l’automatisation de la modération : un cadeau empoisonné ?

Machine learning au service de l’automatisation de la modération : un cadeau empoisonné ?

/LAPLUME.MG

En 2017, New York Times a fait le choix de se tourner vers un outil de Google fonctionnant à la machine learning pour prendre en charge la modération de commentaires. Ce programme, baptisé « Perspective », était en mesure de détecter les messages toxiques en provenance des internautes, en s’appuyant sur le champ lexical.

C’est cette histoire qui nous a inspiré cet article !

Les messages haineux et racistes inondent la toile et polluent régulièrement les espaces commentaires de nombreux sites. C’est la raison pour laquelle Jigsaw, une société spécialisée dans l’intelligence artificielle filiale de Google, s’est associé au journal New York Times pour tester une technologie, nommée « Perspective » qui permettrait d’assainir les fils de discussion.

Durant plusieurs mois, cet algorithme de machine learning (apprentissage des machines) a évalué, sur une note de 1 à 100, le niveau de toxicité d’un commentaire sur le site. Et pour y arriver, Perspective a décortiqué 16 millions de commentaires sur le journal (mais également sur Wikipédia) et analysé la manière dont ils étaient traités par les modérateurs web du site. Cette intelligence artificielle a ainsi réussi à identifier les commentaires problématiques.

Les limites de l’automatisation et de l’intelligence artificielle

Le constat est clair : Perspective permet non seulement d’évaluer un commentaire plus rapidement qu’un humain, mais allégera également le travail des modérateurs, offrant ainsi une interaction optimisée entre un site internet et ses visiteurs.

Cependant, l’intelligence artificielle n’a pas pour autant vocation à reléguer les modérateurs au second plan. Et pour cause : « Cette technologie présente des limites », avoue Jared Cohen, le PDG de Jigsaw.

On se souvient tous du moment où la firme Microsoft a été obligée de désactiver son bot intelligent Tay après qu’elle soit devenue nazie et antiféministe en seulement 24 h. De même, Google + a été obligé de présenter ses excuses lorsque son logiciel de reconnaissance faciale a confondu le portrait d’Afro-américains avec des gorilles.

Certes, les machines permettent de réduire les coûts tout en optimisant la productivité, mais elles ne sont pas adaptées à toutes les tâches, et encore moins celles liées à la modération de contenu web. Pour déchiffrer les émotions dans les messages écrits, identifier les propos sarcastiques, saisir l’ironie de certains messages publiés en ligne, reconnaitre des intentions problématiques, l’intelligence artificielle est loin d’être aussi efficace que les humains. Et pour cause, l’absence de données ou de règles l’empêche de se montrer performante. Ce sont ces limites qui font qu’il est aujourd’hui impossible de prédire la rentabilité d’un projet d’automatisation de la modération de contenu web au sein d’une entreprise.

L’humain, quant à lui, récolte les informations et comprend le contexte. Il éprouve de l’empathie, conserve le sens de la curiosité, comprend le sens émotionnel d’un texte…

L’homme reste la solution viable et performante pour modérer les contenus en ligne

Si la majorité des entreprises ne veulent ou ne peuvent pas mettre une croix sur la modération de contenu web humaine, c’est que c’est la seule solution pour traiter efficacement les commentaires sur les espaces de contribution et réguler les échanges. Non seulement l’homme est irremplaçable lorsqu’on parle de subtilités du langage, mais il constitue également le seul moyen pour fidéliser au mieux sa communauté. En effet, dans un précédent article (intitulé Pourquoi faut-il une modération 100 humaine ?), nous avons évoqué les dangers de l’automatisation pour traiter les doléances des clients.

Et même si la modération contenu web automatisée s’avère être analytiquement possible dans un futur proche, seriez-vous prêt à confier l’avenir de votre société à une machine plutôt qu’à un expert de confiance qui maitrise toutes les ficelles et les risques du métier ?

Des références dans tous les secteurs d’activité, plusieurs années d’expérience en communication, un département digital composé d’experts pour répondre à toutes vos problématiques, un très bon sens du service client… tels sont les atouts de LAPLUME.MG, notre agence de modération web à Madagascar. Si vous souhaitez améliorer ou construire votre e-réputation, faites appel à nos solutions de modération de contenu internet !

Articles dans la même catégorie