Le machine learning aide les ordinateurs à déceler une dispute en ligne avant qu’elle ne se produise

machine learning

Cela vous est probablement déjà arrivé. Vous discutez avec quelqu’un en ligne (sur les réseaux sociaux, par e-mail…) lorsque les choses prennent une mauvaise tournure. La conversation commence civilement, mais en moins de temps qu’il ne faut pour le dire, la discussion tourne aux insultes. Et bien, nous avons de bonnes nouvelles : les scientifiques se sont penchés sur la question, et avec un peu d’aide du machine learning, ils pourraient nous aider à arrêter les disputes en ligne avant même qu’elles ne se produisent.

Les travaux proviennent de chercheurs de l’Université Cornell, de Google Jigsaw et de Wikimedia, qui ont fait équipe pour créer un logiciel qui scanne une conversation à la recherche de tics verbaux et prédit si elle se terminera de façon agressive ou amicale. Notamment, le logiciel a été formé et testé sur un terrain de discussions animées : la « page de discussion » sur les articles de Wikipedia, où les éditeurs discutent des changements de formulation, de la nécessité de meilleures sources, etc.

Le logiciel a été préprogrammé pour rechercher certaines caractéristiques qui, selon les recherches antérieures, sont liées à l’humeur conversationnelle. Par exemple, les signes qu’une discussion se déroulera bien incluent la gratitude (« Merci pour votre aide »), les salutations (« Comment va votre journée ? »), les pincettes (« Je pense que »), et, bien sûr, l’utilisation généreuse du mot « s’il vous plaît ». Tout cela se combine pour créer non seulement une atmosphère amicale, mais aussi un tampon émotionnel entre les deux participants. C’est essentiellement un no man’s land du désaccord, où quelqu’un peut admettre qu’il a tort sans jugement.

D’autre part, les signes d’avertissement incluent des questions répétées et directes (« Pourquoi n’y a-t-il aucune mention de ceci ? pourquoi n’avez-vous pas regardé cela ? ») et l’utilisation de phrases qui commencent par des pronoms à la deuxième personne (« Tes sources ne comptent pas »), surtout lorsqu’elles apparaissent dans la première réponse, ce qui suggère que quelqu’un essaie de rendre la chose personnelle. Les chercheurs ont également mesuré la « toxicité » générale des conversations à l’aide de l’API Perspective de Google, un outil d’IA qui tente de mesurer la convivialité, la neutralité ou l’agressivité d’un texte donné.

À l’aide d’une méthode statistique connue sous le nom de régression logistique, les chercheurs ont trouvé la meilleure façon d’équilibrer ces facteurs lorsque leur logiciel a fait une évaluation. À la fin de la période de formation, quand on lui a donné une paire de conversations qui ont commencé amicalement mais où l’une d’entre elles s’est terminée par des insultes personnelles, le logiciel a été capable de prédire laquelle s’est mal terminée dans un peu moins de 65% des cas. C’est assez bien, bien que quelques mises en garde importantes s’appliquent : d’abord, le test a été fait sur un ensemble limité de données (pages de discussion Wikipedia, où, inhabituellement pour les discussions en ligne, les participants ont un objectif commun : améliorer la qualité d’un article). Deuxièmement, les humains ont été encore plus efficaces dans la même tâche que le logiciel, faisant le bon choix dans 72% des cas.

Mais pour les scientifiques, ces travaux montrent que nous sommes sur la bonne voie pour créer des machines qui peuvent intervenir dans les disputes en ligne. « Les humains se rendent souvent compte qu’une conversation va mal tourner, et cette [recherche] montre qu’il est possible de rendre les ordinateurs capable de s’en rendre compte aussi », explique Justine Zhang, doctorante à l’Université Cornell qui a travaillé sur le projet.

Les recherches de ce genre sont particulièrement intéressantes, car elles font partie d’un corpus de travail émergent qui utilise l’apprentissage automatique pour analyser les discussions en ligne. Des géants de la technologie comme Facebook et Google, qui exploitent d’énormes plateformes influentes et pleines de commentateurs en colère, ont grandement besoin d’une telle technologie. Les récentes protestations concernant les publicités politiques russes sur Facebook et l’horrible contenu pour enfants sur YouTube suggèrent quels sont les enjeux. Ces entreprises espèrent que l’IA pourra faire un meilleur travail (et coûter moins cher) que les modérateurs humains.

Cependant, bien que l’intelligence artificielle puisse certainement gérer l’échelle de l’Internet, elle a prouvé à maintes reprises qu’elle ne peut pas faire face aux nuances du langage humain. L’API Perspective de Google, par exemple, qui a été utilisée dans le cadre de cette recherche, est présentée comme un outil qui peut aider à éliminer les commentaires toxiques des sites Web. Mais son jugement est souvent erroné ; par exemple, elle évalue la phrase « Je suis un homme » comme étant beaucoup moins toxique que « Je suis une femme gay et noire ». (Google, pour sa part, souligne que Perspective est un travail en cours et qu’il s’agit d’un seul outil dans l’arsenal des développeurs pour automatiser la modération des commentaires.)

Dans le cas de cette recherche spécifique, on peut imaginer qu’elle sera utilisée pour intervenir dans les discussions en ligne, prévenant les utilisateurs lorsque les choses sont sur le point de dégénérer. Un tel robot serait le bienvenu dans beaucoup de cas (qui n’a pas été plongé dans une dispute sans réfléchir au moins une fois dans sa vie ?), mais il est aussi intéressant de considérer les inconvénients potentiels. Au-delà des problèmes plus larges de modération de l’IA, que se passerait-il si un robot comme celui-ci était modifié pour éliminer la dissidence politique ? Ou si empêcher les humains d’avoir des disputes en ligne est en fait une mauvaise chose ? Personne ne prétend qu’Internet est un modèle de débat productif, mais lorsqu’une conversation tourne mal, c’est au moins une occasion de découvrir comment ne pas faire les choses. Si nous sommes trop isolés, nous n’apprendrons peut-être jamais.

De tels points étaient « bien pris en considération par l’équipe » tout en faisant ces travaux, dit Zhang. Elle a dit avoir constaté que « certains désaccords sont intrinsèquement utiles » et que si le logiciel était trop rapide à juger, il pourrait « dissuader des discussions potentiellement constructives ». « Il y a des cas de personnes qui réussissent à se remettre de mauvaises conversations, donc décider quand une machine doit intervenir et servir de médiateur est une question intéressante. »

Surtout, dit Zhang, ces travaux ont montré à quel point la conversation humaine peut être imprévisible et dynamique. Lorsqu’elle examinait les données, dit-elle, elle trouvait parfois une discussion avec toutes les caractéristiques d’une discussion sur le point d’exploser, et ensuite les participants s’étaient désengagés d’une manière ou d’une autre et avaient terminé les choses à l’amiable. « C’est intéressant de voir des gens qui réussissent à le faire, en utilisant une combinaison bizarre de fermeté et de politesse  » dit-elle.

Zhang espère que les travaux futurs se concentreront sur des exemples similaires ; des échanges qui montrent que l’humanité se rattrape à la dernière minute. « Nous nous sommes intéressés aux conversations qui déraillent, mais c’était bien de voir qu’il n’y a pas que ça. »

Soyez le premier à commenter sur "Le machine learning aide les ordinateurs à déceler une dispute en ligne avant qu’elle ne se produise"

Laissez un commentaire

Votre adresse mail ne sera pas publiée.


*