Les éboueurs du Web, modérateurs invisibles des réseaux sociaux | Usbek & Rica
extrait source Les éboueurs du Web, modérateurs invisibles des réseaux sociaux | Usbek & Rica:
'via Blog this'
Depuis des années, la chercheuse américaine Sarah T. Roberts étudie les pratiques
professionnelles et va à la rencontre de celles et ceux qui modèrent les contenus
publiés sur Facebook, YouTube, et autres plateformes commerciales.
A l'occasion d'un séminaire à Paris, nous avons échangé avec elle à propos
de ces travailleurs invisibles, dont l'activité est pourtant essentielle aux géants du Web.
professionnelles et va à la rencontre de celles et ceux qui modèrent les contenus
publiés sur Facebook, YouTube, et autres plateformes commerciales.
A l'occasion d'un séminaire à Paris, nous avons échangé avec elle à propos
de ces travailleurs invisibles, dont l'activité est pourtant essentielle aux géants du Web.
« Je bois beaucoup depuis que je fais ce travail. Ce qu’il y a de pire, c’est que je ne peux même pas en parler à mes amis ». « Ce qui m’affecte le plus, ce sont les images de bestialité à l’égard des enfants ». John, employé dans une entreprise qui travaille avec un des géants du Web, et Maria, interviewée par un journaliste de Wired aux Philippines en 2014, font le même métier. Chaque jour, ils plongent dans la maelström des contenus publiés sur les réseaux sociaux, pour décider de ce qui peut ou non rester en ligne.
« Sale boulot » à l'abri des regards
Ces travailleurs de l’ombre, Sarah T. Roberts, maître de conférence en sciences de l’information à UCLA, les côtoient depuis sept ans. Invisibles, ils sont quotidiennement confrontés à ce que l’humanité peut produire de pire : les contenus signalés par d'autres utilisateurs. Ces « éboueurs du Web », comme les surnomme la chercheuse, sont des employés d’un nouveau genre, qui effectuent leur « sale boulot » à l’abri des regards. Les entreprises qui les emploient, souvent indirectement, n’ont aucun intérêt à ce que les utilisateurs se posent des questions sur la façon dont sont implémentées leurs fameuses « Conditions générales d’utilisation » (CGU).
« La technologie est encore vue comme quelque chose de magique », nous confie Sarah T. Roberts. « Quand j’ai commencé mes recherches en 2010, des experts m’ont dit qu’ils ne s’étaient jamais vraiment posé la question de la modération, avant de s'étonner du fait cela ne soit pas automatique ». En 2017, malgré les progrès de l’intelligence artificielle, ce n’est toujours pas le cas. Et tous les jours, des dizaines de milliers de personnes, des Philippines aux Etats-Unis, nettoient les réseaux sociaux de leurs contenus les plus choquants.
A l’heure où les fake news n'ont jamais suscité autant de crispations (en ligne ou non), notamment autour de la campagne présidentielle, nous avons pris le temps de rencontrer la chercheuse à Paris, dans le cadre d’un séminaire, pour qu'elle nous explique les ressorts de ce qu’elle appelle la « modération commerciale de contenus », ou commercial content moderation (CCM) en version originale.
Usbek & Rica : Que désigne exactement le terme commercial content moderation ?
Sarah T. Roberts : Je l'ai créé pour désigner la pratique de ces milliers de gens un peu partout dans le monde qui évaluent, arbitrent et prennent des décisions concernant les contenus générés par les utilisateurs (UGC) sur Internet. Et qui font ce travail pour un salaire. Le mot-clé, dans ce terme, c'est « commercial », qui permet de distinguer ce travail de pratiques moins formelles et qui n’impliquent pas de rémunération, pratiques de modération qui ont toujours existé sur Internet. Ce qui me semble important, c’est de reconnaître la portée et l’échelle de ces pratiques. Le fait qu'elles soient rémunérées est le résultat de la croissance exponentielle du nombre d’utilisateurs des plateformes sociales, et du fait que le modèle économique de ces plateformes se fondent sur un flux continu de contenus générés par les utilisateurs. Tout ceci rend les entreprises responsables de ce qui se passe sur leurs plateformes, et les oblige à mettre en place des mécanismes de surveillance.
Un employé de la Silicon Valley me confiait par exemple qu'après avoir passé huit heure dans ce trou à ordures, vous n'avez pas envie de l'emporter avec vous dans votre vie personnelle. Mais il est difficile de séparer ce que l’on fait au travail du reste de notre journée. Pour beaucoup d’entre eux, les choses qu’ils avaient à traiter au travail ressurgissaient à des moments qu’ils n’avaient pas choisi, et impactaient ainsi d’autres aspects de leur vie.