• Réactions, mode d’emploi (LeMonde.fr)
    http://lemonde.fr/m-perso/article/2017/03/03/les-commentateurs-du-web-a-confesse_5088871_4497916.html

    La règle

    – Trois réactions pas plus

    Le Monde autorise trois réactions de 500 signes par compte d’abonné derrière chaque article. Cette limitation a été choisie notamment pour bien distinguer les réactions d’une agora philosophique ou d’un bistrot des sports. C’est un espace pour réagir à un article, non pour ouvrir un interminable débat sur un sujet.

    – Pas de propos injurieux

    La charte du Monde interdit les propos injurieux et les réactions sont donc relues par une équipe spécialisée. « Les modérateurs suppriment les messages qu’ils jugent hors sujet, diffamants, insultants, ou s’attaquant de manière violente et injustifiée au travail de notre rédaction ou à d’autres membres », précise la charte. Sur les 657 693 commentaires traités en 2016 sur lemonde.fr, 85 112 (12,9 %) ont été rejetés. Sur la page Facebook principale du Monde, 3 165 386 messages ont été gérés et 592 190 (18,7 %) refusés.

    La pratique

    – Le morcellement

    Certains habitués font de la stratégie. Ils attendent le moment où la discussion est la plus active pour intervenir. Les écureuils gardent toujours une réaction en réserve, pour être certain d’avoir le dernier mot… D’autres, frustrés des 500 signes impartis, morcellent leur réponse dans deux ou trois messages à suivre.

    Il y a une faille dans le système : un bug informatique difficile à régler permet aux contributeurs inscrits avant 2012 de réagir aux réactions des autres, et ce de manière quasi infinie. De nombreux habitués usent et abusent de ce biais du système, créant ainsi des conversations parallèles à l’intérieur d’une réaction dite « racine ». S’ensuivent parfois des échanges à deux interminables et fastidieux entre vieux de la vieille. Ils encombrent l’espace et finissent par agacer les autres, frustrés de n’avoir que leur trois munitions en soute. Jusqu’à ce qu’un modérateur coupe court.

    – L’édulcorant

    Les contributeurs ont en commun d’estimer qu’on laisse dire n’importe quoi… aux autres. Seuls eux sont censurés injustement tandis que le laxisme règne partout. Leur remarquable contribution est stoppée quand ailleurs c’est la cour d’école. L’abonné débouté envoie alors un courriel hurlant aux ciseaux d’Anastasie, au déni démocratique. Il a une haute idée de sa liberté. Les habitués réessayent en édulcorant la première version ou en la postant à une autre heure, espérant que la vigilance sera moindre. Parfois un mail refusé peut être repêché : le contributeur proteste alors que sa réaction est en fait en ligne. Quand la modération tarde, le contributeur impatient renvoie sa réaction qui peut ainsi apparaître deux fois.

    #modération #commentaires #cm

    https://seenthis.net/messages/576593 via tbn


  • Des intelligences artificielles au milieu des conversations numériques

    Facebook algorithms ’will identify terrorists’
    http://www.bbc.com/news/technology-38992657

    Facebook founder Mark Zuckerberg has outlined a plan to let artificial intelligence (AI) software review content posted on the social network.
    In a letter describing the plan, he said algorithms would eventually be able to spot terrorism, violence, bullying and even prevent suicide.

    He admitted Facebook had previously made mistakes in the content it had removed from the website.

    But he said it would take years for the necessary algorithms to be developed.

    The announcement has been welcomed by an internet safety charity, which had previously been critical of the way the social network had handled posts depicting extreme violence.
    Errors

    In his 5,500-word letter discussing the future of Facebook, Mr Zuckerberg said it was impossible to review the billions of posts and messages that appeared on the platform every day.

    “The complexity of the issues we’ve seen has outstripped our existing processes for governing the community,” he said.

    He highlighted the removal of videos related to the Black Lives Matter movement and the historical napalm girl photograph from Vietnam as “errors” in the existing process.

    Facebook was also criticised in 2014, following reports that one of the killers of Fusilier Lee Rigby spoke online about murdering a soldier, months before the attack.

    "We are researching systems that can read text and look at photos and videos to understand if anything dangerous may be happening.

    “This is still very early in development, but we have started to have it look at some content, and it already generates about one third of all reports to the team that reviews content.”

    “Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda.”

    Mr Zuckerberg said his ultimate aim was to allow people to post largely whatever they liked, within the law, with algorithms detecting what had been uploaded.

    Users would then be able to filter their news feed to remove the types of post they did not want to see.

    “Where is your line on nudity? On violence? On graphic content? On profanity? What you decide will be your personal settings,” he explained.

    "For those who don’t make a decision, the default will be whatever the majority of people in your region selected, like a referendum.

    "It’s worth noting that major advances in AI are required to understand text, photos and videos to judge whether they contain hate speech, graphic violence, sexually explicit content, and more.

    “At our current pace of research, we hope to begin handling some of these cases in 2017, but others will not be possible for many years.”

    The plan was welcomed by the Family Online Safety Institute, a member of Facebook’s own safety advisory board. The charity had previously criticised the social network for allowing beheading videos to be seen without any warning on its site.

    “This letter further demonstrates that Facebook has been responsive to concerns and is working hard to prevent and respond to abuse and inappropriate material on the platform,” said Jennifer Hanley, Fosi’s vice president of legal and policy.

    “I also really like the ability for users to customise their own experiences with these developments. It’s important to give users power over their online experiences, and additional tools and controls will be helpful.”

    Read Kamal Ahmed’s interview with Mark Zuckerberg

    « On y arrive : les algos justiciers », commente @arouvroy.

    Et puis aussi #Jigsaw :

    #Modération des #commentaires : Google propose un coup de pouce de l’intelligence artificielle
    http://www.lemonde.fr/pixels/article/2017/02/23/moderation-des-commentaires-google-propose-un-coup-de-pouce-de-l-intelligenc

    Les messages agressifs et haineux pullulent en ligne, et polluent, entre autres, les fils de commentaires de nombreux sites. Jigsaw, une organisation appartenant à Google et dont le but affiché est de « rendre le monde plus sûr grâce aux technologies », devait annoncer jeudi 23 février la mise à disposition de tous en open source d’une technologie censée aider à assainir les fils de discussion.

    Perspective, c’est son nom, a été testée plusieurs mois sur le site du New York Times. Il s’agit d’une technologie d’intelligence artificielle, ou plus précisément de #machine_learning (apprentissage des machines), capable d’évaluer, sur une note de 1 à 100, le degré de « toxicité » d’un commentaire. Pour y parvenir, elle a analysé des millions de commentaires du New York Times – mais aussi de Wikipédia – et scruté la façon dont ils étaient traités par l’équipe de modération du site. Le programme a ainsi appris à repérer les commentaires problématiques, en se basant sur l’expérience des humains qui l’ont précédé à cette tâche.

    Cet outil permet donc d’évaluer un commentaire bien plus rapidement qu’un humain – et pour un coût bien moindre. Mais n’a pas pour autant vocation à remplacer les modérateurs. Et pour cause : « Cette technologie est loin d’être parfaite », reconnaît volontiers Jared Cohen, le fondateur de Jigsaw, soulignant qu’il ne s’agit que « des premiers pas » de ce programme : « Plus l’outil sera utilisé, plus il s’améliorera. »

    Les sites peuvent d’ailleurs l’utiliser comme bon leur semble : ils peuvent par exemple faire en sorte que les commentaires repérés comme étant les plus problématiques soient envoyés en priorité aux modérateurs humains. Ils peuvent aussi donner la possibilité aux internautes de classer les commentaires en fonction de leur degré de « toxicité ». Ou pourquoi pas, propose Jigsaw, afficher un message au commentateur lui-même, au moment où il s’apprête à publier un message détecté comme violent ? Avec cette dernière méthode, « il est possible de réduire ce genre de discours de façon impressionnante », assure Jared Cohen, en référence à une expérimentation du même type menée par Riot Games, l’éditeur du jeu vidéo très populaire « League of Legends ».

    Jigsaw espère ainsi permettre à ces sites « d’héberger des conversations de meilleure qualité », explique Jared Cohen, mais aussi de créer un environnement plus sain pour faire revenir les personnes n’osant plus participer aux discussions. Outre le New York Times, plusieurs médias comme le Guardian ou The Economist se sont montrés intéressés. Pour l’instant, la technologie fonctionne en anglais, mais sera bientôt accessible dans d’autres langues.

    Et puis donc #silicon_army #terrorisme #surveillance #répression

    https://seenthis.net/messages/575399 via tbn



  • #Modération : #YouTube encourage les internautes à lui prêter main forte
    http://www.lemonde.fr/pixels/article/2016/09/21/moderation-youtube-encourage-les-internautes-a-lui-preter-main-forte_5001463

    Parmi les actions valorisées par YouTube, on trouve par exemple la rédaction de sous-titres ou « le partage de connaissances », mais aussi et surtout, le signalement de contenus violant les règles de la plate-forme. Comme Facebook ou Twitter, YouTube modère les contenus après leur publication, qu’il s’agisse de vidéos ou de commentaires. A condition que ceux-ci soient signalés par des internautes. N’importe quel utilisateur peut le faire, mais cette action fera spécifiquement partie des missions des « héros », qui leur permettra de gagner des points. YouTube ne précise pas si les signalements de ses « héros » seront traités différemment des autres par ses équipes de modération.

    #CM #digital_labor #gamification

    https://seenthis.net/messages/526722 via tbn


  • The secret rules of the #internet | The Verge
    http://www.theverge.com/2016/4/13/11387934/internet-moderator-history-youtube-facebook-reddit-censorship-free-speech

    Mora-Blanco is one of more than a dozen current and former employees and contractors of major internet platforms from YouTube to Facebook who spoke to us candidly about the dawn of content moderation. Many of these individuals are going public with their experiences for the first time. Their stories reveal how the boundaries of free speech were drawn during a period of explosive growth for a high-stakes public domain, one that did not exist for most of human history. As law professor Jeffrey Rosen first said many years ago of Facebook, these platforms have “more power in determining who can speak and who can be heard around the globe than any Supreme Court justice, any king or any president.”

    #free_speech #modération #surveillance #contrôle #liberté_d'expression #féminisme à plusieurs niveaux (ne serait-ce que parce que la grande majorité des modérateurices sont des femmes et mal payées), #blackface etc etc ; énorme article donc

    http://seenthis.net/messages/482410 via Fil


  • Reddit Moderators Shut Down Parts of Site Over Employee’s Dismissal
    http://www.nytimes.com/2015/07/04/technology/reddit-moderators-shut-down-parts-of-site-over-executives-dismissal.html
    http://static01.nyt.com/images/2015/07/04/business/04reddit-web/04reddit-web-facebookJumbo-v2.jpg

    Hundreds of sections of #Reddit, the popular online message board, were unavailable Friday in what appeared to be a protest by many of the site’s moderators after the abrupt dismissal of a high-ranking company employee.

    The move affected nearly 300 individual discussion areas — so-called subreddits that focus on individual topics like technology, art and business. Subreddits are generally moderated by self-appointed members of the community, not official Reddit employees. The shutdowns, which began on Thursday evening, appeared to expand rapidly on Friday.

    They began shortly after Victoria Taylor, Reddit’s director of talent, was dismissed on Thursday afternoon. On Friday, the volunteers posted a document online that asked for better communication with official staff, as well as improved software tools for community management.

    #CM #modération

    http://seenthis.net/messages/387172 via tbn


  • Quelques réactions à l’annonce de @Zinc sur Facebook
    https://www.facebook.com/Monde.diplomatique/posts/10152758839456688

    C’est incompréhensible ... Ou c’est moi ...???

    Avec une vraie #modération digne de ce nom qui nous épargne des trolls, des insultes et autres propagandistes ?

    A voir à l’usage. Chacun peut d’ores et déjà bloquer qui lui chercherait querelle.

    euh vous avez réinventé quoi ? Diaspora ?

    Sur le rapport Seenthis (qui date de 2009, soit dit en passant) / Diaspora (créé en 2010), cf. http://seenthis.net/messages/365819

    Donc on peut s’accouder quand on veut !!!