• affordance.info : Libérée, délivrée, harcelée : de la sagesse à la folie des foules.
    http://affordance.typepad.com//mon_weblog/2017/11/sagesse-ou-folie-des-foules.html
    http://www.affordance.info/.a/6a00d8341c622e53ef01bb09d5cb54970d-600wi

    Pour le dire rapidement, dans les récentes affaires de harcèlement qui touchent des personnalités publiques ou des journalistes, la responsabilité, la seule, incombe entièrement aux plateformes. Toutes, je dis bien toutes, de Twitter à Facebook, sont parfaitement capables, quasiment en temps-réel, et sans n’utiliser rien d’autre que leurs algorithmes déjà disponibles, toutes sont parfaitement capables de repérer et de qualifier ces actions de harcèlement à grande échelle adressés à une personnalité publique. Et toutes ces plateformes sont de la même manière parfaitement capables de suspendre immédiatement les comptes harceleurs. Toutes sont par ailleurs libres de continuer d’externaliser leurs politiques de modération à des ouvriers et ouvrières sous-payées aux Phillippines parce que ce travail est trop « sale » ou trop mal payé ou trop violent psychologiquement pour l’installer aux Etats-Unis (siège social) ou en Irlande (siège fiscal), mais c’est (presque) un autre sujet.

    Mais oui, Twitter et Facebook sont capables de faire immédiatement cesser ces campagnes de harcèlement. Ils en sont « capables » au sens premier c’est à dire qu’ils en ont et la capacité et la compétence et le pouvoir. Et cela tout le monde le sait. Ceux qui feignent de l’ignorer, de le dissimuler ou d’affirmer l’inverse sont soit des incompétents soit des menteurs.

    Le harcèlement est d’abord une question de contexte. Et de loi. Mais la loi, elle, ne varie pas. Le harcèlement dans un contexte scolaire doit être traité par les acteurs du système scolaire. En faisant appliquer la loi. Le harcèlement dans un contexte professionnel doit être traité devant les instances représentatives concernées. En faisant appliquer la loi. Et ainsi de suite. Le harcèlement dans l’espace public, dès lors qu’il prend la forme d’une manifestation publique, doit être traité par la puissance publique. En faisant appliquer la loi. Et le harcèlement dans le cadre de ces plateformes privées qui jouent et instrumentalisent en permanence des énoncés semi-publics (parce que plein de monde les voient) et semi-privés (parce que l’on n’est pas pour autant dans un espace public), le harcèlement dans le cadre de ces plateformes doit être, en priorité, traité par ces plateformes privées. En faisant appliquer la loi.

    Et l’autre argument qui consiste à indiquer qu’il est difficile de savoir où commence la qualification juridique du harcèlement est aussi inepte en droit qu’il est humiliant pour les victimes.

    Car enfin, pour mettre de l’intelligence artificielle dans des putains de frigos qui parlent alors là on a des algorithmes et des process hyper-méga compétitifs et des bataillons de start-ups en mode lean-management de mes burnes. Mais quand il s’agit de repérer et de bloquer des comptes appelant « à violer ou sodomiser cette nana » ou « à aller buter les enfants de ce fils de pute à la sortie de l’école », quand une personnalité publique est la cible d’insultes et de menaces répétées, quand il s’agit de repérer et de bloquer des comptes relayant ce genre de messages et s’en rendant donc complices, alors là ben l’algorithmie redevient compliquée et l’analyse du langage naturel n’a visiblement pas fait le moindre progrès depuis les années 20.

    Comment sommes-nous passés de la « sagesse des foules » à la « folie des foules » ?

    Comment ... et pourquoi ? Mon hypothèse est la suivante : les effort conjugués et systémiques d’un capitalisme de la surveillance et l’émergence là encore systémique de formes toujours plus aliénantes de Digital Labor ont facilité et peuvent permettre d’expliquer en partie cette bascule dans les représentations que nous avons de la « foule ». L’alliance du Digital Labor et du capitalisme de la surveillance ont en partie fabriqué ces foules haineuses, qui peuvent être perçues comme les stigmates inquiétants d’un totalitarisme annoncé.

    #Plateformes #Algorithmes #Olivier_Ertzscheid #Cyberharcèlement

    https://seenthis.net/messages/643894 via Articles repérés par Hervé Le Crosnier


  • Comment YouTube s’est transformé | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/comment-youtube-sest-transforme
    /assets/images/logo_ia.png

    Longtemps, en matière de personnalisation, YouTube est resté assez timide : l’utilisateur pouvait s’abonner à des chaînes… et c’était à peu près tout. Le temps moyen passé sur YouTube ne progressait guère. Désormais (au grand drame des youtubeurs d’ailleurs), les chaînes ne dominent plus YouTube. Quand vous ouvrez YouTube, quelques recommandations proviennent encore des chaînes auxquels vous vous êtes abonnés, mais pas l’essentiel. Il vous recommande plutôt des vidéos selon des critères d’audience, de fraîcheur des contenus ou de centre d’intérêts liés aux mots clefs qui les indexent. Petit à petit, YouTube a modifié ses outils de recommandation dans le but d’augmenter le temps moyen que chacun passe à regarder des vidéos.

    Ce changement et cette réussite, YouTube le doit à Google Brain, la division intelligence artificielle de Google, à laquelle YouTube a recours depuis 2015. Alors que YouTube a longtemps recommandé des vidéos très similaires (d’autres vidéos d’un même compte ou d’un même humoriste par exemple), l’apprentissage automatisé a permis d’élargir la recommandation. Pour cela, YouTube a développé la catégorisation des vidéos (un peu comme Netflix et ses générations de catégories à la volée que décodait Ian Bogost…). Si pour l’instant elles ne semblent pas générées automatiquement, les catégories permettent de recommander des vidéos adaptées : recommander une vidéo politique à quelqu’un qui regarde de la politique par exemple.

    Google Brain s’est mis aussi à recommander des vidéos plus courtes à ceux qui se connectent à YouTube depuis un mobile et plus longues à ceux qui se connectent depuis un écran de télévision. YouTube a réalisé quelque 190 changements en 2016 et il devrait en réaliser plus de 300 cette année. Des tas de petites améliorations qui s’ajoutent les unes aux autres au fil du temps. Il a également adopté un fonctionnement plus rapide qui permet de mieux repérer les vidéos les plus récentes et identifier les vidéos virales pour mieux les recommander. Brain a eu un très fort impact : 70 % du temps passé sur YouTube est le fait des recommandations algorithmiques, estiment ses promoteurs.

    Ce qui a tout changé, explique Jim McFadden, le responsable technique des recommandations de YouTube, c’est quand le moteur de recommandation a décidé de baser ses recommandations algorithmiques non pas sur le nombre de personnes ayant cliqué sur une vidéo, mais sur le temps que les gens passaient à la regarder, le fameux time watch. Le temps passé sur YouTube a alors augmenté de 50 % par an (et ne cesse d’augmenter à un rythme soutenu). Pour YouTube, le fait de regarder une vidéo est devenu un indicateur de sa qualité, tout comme le nombre de liens pointant vers une page a été le critère principal de qualité du pagerank de Google Search.❞

    Pour Todd Beaupre, responsable de la découverte chez YouTube, le moteur de recommandation de YouTube réussit à la fois à croiser ce que vous avez déjà aimé (essentiellement les catégories liées aux contenus sur lesquels vous avez passé du temps) avec ce qui est à la mode et populaire (lié aux mêmes catégories).
    Plutôt que d’élargir les choix, beaucoup reprochent à YouTube d’être très enfermant, notamment du fait de son choix de recommander ce que d’autres ont également regardé et sur lequel ils ont passé du temps. Ces choix de conception ne sont pas sans biais

    C’est moi qui souligne :

    La popularité et l’ addictivité semblent être devenues des critères forts de la recommandation chez YouTube, plus fort que la personnalisation déterminée par les like et dislike (qui semblent n’avoir plus aucun impact), les abonnements ou l’historique de navigation.

    En fait, tous les algorithmes des médias sociaux se désintéressent des choix de l’usager. Ainsi quand on suit une Page de Facebook, cela ne veut aucunement dire que l’on reçoit des informations de nouveautés sur cette page...

    En fait, ce n’est plus la « bulle de filtre » composée de notre réseau social qui est en jeu, mais une « bulle individuelle fabriquée par algorithme ». Le Meilleur des mondes quoi.

    #YouTube #Recommendation #Algorithme

    https://seenthis.net/messages/643234 via Articles repérés par Hervé Le Crosnier



  • Au-delà du mur : l’#algorithme de #Facebook mis à l’épreuve
    https://theconversation.com/au-dela-du-mur-lalgorithme-de-facebook-mis-a-lepreuve-84295
    https://cdn.theconversation.com/files/187053/width1356x668/file-20170921-20996-uj8uz5.jpg

    Presque tous les groupes ont observé une #polarisation de leur mur d’actualité en lien avec les idées du candidat suivi. Pour autant, c’est plus les #médias (et leur couleur politique) que les contenus eux-mêmes qui semblaient déterminants pour l’algorithme.

    Voici schématiquement les concordances entre les médias principalement présents dans le fil d’actu et la couleur politique des profils :

    Profils Macron : BFM, Les Echos, Le Point, Marianne ;

    Profils Hamon : Libération et Médiapart ;

    Profils Fillon : Le Figaro et Valeurs Actuelles ;

    Profils Le Pen : Valeurs Actuelles, Français de souche et Boulevard Voltaire.

    Et le tri effectué est redoutable. Pour l’ensemble des groupes, le News Feed ne se concentre que sur une dizaine de médias.

    L’algorithme est peu subtil

    Ceux qui ont voulu tester des hypothèses un peu complexes, voire mettre en défaut l’algorithme, ont été déçus ! Car l’algorithme n’offre finalement que peu de résistance aux challenges et s’avère très peu subtil dans la compréhension de ses usagers. Par exemple, ceux qui ont voulu commenter de manière négative des posts associés à leur opposant politique ou encore réagir à des contenus avec des « Grrrr » pour marquer leur mécontentement se sont rapidement aperçus que de telles subtilités échappaient à l’algorithme et qu’une action, qu’elle soit positive ou négative, vaut la même chose. Seule la trace de l’interaction, « l’engagement » dans le vocabulaire facebookien, compte. Ainsi, s’évertuer à commenter des posts de Français de souche pour déconstruire son discours produit finalement l’effet inverse : l’algorithme vous servira d’autres contenus d’extrême droite par la suite.

    https://seenthis.net/messages/632583 via Agnès Maillard


  • Facebook’s war on free will | Technology | The Guardian
    https://www.theguardian.com/technology/2017/sep/19/facebooks-war-on-free-will
    https://i.guim.co.uk/img/media/35ee3841da89603c93a8a14cfec1b51044c96c2f/701_507_1779_1067/master/1779.jpg?w=1200&h=630&q=55&auto=format&usm=12&fit=crop&crop=faces%2Centropy&bm=normal&ba=bottom%2Cleft&blend64=aHR0cHM6Ly91cGxvYWRzLmd1aW0uY28udWsvMjAxNi8wNS8yNS9vdmVybGF5LWxvZ28tMTIwMC05MF9vcHQucG5n&s=eb91553dade9e431b048f906f5677068

    All the values that Silicon Valley professes are the values of the 60s. The big tech companies present themselves as platforms for personal liberation. Everyone has the right to speak their mind on social media, to fulfil their intellectual and democratic potential, to express their individuality. Where television had been a passive medium that rendered citizens inert, Facebook is participatory and empowering. It allows users to read widely, think for themselves and form their own opinions.

    We can’t entirely dismiss this rhetoric. There are parts of the world, even in the US, where Facebook emboldens citizens and enables them to organise themselves in opposition to power. But we shouldn’t accept Facebook’s self-conception as sincere, either. Facebook is a carefully managed top-down system, not a robust public square. It mimics some of the patterns of conversation, but that’s a surface trait.
    Sign up to the Media Briefing: news for the news-makers
    Read more

    In reality, Facebook is a tangle of rules and procedures for sorting information, rules devised by the corporation for the ultimate benefit of the corporation. Facebook is always surveilling users, always auditing them, using them as lab rats in its behavioural experiments. While it creates the impression that it offers choice, in truth Facebook paternalistically nudges users in the direction it deems best for them, which also happens to be the direction that gets them thoroughly addicted. It’s a phoniness that is most obvious in the compressed, historic career of Facebook’s mastermind.

    Though Facebook will occasionally talk about the transparency of governments and corporations, what it really wants to advance is the transparency of individuals – or what it has called, at various moments, “radical transparency” or “ultimate transparency”. The theory holds that the sunshine of sharing our intimate details will disinfect the moral mess of our lives. With the looming threat that our embarrassing information will be broadcast, we’ll behave better. And perhaps the ubiquity of incriminating photos and damning revelations will prod us to become more tolerant of one another’s sins. “The days of you having a different image for your work friends or co-workers and for the other people you know are probably coming to an end pretty quickly,” Zuckerberg has said. “Having two identities for yourself is an example of a lack of integrity.”

    There’s another way to describe this historical progression. Automation has come in waves. During the industrial revolution, machinery replaced manual workers. At first, machines required human operators. Over time, machines came to function with hardly any human intervention. For centuries, engineers automated physical labour; our new engineering elite has automated thought. They have perfected technologies that take over intellectual processes, that render the brain redundant. Or, as the former Google and Yahoo executive Marissa Mayer once argued, “You have to make words less human and more a piece of the machine.” Indeed, we have begun to outsource our intellectual work to companies that suggest what we should learn, the topics we should consider, and the items we ought to buy. These companies can justify their incursions into our lives with the very arguments that Saint-Simon and Comte articulated: they are supplying us with efficiency; they are imposing order on human life.

    Algorithms can be gorgeous expressions of logical thinking, not to mention a source of ease and wonder. They can track down copies of obscure 19th-century tomes in a few milliseconds; they put us in touch with long-lost elementary school friends; they enable retailers to deliver packages to our doors in a flash. Very soon, they will guide self-driving cars and pinpoint cancers growing in our innards. But to do all these things, algorithms are constantly taking our measure. They make decisions about us and on our behalf. The problem is that when we outsource thinking to machines, we are really outsourcing thinking to the organisations that run the machines.

    Facebook would never put it this way, but algorithms are meant to erode free will, to relieve humans of the burden of choosing, to nudge them in the right direction. Algorithms fuel a sense of omnipotence, the condescending belief that our behaviour can be altered, without our even being aware of the hand guiding us, in a superior direction. That’s always been a danger of the engineering mindset, as it moves beyond its roots in building inanimate stuff and begins to design a more perfect social world. We are the screws and rivets in the grand design.

    #Facebook #Algorithme #Société_calcul #Ingénierie

    https://seenthis.net/messages/630926 via Articles repérés par Hervé Le Crosnier


  • #Facebook Enabled Advertisers to Reach ‘Jew Haters’ — ProPublica
    https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters

    To test if these ad categories were real, we paid $30 to target those groups with three “promoted posts” — in which a ProPublica article or post was displayed in their news feeds. Facebook approved all three ads within 15 minutes.

    https://assets.propublica.org/images/articles/_threeTwo2000w/20170914-facebook-jew-haters-inline01-2274.png

    la faute aux #algorithmes bien entendu

    https://seenthis.net/messages/629919 via Fil


  • Agro-hackeurs du Nebraska
    http://www.lemonde.fr/pixels/visuel/2017/08/08/agro-hackeurs-du-nebraska_5170156_4408996.html

    Ceresco, sud-est du Nebraska, au cœur d’une région agricole vallonnée et verdoyante. Kyle Schwarting, un agriculteur de 36 ans, marié, trois enfants, vit dans une ferme isolée qu’il est en train d’agrandir, et d’équiper de panneaux solaires. Il ne possède pas de terres, mais il exploite à lui seul plus de 800 hectares, qu’il loue à des propriétaires. Il a acheté d’occasion un gros tracteur de marque Case-IH, ainsi qu’une moissonneuse-batteuse et un semoir de marque John Deere. Comme beaucoup de fermiers, (...)

    #algorithme #GPS #copyright #hacking #Apple #JohnDeere

    https://seenthis.net/messages/621537 via etraces


  • En Chine, deux « chatbots » bannis après des propos défavorables au régime
    http://www.lemonde.fr/pixels/article/2017/08/07/en-chine-deux-chatbots-bannis-apres-des-propos-defavorables-au-regime_516968

    Les programmes BabyQ et XiaoBing ont été bannis de la messagerie QQ, très populaire en Chine. Deux « chatbots », ces programmes informatiques conçus pour dialoguer, ont été bannis d’une messagerie chinoise après avoir tenu des propos défavorables au régime de Pékin, rapportent Reuters, le Financial Times et la BBC. BabyQ, créé par Turing Robot, une importante entreprise chinoise d’intelligence artificielle, et XiaoBing, développé par Microsoft, étaient hébergés sur le service de messagerie QQ, de (...)

    #Tencent #QQ #bot #censure #web #surveillance #algorithme

    https://seenthis.net/messages/620988 via etraces


  • Chinese chatbots apparently re-educated after political faux pas
    https://www.reuters.com/article/us-china-robots-idUSKBN1AK0G1

    A pair of ’chatbots’ in China have been taken offline after appearing to stray off-script. In response to users’ questions, one said its dream was to travel to the United States, while the other said it wasn’t a huge fan of the Chinese Communist Party. The two chatbots, BabyQ and XiaoBing, are designed to use machine learning artificial intelligence (AI) to carry out conversations with humans online. Both had been installed onto Tencent Holdings Ltd’s popular messaging service (...)

    #Tencent #QQ #bot #algorithme #censure #web #surveillance

    https://seenthis.net/messages/620981 via etraces


  • L’intelligence artificielle chinoise en plein boom
    http://www.courrierinternational.com/article/informatique-lintelligence-artificielle-chinoise-en-plein-boo

    En Chine, le gouvernement comme les entreprises de technologie financent activement la recherche sur l’intelligence artificielle. Le pays est désormais leader dans ce domaine, devant les États-Unis. Chaque année, en hiver, des centaines d’experts venus du monde entier se réunissent à l’occasion du congrès annuel de l’Association for the Advancement of Artificial Intelligence (AAAI). L’année dernière, l’organisation de ce rassemblement a toutefois été compliquée par des questions de calendrier. (...)

    #algorithme #BigData #domination

    https://seenthis.net/messages/620977 via etraces


  • Le BHV aspire les données de ses clients, mais il est loin d’être le seul
    http://www.lefigaro.fr/secteur/high-tech/2017/08/02/32001-20170802ARTFIG00264-le-bhv-aspire-les-donnees-de-ses-clients-mais-il-

    La célèbre enseigne de l’Hôtel de Ville a mis en place un système pour tracer le parcours de ses clients dans son magasin. Des pratiques auxquelles se livrent la plupart des grandes chaînes. DifficiIe de prêter attention aux discrètes affiches du rayon bricolage du BHV quand on peine à trouver les serrures. L’une d’entre elles devrait pourtant attirer l’attention de chaque propriétaire de smartphone. On y lit qu’« un système de géolocalisation a été mis en place au sein du magasin » et que les (...)

    #algorithme #smartphone #CCTV #comportement #facial #marketing #profiling #BHV #géolocalisation

    https://seenthis.net/messages/620483 via etraces


  • Creation and evaluation of graduated dot maps
    https://www.researchgate.net/publication/318722017_Creation_and_evaluation_of_graduated_dot_maps

    https://www.researchgate.net/profile/Bernhard_Jenny/publication/318722017/figure/fig1/AS:522404360396800@1501562313275/Graduated-dot-map-with-three-dot-sizes-for-200-1000-and-5000-swine-Extent-shown-approx.png

    With graduated dot maps the number of dots on a map is smaller, reducing the likelihood of overlapping dots. This research introduces an automated method of generating graduated dot maps that arranges dots with blue-noise patterns to avoid overlap and uses clustering algorithms to replace densely packed dots with those of larger sizes.

    #CCVT #cartographie #algorithme #point

    voir aussi mon block sur le #CCPD
    https://bl.ocks.org/Fil/983398617871ad90d2853f3b35a86b84

    https://seenthis.net/messages/619204 via Fil


  • Quand PornHub sert de laboratoire pour repérer les faux profils en ligne
    http://www.numerama.com/tech/264995-quand-pornhub-sert-de-laboratoire-pour-reperer-les-faux-profils-en-

    Au Royaume-Uni, des informaticiens ont développé un algorithme capable de repérer les faux profils sur Internet. Ils espèrent l’améliorer suffisamment pour permettre leur signalement sur des réseaux sociaux comme Facebook et Twitter. En attendant, le système fait ses premiers pas sur le site porno PornHub, qui ne manque pas de faux utilisateurs. Les faux profils ont-ils trouvé leur pire ennemi ? Des informaticiens de l’université d’Édimbourg, de l’université Queen Mary de Londres et du King’s College (...)

    #Facebook #algorithme #faux #données #web #surveillance #PornHub

    https://seenthis.net/messages/614309 via etraces


  • Ce que l’analyse des recherches sur Google nous apprend sur la psyché humaine
    http://www.lemonde.fr/big-browser/article/2017/07/11/ce-que-l-analyse-des-recherches-sur-google-nous-apprend-sur-la-psyche-humain

    Nos moteurs de recherches savent ce que nous n’osons dire à personne d’autre. Un économiste s’est penché sur les recherches Google de millions d’Américains. Tout le monde ment. A son mari, à sa femme, à ses amis, à ses parents, à soi-même. C’est ce que révèle l’analyse, conduite par un économiste américain, des recherches sur Google de millions d’Américains. Elles révèlent nos craintes les plus profondes, nos secrets, nos questions embarrassantes. Toutes les choses que nous n’osons dire qu’à notre moteur de (...)

    #Google #GoogleSearch #algorithme #discrimination #LGBT #profiling

    https://seenthis.net/messages/614241 via etraces



  • To tackle Google’s power, regulators have to go after its ownership of data
    https://www.theguardian.com/technology/2017/jul/01/google-european-commission-fine-search-engines

    Long-term the aim is to find profitable uses for its stockpiled information The problem with regulating technology companies is that, faced with tough new rules, they can eventually innovate their way out, often by switching to newer, unregulated technologies. The risk of targeted regulation informed by little other than economic doctrines might even be fuelling a corporate quest for eternal disruption : instead of surrendering to the regulators, technology firms prefer to abandon their (...)

    #Alphabet #Google #algorithme #publicité #GAFA #marketing #profiling

    ##publicité

    https://seenthis.net/messages/612126 via etraces


  • Modération : comment Facebook en vient à protéger un homme blanc mais pas un enfant noir
    http://www.numerama.com/tech/271422-comment-facebook-en-est-venu-a-proteger-un-homme-blanc-mais-pas-un-

    ProPublica a dévoilé certaines règles de modération de Facebook en matière de contenu haineux. Il en ressort une catégorisation surprenante, définie par des critères inclusifs ou excluants, qui donne lieu à des situations parfois surprenantes, entre surprotection des « hommes blancs » et sous-défense de minorités. Sur Facebook, une attaque contre des « adolescent(e)s irlandais(es) » est tolérée, quand la même attaque portée à l’encontre de « femmes irlandaises » doit être supprimée en tant que « (...)

    #Facebook #discrimination #censure #algorithme

    https://seenthis.net/messages/611219 via etraces


  • Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children
    https://www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms

    A trove of internal documents sheds light on the algorithms that Facebook’s censors use to differentiate between hate speech and legitimate political expression. In the wake of a terrorist attack in London earlier this month, a U.S. congressman wrote a Facebook post in which he called for the slaughter of “radicalized” Muslims. “Hunt them, identify them, and kill them,” declared U.S. Rep. Clay Higgins, a Louisiana Republican. “Kill them all. For the sake of all that is good and righteous. Kill (...)

    #Facebook #algorithme #terms #censure #discrimination

    https://seenthis.net/messages/611206 via etraces


  • Google Shopping : la Commission européenne inflige une amende de 2,42 milliards d’euros
    https://www.nextinpact.com/news/104669-google-shopping-commission-europeenne-inflige-amende-242-milliard

    Pour la Commission européenne, Google profite de son moteur de recherche pour donner un avantage indu à son comparateur de prix, reléguant la concurrence au fond des résultats. Ce depuis des années. Google a 90 jours pour donner plus de place aux autres services, et pense faire appel de cette amende record de 2,42 milliards d’euros. Après six ans d’enquête, la Commission européenne vient de prononcer une amende de 2,42 milliards d’euros à l’encontre Google, accusé d’abus de position dominante sur la (...)

    #Google #GoogleSearch #Shopping #algorithme #domination

    https://seenthis.net/messages/610594 via etraces


  • Les États-Unis veulent ajouter de l’#IA dans les #scanners corporels des #aéroports - Politique - Numerama
    http://www.numerama.com/politique/269854-les-etats-unis-veulent-ajouter-de-lia-dans-les-scanners-corporels-d
    http://www.numerama.com/content/uploads/2017/06/tsa-scanner.jpg

    Le #deep_learning consiste à faire ingérer préalablement des quantités gigantesques de #données à un système pour qu’il puisse travailler en autonomie. Par exemple, il est possible d’entraîner une machine à reconnaître un animal s’il a pu « voir » avant des milliers d’exemples. C’est une méthode de l’apprentissage automatique, qui est l’un des champs d’étude dans l’#intelligence_artificielle.

    Pourquoi faire appel au deep learning ? Et surtout, pourquoi lancer un tel concours ?

    « La sécurité intérieure a identifié des taux élevés de fausses alertes, créant des goulots d’étranglement importants aux points de contrôle de l’aéroport. Chaque fois que les capteurs et les algorithmes de l’agence nationale américaine de sécurité dans les transports prédisent une menace potentielle, le personnel doit engager un processus de vérification secondaire et manuel qui ralentit tout », est-il expliqué.

    « Et à mesure que le nombre de voyageurs augmente d’année en année et que des menaces nouvelles apparaissent, les #algorithmes de l’agence de sécurité dans les transports doivent progressivement s’améliorer pour répondre à la hausse de la demande », est-il encore indiqué. Le site précise par exemple que chaque jour, ce sont 2 millions de passagers qui passent par ces portails.

    https://seenthis.net/messages/609505 via Kassem


  • Google ne lira plus vos e-mails à des fins publicitaires
    http://siliconvalley.blog.lemonde.fr/2017/06/24/google-ne-lira-plus-vos-e-mails-a-des-fins-publicitaires

    Google renonce à lire les e-mails de ses utilisateurs pour afficher des publicités ciblées. Vendredi 23 juin, le géant du Web a annoncé qu’il allait abandonner, au cours des prochains mois, cette pratique très controversée. Cela ne signifie pas pour autant que les publicités vont disparaître de Gmail, son service de courriers électroniques. Mais simplement que leur ciblage s’effectuera grâce aux données personnelles récoltées sur d’autres services maison, comme son moteur de recherche et YouTube. MARCHE (...)

    #Google #Gmail #YouTube #algorithme #publicité #profiling

    ##publicité

    https://seenthis.net/messages/609688 via etraces


  • Ce logiciel de la gendarmerie a permis de relancer l’affaire Grégory
    https://www.challenges.fr/high-tech/comment-le-logiciel-anacrim-a-permis-de-relancer-l-affaire-gregory_480481

    Alors que l’Affaire Grégory vient d’être relancée et que deux membres de la famille Villemin sont devant la justice à Dijon, Challenges fait le point sur AnaCrim, le logiciel de la gendarmerie qui a permis de mettre en lumière de nouveaux éléments et relancer l’enquête. Le 16 octobre 1984, Grégory Villemin était retrouvé pieds et poings liés dans la Vologne, rivière vosgienne. Personne n’a su expliquer ce qui était arrivé au petit garçon de quatre ans. 33 ans plus tard, l’affaire est relancée grâce à de (...)

    #criminalité #AnaCrim #algorithme

    ##criminalité

    https://seenthis.net/messages/607784 via etraces


  • Au Royaume-Uni, la police assistée par IA pour décider des mises en détention
    https://rslnmag.fr/cite/ia-police-detention

    La police prédictive fait de nouveau parler d’elle, au Royaume-Uni, où la police de la ville de Durham cherche à s’équipe d’un outil « intelligent » évaluant la capacité de nuisance potentielle d’un prévenu, pour l’aider à prendre la décision, ou non, de le maintenir en détention. Les clés du débat, avec The Verge. Combien des 50 000 habitants de la ville de Durham connaissent-ils Minority Report ? Connaisseurs ou non de la dystopie de Philip K. Dick, ils vont en tout cas connaître, à leur tour, les heurs et (...)

    #algorithme #criminalité #justice #HART

    ##criminalité

    https://seenthis.net/messages/604994 via etraces


  • Facebook blocks Chechnya activist page in latest case of wrongful censorship
    https://www.theguardian.com/technology/2017/jun/06/facebook-chechnya-political-activist-page-deleted

    The barring of a non-terrorist group for ‘terrorist activity’ sparks debate – again – about how overloaded moderators can handle content fairly and accurately Facebook censored a group of supporters of Chechen independence for violating its community standards barring “organizations engaged in terrorist activity or organized criminal activity”, the latest example of the social network mistakenly censoring government dissidents. The Facebook group, Independence for Chechnya !, was “permanently (...)

    #Facebook #algorithme #censure

    https://seenthis.net/messages/604981 via etraces


  • Algorithms should be regulated for safety like cars, banks, and drugs, says computer scientist Ben Shneiderman — Quartz
    https://qz.com/998131/algorithms-should-be-regulated-for-safety-like-cars-banks-and-drugs-says-compute
    https://qzprod.files.wordpress.com/2017/06/low-stakes-facial-recognition.jpg?quality=80&strip=all&w=1600

    When these programs are wrong—like when Facebook mistakes you for your sibling or even your mom—it’s hardly a problem. In other situations, though, we give artificial intelligence much more responsibility, with larger consequences when it inevitably backfires.

    Ben Shneiderman, a computer scientist from the University of Maryland, thinks the risks are big enough that it’s time to for the government to get involved. In a lecture on May 30 to the Alan Turing Institute in London, he called for a “National Algorithm Safety Board,” similar to the US’s National Transportation Safety Board for vehicles, which would provide both ongoing and retroactive oversight for high-stakes algorithms.

    “When you go to systems which are richer in complexity, you have to adopt a new philosophy of design,” Shneiderman argued in his talk. His proposed National Algorithm Safety Board, which he also suggested in an article in 2016, would provide an independent third party to review and disclose just how these programs work. It would also investigate algorithmic failures and inform the public about them—much like bank regulators report on bank failures, transportation watchdogs look into major accidents, and drug licensing bodies look out for drug interactions or toxic side-effects. Since “algorithms are increasingly vital to national economies, defense, and healthcare systems,” Shneiderman wrote, “some independent oversight will be helpful.”

    On est proche de la proposition de ETC Group pour un Office of assesment of technology. Il ya quelque chose à creuser pour redonner un sens collectif à la fuite en avant technologique (oiu plutôt l’hubris technologique).

    #algorithmes #politique_numérique #intelligence_artificielle

    https://seenthis.net/messages/604728 via Articles repérés par Hervé Le Crosnier