• Trump’s Executive Order Isn’t About Twitter - The Atlantic
    https://www.theatlantic.com/technology/archive/2020/05/trumps-executive-order-isnt-about-twitter/612349
    https://cdn.theatlantic.com/thumbor/TUM4hTKvceoIOu1OXhFeGRTv7Gc=/0x155:4560x2531/960x500/media/img/mt/2020/05/GettyImages_1074470698/original.jpg

    Par Zeynep Tufekci

    In reality, Trump’s salvo on social-media companies has primarily an audience of one: Mark Zuckerberg. And it is already working. After the executive order was issued, Facebook’s CEO quickly gave an interview to Fox News in which he said, “I just believe strongly that Facebook shouldn’t be the arbiter of truth of everything that people say online.” He added, “Private companies probably shouldn’t be, especially these platform companies, shouldn’t be in the position of doing that.”

    It’s important to pay attention to what the president is doing, but not because the legal details of this order matter at all. Trump is unlikely to repeal Section 230 or take any real action to curb the power of the major social-media companies. Instead, he wants to keep things just the way they are and make sure that the red-carpet treatment he has received so far, especially at Facebook, continues without impediment. He definitely does not want substantial changes going into the 2020 election. The secondary aim is to rile up his base against yet another alleged enemy: this time Silicon Valley, because there needs to be an endless list of targets in the midst of multiple failures.

    Trump does very well on Facebook, as my colleagues Ian Bogost and Alexis Madrigal have written, because “his campaign has been willing to cede control to Facebook’s ad-buying machinery”—both now, and in 2016. The relationship is so smooth that Trump said Zuckerberg congratulated the president for being “No. 1 on Facebook” at a private dinner with him. Bloomberg has reported that Facebook’s own data-science team agreed, publishing an internal report concluding how much better Trump was in leveraging “Facebook’s ability to optimize for outcomes.” This isn’t an unusual move for Facebook and its clients. Bloomberg has reported that Facebook also offered its “white glove” services to the Philippine strongman Rodrigo Duterte, to help him “maximize the platform’s potential and use best practices.” Duterte dominated political conversation on the site the month before the Philippines’ May 2016 presidential election. And once elected, Duterte banned independent press from attending his inauguration, instead live-streaming it on Facebook—a win-win for the company, which could then collect data from and serve ads to the millions who had little choice but to turn to the site if they wanted to see their president take office. (Duterte has since been accused of extrajudicial killings, jailing political opponents, and targeting independent media.)

    Playing the refs by browbeating them has long been a key move in the right-wing playbook against traditional media. The method is simple: It involves badgering them with accusations of unfairness and bias so that they bend over backwards to accommodate a “both sides” narrative even when the sides were behaving very differently, or when one side was not grounded in fact. Climate-change deniers funded by fossil-fuel companies effectively used this strategy for decades, relying on journalists’ training and instinct to equate objectivity with representing both sides of a story. This way of operating persisted even when one of the sides was mostly bankrolled by the fossil-fuel industry while the other was a near-unanimous consensus of independent experts and academics.

    For Facebook, that gatekeeper is a single person, Mark Zuckerberg. Facebook’s young CEO is an emperor of information who decides rules of amplification and access to speech for billions of people, simply due to the way ownership of Facebook shares are structured: Zuckerberg personally controls 60 percent of the voting power. And just like the way people try to get on or advertise on the president’s seemingly favorite TV show, Fox & Friends, merely to reach him, Trump is clearly aiming to send a message to his one-person target.

    As a consequence, Facebook became cautious of taking actions that would make it look like it was holding back right-wing information machinery. That was the environment in which the country headed into the 2016 election—five months during which all stripes of misinformation went easily viral on Facebook, including stories that falsely claimed that the pope had endorsed Donald Trump, or that Hillary Clinton had sold weapons to the Islamic State. These stories were viewed millions of times on the platform, many of them outperforming traditional news sources. The pressure to keep Facebook friendly to the Trump campaign continued unabated after the election. When Facebook appeared to be considering changes to its microtargeting rules in 2019—for example, not allowing political campaigns to use the same level of microtargeting tools that product advertisers can, a potential strike at “a major Trump ad strategy”—the Trump reelection campaign swiftly attacked the platform, and the rules were left unchanged.

    Silicon Valley engineers and employees may well be overwhelmingly liberal, but Facebook is run by the algorithms they program, which optimize for the way the site makes money, rather than sifting through posts one by one. This is probably why the trending-topics controversy seemed like such a big hit: It took the one tiny section where humans had some minor input and portrayed the whole platform as working the same way. The employees may be liberal, but the consequences of how social-media companies operate are anything but. In 2016, for example, Facebook, Twitter, and Google all “embedded” staffers with both campaigns, without charge, helping them use the sites better and get more out of the many millions of dollars they spent on the platforms. However, this was especially helpful to the Trump campaign, an upstart with a bare-bones staff. Unsurprisingly, the “bulk of Silicon Valley’s hands-on campaign support went to Trump rather than to Clinton.”

    Trump and his campaign understood the power of Facebook better than the Clinton campaign, and formed a mutually beneficial relationship. Trump spent $44 million on the site, compared with the Clinton campaign’s $28 million, but ad money is only part of the story. A key role of Facebook is promoting organic content: posts, not ads, written by people who may range from partisans to campaign operatives to opportunists who just want the clicks. Some of the authors of these viral pages are motivated by promoting their ideology. Others are just grifters, using Facebook to maximize their spread so that they can collect ad money from their own webpage—which probably uses Google’s industry-dominating ad infrastructure. It’s a complete circle of back-scratching that is rarely commented on or known outside of a small number of experts and industry practitioners.

    The Trump campaign also made better use of Facebook’s own artificial-intelligence tools, like “lookalike audiences”—a crucial functionality that lets advertisers find many new people that Facebook predicts will act similarly to a small “custom” audience uploaded to the site. In other words, if you upload a list of a few thousand people who are open to your message, whether it is interest in a harmless hobby or incendiary claims against a political opponent, Facebook’s vast surveillance machinery, giant databases, and top-of-the line artificial-intelligence tools can help you find many, many more similar targets—which you can reach as long as you’re willing to pay Facebook. These are the kinds of advanced functions that Facebook makes easy to use, and staffers embedded with the Trump campaign would be able to explain and help with.

    #Zeynep_Tufekci #Facebook #Publicité_politique #Trump #Intelligence_artificielle

    https://seenthis.net/messages/857234 via Articles repérés par Hervé Le Crosnier


  • Think only authoritarian regimes spy on their citizens?

    Use of AI surveillance technology is becoming the global norm, even in liberal democracies.

    Almost half the world’s countries now deploy AI surveillance systems. So says a new report, The Global Expansion of AI Surveillance, from the #Carnegie_Endowment_for_International_Peace (https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847). Such technologies vary from “#smart_city” projects, which use real-time data on residents to aid delivery of public services and enhance policing, to facial recognition systems, to border security, to governments spying on political dissidents.

    The main driver is China. The tech company Huawei alone is responsible for providing AI surveillance technology to at least 50 countries. But it’s not just Beijing pushing such technology. Western companies, from IBM to Palantir, are deeply involved. In Saudi Arabia, for instance, Huawei is helping create smart cities, Google and Amazon are building cloud computing servers for government surveillance and the UK arms firm BAE is providing mass monitoring systems.

    While authoritarian countries are investing heavily in such technology, it is most widespread in democracies. “Liberal democratic governments,” the report observes, “are aggressively using AI tools to police borders, apprehend potential criminals, monitor citizens for bad behaviour and pull out suspected terrorists from crowds.” Projects range from Baltimore’s secret use of drones for daily surveillance of the city’s residents, to Marseille’s mass monitoring project, built largely by the Chinese firm ZTE and given the very Orwellian name of Big Data of Public Tranquility, to the array of advanced surveillance techniques being deployed on the US-Mexico border.

    The technologies raise major ethical issues and questions about civil liberties. Yet even before we’ve begun to ask such questions, the technology has become so ubiquitous as to render the debate almost redundant. That should be as worrying as the technology itself.

    https://www.theguardian.com/commentisfree/2019/sep/22/think-only-authoritarian-regimes-spy-on-their-citizens
    #surveillance #démocratie #intelligence_artificielle #big_data #index #Chine #Huawei #IBM #Palantir #Google #Amazon #BAE #drones #Baltimore #Marseille #ZTE #Big_data_of_public_tranquility

    https://seenthis.net/messages/803110 via CDB_77


  • [Des singes en hiver] #9 tricher, c’est bien
    http://www.radiopanik.org/emissions/des-singes-en-hiver/-9-tricher-c-est-bien

    http://www.radiopanik.org/media/cache/67/2c/672c3dff7f60fd19052732c6d8c723e0.jpg

    ’Tricher c’est mal’, on dit cela parce que lorsqu’on #triche on n’apprend rien, ou alors parce que lorsqu’on triche on ne joue pas le #jeu. Mais ce qu’on n’a pas dit, est que cela suppose une bonne manière d’apprendre, que cela suppose un jeu avec des règles. Celui qui triche est obligé de les connaître ces règles. Pas seulement connaître les énoncés : « ceci est interdit », « on ne peut pas faire cela ... », mais concrètement comment ça fonctionne ? comment on contrôle ? qui contrôle ? Quand, qu’est ce que cela produit ?, etc. Il y a là une ouverture vers d’autres manières de faire et avec d’autres résultats. Par exemple sortir un peu de l’idée que l’apprentissage est une question mentale. Alors on peut dire aussi que tricher c’est bien.

    C’est de ces questions que nous comptons discuter avec Thierry (...)

    #humour #inventivité #créativité #intelligence_collective #humour,jeu,triche,inventivité,créativité,intelligence_collective
    http://www.radiopanik.org/media/sounds/des-singes-en-hiver/-9-tricher-c-est-bien_08327__1.mp3

    https://seenthis.net/messages/828974 via Radio Panik


  • Une technologie française de reconnaissance faciale échoue à reconnaître le moindre visage parmi 900 000 véhicules qui passent chaque jour à New York Thomas Giraudet - 10 Avr 2019 - business insider
    https://www.businessinsider.fr/une-technologie-francaise-de-reconnaissance-faciale-echoue-a-reconna

    Ce devait être un test fiable pour identifier les contrevenants à New York grâce à la reconnaissance faciale. Mais un an après, c’est un échec français. La technologie de l’entreprise Idemia, née du rapprochement de Morpho, filiale de Safran, avec Oberthur Technologies, n’a pas été en mesure de reconnaître le moindre visage parmi les 900 000 véhicules qui passent chaque jour le pont Robert F. Kennedy, qui relie Manhattan au Queen’s et au Bronx, révèle le Wall Street Journal. https://www.wsj.com/articles/mtas-initial-foray-into-facial-recognition-at-high-speed-is-a-bust-11554642000

    https://www.businessinsider.fr/content/uploads/2019/04/new-york-trafic-jam-785x576.jpg
    Embouteillages à New York. Flickr/Clemens v. Vogelsang

    Le quotidien de la finance cite un mail de l’entreprise chargée des transports publics new yorkais — Metropolitan Transportation Authority (MTA) — qui indique « qu’aucun visage n’a été identifié dans des paramètres acceptables ». Interrogé par le Wall Street Journal, un porte-parole de la MTA précise que l’expérimentation annoncée à l’été 2018 se poursuivra malgré tout. Idemia, qui aurait vendu le logiciel 25 000 dollars, n’a pas répondu aux questions du journal. A ce stade, aucune explication claire sur les raisons de cette faille n’a été formulée.

    Etats et entreprises commencent à s’emparer de la reconnaissance faciale, même si cela soulève de nombreuses oppositions sur la protection de la vie privée. Si Apple propose cette technologie pour déverrouiller son iPhone ou Aéroports de Paris pour éviter les files d’attente, le Japon compte l’utiliser pour contrôler les 300 000 athlètes pendant les Jeux Olympiques de 2020 tandis que la Chine a déjà largement étendu son application. Plusieurs régions scannent ainsi l’intégralité de la population du pays en une seconde pour traquer et arrêter des personnes.

    Sur son site internet, Idemia avance que sa solution d’identification faciale « permet aux enquêteurs, analystes et détectives dûment formés de résoudre des crimes grâce à la recherche automatique des visages et au suivi de photos ou de vidéos ». Pour ce faire, elle compare différentes photos et vidéos à une base de données, même à partir de plusieurs vues partielles.

    Née de la fusion de Morpho, filiale de Safran, avec Oberthur Technologies, Idemia officie sur les marchés de l’identification, de l’authentification et de la sécurité des données. Mais surtout des cartes de paiement : avec Gemalto, elles se partagent la grande majorité du marché mondial des encarteurs. Idemia réalise environ 3 milliards d’euros de chiffre d’affaires.

    #IA #râteau #idemia #intelligence_artificielle #algorithme #surveillance #complexe_militaro-industriel #big-data #surveillance_de_masse #biométrie #business #biométrie #vie_privée #MDR

    https://seenthis.net/messages/773897 via BCE 106,6 Mhz


  • Étrange, et réfléchissant, #film et #documentaire du journaliste de guerre Florent Marcie : Sota en Gilet Jaune. Un portrait de notre société dirigée d’une main de guerre vers l’ère de l’Intelligence Artificielle. Il filme les #GiletsJaunes depuis le début du mouvement (il a d’ailleurs récolté un bout de LBD dans la joue). Entretien avec les Mutins de Pangée : https://youtu.be/LMSc91b-gOg

    #Florent_Marcie, fresquiste au long cours. Aller au devant de l’Histoire. Rencontrer l’autre dans ce qu’il a de plus vrai. Ainsi pourrait-on peut-être résumer la motivation de Florent Marcie, de filmer là où il filme. Des situations de guerre, de libération, de dénuement aussi. Des situations où lui-même s’affranchit de contraintes, notamment de celle du temps. Il tourne, monte et finance lui-même ses films, dans une économie de moyens et une précarité qui le rapprochent sans conteste des hommes et des femmes qu’ils côtoient. En résulte des films longs formats, à la lisière entre cinéma et reportage, présentés en décalage de la stricte actualité. Une forme de troisième voie qu’il revendique. Avant ça, il a filmé une toute autre insurrection, d’une intensité un peu plus forte en terme de moyens utilisés... TOMORROW TRIPOLI, ci-dessous, le lien vers le site dédié au film qui sortira très bientôt aux éditions Mutins de Pangée : http://lesmutins.org/tomorrow-tripoli

    (pas trouvé sur peertube...)
    #intelligence_artificielle #société_du_contrôle

    https://seenthis.net/messages/780133 via ¿’ ValK.


  • #intelligence_artificielle : des limites de l’éthique aux promesses de la régulation
    http://www.internetactu.net/2019/04/18/intelligence-artificielle-des-limites-de-lethique-aux-promesses-de-la-

    L’Union européenne vient de publier un ensemble de recommandations et de règles (voir le rapport) pour développer des applications d’intelligence artificielle éthiques et responsables. Ce travail réalisé par un groupe d’une cinquantaine d’experts se révèle assez convenu, rappelant de grands principes éthiques pour orienter le secteur. Comme ironise The Verge, (...)

    #Articles #Enjeux #Gouvernance #algorithme #éthique #IA

    https://seenthis.net/messages/775401 via InternetActu [RSS]


  • Google employees are lining up to trash Google’s AI ethics council - MIT Technology Review
    https://www.technologyreview.com/s/613253/googles-ai-council-faces-blowback-over-a-conservative-member
    https://cdn.technologyreview.com/i/images/gettyimages-828896290.jpg?cx=200&cy=113&cw=1600&ch=900&sw=1200

    un élément intéressant et à prendre en compte : les deux personnes visées sont également les deux seules femmes de ce comité d’experts. Choisies stratégiquement par Google pour faire jouer l’avantage genre, ou cibles plus évidentes des protestataires parce que femmes ?

    En tout cas, la place que la Heritage Foundation (droite dure et néo-management) prend dans l’espace mental des Etats-Unis, notamment dans le domaine technologique, est à suivre de près.

    Almost a thousand Google staff, academic researchers, and other tech industry figures have signed a letter protesting the makeup of an independent council that Google created to guide the ethics of its AI projects.
    Recommended for You

    Hackers trick a Tesla into veering into the wrong lane
    A new type of airplane wing that adapts midflight could change air travel
    DeepMind has made a prototype product that can diagnose eye diseases
    Watching Boston Dynamics’ new robot stack boxes is weirdly mesmerizing
    NASA has been testing the helicopter that will head to Mars next year

    The search giant announced the creation of the council last week at EmTech Digital, MIT Technology Review’s event in San Francisco. Known as the Advanced Technology External Advisory Council (ATEAC), it has eight members including economists, philosophers, policymakers, and technologists with expertise in issues like algorithmic bias. It is meant to hold four meetings a year, starting this month, and write reports designed to provide feedback on projects at the company that use artificial intelligence.

    But two of those members proved controversial. One, Dyan Gibbens, is CEO of Trumbull, a company that develops autonomous systems for the defense industry—a contentious choice given that thousands of Google employees protested the company’s decision to supply the US Air Force with AI for drone imaging. The greatest outrage, though, has come over the inclusion of Kay Coles James, president of the Heritage Foundation, a think tank that opposes regulating carbon emissions, takes a hard line on immigration, and has argued against the protection of LGBTQ rights.

    One member of the council, Alessandro Acquisti, a professor at Carnegie Mellon University who specializes in digital privacy issues, announced on March 30th that he wouldn’t be taking up the role. “While I’m devoted to research grappling with key ethical issues of fairness, rights & inclusion in AI, I don’t believe this is the right forum for me to engage in this important work," he tweeted.

    The creation of ATEAC—and the inclusion of Gibbens and James—may in fact have been designed to appease Google’s right-wing critics. At roughly the same time the council was announced, Sundar Pichai, Google’s CEO, was meeting with President Donald Trump. Trump later tweeted: “He stated strongly that he is totally committed to the U.S. Military, not the Chinese Military. [We] also discussed political fairness and various things that Google can do for our Country. Meeting ended very well!”

    But one Google employee involved with drafting the protest letter, who spoke on condition of anonymity, said that James is more than just a conservative voice on the council. “She is a reactionary who denies trans people exist, who endorses radically anti-immigrant positions, and endorses anti-climate-change, anti-science positions.”

    Some noted AI algorithms can reinforce biases already seen in society; some have been shown to misidentify transgender people, for example. In that context, “the fact that [James] was included is pretty shocking,” the employee said. “These technologies are shaping our social institutions, our lives, and access to resources. When AI fails, it doesn’t fail for rich white men working at tech companies. It fails for exactly the populations that the Heritage Foundation’s policies are already aiming to harm.”

    Messages posted to a Google internal communications platform criticized the appointment of James especially. According to one post, earlier reported by the Verge and confirmed by the employee, James “doesn’t deserve a Google-legitimized platform, and certainly doesn’t belong in any conversation about how Google tech should be applied to the world.”

    As of 5:30 pm US Eastern time today the public letter, posted to Medium, had been signed by 855 Google employees and 143 other people, including a number of prominent academics. “Not only are James’ views counter to Google’s stated values,” the letter states, “but they are directly counter to the project of ensuring that the development and application of AI prioritizes justice over profit. Such a project should instead place representatives from vulnerable communities at the center of decision-making.”

    #Google #Intelligence_artificielle #Ethique #Politique_USA

    https://seenthis.net/messages/771774 via Articles repérés par Hervé Le Crosnier


  • Un hôtel japonais remplace ses robots par des collaborateurs humains Natacha Van Cutsem/Lara Gross - 20 Janvier 2019 - RTS
    https://www.rts.ch/info/sciences-tech/10145456-un-hotel-japonais-remplace-ses-robots-par-des-collaborateurs-humains.ht

    Le premier hôtel au monde entièrement géré par des robots fait marche arrière. Une partie des 243 machines de l’établissement japonais seront remplacées par des humains à la suite d’erreurs technologiques à répétition.

    https://www.ouest-france.fr/leditiondusoir/data/42299/NextGenData/Image-1024-1024-9022425.jpg

    Les employés-robots ont donné du fil à retordre aux clients de cet hôtel japonais. Couacs informatiques, personnel humain en permanence occupé à recharger les batteries ou des assistants vocaux incapables de répondre aux questions pratiques posées par les clients, il n’en fallait pas plus pour renoncer.

    Parmi ces couacs : les difficultés du robot tyrannosaure de l’accueil à réaliser les photocopies de passeport des clients ou l’incapacité des robots chargés de transporter les bagages d’atteindre la totalité des chambres de l’hôtel, en raison des dénivelés incompatibles avec leurs roulettes.

    Ou encore la mésaventure d’un client réveillé sans cesse la nuit en raison de ses ronflements qui n’étaient pas compris par le robot assistant de la chambre. La machine confondait les ronflements avec des sollicitations vocales. Le client n’est jamais parvenu à arrêter l’appareil en question.

    https://img.lemde.fr/2015/07/15/207/0/4500/2250/1440/720/60/0/d7b0722_358fb640cd744c589e16b1b855408514-358fb640cd744c589e16b1b855408514-0.jpg

    Trois ans infructueux
    Situé proche d’un centre d’attractions, cet hôtel avait décidé d’utiliser des robots pour répondre à une pénurie de main-d’oeuvre. Initialement, leurs charges étaient simples comme ranger les bagages. Mais par la suite l’établissement s’est équipé de robots de divertissements et les problèmes ont commencé, rapporte le Wall Street Journal. L’hôtel n’aura vécu que trois ans au rythme d’un système 100% robotisé.

    #religion de l’#intelligence_artificielle
    ou #croyance en les #algorithme

    #réel #robots #robot #robotique #robotisation #automatisation #critique_techno #automatisation #technologie #Japon #assistants_vocaux

    https://seenthis.net/messages/753556 via BCE 106,6 Mhz


  • les caméras de surveillance n’avaient pas de lunettes #MDR

    Un pont s’affaisse à Grimbergen : « Conséquences dramatiques pour la navigation et le trafic routier » Belga - 17 Janvier 2019 - RTBF
    https://www.rtbf.be/info/regions/detail_un-pont-s-effondre-sur-le-canal-a-grimbergen?id=10120815

    Un pont surplombant le canal de Bruxelles à l’Escaut (canal de Willebroeck), à Grimbergen en périphérie bruxelloise, s’est affaissé jeudi matin. C’est plus précisément sur le territoire de Humbeek, qui fait partie de Grimbergen, que l’incident a eu lieu. 

    https://ds1.static.rtbf.be/article/image/770xAuto/b/7/9/d04eb5de4d99080be674f159197a514a-1547720442.jpg

    Une péniche se dirigeait vers Bruxelles, suivie d’une seconde péniche. La caméra de surveillance n’a vu que la première et le système de contrôle du pont a lancé la commande de descente. La péniche a donc heurté la partie mobile du pont, qui a été déplacée de 5 ou 6 mètres.

    La police locale confirme jeudi l’information, dévoilée par le quotidien flamand Het Nieuwsblad. « Il n’y a pas eu de blessé, mais les dégâts sont immenses », précise-t-on à la police locale. « Les conséquences pour la navigation et le trafic routier sont dramatiques ».

    Le canal maritime connait une circulation fluviale intense, et la route qui empruntait le pont accidenté est un chemin prisé des camions, souligne la police. La fermeture de la zone devrait donc avoir des conséquences non négligeables.

    #intelligence_artificielle #algorithme #critique_techno #automatisation #MDR #Belgique #Bruxelles

    https://seenthis.net/messages/752834 via BCE 106,6 Mhz


  • 10 recommandations pour l’IA
    http://www.internetactu.net/a-lire-ailleurs/10-recommandations-pour-lia

    L’AI Now Institute (@ainowinstitute) vient de rendre son rapport 2018 (.pdf), le 3e depuis la création de cet institut de recherche interdisciplinaire dédié à la compréhension des implications sociales de #Technologies de l’intelligence artificielle, fondé par Kate Crawford et Meredith Whittaker, affilié à l’Université de New York et financé notamment (...)

    #A_lire_ailleurs #algorithme #intelligence_artificielle #nossystemes

    https://seenthis.net/messages/742072 via InternetActu [RSS]


  • Évaluations : comment sommes-nous passés de l’amélioration au #contrôle ?
    http://www.internetactu.net/a-lire-ailleurs/evaluations-comment-sommes-nous-passes-de-lamelioration-au-controle

    À l’heure où chaque service en ligne nous demande sans cesse de l’évaluer, n’allons-nous pas basculer dans une fatigue de la rétroaction permanente ? C’est la question que pose la professeure d’anglais, spécialiste des humanités numériques, Megan Ward (@meganeward1) pour The Atlantic, auteure de Seeming Human, un livre qui s’intéresse à (...)

    #A_lire_ailleurs #Usages #big_data #intelligence_des_données

    https://seenthis.net/messages/740935 via InternetActu [RSS]


  • La revanche des neurones
    L’invention des machines inductives et la controverse de l’intelligence artificielle
    Dominique CARDON, Jean-Philippe COINTET Antoine MAZIÈRES
    dans la revue Réseaux, 2018/5

    The Revenge of Neurons
    https://neurovenge.antonomase.fr
    https://neurovenge.antonomase.fr/img/teaser.png

    Résumé
    Depuis 2010, les techniques prédictives basées sur l’apprentissage artificiel (machine learning), et plus spécifiquement des réseaux de neurones (deep learning), réalisent des prouesses spectaculaires dans les domaines de la reconnaissance d’image ou de la traduction automatique, sous l’égide du terme d’“Intelligence artificielle”. Or l’appartenance de ces techniques à ce domaine de recherche n’a pas toujours été de soi. Dans l’histoire tumultueuse de l’IA, les techniques d’apprentissage utilisant des réseaux de neurones - que l’on qualifie de “connexionnistes” - ont même longtemps été moquées et ostracisées par le courant dit “symbolique”. Cet article propose de retracer l’histoire de l’Intelligence artificielle au prisme de la tension entre ces deux approches, symbolique et connexionniste. Dans une perspective d’histoire sociale des sciences et des techniques, il s’attache à mettre en évidence la manière dont les chercheurs, s’appuyant sur l’arrivée de données massives et la démultiplication des capacités de calcul, ont entrepris de reformuler le projet de l’IA symbolique en renouant avec l’esprit des machines adaptatives et inductives de l’époque de la #cybernétique.

    Mots-clés
    #Réseaux_de_neurones, #Intelligence_artificielle, #Connexionnisme, #Système_expert, #Deep_learning

    le pdf en français est sur le site ci-dessus, qui met en ligne 2 graphiques et l’abstract
    https://neurovenge.antonomase.fr/RevancheNeurones_Reseaux.pdf

    https://seenthis.net/messages/736362 via Simplicissimus



  • All Computers Are Bigbrothers
    All Borders Are Caduques

    Pour contrôler les #frontières en détectant les mensonges des voyageurs par reconnaissance faciale (d’abord non-européens, privilege blanc oblige), l’UE investit 4,5 millions dans le Système #iBorderCtrl en Grèce, Hongrie, Lettonie :

    Grâce à l’analyse de 38 micromouvements de votre visage, le système peut dire, théoriquement, si vous mentez. Si le test est concluant, le ressortissant peut continuer son chemin dans une file d’attente dite « à bas risques ». Dans le cas contraire, il doit se soumettre à une nouvelle série de questions et à des prélèvements biométriques plus poussés (empreintes digitales, reconnaissance par lecture optique des veines de la main).

    http://www.lefigaro.fr/secteur/high-tech/2018/11/02/32001-20181102ARTFIG00196-pourrez-vous-passer-les-controles-aux-frontieres- #IE & #UE #societe_de_controle #intelligence_artificielle #big-data

    https://seenthis.net/messages/733179 via ¿’ ValK.


  • De la tyrannie des métriques
    http://www.internetactu.net/2018/09/17/de-la-tyrannie-des-metriques

    On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être (...)

    #Articles #Enjeux #big_data #économie #intelligence_des_données

    https://seenthis.net/messages/722540 via InternetActu [RSS]


  • De l’imbrication algorithmique
    http://www.internetactu.net/a-lire-ailleurs/de-limbrication-algorithmique

    On se souvient de la mort d’Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l’enquête qu’en dressait l’écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l’algorithme de la voiture à reconnaître ce qu’il se passait. Pour la (...)

    #A_lire_ailleurs #Enjeux #Recherches #algorithme #intelligence_artificielle #programmation

    https://seenthis.net/messages/721383 via InternetActu [RSS]


  • How Unpaywall is transforming open science
    https://www.nature.com/articles/d41586-018-05968-3
    https://media.nature.com/lw1024/magazine-assets/d41586-018-05968-3/d41586-018-05968-3_16033548.jpg

    After being kicked out of a hotel conference room where they had participated in a three-day open-science workshop and hackathon, a group of computer scientists simply moved to an adjacent hallway. There, Heather Piwowar, Jason Priem and Cristhian Parra worked all night on software to help academics to illustrate how much of their work was freely available on the Internet. They realized how much time had passed only when they noticed hotel staff starting to prepare for breakfast.

    That all-nighter, back in 2011, laid the foundation for Unpaywall. This free service locates open-access articles and presents paywalled papers that have been legally archived and are freely available on other websites to users who might otherwise have hit a paywalled version. Since one part of the technology was released in 2016, it has become indispensable for many researchers. And firms that run established scientific search engines are starting to take advantage of Unpaywall.

    https://chrome.google.com/webstore/detail/unpaywall/iplffkdpngmdjhlpjmppncnlhomiipha
    https://addons.mozilla.org/en-US/firefox/addon/unpaywall
    http://blog.impactstory.org/unpaywall
    https://www.chronicle.com/article/How-a-Browser-Extension-Could/239714
    http://www2.biusante.parisdescartes.fr/wordpress/index.php/unpaywall-libre-access-biu-sante
    https://www.nature.com/news/science-publishers-try-new-tack-to-combat-unauthorized-paper-sharing-1.21959
    http://openaccess.inist.fr/?Libre-Acces-des-outils-pour-vous

    #open_access #open_science #recherche #communs #intelligence_collective #Unpaywall

    https://seenthis.net/messages/717319 via riff-raff


  • Facebook finds Independence document ’racist’ - BBC News
    https://www.bbc.com/news/technology-44722728
    https://ichef.bbci.co.uk/news/1024/branded_news/18F4/production/_102388360_declarationofindependence.gif

    Facebook’s algorithms have ruled that parts of the US Declaration of Independence are hate speech and removed excerpts of them posted to the platform.

    In the run-up to Independence Day, a US community paper based in Texas had been posting small daily chunks of the historic document on its Facebook page.

    At issue was a part of it that referred to “merciless Indian savages”.

    Facebook later apologised and allowed the posting.

    The Liberty County Vindicator had been sharing excerpts from America’s founding document to its Facebook page in an attempt to encourage historical literacy among its readers.

    Part 10 did not appear, with the paper receiving a notice from Facebook saying the post went against its standards on hate speech.

    Editor Casey Stinnett wrote afterwards of the offending paragraph: "Perhaps had Thomas Jefferson written it as ’Native Americans at a challenging stage of cultural development’ that would have been better.

    “Unfortunately, Jefferson, like most British colonists of his day, did not hold an entirely friendly view of Native Americans.”

    The newspaper later confirmed that Facebook had had a change of heart and apologised.

    “It looks like we made a mistake and removed something you posted on Facebook that didn’t go against our community standards,” the company told the Vindicator.

    “We want to apologise and let you know that we’ve restored your content and removed any blocks on your account related to this incorrect action.”

    In a blogpost, assistant editor of political magazine Reason Christian Britschgi said the decision demonstrated the problem with automated searches for hate speech.

    “A robot trained to spot politically incorrect language isn’t smart enough to detect when that language is part of a historically significant document,” he said.

    #Intelligence_artificielle #Déclaration_indépendance #Facebook

    https://seenthis.net/messages/706699 via Articles repérés par Hervé Le Crosnier


  • La Tesla était en autopilotage lors du crash (1 mort) _ 31 mars 2018

    L’Autopilot était enclenché lors de l’accident mortel impliquant la Tesla X d’un homme de 38 ans, le 23 mars en Californie.

    http://www.lessentiel.lu/dyim/e354f4/B.M600,1000/images/content/2/6/1/26138073/2/topelement.jpg
     » Jamais une Model X de la marque Tesla n’a été autant endommagée" selon le Conseil national de la sécurité des transports américains.

    Le constructeur de voitures électriques Tesla a déclaré que le logiciel de conduite Autopilot était enclenché pendant un récent accident mortel aux Etats-Unis, un aveu qui pourrait accentuer les craintes sur ce type de système permettant des manoeuvres sans l’intervention du conducteur.

    Une Tesla de la gamme Model X a percuté une glissière de sécurité en béton sur une autoroute le 23 mars près de Moutain View, en Californie. Le conducteur, identifié par la presse locale comme étant un homme de 38 ans, est mort plus tard à l’hôpital. « Dans les instants avant la collision (...) l’Autopilot était engagé », a expliqué Tesla dans un communiqué diffusé en ligne vendredi soir.

    Réduction des collisions
    « Il y a plus d’un an, le gouvernement américain avait estimé que la première version d’Autopilot réduisait le taux de collision de 40% », prend soin de souligner le groupe fondé en 2003 et dirigé par l’entrepreneur d’origine sud-africaine Elon Musk. « Le conducteur avait reçu plusieurs avertissements visuels et un (avertissement) audible le prévenant qu’il devait maintenir les mains (sur le volant) plus tôt et les mains du conducteur n’ont pas été détectées sur le volant pendant les six secondes ayant précédé la collision », explique Tesla.

    « Le conducteur a eu environ cinq secondes et 150 mètres de vue dégagée sur la barrière et la partie endommagée de la glissière de sécurité mais les enregistrements du véhicules montrent qu’aucune action n’a été entreprise », poursuit Tesla. Le fait que cette glissière ait été « emboutie au cours d’un précédent accident sans être remplacée ensuite », explique que le véhicule Tesla ait été autant accidenté, selon le groupe.

    Aucune action entreprise
    « Nous n’avons jamais vu ce niveau de dégâts sur un Model X dans d’autres accidents », affirme-t-il. Le NTSB, le régulateur des transports américain, qui s’intéresse particulièrement au système d’Autopilot permettant un certain nombre de manoeuvres sans l’intervention du conducteur, a ouvert mardi une enquête à la suite de cet accident. En 2016, un automobiliste américain avait déjà trouvé la mort au volant d’une berline Model S de Tesla équipée d’Autopilot.

    Sur Twitter, les messages critiquant le manque de sécurité de ces voitures capables de rouler sans l’intervention d’un homme sont nombreux. Un utilisateur du réseau ne comprend pas le manque de compassion de la part de l’entreprise Tesla vis-à-vis des victimes. Il se questionne aussi sur la faiblesse de réaction des dirigeants d’Uber qui ont connu un accident mortel avec un de leurs véhicules autonomes en Arizona le 18 mars.

    Source : http://www.lessentiel.lu/fr/news/story/La-Tesla-etait-en-autopilotage-lors-du-crash-26138073
    #autopilote #voiture_autopilotée #voiture_autonome #transport #Tesla #voitures_autonomes #voiture #mobilité #automobile #robotisation #pieton #innovation #silicon_valley #intelligence_artificielle

    https://seenthis.net/messages/681768 via BCE 106,6 Mhz


  • Pour poursuivre une veille déjà bien fournie sur seenthis concernant la #synthèse_vocale et la #synthèse_vidéo (assistées par « #intelligence_artificielle ») : « Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo », une compilation des derniers développements en la matière :
    http://www.lemonde.fr/pixels/article/2018/02/04/du-porno-aux-fausses-informations-l-intelligence-artificielle-manipule-desor

    Des vidéos intégrant des visages de célébrités dans des films X pullulent en ligne à cause d’un programme accessible à tous et qui pose question au-delà de la pornographie.

    De fait, au-delà de l’exemple emblématique du #porno (voir à ce propos https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn), c’est toute la manière de produire et de recevoir des informations qui s’en trouve modifiée. La polémique autour des #fake_news n’est que la partie émergée de l’iceberg, la remise en question du rapport aux #médias (et je ne parle pas ici des seuls organismes institués, mais des supports eux-mêmes) se montrant bien plus profonde.

    La chose se trouve d’ailleurs abordée de façon systématiquement catastrophiste (cela entre en collision frontale notamment avec le #droit_à_l'image et peut servir à alimenter le #complotisme), mais elle pourrait avoir un impact positif sur le développement de la #critique_des_médias et la façon de penser le lien entre #vie_privée et #réseaux_sociaux.

    L’approche catastrophiste n’est pas anodine : elle sert un discours de légitimation plus général (symptomatique, à cet égard, que Le Monde, par ailleurs propriétaire du tragico-comique #Decodex, consacre un tel article à la question). Si les médias s’emparent de cette nouveauté, c’est pour brandir une sacro-sainte ligne de démarcation entre les #vraies_infos (labellisées par eux-mêmes) et les fausses. En réalité, leurs « vraies infos », la façon dont ils les fabriquent et les mettent en scène, est tout aussi construite que celle de la synthèse par IA.

    L’on découvre notamment dans ce papier que le #DeepFake devient un genre en soi sur Reddit et Youtube, avec un grand jeu pour mettre #Nicolas_Cage dans plein de films :

    https://www.youtube.com/watch?v=2jp4M1cIJ5A

    Et l’on constate également qu’#Obama est devenu une sorte de mètre-étalon du #vrai-faux discours : on estime qu’il est honnête (c’est-à-dire on se fait une représentation de lui comme portant un discours clair et franc), donc il peut servir de base à un #détournement, contrairement à Trump :

    https://www.youtube.com/watch?v=dw6Zj2FDuzA

    Les deux avaient néanmoins été mis en vedette par #Lyrebird :

    https://soundcloud.com/user-535691776/dialog

    #falsification #leurre #faux-semblant

    https://seenthis.net/messages/665822 via intempestive


  • Derrière l’application de Google qui trouve votre sosie artistique, du digital labor (gratuit) pour entraîner son IA de reconnaissance faciale http://www.rtl.fr/actu/futur/l-application-de-google-qui-trouve-votre-sosie-artistique-souleve-des-inquietude
    http://media.rtl.fr/online/image/2018/0117/7791879937_l-application-google-arts-culture-est-en-tete-des-telechargements-aux-etats-unis-grace-a-son-outil-de-reconnaissance-faciale.JPG

    (Le seul article un peu critique que j’ai trouvé provient donc de rtl.fr)

    La dernière version de l’application Google Arts & Culture est l’une des plus populaires du moment aux États-Unis. La raison ? L’ajout d’une fonctionnalité permettant aux utilisateurs de découvrir quel est leur sosie artistique. Intitulée "Is your portrait in a museum ?" ("Votre portrait se trouve-t-il dans un musée ?"), elle propose de comparer un selfie à des portraits célèbres réalisés par des peintres de renom.

    L’expérience repose sur la technologie de reconnaissance faciale Face Net. Développée par #Google, elle scanne la photo envoyée par l’utilisateur pour créer une empreinte numérique de son #visage et la comparer aux 70.000 œuvres de sa base de données. Une fois les correspondances trouvées, les résultats les plus pertinents sont affichés avec leur pourcentage de ressemblance.

    Cette fonction a largement emballé les internautes américains. Depuis sa mise à jour mi-décembre, #Google_Arts_&_Culture truste les premières places des applications les plus téléchargées aux États-Unis sur l’App Store d’Apple et le Play Store de Google. Disponible uniquement outre-Atlantique, elle fait l’objet d’une expérimentation par Google.

    (…) Devant la popularité de l’application, certaines voix se sont élevées aux États-Unis pour mettre en garde le public contre le véritable objectif poursuivi par Google. "Le stagiaire de Google qui a inventé cette application pour tromper les utilisateurs en les incitant à envoyer des images pour remplir sa base de données de reconnaissance faciale a certainement eu une promotion", a observé sur Twitter l’analyste politique, Yousef Munayyer. "Personne ne s’inquiète d’abandonner les données de son visage à Google ou vous estimez tous que c’est déjà le cas ?", s’est aussi émue l’actrice et activiste américaine, Alyssa Milano.

    Google propose régulièrement des outils ludiques et gratuits aux internautes pour faire la démonstration de ses progrès dans l’intelligence artificielle. Ces programmes permettent aussi à l’entreprise américaine de mettre ses réseaux de neurones artificiels à l’épreuve de neurones humains afin de les perfectionner à peu de frais. Les programmes Quick Draw ! et AutoDraw visaient notamment à améliorer la #reconnaissance_visuelle de ses algorithmes. La société utilise aussi la reconnaissance des caractères des #Captcha pour aider ses robots à déchiffrer les pages de livres mal conservés sur Google Book et les indexer par la suite à son moteur de recherche.

    (…)

    Interrogé par plusieurs médias américains sur la portée réelle de son application « Arts & Culture », Google se veut rassurant. Selon la firme américaine, les photos téléchargées par les utilisateurs ne sont pas utilisées à d’autres fins et sont effacées une fois trouvées les correspondances avec des œuvres d’art. La dernière expérience du géant américain illustre à nouveau les craintes suscitées par les progrès rapides de l’#intelligence_artificielle et plus particulièrement de la #reconnaissance_faciale, dont les applications ont pris une place grandissante dans nos vies ces derniers mois.

    Apple a fait entrer cette technologie dans la vie de millions d’utilisateurs cet automne en intégrant le dispositif #Face_ID à l’iPhone X pour déverrouiller l’appareil d’un simple regard. Dans le sillage de la pomme, un grand nombre de constructeurs travaille à généraliser ce système sur des smartphones à moindre prix. Facebook a recours à la reconnaissance faciale depuis décembre pour traquer les usurpations d’identité sur sa plateforme. Google l’utilise déjà dans son service Photos, utilisé par 500 millions d’utilisateurs, capable depuis peu de reconnaître les animaux de compagnies.

    Les défenseurs des libertés craignent que la généralisation de la reconnaissance faciale dans des outils utilisés à si grande échelle ne glisse vers une utilisation plus large par les publicitaires ou les autorités. En Chine, cette technologie est déjà utilisée pour surveiller les citoyens dans les endroits publics. 170 millions de caméras de surveillance sont installées à travers le pays. Un nombre qui doit atteindre 400 millions à horizon 2020. La plupart sont dotées de programmes d’intelligence artificielle pour analyser les données en temps réel et inciter les individus à ne pas déroger à la norme édictée par le pouvoir.

    #digital_labor #IA

    Et puis cf. le thread d’@antoniocasilli sur son fil Twitter :

    Avez-vous déjà vu, partagé, commenté les « art selfies » de l’appli @googlearts ? Savez-vous qu’ils utilisent votre visage pour constituer un fichier biométrique ? J’en veux pour preuve qu’ils ne sont pas disponibles en Illinois—état où les lois sur la biométrie sont plus strictes.

    https://twitter.com/AntonioCasilli/status/953662993480474624

    https://seenthis.net/messages/663641 via tbn


  • La #Cnil pose les bases d’une éthique de l’intelligence artificielle
    https://www.mediapart.fr/journal/france/181217/la-cnil-pose-les-bases-d-une-ethique-de-l-intelligence-artificielle

    La Commission nationale de l’informatique et des libertés (Cnil) a présenté les résultats d’une vaste consultation lancée au mois de janvier 2017 sur la question de l’intelligence artificielle (IA). Son rapport, intitulé « Comment permettre à l’homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle », pose deux principes fondamentaux et six recommandations.

    #France #intelligence_aritificielle


  • Euphémisation : la domination s’impose mieux masquée
    https://secession.fr/la-domination-avance-masquee
    https://secession.fr/wp-content/uploads/2017/12/domination-masquee.jpg

    Euphémisation : la domination s’impose mieux masquée
    Les relations de domination constituent, selon Pierre Bourdieu, des éléments de base de l’organisation des sociétés.
    L’exercice de la domination est parfois dissimulé. Il est rendu méconnaissable afin d’être mieux imposé. Ce mécanisme de dissimulation, le sociologue l’appelle « euphémisation ».

    #sociologie #domination #bourdieu #politique #anthropologie #intelligence #ecole


  • #intelligence_artificielle : les mythes qui masquent les dangers réels
    https://www.mediapart.fr/journal/culture-idees/141217/intelligence-artificielle-les-mythes-qui-masquent-les-dangers-reels

    Le gouvernement dévoile vendredi les résultats d’une consultation menée depuis un an par la Cnil sur la question de l’intelligence artificielle. Mediapart a interrogé le chercheur Jean-Gabriel Ganascia, auteur de plusieurs livres sur le sujet, dont Le Mythe de la Singularité. Selon lui, les prophéties apocalyptiques sur des intelligences artificielles qui supplanteraient l’humanité ne sont que « des fables » masquant « a réalité du monde dans lequel nous entrons ».

    #Culture-Idées


  • Que faire d’intéressant avec les big data ?
    https://www.franceculture.fr/emissions/la-suite-dans-les-idees/etant-donne-les-big-data

    A part du commerce, que faire des big data ? Comment les sciences sociales peuvent-elles analyser ces données massives produites par l’économie numérique ? Peuvent-elles s’en servir à des fins de connaissances ? Le sociologue Pierre-Michel Menger dialogue avec le data designer David Bihanic.

    Intéressante émission sur la #quantification_massive avec des questions sur la construction des données et plein de notions que je découvre comme la #brutification.
    Dans une deuxième partie il est question de Jacques Bertin, au travers de l’exposition qui lui est consacrée à l’EHESS. On y parle de #visualisation et d’#intelligence_graphique puisque l’outil graphique devient essentiel pour appréhender les données.
    http://retrospective-bertin.ehess.fr (workshops avec @fil et @odilon)
    https://cdn.radiofrance.fr/s3/cruiser-production/2017/11/46e3df53-aa28-4aba-8a9b-4e3c5c8c57f8/150x200_big_data.jpg

    #big_data #profilage

    https://seenthis.net/messages/643891 via vazy