• Christopher Wylie : « #Cambridge_Analytica a fermé, mais ses #tactiques n’ont pas disparu »
    https://www.lemonde.fr/pixels/article/2020/03/11/christopher-wylie-cambridge-analytica-a-ferme-mais-ses-tactiques-n-ont-pas-d

    ENTRETIEN
    L’ancien salarié de l’entreprise avait révélé le vol massif de données personnelles à des fins politiques par l’ancienne société britannique. Il publie aujourd’hui en français son livre, « Mindfuck ».

    Sa coiffure colorée s’est affichée sur les télévisions du monde entier il y a deux ans. Christopher Wylie, ancien salarié de l’entreprise Cambridge Analytica, est le lanceur d’alerte qui a révélé l’existence du gigantesque #vol_de_données_personnelles issues de #Facebook à des fins politiques mené par cette entreprise britannique, au profit notamment de la campagne de Donald #Trump et du #Brexit.

    Lire : tous nos articles sur l’affaire Cambridge Analytica

    Son livre, Mindfuck, est publié mercredi 11 mars en français aux éditions Grasset (512 pages, 24 euros). Un essai dense, qui parle davantage de politique que de technologie, et un outil précieux pour comprendre les mécanismes de l’ascension au pouvoir de Donald Trump.

    A la fin de votre livre, vous êtes au chômage, et un peu dépassé par votre nouvelle célébrité. Que faites-vous aujourd’hui ?
    Christopher Wylie : Ma vie est redevenue plus ou moins normale. Je travaille pour H&M. J’ai eu mon dernier rendez-vous avec des enquêteurs il y a deux semaines. Je suis encore très occupé, mais ma vie est un peu moins frénétique. Vivre sous la surveillance constante du public, ça devient épuisant au bout d’un moment.

    Que retenez-vous de toutes ces enquêtes dans lesquelles vous avez témoigné ?
    J’ai appris que, parfois, les preuves ne suffisent pas. Ça a été le cas dans l’enquête sur la campagne du Brexit. J’ai fourni aux autorités les preuves que Vote Leave, la campagne officielle, avait consacré 40 % de ses dépenses à une filiale de Cambridge Analytica au Canada. Ces dépenses étaient illégales, comme l’ont reconnu les autorités. Donc nous savons que Vote Leave a triché. C’était la plus importante violation de la loi électorale dans toute l’histoire de l’Angleterre.

    Pourtant, malgré toutes ces preuves, rien ou presque n’a été fait. Personne n’a dit « peut-être que nous devrions mettre tout ce processus en pause, en attendant la fin de l’enquête, parce qu’il est possible que cette triche ait eu un impact sur le vote ».

    Il y a pourtant eu des commissions parlementaires (liées à Cambridge Analytica) dans de nombreux pays, des sanctions, des amendes…
    Oui. Mais les régulateurs et les élus, pour la plupart, ne comprennent pas vraiment ce à quoi ils ont affaire. Ils reprennent à leur compte les éléments de langage de Facebook, qui dit « nous sommes un service, nous sommes gratuits, personne n’est obligé d’utiliser notre plate-forme ». C’est comme dire que l’électricité est un service et que si vous ne voulez pas être électrocuté, vous n’avez qu’à vous passer de courant ! Les données, comme l’électricité, sont partout, et peuvent être dangereuses.

    Beaucoup d’élus m’ont dit : « Vous savez, je suis un député, je n’y connais rien en technologies. » Peut-être, mais ça ne vous empêche pas de réguler les compagnies aériennes, les entreprises pharmaceutiques ou du nucléaire !

    Nous avons aujourd’hui un secteur de la technologie à qui on laisse le droit d’expérimenter en direct sur nos sociétés et nos démocraties, sans conséquences pour lui lorsque ça se passe mal. Or, quand vous laissez une bande d’ingénieurs californiens, majoritairement des hommes blancs, créer un produit et l’appliquer à un pays qui a un passé de violences ethniques et religieuses, il se passe ce qui s’est passé en Birmanie. Même après avoir été alerté que son service était utilisé par l’armée comme un catalyseur de nettoyage ethnique, Facebook n’a quasi rien fait.

    Pensez-vous que Cambridge Analytica a eu un impact sur le résultat final dans le référendum sur le Brexit ?
    C’est probable. Si ça n’avait pas produit de résultats, Vote Leave n’aurait probablement pas dépensé 40 % de son budget dans ces services. Mais si on parlait de dopage, on ne se poserait même pas la question : quand un athlète est pris sur le fait, on ne se demande pas si les produits qu’il ou elle a pris ont vraiment fait une différence.

    Mike Bloomberg a dépensé des centaines de millions de dollars en publicités ciblées et en analyses de données pour remporter l’investiture démocrate. Mais sa campagne pour les primaires a échoué. Est-ce que ça ne montre pas les limites de ce que faisait Cambridge Analytica ?
    Je ne peux pas me prononcer sur la campagne de Mike Bloomberg en particulier, mais il faut garder à l’esprit que le but initial de Steve Bannon [l’ancien conseiller politique de Donald Trump, chargé de sa campagne électorale en 2016] était de changer la perception du public, pas de faire élire un candidat en particulier. Il a su catalyser le mouvement alt-right, ce qui a ensuite permis à Donald Trump de réussir.

    Cambridge Analytica a commencé en travaillant sur la contre-propagande, et notamment sur les jeunes hommes musulmans célibataires et en difficulté, qui pouvaient être tentés de rejoindre l’organisation Etat islamique. Bannon a ciblé des profils semblables aux Etats-Unis, sauf qu’au lieu de viser les jeunes musulmans pour les « déradicaliser », ils ont visé les jeunes blancs pour les radicaliser.

    Steve Bannon a très vite compris qu’il pouvait s’appuyer sur des mouvements comme le GamerGate, trouver des groupes de personnes extrêmement en colère et qui étaient prêtes à devenir des trolls extrémistes dévoués.

    C’est une différence majeure avec la campagne de Mike Bloomberg. Trump, en 2016, a pu exploiter ces cellules, dans tout le pays, qui étaient nourries de propagande et de conneries, jusqu’à ce qu’elles ne soient plus que des boules de rage pure.

    Steve Bannon, l’éminence brune de Donald Trump
    A la lecture de votre livre, on a l’impression que Steve Bannon a créé l’alt-right de toutes pièces, seul. Ne lui accordez-vous pas trop de crédit ?
    Je ne pense pas qu’il a tout créé lui-même. Steve Bannon n’est pas un magicien venu de l’hyperespace qui a lavé le cerveau de millions de personnes juste parce qu’il avait accès à des données Facebook.

    Mais il a été un catalyseur. Il a compris, avant tout le monde, un certain nombre de choses qui se passaient sur Internet en 2013-2014. Vous en connaissez beaucoup des politiques qui lisaient Reddit et 4Chan à l’époque ? Moi, non.

    Les démocrates ont-ils compris ce qui s’était passé ?
    Pour comprendre l’élection de Trump, il faut réfléchir en matière d’insurrection. Une erreur que font beaucoup de démocrates est qu’ils continuent de considérer Donald Trump comme un candidat politique. Ceci alors que l’alt-right fonctionne littéralement comme une secte, avec des milliers d’adeptes complètement cinglés. Personne n’ose le dire, parce que ce sont les Etats-Unis, mais si Trump était président du Zimbabwe, on ne parlerait certainement pas de « l’administration Trump », mais du « régime Trump ».

    D’autres « Cambridge Analytica » sont-ils possibles ?
    Oui. L’entreprise a fermé, mais ses technologies et ses tactiques n’ont pas disparu. Je ne sais pas ce que font les autres anciens employés. Nous savons désormais pour Cambridge Analytica, pour la Russie, mais que se passera-t-il la prochaine fois, quand la Corée du Nord aura créé son propre Cambridge Analytica ? Ou l’Iran, la Chine, ou même un pays « ami » ?

    Si un bombardier russe survole la France pour larguer des tracts à la veille d’une élection, il y a de fortes chances que l’armée française lui tire dessus. Mais si exactement la même chose se produit dans le cyberespace, subitement plus personne ne sait comment réagir.

    Ma grande crainte est que ces opérations d’influence deviennent la norme dans tous les pays. La désinformation, de gauche comme de droite, est toujours la forme la plus aisément accessible d’information. L’information de qualité est en général derrière un paywall, et la propagande est toujours gratuite.

    Finalement, la seule entité qui semble agir très directement pour limiter la désinformation reste Facebook. L’entreprise a démantelé plusieurs réseaux de désinformation ces dernières années…
    C’est vrai. Mais est-ce que vous, Français, vous voulez vraiment déléguer la gestion de votre vie politique en ligne à une entreprise californienne gérée par une bande de mecs de la Silicon Valley ? Je ne leur fais pas confiance.

    Et depuis quand est-ce que ce rôle peut être délégué à une entreprise privée, qui a un point de vue incroyablement américain sur la plupart des choses ?

    Facebook a recruté un Européen, l’ancien leader du Parti des démocrates libéraux Nick Clegg, à l’un de ses principaux postes. Dans votre livre, vous racontez avoir croisé M. Clegg dans ses anciennes fonctions. Est-ce qu’il ne peut pas apporter justement une vision plus « européenne » ?
    Pensez-vous vraiment que Sheryl [Sandberg] et Mark [Zuckerberg] en ont vraiment quelque chose à faire ? Que diraient les Français si, après son mandat, Emmanuel Macron vous disait que le changement climatique est un sujet extrêmement important et qu’il a donc décidé d’aller travailler pour une compagnie pétrolière pour « changer les choses de l’intérieur » ? Tout ça, ce sont des beaux discours, mais le résultat, c’est que vous travaillez pour une entreprise qui pose de gigantesques problèmes.

    Pourquoi avez-vous travaillé aussi longtemps pour Cambridge Analytica ? Vous expliquez dans votre livre à quel point vous étiez politiquement en désaccord avec sa direction…
    Lorsque vous êtes dans une relation toxique, la situation n’est pas toujours aussi simple. Et je reconnais que j’ai été un peu absorbé par le côté « cool » du projet original.

    Avec le recul, je me rends bien compte que ce n’est pas parce qu’un projet est passionnant qu’il ne peut pas être utilisé pour de mauvaises choses. Le couteau que vous fabriquez peut être utilisé par un chef étoilé au Michelin ou pour agresser quelqu’un. J’ai ignoré beaucoup de signaux qui auraient dû m’alerter.

    Très peu de gens se lancent dans une carrière d’ingénieur en se disant qu’ils veulent détruire la société. Il y a des problèmes de sexisme et de racisme dans la Silicon Valley, mais la plupart des gens qui y travaillent ne cherchent pas à faire du mal. C’est juste qu’ils sont dans un secteur qui ne leur impose pas un code de conduite professionnel strict, qui n’a pas assez d’agences de régulation et de règles.

    Quelles devraient, selon vous, être ces règles ?
    Les codes de conduite pour les architectes ne se contentent pas de regarder à quel point un design est brillant : il leur impose de regarder des choses comme les flux d’air en cas d’incendie. C’est pareil quand vous êtes médecin ou avocat. L’une des raisons qui font que la société vous octroie un prestige lié à votre profession, c’est que vous devez vous conformer à des standards éthiques.

    L’ingénierie informatique n’est plus une niche depuis longtemps. La science des données non plus. Il est grand temps que ces professions évoluent, et adoptent des codes de conduite qui les engagent à titre personnel.

    Aujourd’hui, les entreprises sont confrontées aux régulateurs seulement lorsqu’elles ont fait quelque chose de mal. Dans le secteur de l’aérospatiale ou du médicament, lorsque vous avez une idée pour un nouveau produit, vous devez d’abord demander une autorisation en amont, avant de le lancer. Je ne vois pas pourquoi ça ne pourrait pas s’appliquer aux #réseaux_sociaux.

    https://seenthis.net/messages/829992 via ant1


  • Réseaux sociaux : flux à lier - #DATAGUEULE 95 - DataGueule
    https://peertube.datagueule.tv/videos/watch/b69424ee-33c8-4f7e-a47c-5c33d9c30b71

    Ils sont attirants, attachants … et rapidement indispensables. Les #réseaux_sociaux nous appâtent à coup de likes et nous bercent dans leurs « infinite scroll ». Et rapidement leurs #interfaces nous poussent à la consommation jusqu’à l’overdose. Et ce n’est pas un hasard. Ils ont bâti leurs empires sur notre #addiction à la #dopamine.

    #twitter #facebook #tinder #whatsapp #youtube #captologie #psychologie #smartphone #publicité_ciblée #monétisation_des_liens_sociaux #design #framasoft #mastodon #diaspora #logiciel_libre #culture_libre #société_libre

    https://seenthis.net/messages/827297 via AF_Sobocinski


  • Surveillés, exploités : dans l’enfer des #livreurs_à_vélo

    Dans cette enquête inédite, Le Média révèle les mécanismes de #surveillance des livreurs mis en place par les plateformes pour mieux les exploiter, et plus largement les conditions de travail scandaleuses auxquelles ils sont soumis : temps de travail excessif, mise en danger de mort...

    Depuis quelques années, les livreurs à vélo sont apparus dans le paysage urbain. Avec leurs sacs colorés, ils parcourent les rues des plus grands villes européennes. Ils travaillent pour des #plateformes_numériques, souvent dans des conditions plus que précaires.

    Dans cette enquête inédite, nous révélons les mécanismes de surveillance des livreurs mis en place par des plateformes telles que #Deliveroo, #Foodora ou #Uber_Eats pour mieux les exploiter, et plus largement les conditions de travail scandaleuses auxquelles ils sont soumis. À partir de l’histoire de #Frank_Page, jeune livreur Uber Eats décédé à la suite d’un accident de voiture près de l’autoroute, nous retraçons la façon dont les plateformes numériques de livraison imposent des rythmes dangereux et affectent aux livreurs des parcours potentiellement meurtriers.

    Mais cette histoire en cache plein d’autres. Derrière cette organisation du travail prétendument novatrice se cachent des pratiques régulières de répression syndicale, chez Deliveroo ou chez Uber. De Bordeaux à Dijon, en passant par Paris, les livreurs qui essaient de s’organiser face aux plateformes en paient le prix, parfois chèrement. Et cela ne se limite pas à la France.

    Ainsi, nous révélons en exclusivité que Deliveroo a espionné des syndicalistes en Angleterre en essayant de recueillir des données privées et en espionnant leurs réseaux sociaux. Le flicage ne s’arrête pas là. Grâce à l’association #Exodus_Privacy, nous avons aussi découvert comment certaines applications - celle de Deliveroo, notamment - surveillent leurs livreurs et récoltent certaines données, qui sont par la suite redirigées vers de régies publicitaires, exposant ces entreprises à une potentielle violation de la loi européenne sur la vie privée.

    https://www.youtube.com/watch?v=vASAMVRiy8s&feature=emb_logo


    https://www.lemediatv.fr/emissions/les-enquetes/surveilles-exploites-dans-lenfer-des-livreurs-a-velo-sJHkn_vURXeCnFw7IvBks

    A partir de la minute 33, il y a une interview avec Paul-Olivier Dehay, fondateur de l’ONG Personal data.io (https://wiki.personaldata.io/wiki/Main_Page).
    Il explique comment les plateformes de livreurs utilisent les données collectées :

    « On peut diviser son groupe d’ ’employés’ grâce à ces outils, et commencer à appliquer des traitements différents à chacun de ces sous-groupes. Par exemple offrir des bonus à certains et pas à d’autres, des encouragements, faire des expériences de traitements différents. C’est un outil managérial pour gérer la force ouvrière des livreurs. Ces plateformes cherchent à opérer en ayant un maximum d’informations sur le marché, mais par contre en livrant un minimum d’informations à chaque entité pour faire son travail. Donc quand un livreur livre un plat il ne sait pas si dans l’heure il va avoir encore 3 ou 4 boulots, il n’a aucune information sur les prédictions ou quoi que ce soit, parce que la plateforme cherche à pousser un maximum de risques économiques vers les livreurs, et cherche à optimiser toujours dans son intérêt. On voit que l’asymétrie d’information pour ces plateformes est stratégique pour eux. Uber n’a pas de voiture, Deliveroo n’a pas de vélo, ce qu’ils ont c’est de l’information, et de l’information qui vaut de l’argent pour des restaurants, pour des livreurs, et pour des consommateurs au final. C’est mettre tous ces acteurs ensemble qui va permettre à la plateforme de faire de l’argent. On peut tout à fait imaginer un scénario où chacune des parties se réapproprie un maximum de ces données et au final se demande ’En fait, pourquoi on a besoin de cet intermédiaire ? Pourquoi est-ce qu’on ne peut pas agir avec des outils qui nous permettent d’interagir directement’. Si on suit cette logique d’exposition de la plateforme, de mise à nu de la plateforme, on se rend compte qu’au final il n’y a rien derrière, il n’y a rien qui a vraiment une valeur, c’est dans l’#asymétrie de l’information qu’ils construisent la valeur »

    #exploitation #travail #conditions_de_travail #précarité #surveillance #gig_economy #économie_de_la_tâche #livreurs #auto-entrepreneurs #liberté #enquête #deliveroo_rider #téléphone_portable #smartphone #syndicats #risques #accidents #coursiers #coursiers_à_vélo #grève #accidents #décès #morts #taxes #résistance #taux_de_satisfaction #Dijon #Brighton #algorithme #déconnexion #Guy_MacClenahan #IWGB #réseaux_sociaux #flexibilité #sanctions #contrôle #Take_it_easy #dérapage #strike #pisteur #géolocalisation #publicité #identifiant_publicitaire #Appboy #segment.io #Braze #information #informations #charte #charte_sociale
    ping @albertocampiphoto

    ping @etraces

    https://seenthis.net/messages/823715 via CDB_77


  • Coup d’État sur la « #loi_haine »

    La #loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un #amendement (http://www.assemblee-nationale.fr/dyn/15/amendements/2583/AN/161) de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce #coup_de_force du gouvernement, imposé in extremis, est une nouvelle démonstration d’#anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.

    Alors que la loi exigeait initialement de retirer les #contenus_illicites en 24 heures, elle impose désormais aux #plateformes de retirer en une heure les contenus que la #police lui signalera comme relevant du #terrorisme ou d’#abus_sur_mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.

    De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.

    Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.

    Enfin, alors que la loi initiale ne prévoyait que des #sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.

    Une concentration totale des pouvoirs

    La #concentration_des_pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.

    Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.

    Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de #censure_policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à #1_heure, démultipliant les risques d’abus.

    Un coup de force anti-parlementaire

    Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.

    La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en #une_heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne : https://www.laquadrature.net/censureterro). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).

    Hier, le débat n’a pas même eu lieu.

    Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.

    Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.

    Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député ne qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.

    https://academia.hypotheses.org/8795
    #sécurité #terrorisme #anti-terrorisme #censure #réseaux_sociaux #internet

    ping @isskein @karine4 @reka @simplicissimus @davduf @daphne @marty @mathieup

    https://seenthis.net/messages/821993 via CDB_77


  • Don’t assume technology is racially neutral

    Without adequate and effective safeguards, the increasing reliance on technology in law enforcement risks reinforcing existing prejudices against racialised communities, writes Karen Taylor.

    https://www.theparliamentmagazine.eu/sites/www.theparliamentmagazine.eu/files/styles/original_-_local_copy/entityshare/33329%3Fitok%3DXJY_Dja6#.jpg

    Within the European Union, police and law enforcement are increasingly using new technologies to support their work. Yet little consideration is given to the potential misuse of these technologies and their impact on racialised communities.

    When the everyday experience of racialised policing and ethnic profiling is already causing significant physical, emotional and social harm, how much will these new developments further harm people of colour in Europe?

    With racialised communities already over-policed and under-protected, resorting to data-driven policing may further entrench existing discriminatory practices, such as racial profiling and the construction of ‘suspicious’ communities.

    This was highlighted in a new report published by the European Network Against Racism (ENAR) and the Open Society Justice Initiative.

    Using systems to profile, survey and provide a logic for discrimination is not new; what is new is the sense of neutrality afforded to data-driven policing.

    The ENAR report shows that law enforcement agencies present technology as ‘race’ neutral and independent of bias. However, such claims overlook the evidence of discriminatory policing against racialised minority and migrant communities throughout Europe.

    European criminal justice systems police minority groups according to the myths and stereotypes about the level of ‘risk’ they pose rather than the reality.

    This means racialised communities will feel a disproportionate impact from new technologies used for identification, surveillance and analysis – such as crime analytics, the use of mobile fingerprinting scanners, social media monitoring and mobile phone extraction - as they are already overpoliced.

    For example, in the UK, social media is used to track ‘gang-associated individuals’ within the ‘Gangs Matrix’. If a person shares content on social media that references a gang name or certain colours, flags or attire linked to a gang, they may be added to this database, according to research by Amnesty International.

    Given the racialisation of gangs, it is likely that such technology will be deployed for use against racialised people and groups.

    Another technology, automatic number plate recognition (ANPR) cameras, leads to concerns that cars can be ‘marked’, leading to increased stop and search.

    The Brandenburg police in Germany used the example of looking for “motorhomes or caravans with Polish license plates” in a recent leaked internal evaluation of the system.

    Searching for license plates of a particular nationality and looking for ‘motorhomes or caravans’ suggests a discriminatory focus on Travellers or Roma.

    Similarly, mobile fingerprint technology enables police to check against existing databases (including immigration records); and disproportionately affects racialised communities, given the racial disparity of those stopped and searched.

    Another way in which new technology negatively impacts racialised communities is that many algorithmically-driven identification technologies, such as automated facial recognition, disproportionately mis-identify people from black and other minority ethnic groups – and, in particular, black and brown women.

    This means that police are more likely to wrongfully stop, question and potentially arrest them.

    Finally, predictive policing systems are likely to present geographic areas and communities with a high proportion of minority ethnic people as ‘risky’ and subsequently make them a focus for police attention.

    Research shows that data-driven technologies that inform predictive policing increased levels of arrest for racialised communities by 30 percent. Indeed, place-based predictive tools take data from police records generated by over-policing certain communities.

    Forecasting is based on the higher rates of police intervention in those areas, suggesting police should further prioritise those areas.

    We often – rightly – discuss the ethical implications of new technologies and the current lack of public scrutiny and accountability. Yet we also urgently need to consider how they affect and target racialised communities.

    The European Commission will present a proposal on Artificial Intelligence within 100 days of taking office. This is an opportunity for the European Parliament to put safeguards in place that ensure that the use of AI does not have any harmful and/or discriminatory impact.

    In particular, it is important to consider how the use of such technologies will impact racialised communities, so often overlooked in these discussions. MEPs should also ensure that any data-driven technologies are not designed or used in a way that targets racialised communities.

    The use of such data has wide-ranging implications for racialised communities, not just in policing but also in counterterrorism and immigration control.

    Governments and policymakers need to develop processes for holding law enforcement agencies and technology companies to account for the consequences and effects of technology-driven policing.

    This should include implementing safeguards to ensure such technologies do not target racialised as well as other already over-policed communities.

    Technology is not neutral or objective; unless safeguards are put in place, it will exacerbate racial, ethnic and religious disparities in European justice systems.

    https://www.theparliamentmagazine.eu/articles/opinion/don%E2%80%99t-assume-technology-racially-neutral

    #neutralité #technologie #discriminations #racisme #xénophobie #police #profilage_ethnique #profilage #données #risques #surveillance #identification #big-data #smartphone #réseaux_sociaux #Gangs_Matrix #automatic_number_plate_recognition (#ANPR) #Système_de_reconnaissance_automatique_des_plaques_minéralogiques #plaque_d'immatriculation #Roms #algorythmes #contrôles_policiers

    –--------

    Pour télécharger le rapport:
    https://i.imgur.com/2NT3jhc.png
    https://www.enar-eu.org/IMG/pdf/data-driven-profiling-web-final.pdf

    ping @cede @karine4 @isskein @etraces @davduf

    https://seenthis.net/messages/816511 via CDB_77


  • https://i.imgur.com/DkdoA0I.jpg
    Un #syndicat français de policiers diffuse une liste de journalistes présentés comme des ennemis de la police nationale

    Le #Syndicat_Indépendant_des_Commissaires_de_Police (#SICP) a diffusé, le 7 décembre 2019, un message sur le réseau social Twitter désignant nommément cinq journalistes français (#David_Dufresne - @davduf, #Taha_Bouhafs, #Gaspard_Glanz, « #Le_Général » et #Alexis_Poulin) comme « les principaux acteurs » du « combat anti-Police Nationale », en #France. Les journalistes nommés sont affublés de qualificatifs insultants ("imposteur", « menteur », « harceleur », « usurpateur », « haineux »). Le SICP accuse ces journalistes d’ « alimenter cette haine » et de « se délecter de ce climat », après que la porte du domicile d’un officier de la brigade anti-criminalité (BAC) a été recouverte de slogans hostiles à la police. Plusieurs représentant de la profession, dont la Fédération Européenne des Journalistes, ont dénoncé le caractère intimidatoire et diffamatoire du message du syndicat policier, largement relayé sur Twitter.

    https://www.coe.int/fr/web/media-freedom/detail-alert?p_p_id=sojdashboard_WAR_coesojportlet&p_p_lifecycle=0&p_p_col_id=c
    #intimidation #diffamation #presse #journalisme #réseaux_sociaux #police #conseil_de_l'Europe #maintien_de_l'ordre

    Le tweet en question du syndicat policier :
    https://i.imgur.com/bM9xZy4.png
    https://twitter.com/SICPCommissaire/status/1203437519544684544

    https://seenthis.net/messages/815103 via CDB_77


  • Quand on explore, parfois, on s’égare !
    https://framablog.org/2019/11/05/quand-on-explore-parfois-on-segare

    Il paraît que l’on n’apprend que de ses erreurs… Nous avons donc voulu compiler nos plantages, errements et autres découragements récents, afin d’en tirer quelques enseignements. Cet article fait partie des « Carnets de voyage de #Contributopia ». D’octobre à décembre 2019, … Lire la suite­­

    #Carnets #Framasoft #Association #Communaute #contributopia #GAFAM #Internet #reseaux_sociaux


  • Message de Jack Dorsey, changeant drastiquement le fonctionnement de Twitter (et du monde puisque ce réseau est devenu l’agence de #ComPol mondiale en quelques années ???? !)
    https://twitter.com/jack/status/1189634360472829952
    + traduction automatique ⤵️

    Nous avons pris la décision d’arrêter toute publicité politique sur Twitter à l’échelle mondiale. Nous croyons que le message politique doit être gagné et non acheté. Pourquoi ? Quelques raisons… ????
    Un message politique gagne du terrain lorsque les gens décident de suivre un compte ou de retweet. Payer pour atteindre supprime cette décision, en imposant des messages politiques hautement optimisés et ciblés aux gens. Nous pensons que cette décision ne devrait pas être compromise par de l’argent.
    Les publicités politiques sur Internet présentent des défis entièrement nouveaux pour le discours civique : optimisation basée sur l’apprentissage automatique de la messagerie et du micro-ciblage, informations trompeuses non contrôlées et contrefaçons profondes. Le tout à une vitesse, une sophistication et une ampleur croissantes.
    Ces défis affecteront TOUTES les communications Internet, pas seulement les publicités politiques. Il est préférable de concentrer nos efforts sur les problèmes fondamentaux, sans la charge et la complexité supplémentaires que prend de l’argent. Essayer de réparer les deux, cela signifie de ne réparer ni l’un ni l’autre et de nuire à notre crédibilité.
    Par exemple, il n’est pas crédible pour nous de dire : « Nous travaillons fort pour empêcher les gens de jouer avec nos systèmes pour diffuser des informations trompeuses, mais si quelqu’un nous paye pour cibler et forcer les gens à voir leur publicité politique… eh bien… ils peut dire ce qu’ils veulent ! ????
    Nous avons envisagé de ne supprimer que les annonces candidates, mais les annonces diffusées constituent un moyen de contourner le problème. De plus, ce n’est pas juste pour tout le monde, mais les candidats achètent des annonces pour les problèmes qu’ils souhaitent mettre en avant. Donc, nous les arrêtons aussi.
    Nous savons bien que nous sommes une petite partie d’un écosystème de publicité politique beaucoup plus vaste. Certains pourraient soutenir que nos actions d’aujourd’hui pourraient favoriser les entreprises en place. Mais nous avons été témoins de nombreux mouvements sociaux qui ont atteint une échelle considérable sans aucune publicité politique. J’espère que cela ne fera que grandir.
    En outre, nous avons besoin d’une réglementation politique de la publicité davantage tournée vers l’avenir (très difficile à faire) . Les exigences de transparence des annonces sont des progrès, mais pas suffisants. Internet offre de toutes nouvelles fonctionnalités et les régulateurs doivent penser au-delà de nos jours pour assurer des conditions de concurrence égales.
    Nous partagerons la politique finale avant le 15/11, avec quelques exceptions (les annonces en faveur de l’inscription des électeurs seront toujours autorisées, par exemple). Nous commencerons à appliquer notre nouvelle politique le 11/22 afin de fournir aux annonceurs actuels une période de préavis avant l’entrée en vigueur de cette modification.
    Une note finale. Ce n’est pas à propos de la liberté d’expression. C’est à propos de payer pour atteindre. Et payer pour augmenter la portée du discours politique a des conséquences importantes que l’infrastructure démocratique actuelle n’est peut-être pas prête à gérer. Cela vaut la peine de prendre du recul pour aborder.

    Je suis hyper fière qu’il ait écouté ma requête récente sur le sujet suite à une pub sponsorisée de JMLP !!!
    https://twitter.com/ValKphotos/status/1189665167220625410

    Bon, blague à part, c’est réellement pas rien comme message, mais le dernier tweet de Trump, 2 heures avant, pose quand même la question de son efficacité à venir :
    https://twitter.com/realDonaldTrump/status/1189601417469841409
    https://pbs.twimg.com/media/EIJQLnVX0AEyJCu?format=jpg&name=small (je ne sais pas pourquoi l’image n’apparaît pas ?)

    No Fake, hélas, c’est bien un montage de chien décoré :/ Pire, y’a aucune explication puisqu’il n’y a pas eut de décoration de chien, un journaliste a même demandé des explications à la Maison Blanche qui semble totalement larguée : https://twitter.com/W7VOA/status/1189603619391320065
    Trump utilise comme support une réelle photo de 2017 de la décoration d’un vétéran, James McCloughan... Le nombre de likes et retweets est astronomique et le nombre de boots inclus qui participent à son omniprésence dans les TL serait intéressant à connaître...

    #twitter #réseaux_sociaux_marchands #communication_politique

    https://seenthis.net/messages/808633 via ¿’ ValK.


  • #TikTok is China’s next big weapon

    Chinese social media is largely impenetrable for most in the West — just check out their memes — but Sino tech giants have their eye on owning the U.S. market, evidenced by the rise of TikTok.

    Why it matters: While the video-based app simply seems like a benign platform for Gen Zers to make and share funny memes, it’s could become a Chinese vacuum for coveted American data.

    It has made its top creators into bona fide celebrities, as evidenced by a look at YouTube’s annual VidCon by The Atlantic’s Taylor Lorenz.

    Between the lines: TikTok’s “parent company, ByteDance, recently valued at more than $75 billion, bills itself first as an artificial intelligence company, not a creator of mission-driven social platforms,” per the New York Times. Its secret sauce: “Apparently you just … show [users] things, and let a powerful artificial intelligence take notes.”

    Ceding that control to TikTok should be worrying, according to a Times op-ed: “Those who complain that American firms like Facebook are invasive and unaccountable are unlikely to prefer China’s tech giants, which are often cowed by, and collaborating with, the Party-State’s opaque and irascible censorship and surveillance apparatus.”
    And you can’t escape Chinese social media giants on American platforms. As Axios’ Sara Fischer reported, ByteDance spent $1 billion advertising TikTok in the U.S. in 2018, growing its audience by buying ads on Facebook, Instagram and Snapchat.
    A similar privacy controversy played out this week with FaceApp, which is owned by a Russian startup, over its use of photos and possible access to users’ photo libraries.

    The state of play: There are even possible national security concerns, as New America’s Graham Webster told Axios’ Erica Pandey, “Say there’s a sensitive U.S. military officer with a kid who’s making memes on TikTok. Is it possible that there’s data being collected through that usage that could be useful to a Chinese intelligence service? Yeah, that’s possible. But we haven’t seen evidence of that yet.”

    Earlier this year, the Chinese company that purchased the gay dating app Grindr was forced to agree to sell the company by 2020 and had restrictions placed on its access and use of data by the Committee on Foreign Investment in the U.S. (CFIUS) due to national security concerns, per Bloomberg.
    CFIUS doesn’t have to publicly announce its work and can review companies and deals without being asked — meaning it could already have its all-powerful regulatory eye on ByteDance and TikTok.

    The other side: TikTok says that its “user data is stored and processed in the U.S. and other markets where TikTok operates at industry-leading third-party data centers. It’s important to clarify that TikTok does not operate in China and that the government of the People’s Republic of China has no access to TikTok users’ data.”

    Yes, but: Quartz’s David Carroll discovered that TikTok’s privacy policy in late 2018 indicated that user data could be shared “with any member or affiliate of [its] group” in China. It later confirmed to him that “data from TikTok users who joined the service before February 2019 may have been processed in China.”

    The big picture: The murkiness of TikTok’s structure could preview a trend as Chinese companies eye the U.S. and its troves of data. Lorenz’s piece touched on an unaffiliated shadow event occurring beside VidCon: the East-West Forum, held by the Tencent-backed Qingteng Club. It “was targeted toward Chinese tech execs looking to enter the American market.” As one attendee told her about the off-the-record event...

    “It was mostly people from Chinese companies trying to learn from Americans; they wanted to know what problems we could have here so they could take those learnings back to China.”
    “Chinese execs were basically like, Tell us everything wrong with your platforms.”

    The bottom line: While the Big Tech behemoths of the U.S. are barred from making inroads in China, the inverse doesn’t apply. That could mark an opening front in the ongoing technological and economic war between the two rivals.

    https://images.axios.com/jV-PmqJOtM3WKN3cEOo7cZBp95w=/0x0:1920x1080/1024x576/2019/07/17/1563389009775.jpg
    https://www.axios.com/tiktok-china-online-privacy-personal-data-6b251d22-61f4-47e1-a58d-b167435472e
    #Chine #réseaux_sociaux

    ping @etraces

    https://seenthis.net/messages/806622 via CDB_77


  • Dénaturer la #nature sur #Instagram

    Plus que jamais, des sites naturels sont assaillis par des touristes en quête de la #photo parfaite. Les conséquences sont loin d’être banales : faune et flore fragilisées, personnel dépassé, expérience en plein air gâchée. Quand notre appel à la nature sonne faux.
    Texte : Justine de l’Église | Photos : Kari Medig & Catherine Bernier
    https://ici.radio-canada.ca/recit-numerique/193/instagram-tourisme-photo-nature-effets-influenceur
    https://images.radio-canada.ca/q_auto,w_2000/v1/ici-info/16x9/joffre-lakes-instagram-beside-justine.jpg

    En juillet, la section française du Fonds mondial pour la nature (WWF) a reconnu que « la #géolocalisation sur Instagram des lieux préservés met en péril la #biodiversité ». À la place, l’organisme incite les membres du réseau social à avoir recours à la mention « I Protect Nature » [Je protège la nature], employée sur la plateforme depuis la fin de 2014.

    Un article bourré de questionnements, réflexions et données intéressantes sur la plaie consommatrice qu’est le #tourisme aggravée par les #réseaux_sociaux en général et Instagram en particulier (/co #Facebook /co #GAFAM), mais dont la conclusion me laisse perplexe...

    https://seenthis.net/messages/801311 via ¿’ ValK.


  • C’est pratique - Mon blog sur l’écologie politique
    http://blog.ecologie-politique.eu/post/C-est-pratique

    Car c’est pratique mais c’est une dépossession : plus la peine de se soucier de la dimension matérielle de sa vie (et de savoir cuire des nouilles), pas besoin de garder la maîtrise de ses outils… Jusqu’ici, tout va bien, tant qu’on fait encore partie de la petite bourgeoisie qui peut se payer tout ça, tant que des pans entiers du macro-système technicien ne s’effondrent pas. Mais tout cela nous déqualifie humainement et il est des menaces plus immédiates encore que l’effondrement écologique ou une vraie crise de l’énergie : nos libertés, individuelles et collectives.

    #pratique #dépossession #Internet #réseaux_sociaux #à_domicile

    https://seenthis.net/messages/793328 via aude_v


  • Aux États-Unis, extension du domaine de la #surveillance des élèves
    http://www.internetactu.net/a-lire-ailleurs/aux-etats-unis-extension-du-domaine-de-la-surveillance-des-eleves

    La peur des fusillades dans les écoles aux États-Unis fait prendre à la société américaine des décisions absurdes, estime le journaliste Benjamin Herold (@BenjaminBHerold) dans une longue enquête pour Education Week (@educationweek). Surveiller les #réseaux_sociaux pour prévenir les fusillades ? Dans une des banlieues de Houston au Texas, le district (...)

    #A_lire_ailleurs #Enjeux #Services #Education_et_formation #Territoires

    https://seenthis.net/messages/788285 via InternetActu [RSS]


  • Aux origines de l’usine à « fake news » du Kremlin
    https://www.mediapart.fr/journal/international/150519/aux-origines-de-l-usine-fake-news-du-kremlin

    Une enquête de Mediapart et du réseau The Signals Network retrace l’histoire d’un logiciel espagnol permettant de mener des opérations d’influence sur les réseaux sociaux. Son créateur affirme que le programme est tombé entre les mains de l’IRA, la « ferme à trolls » du pouvoir russe, accusée d’avoir mené une « guerre de l’information » pour favoriser Trump en 2016.

    #RÉSEAUX_SOCIAUX #Donald_Trump,_Russie,_ingérence_russe,_IRA,_Internet_Research_Agency,_réseaux_sociaux,_présidentielle_américaine,_Javier_Perez_Dolset,_Vladimir_Poutine,_Evgeny_Prigogine,_Robert_Mueller
    https://static.mediapart.fr/etmagine/default/files/2019/05/15/prigogine-poutine.png

    https://seenthis.net/messages/781122 via Mediapart


  • « Les adolescents américains regardent leur mobile plus de 2.000 fois par jour. En temps normal, nous aurions parlé de troubles obsessionnels compulsifs ».
    Extrait de la très sombre #keynote, cette semaine à Berlin, du professeur de droit de Columbia, Eben Moglen.

    L’Internet des médias sociaux aussi dangereux que la crise climatique

    « Ces médias nous consomment au moment où nous les consommons. (…) Il faut rendre le Net plus silencieux. La démocratie et notre liberté en dépendent. »

    | Meta-media | La révolution de l’information - https://www.meta-media.fr/2019/05/09/linternet-des-medias-sociaux-aussi-dangereux-que-la-crise-climatique.html #internet #reseaux_sociaux

    https://seenthis.net/messages/780357 via ¿’ ValK.


  • Internet, cette révolution qui n’en était pas une : les désillusions de l’activisme numérique
    http://www.internetactu.net/2019/05/07/internet-cette-revolution-qui-nen-etait-pas-une-les-desillusions-de-la

    Le livre de la sociologue Jen Schradie (@schradie), The revolution that wasn’t : How digital activism favors conservatives (La révolution qui n’était pas : ou comment l’activisme numérique favorise les réactionnaires, Harvard University Press, 2019, non traduit) sonne comme un nouveau revers pour tout ceux qui pensaient que le numérique allait changer (...)

    #Articles #Recherches #économie_de_l'attention #eDémocratie #Participation #politique #réseaux_sociaux

    https://seenthis.net/messages/779350 via InternetActu [RSS]


  • « On voit comment est le monde grâce aux #réseaux_sociaux. On voit ce qui se passe en #Algérie. On voit comment vivent les femmes du monde entier, et on n’est pas différentes. »

    Source : Jean-Philippe Rémy, « Au #Soudan, les #femmes à la pointe de la révolte », Le Monde, 10 avril 2019.
    https://www.lemonde.fr/afrique/article/2019/04/10/au-soudan-les-femmes-a-la-pointe-de-la-revolte-on-ne-veut-pas-juste-changer-

    https://img.lemde.fr/2019/04/10/255/0/744/371/1440/720/60/0/a613845_qoEeO7L1LOP7309r-wsE1NXb.jpg

    #médias_sociaux #monde #mouvement_de_contestation

    https://seenthis.net/messages/773554 via tbn


  • #Loi_Blanquer : Ce que la #confiance veut dire...

    « L’#école_de_la_confiance » c’est le slogan préféré de JM Blanquer , celui qui a été utilisé pour justifier sa politique tout au long de ses 18 mois de présence au ministère de l’éducation nationale. C’est encore le nom de son projet de loi sur l’école qui devrait bientôt arriver devant le Parlement. La confiance c’est, selon le Larousse, « le sentiment de quelqu’un qui se fie entièrement à quelqu’un d’autre, à quelque chose ». Mais le projet de loi de JM Blanquer redéfinit le terme et sa portée. Il éclaire du coup le véritable projet du ministre. L’école de la confiance c’est celle de la mise au pas des enseignants.

    L’article 1 de la loi Blanquer

    L’école de la confiance a déjà pris de sérieux coups depuis le phénomène #pasdevagues. Les enseignants ont largement témoigné de l’absence de confiance de l’institution à leur égard. Un sentiment bien rendu en retour. On croyait d’ailleurs le slogan enterré mais le ministre n’a pas hésité à l’utiliser à nouveau, juste avant que les lycéens apportent à leur tour un net démenti...

    Le projet de loi « pour une école de la confiance » commence par un premier article qui porte sur « l’engagement de la communauté éducative ». Comme d’autres articles de ce texte, il cache bien son jeu.

    L’article 1 du projet de loi demande d’insérer un article L. 111-3-1 dans le Code de l’éducation ainsi rédigé : « Art. L. 111-3-1 - Par leur engagement et leur exemplarité, les personnels de la communauté éducative contribuent à l’établissement du lien de confiance qui doit unir les élèves et leur famille au service public de l’éducation. Ce lien implique également le respect des élèves et de leur famille à l’égard de l’institution scolaire et de l’ensemble de ses personnels. »

    Un mot pour révoquer facilement

    Apparemment c’est une simple déclaration philosophique dont on peut se demander ce qu’elle fait dans un projet de loi. Mais l’étude d’impact du projet de loi, un document obligatoire fourni par le ministère aux députés, éclaire singulièrement ce que JM BLanquer appelle la confiance.

    « Le Gouvernement souhaite inscrire, dans la loi, la nécessaire protection de ce lien de confiance qui doit unir les personnels du service public de l’éducation aux élèves et à leurs familles. Compte tenu de son importance, il serait en effet déraisonnable de s’en tenir à une simple consécration jurisprudentielle », explique l’étude d’impact.

    « Les dispositions de la présente mesure pourront ainsi être invoquées, comme dans la décision du Conseil d’Etat du 18 juillet 2018 précédemment mentionnée, dans le cadre d’affaires disciplinaires concernant des personnels de l’éducation nationale s’étant rendus coupables de faits portant atteinte à la réputation du service public ».

    L’arrêt en question avait annulé la décision d’une cour administrative d’appel qui était revenue sur une décision de révocation d’un enseignant. Il s’agissait d’un professeur de Montceau-les -Mines coupable et condamné avec sursis pour agressions sexuelles sur mineurs de quinze ans. Pour chasser cet enseignant du métier , le Conseil d’Etat a argué de « l’exigence d’exemplarité et d’irréprochabilité qui incombe aux enseignants dans leurs relations avec des mineurs, y compris en dehors du service » et de l’importance de l’atteinte portée « à la réputation du service public de l’éducation nationale ainsi qu’au lien de confiance qui doit unir les enfants et leurs parents aux enseignants du service ».

    Faire taire les profs sur les réseaux sociaux

    Exploitant cette affaire très particulière, le projet de loi Blanquer exploite cet arrêt dans un tout autre domaine. Il ne s’agit plus de délinquant sexuel condamné mais de n’importe quel prof. Il ne s’agit plus de la violation perverse de la relation pédagogique mais du lien d’obéissance au ministre. En s’appuyant sur cet article et cette évocation de la confiance, le ministre veut pouvoir sanctionner ce qu’il n’arrive pas à punir actuellement.

    L’étude d’impact donne des exemples. « Il en ira par exemple ainsi lorsque des personnels de la communauté éducative chercheront à dénigrer auprès du public par des propos gravement mensongers ou diffamatoires leurs collègues et de manière générale l’institution scolaire. Ces dispositions pourront également être utilement invoquées par l’administration dans les cas de violences contre les personnels de la communauté éducative ou d’atteintes au droit au respect de leur vie privée, notamment par le biais de publications sur des réseaux sociaux ».

    La confiance c’est la soumission

    Ainsi toute critique portée par un enseignant sur l’institution pourrait être légalement sanctionnée par une #révocation. Ce que poursuit le ministre c’est la généralisation du #devoir_de_réserve qui concerne aujourd’hui les seuls cadres du système éducatif ou des cas bien particuliers. Les violences tout comme la diffamation sont déjà punis par la loi. Le devoir de réserve peut être invoqué pour des enseignants qui feraient campagne contre l’institution (et non contre un responsable politique). Or la liberté de parole des enseignants est nécessaire à l’exercice du métier. Ils doivent éthiquement privilégier l’intérêt de l’élève avant celui de l’institution. Ils doivent pouvoir exercer librement un droit de critique sur le fonctionnement de l’institution. Celle-ci d’ailleurs le leur demande quand il s’agit des programmes par exemple.

    On mesure le glissement que permettrait le passage de cet article. JM Blanquer inscrit cet article pour permettre une systématisation des #sanctions et faire en sorte que les #enseignants se taisent, notamment sur les réseaux sociaux, dernier espace de #liberté.

    Cet article autoritaire, qui ferait des enseignants une catégorie spéciale de sous-fonctionnaires, montre à quel point le mot confiance est un piège. Si, pour Orwell, « la liberté c’est l’esclavage », pour l’auteur de ce projet de loi, la confiance c’est la #soumission.

    François Jarraud

    http://www.cafepedagogique.net/SiteCollectionImages/1212181.jpg
    http://www.cafepedagogique.net/lexpresso/Pages/2018/12/12122018Article636801966942543096.aspx
    #censure #éducation #France #réseaux_sociaux #école

    https://seenthis.net/messages/743596 via CDB_77


  • allo @Place_Beauvau - c’est pour un signalement
    https://i.imgur.com/85kBUPS.png
    https://twitter.com/search?f=tweets&vertical=default&q=allo+%40Place_Beauvau+-+c%27est+pour+un+

    –-> #David_Dufresne @davduf a décidé d’alerter le #Ministre_de_l'Intérieur chaque fois qu’une vidéo montre des pratiques policières qui ne sont pas conformes à la Loi et aux réglements du maintien de l’ordre. https://twitter.com/search?f=tweets&vertical=default&q=allo+%40Place_Beauvau+-+c%27est+pour+un+ … Il demande aux vidéastes et aux autres de l’aider.

    #twitter #réseaux_sociaux #dénonciation #résistance #violences_policières #police #signalement #gilets_jaunes

    ping @isskein

    https://seenthis.net/messages/742663 via CDB_77


  • Twitter Bans Former Asst. Treasury Secretary Paul Craig Roberts | Zero Hedge
    https://www.zerohedge.com/news/2018-10-25/twitter-bans-former-asst-treasury-secretary-paul-craig-roberts-after-sput
    https://www.zerohedge.com/sites/default/files/styles/max_650x650/public/2018-10/pcr.jpg?itok=jmcCrqj0

    Twitter has suspended noted anti-war commentator, economist and former Assistant Secretary of the Treasury, Paul Craig Roberts.
    (...)
    Roberts, 79, served in the Reagan administration from 1981 to 1982. He was formerly a distinguished fellow at the Cato Institute and a senior research fellow at the Hoover Institution, and has written for the Wall Street Journal and Businessweek. Roberts maintains an active blog.
    He’s also vehemently against interventionary wars around the world, and spoke with Russia’s state-owned Sputnik news in a Tuesday article - in which Roberts said that President Trump’s decision to pull out of the Intermediate-range Nuclear Forces (INF) treaty was a handout to the military-security complex.

    #réseaux_sociaux #twitter

    https://seenthis.net/messages/731582 via gonzo


  • Comment la Silicon Valley est devenue hostile aux femmes - Le Temps
    https://www.letemps.ch/economie/silicon-valley-devenue-hostile-aux-femmes
    https://assets.letemps.ch/sites/default/files/styles/share/public/media/2018/10/06/file727c0m3mv461ii4j97ov.jpg.png?itok=zbd-ux0T

    « Quand vous écrivez une ligne de code, vous affectez beaucoup de gens », soulignait Sheryl Sandberg, directrice opérationnelle de Facebook, qui s’engage beaucoup pour l’égalité et a écrit En avant toutes. Les #femmes, le travail et le pouvoir en 2013. En réalité, le mal a déjà été fait, souligne encore Emily Chang, à travers les jeux vidéo violents et sexistes, le #harcèlement subi par les femmes sur les #réseaux_sociaux contre lequel (pratiquement) rien n’est fait, etc. Autre exemple ? Jusqu’en 2016, si vous disiez à Siri ou à un autre assistant numérique que vous étiez en train de faire une crise cardiaque, elle vous donnait des instructions ; si vous lui disiez que vous étiez en train de vous faire violer ou frapper par votre mari, elle vous disait : « Je ne comprends pas de quoi il s’agit. » Des robots à l’intelligence artificielle, la technologie, qui va déterminer notre avenir, risque d’être aussi inégalitaire que les entreprises qui les fabriquent. En outre, ajoute Alaina Percival, « toute l’économie est en train de devenir technologique, il ne s’agit plus d’un petit secteur ».

    #Silicon_Valley #informatique #code #sexisme

    https://seenthis.net/messages/727406 via odilon


  • Il n’y a plus de doute : soit on fait des réseaux marchands un champ de bataille #anticapitaliste & #antifasciste, soit on les quitte pour ne pas alimenter leur course vers le Mur...
    https://www.20minutes.fr/high-tech/2337067-20180915-allemagne-comment-extreme-droite-sert-youtube-attiser-mob
    Pis y’a plein d’alternatives : #Framasoft #Thechangebook #RiseUp #Mastodon etc. ... et bien sûr ici !

    Plusieurs chercheurs allemands et responsables locaux ont critiqué cette semaine YouTube pour avoir contribué à diffuser des théories du complot et des vidéos néonazies autour de ces faits divers. Cette semaine, lorsqu’on effectuait sur la plateforme une recherche sur « Köthen », l’internaute était orienté vers des vidéos expliquant que « la version officielle » était montée de toutes pièces, ou bien des vidéos affirmant que tout était lié au « complot juif » ou encore que la dégradation d’un restaurant casher à Chemnitz n’était pas le fait de militants d’extrême droite, mais d’extrême gauche…

    Selon Ray Serrato, un chercheur spécialisé en désinformation qui a analysé plusieurs vidéos parlant du drame de Chemnitz, « tout un réseau de vidéos de désinformation a éclos en seulement quelques jours », poussé par un algorithme de recommandations qui ne propose que des vidéos qui se ressemblent.

    #reseaux_sociaux #reseauxsociaux #youtube #libertedexpression #fakenews

    https://seenthis.net/messages/722585 via ¿’ ValK.


  • Technologie : l’âge sombre
    http://www.internetactu.net/2018/09/10/technologie-lage-sombre

    L’artiste et essayiste James Bridle (@jamesbridle) s’intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique… Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d’expression et de (...)

    #Articles #Débats #algorithmes #big_data #innovation #RD #réseaux_sociaux #surveillance

    https://seenthis.net/messages/720803 via InternetActu [RSS]



  • Nouvelle rumeur mensongère sur des cours d’éducation sexuelle à l’école (Le Monde)
    https://www.lemonde.fr/les-decodeurs/article/2018/08/28/nouvelle-rumeur-mensongere-sur-des-cours-d-education-sexuelle-a-l-ecole_5346

    Une publication alarmiste, partagée des milliers de fois sur Facebook, a affirmé, à tort, dévoiler le contenu de séances d’éducation sexuelle.

    Jusqu’à 25% d’élèves absent·e·s en ce jour de rentrée : l’absentéisme habituel, les billets-retour-décalés-donc-moins-chers et surtout… cette rumeur insensée qui revient avec un impact nouveau. Des parents qui viennent mettre sous le nez des enseignant·e·s des vidéos complotistes, des familles avec qui nous avons de bons rapports d’habitude qui viennent, inquiètes vérifier que tout cela est faux, des familles qui évoquent au téléphone leur refus de remettre leur enfant à l’école dans de telles conditions et l’existence de consignes de boycott de la rentrée issues des réseaux sociaux.
    Les bras me tombent.

    #éducation #médias #réseaux_sociaux #complotisme #éducation_sexuelle #théorie_du_genre #bulshiterie

    https://seenthis.net/messages/719394 via Pierre Coutil


  • The Cleaners - Les nettoyeurs du Web

    Qui modère nos contenus en ligne ? Les réseaux sociaux contribuent-ils à l’accroissement de la haine ? Des Philippines à la Silicon Valley, une enquête exhaustive et brutale sur la violence à l’ère du Web.

    Ignorer ou supprimer ? Cette question, les modérateurs des réseaux sociaux se la posent chacun vingt-cinq mille fois par jour. Aux Philippines, ils sont des centaines à effectuer ce travail que Facebook sous-traite à une multinationale : purger le Net de ses images les plus violentes. De la pédopornographie aux décapitations terroristes, en passant par l’automutilation ou la simple nudité, proscrite par les chartes des grands groupes, l’impact psychologique des images les plus rudes – seul quotidien de ces abeilles ouvrières du Web – est aussi violent qu’ignoré par la Silicon Valley, pour laquelle le rendement passe avant tout. Mais les règles de modération imposées trouvent bien vite leur limite, dès lors que la question de l’art ou de la politique fait irruption. Quelle est la frontière entre modération et censure ? Doit-on « nettoyer » les réseaux des images de guerre, alors qu’elles documentent les conflits ? Lorsque l’administration du président Erdogan demande aux géants des réseaux sociaux de supprimer des contenus d’opposition politique qu’elle juge terroristes, sous peine de bloquer les sites sur le territoire turc, pourquoi les entreprises s’exécutent-elles ? Comment ne pas y voir une logique froidement mercantile ?

    Le mal du XXIe siècle
    Quel est le meilleur moyen d’engranger de l’audience ? « L’indignation », répond Tristan Harris, ancien cadre de Google. En privilégiant les contenus choquants, les réseaux sociaux – seule source d’information pour un nombre grandissant d’internautes – voient leur vision segmentée s’imposer à leurs utilisateurs, polarisant une haine et déchaînant une violence bien réelles. C’est tout le paradoxe de ces nouveaux maîtres du Web, qui épuisent leurs sous-traitants à purger les réseaux tout en bâtissant des algorithmes au service de la colère. Un mal du XXIe siècle intelligemment expliqué par Hans Block et Moritz Riesewieck qui, des Philippines à la Silicon Valley, examinent les deux côtés de la chaîne dans un documentaire à charge, exhaustif et passionnant.

    https://www.arte.tv/fr/videos/069881-000-A/les-nettoyeurs-du-web-the-cleaners
    #reseaux_sociaux #google #facebook #twitter #youtube #morale #ethique #liberte #expression

    https://seenthis.net/messages/717469 via ¿’ ValK.