Zinc
•
 
Identifiants personnels
  • [mot de passe oublié ?]

 
  • #r
  • #risque
RSS: #risques

#risques

  • #risques_du_travail
  • #risques_industriels
  • #risques_psychosociaux_-_rps_
  • @etraces
    etraces @etraces 2/02/2020
    @etraces

    Surveillés, exploités : dans l’enfer des #livreurs_à_vélo

    Dans cette enquête inédite, Le Média révèle les mécanismes de #surveillance des livreurs mis en place par les plateformes pour mieux les exploiter, et plus largement les conditions de travail scandaleuses auxquelles ils sont soumis : temps de travail excessif, mise en danger de mort...

    Depuis quelques années, les livreurs à vélo sont apparus dans le paysage urbain. Avec leurs sacs colorés, ils parcourent les rues des plus grands villes européennes. Ils travaillent pour des #plateformes_numériques, souvent dans des conditions plus que précaires.

    Dans cette enquête inédite, nous révélons les mécanismes de surveillance des livreurs mis en place par des plateformes telles que #Deliveroo, #Foodora ou #Uber_Eats pour mieux les exploiter, et plus largement les conditions de travail scandaleuses auxquelles ils sont soumis. À partir de l’histoire de #Frank_Page, jeune livreur Uber Eats décédé à la suite d’un accident de voiture près de l’autoroute, nous retraçons la façon dont les plateformes numériques de livraison imposent des rythmes dangereux et affectent aux livreurs des parcours potentiellement meurtriers.

    Mais cette histoire en cache plein d’autres. Derrière cette organisation du travail prétendument novatrice se cachent des pratiques régulières de répression syndicale, chez Deliveroo ou chez Uber. De Bordeaux à Dijon, en passant par Paris, les livreurs qui essaient de s’organiser face aux plateformes en paient le prix, parfois chèrement. Et cela ne se limite pas à la France.

    Ainsi, nous révélons en exclusivité que Deliveroo a espionné des syndicalistes en Angleterre en essayant de recueillir des données privées et en espionnant leurs réseaux sociaux. Le flicage ne s’arrête pas là. Grâce à l’association #Exodus_Privacy, nous avons aussi découvert comment certaines applications - celle de Deliveroo, notamment - surveillent leurs livreurs et récoltent certaines données, qui sont par la suite redirigées vers de régies publicitaires, exposant ces entreprises à une potentielle violation de la loi européenne sur la vie privée.

    ▻https://www.youtube.com/watch?v=vASAMVRiy8s&feature=emb_logo


    ▻https://www.lemediatv.fr/emissions/les-enquetes/surveilles-exploites-dans-lenfer-des-livreurs-a-velo-sJHkn_vURXeCnFw7IvBks

    A partir de la minute 33, il y a une interview avec Paul-Olivier Dehay, fondateur de l’ONG Personal data.io (▻https://wiki.personaldata.io/wiki/Main_Page).
    Il explique comment les plateformes de livreurs utilisent les données collectées :

    « On peut diviser son groupe d’ ’employés’ grâce à ces outils, et commencer à appliquer des traitements différents à chacun de ces sous-groupes. Par exemple offrir des bonus à certains et pas à d’autres, des encouragements, faire des expériences de traitements différents. C’est un outil managérial pour gérer la force ouvrière des livreurs. Ces plateformes cherchent à opérer en ayant un maximum d’informations sur le marché, mais par contre en livrant un minimum d’informations à chaque entité pour faire son travail. Donc quand un livreur livre un plat il ne sait pas si dans l’heure il va avoir encore 3 ou 4 boulots, il n’a aucune information sur les prédictions ou quoi que ce soit, parce que la plateforme cherche à pousser un maximum de risques économiques vers les livreurs, et cherche à optimiser toujours dans son intérêt. On voit que l’asymétrie d’information pour ces plateformes est stratégique pour eux. Uber n’a pas de voiture, Deliveroo n’a pas de vélo, ce qu’ils ont c’est de l’information, et de l’information qui vaut de l’argent pour des restaurants, pour des livreurs, et pour des consommateurs au final. C’est mettre tous ces acteurs ensemble qui va permettre à la plateforme de faire de l’argent. On peut tout à fait imaginer un scénario où chacune des parties se réapproprie un maximum de ces données et au final se demande ’En fait, pourquoi on a besoin de cet intermédiaire ? Pourquoi est-ce qu’on ne peut pas agir avec des outils qui nous permettent d’interagir directement’. Si on suit cette logique d’exposition de la plateforme, de mise à nu de la plateforme, on se rend compte qu’au final il n’y a rien derrière, il n’y a rien qui a vraiment une valeur, c’est dans l’#asymétrie de l’information qu’ils construisent la valeur »

    #exploitation #travail #conditions_de_travail #précarité #surveillance #gig_economy #économie_de_la_tâche #livreurs #auto-entrepreneurs #liberté #enquête #deliveroo_rider #téléphone_portable #smartphone #syndicats #risques #accidents #coursiers #coursiers_à_vélo #grève #accidents #décès #morts #taxes #résistance #taux_de_satisfaction #Dijon #Brighton #algorithme #déconnexion #Guy_MacClenahan #IWGB #réseaux_sociaux #flexibilité #sanctions #contrôle #Take_it_easy #dérapage #strike #pisteur #géolocalisation #publicité #identifiant_publicitaire #Appboy #segment.io #Braze #information #informations #charte #charte_sociale
    ping @albertocampiphoto

    ping @etraces

    ▻https://seenthis.net/messages/823715 via CDB_77

    etraces @etraces
    Écrire un commentaire

  • @etraces
    etraces @etraces 19/12/2019
    @etraces

    Don’t assume technology is racially neutral

    Without adequate and effective safeguards, the increasing reliance on technology in law enforcement risks reinforcing existing prejudices against racialised communities, writes Karen Taylor.

    https://www.theparliamentmagazine.eu/sites/www.theparliamentmagazine.eu/files/styles/original_-_local_copy/entityshare/33329%3Fitok%3DXJY_Dja6#.jpg

    Within the European Union, police and law enforcement are increasingly using new technologies to support their work. Yet little consideration is given to the potential misuse of these technologies and their impact on racialised communities.

    When the everyday experience of racialised policing and ethnic profiling is already causing significant physical, emotional and social harm, how much will these new developments further harm people of colour in Europe?

    With racialised communities already over-policed and under-protected, resorting to data-driven policing may further entrench existing discriminatory practices, such as racial profiling and the construction of ‘suspicious’ communities.

    This was highlighted in a new report published by the European Network Against Racism (ENAR) and the Open Society Justice Initiative.

    Using systems to profile, survey and provide a logic for discrimination is not new; what is new is the sense of neutrality afforded to data-driven policing.

    The ENAR report shows that law enforcement agencies present technology as ‘race’ neutral and independent of bias. However, such claims overlook the evidence of discriminatory policing against racialised minority and migrant communities throughout Europe.

    European criminal justice systems police minority groups according to the myths and stereotypes about the level of ‘risk’ they pose rather than the reality.

    This means racialised communities will feel a disproportionate impact from new technologies used for identification, surveillance and analysis – such as crime analytics, the use of mobile fingerprinting scanners, social media monitoring and mobile phone extraction - as they are already overpoliced.

    For example, in the UK, social media is used to track ‘gang-associated individuals’ within the ‘Gangs Matrix’. If a person shares content on social media that references a gang name or certain colours, flags or attire linked to a gang, they may be added to this database, according to research by Amnesty International.

    Given the racialisation of gangs, it is likely that such technology will be deployed for use against racialised people and groups.

    Another technology, automatic number plate recognition (ANPR) cameras, leads to concerns that cars can be ‘marked’, leading to increased stop and search.

    The Brandenburg police in Germany used the example of looking for “motorhomes or caravans with Polish license plates” in a recent leaked internal evaluation of the system.

    Searching for license plates of a particular nationality and looking for ‘motorhomes or caravans’ suggests a discriminatory focus on Travellers or Roma.

    Similarly, mobile fingerprint technology enables police to check against existing databases (including immigration records); and disproportionately affects racialised communities, given the racial disparity of those stopped and searched.

    Another way in which new technology negatively impacts racialised communities is that many algorithmically-driven identification technologies, such as automated facial recognition, disproportionately mis-identify people from black and other minority ethnic groups – and, in particular, black and brown women.

    This means that police are more likely to wrongfully stop, question and potentially arrest them.

    Finally, predictive policing systems are likely to present geographic areas and communities with a high proportion of minority ethnic people as ‘risky’ and subsequently make them a focus for police attention.

    Research shows that data-driven technologies that inform predictive policing increased levels of arrest for racialised communities by 30 percent. Indeed, place-based predictive tools take data from police records generated by over-policing certain communities.

    Forecasting is based on the higher rates of police intervention in those areas, suggesting police should further prioritise those areas.

    We often – rightly – discuss the ethical implications of new technologies and the current lack of public scrutiny and accountability. Yet we also urgently need to consider how they affect and target racialised communities.

    The European Commission will present a proposal on Artificial Intelligence within 100 days of taking office. This is an opportunity for the European Parliament to put safeguards in place that ensure that the use of AI does not have any harmful and/or discriminatory impact.

    In particular, it is important to consider how the use of such technologies will impact racialised communities, so often overlooked in these discussions. MEPs should also ensure that any data-driven technologies are not designed or used in a way that targets racialised communities.

    The use of such data has wide-ranging implications for racialised communities, not just in policing but also in counterterrorism and immigration control.

    Governments and policymakers need to develop processes for holding law enforcement agencies and technology companies to account for the consequences and effects of technology-driven policing.

    This should include implementing safeguards to ensure such technologies do not target racialised as well as other already over-policed communities.

    Technology is not neutral or objective; unless safeguards are put in place, it will exacerbate racial, ethnic and religious disparities in European justice systems.

    ▻https://www.theparliamentmagazine.eu/articles/opinion/don%E2%80%99t-assume-technology-racially-neutral

    #neutralité #technologie #discriminations #racisme #xénophobie #police #profilage_ethnique #profilage #données #risques #surveillance #identification #big-data #smartphone #réseaux_sociaux #Gangs_Matrix #automatic_number_plate_recognition (#ANPR) #Système_de_reconnaissance_automatique_des_plaques_minéralogiques #plaque_d'immatriculation #Roms #algorythmes #contrôles_policiers

    –--------

    Pour télécharger le rapport:
    https://i.imgur.com/2NT3jhc.png
    ▻https://www.enar-eu.org/IMG/pdf/data-driven-profiling-web-final.pdf

    ping @cede @karine4 @isskein @etraces @davduf

    ▻https://seenthis.net/messages/816511 via CDB_77

    etraces @etraces
    Écrire un commentaire

  • @7h37
    7h37 @7h37 13/06/2017
    @rezo

    http://www.sante-et-travail.fr/pics_bdd/produit_visuel/1388765863_ST85_COUV_zoom.jpg

    Sommes-nous bien protégés des #risques_industriels ? On ne va pas se mentir, la réponse est plutôt négative. Et c’est pour cela que nous publions ce dossier, « à froid », pour faire réfléchir les acteurs. Non, la situation dans les industries à risque n’est pas aussi sûre qu’elle devrait l’être.

    Sans doute pas à cause d’une insuffisante maîtrise technologique : en France et dans la majorité des pays développés, nous avons des ingénieurs compétents, capables de concevoir des installations sophistiquées, des automatismes et des procédures prévoyant un maximum de situations. Sauf qu’on aurait tort de croire que tout peut être prévu et réglé. Les causes profondes des #grandes_catastrophes_industrielles, #Bhopal, #Tchernobyl, #AZF, pour ne citer que les plus connues, sont d’origine organisationnelle. Or, de ce point de vue, si les industries à risque ont fait d’indéniables progrès sur la prise de conscience du poids de l’organisation du travail dans la construction d’une culture de sécurité, elles n’échappent pas au renforcement des contraintes de temps, aux politiques de sous-traitance, à la rationalisation des tâches, aux risques psychosociaux… Autant de dégradations des conditions de travail qui entraînent des difficultés de coopération, de partage et de mise en débat des expériences, indispensables pour garantir un bon niveau de sécurité industrielle. Miser sur l’intelligence des opérateurs est aussi crucial que de parier sur celle des experts.

    ▻http://www.sante-et-travail.fr/risques-industriels--eviter-de-nouvelles-catastrophes_fr_art_1278_6
    ▻https://seenthis.net/messages/495432
    ▻https://seenthis.net/messages/606233
    @observatoiremultinat @bastamag @aude_v @colporteur @rezo @sinehebdo
    #Enquêtes #Total #Sanofi #santé_et_sécurité_au_travail #conditions_de_travail #CHSCT #cols_blancs #cols_bleus

    ▻https://seenthis.net/messages/606329 via Vanderling

    7h37 @7h37
    Écrire un commentaire

  • @yann
    Yann Hammar @yann 3/04/2017

    « Forfait jour » et « Organisation du travail » - Conditions de travail : un avis de recherche est lancé
    ▻https://www.force-ouvriere.fr/forfait-jour-et-organisation-du-travail-conditions-de-travail-un

    « Forfait jour » et « Organisation du travail » : les deux accords signés en 2016 devaient, d’après la direction, améliorer les conditions de travail.Un an plus tard, FO Energie et Mines fait le constat d’un échec sans précédent.

    Toute l’actualité

    / #EDF, #Forfaits-jours, #Condition_de_travail, Risques psychosociaux - RPS , #Emploi_et_Salaires, #Emploi

    #Toute_l'actualité #Risques_psychosociaux_-_RPS_

    Yann Hammar @yann
    Écrire un commentaire

  • @yann
    Yann Hammar @yann 3/04/2017

    « Forfait jour » et « Organisation du travail » - Conditions de travail : un avis de recherche est lancé
    ▻http://www.force-ouvriere.fr/forfait-jour-et-organisation-du-travail-conditions-de-travail-un

    « Forfait jour » et « Organisation du travail » : les deux accords signés en 2016 devaient, d’après la direction, améliorer les conditions de travail.Un an plus tard, FO Energie et Mines fait le constat d’un échec sans précédent.

    Toute l’actualité

    / #EDF, #Forfaits-jours, #Condition_de_travail, Risques psychosociaux - RPS , #Emploi_et_Salaires, #Emploi

    #Toute_l'actualité #Risques_psychosociaux_-_RPS_

    Yann Hammar @yann
    Écrire un commentaire

  • @monolecte
    Agnès Maillard @monolecte CC BY-NC-SA 15/01/2017
    1
    @7h37
    1

    LES RISQUES DU TRAVAIL, CONFÉRENCE D’ANNIE THÉBAUD MONY
    ▻https://vimeo.com/164882116


    Conférence organisée par l’Université Populaire de Toulouse - 18 avril 2016
    #Annie_Thébaud-Mony est sociologue spécialiste de la santé du travail, INSERM, GISCOP 93

    1ere partie-"Pour la santé des travailleurs et non pas la santé du travail"
    2eme partie-"L’asservissement de la science aux intérêts des industriels"
    3eme partie-"Dans l’histoire des victimes de l’amiante rien n’a été octroyé sans luttes et rien n’est définitivement acquis"

    #université_populaire_toulouse #risques_industriels #amiante #maladies_professionnelles
    ▻http://www.mediacoop.fr/rubrique/enquetes/les-risques-du-travail-conference-dannie-thebaud-mony
    source : ►http://alternatives-projetsminiers.org

    ▻https://seenthis.net/messages/560741 via Vanderling

    Agnès Maillard @monolecte CC BY-NC-SA
    Écrire un commentaire

  • @mediapart
    Mediapart @mediapart 29/01/2016

    La société #SAFT est condamnée pour mise en danger de ses salariés
    ▻https://www.mediapart.fr/journal/economie/290116/la-societe-saft-est-condamnee-pour-mise-en-danger-de-ses-salaries

    Plus de soixante-dix ouvriers de l’usine Saft-Nersac, en Charente, poursuivaient le leader mondial des batteries pour « mise en danger de la vie d’autrui ». Pendant des années, ils ont été exposés au #cadmium, qui a déjà tué l’un d’entre eux. La victoire est amère : le groupe devra s’acquitter d’une amende de... 10 000 euros.

    #Economie #Justice #maladies_professionnelles #risques_du_travail

    Mediapart @mediapart
    Écrire un commentaire

  • @mediapart
    Mediapart @mediapart 21/01/2016

    Heureux comme un patron au #Travail, chiche ?
    ▻https://www.mediapart.fr/journal/france/210116/heureux-comme-un-patron-au-travail-chiche

    Le ministre Macron pleure soudain la « dure vie » des entrepreneurs, « bien plus dure que celle des salariés ». Le sociologue Marc Loriol revient pour Mediapart sur la manière dont le travail peut rendre heureux et comment, a contrario, la souffrance s’installe. « Le #bonheur au travail monte avec l’échelle sociale », dit-il.

    #France #risques_psychosociaux #société

    Mediapart @mediapart
    Écrire un commentaire

Thèmes liés

  • #emploi_et_salaires
  • #condition_de_travail
  • #edf
  • #conditions_de_travail
  • #maladies_professionnelles
  • #forfaits-jours
  • #smartphone
  • #risques_psychosociaux_-_rps_
  • #emploi
  • #surveillance
  • #risques_industriels
  • #toute_l'actualité
  • #réseaux_sociaux