Facebook détecte notre classe sociale. Et déclenche la lutte (algorithmique) finale

/facebook-detecte-notre-classe-sociale-e

  • Facebook détecte notre classe sociale. Et déclenche la lutte (algorithmique) finale _ 23 Fév 2018 - Olivier Ertzscheid

    “Les spécifications sociales pour l’automatisation se sont basées sur l’épuisement et l’usure des bénéficiaires, sur des postulats de classes et de races qui ont été encodées en métriques de performances.”
    https://www.investigaction.net/fr/facebook-detecte-notre-classe-sociale-et-declenche-la-lutte-algorith
    http://affordance.typepad.com//mon_weblog/2018/02/cest-la-lutte-algorithmique-finale-.html
     
     . . . . . . . . . . . . .

    A lire tout cela on se souvient bien sûr de Lawrence Lessig et de son Code Is Law. De l’importance qu’il soulignait déjà en 1999 de former les ingénieurs et les développeurs à des questions juridiques, éthiques, philosophiques ; à ce qu’il racontait sur le fait que les programmes transmettaient avant tout des chaînes de valeurs, et que ces valeurs n’étaient pas uniquement des “variables” mais bien des postures et des postulats relevant de la morale. Une thèse reprise et développée par Virginia Eubanks :
     
    “Quand on parle de technologies, on évoque toujours leurs qualités. Leurs promoteurs parlent de technologies disruptives, arguant combien elles secouent les relations de pouvoirs instituées, produisant une gouvernementalité plus transparente, plus responsable, plus efficace, et intrinsèquement plus démocratique.”  Mais c’est oublier combien ces outils sont intégrés dans de vieux systèmes de pouvoirs et de privilèges.”

    La métaphore de l’hospice numérique qu’elle utilise permet de résister à l’effacement du contexte historique, à la neutralité, que la technologie aimerait produire. L’hospice numérique produit les mêmes conséquences que les institutions de surveillance passées : elle limite le nombre de bénéficiaires des aides, entrave leur mobilité, sépare les familles, diminue les droits politiques, transforme les pauvres en sujets d’expérience, criminalise, construit des suspects et des classifications morales, créé une distance avec les autres classes sociales, reproduit les hiérarchies racistes et ségrégationnistes… Sa seule différence avec les institutions d’antan est de ne plus produire de l’enfermement physique. Certainement parce que l’enfermement dans les institutions de surveillance a pu produire des solidarités qui ont permis de les combattre … Les outils numériques produisent non seulement de la discrimination, mais aussi de l’isolement entre ceux qui partagent pourtant les mêmes souffrances.

    (…) Les problèmes sont toujours interprétés comme relevant de la faute du demandeur, jamais de l’Etat ou du prestataire. La présomption d’infaillibilité des systèmes déplace toujours la responsabilité vers l’élément humain. Elle renforce le sentiment que ces systèmes fonctionnent et que ceux qui échouent dans ces systèmes sont ingérables ou criminels. 

    Ces modèles distinguent les pauvres parmi les pauvres. La classe moyenne ne tolérerait pas qu’on applique des outils de ce type sur elle. Ils sont déployés à l’encontre de ceux qui n’ont pas le choix.”
     
    Briseurs de grève et d’égalité
     Ces systèmes, en effet, sont déployés “à l’encontre de ceux qui n’ont pas le choix“. * Et chacun en est aujourd’hui la victime dans la trivialité du moindre de ses comportements connectés ou en tout cas observables sous le radar d’une connectivité ambiante et d’une surveillance idoine. Les plus pauvres bien sûr, mais toute la “classe moyenne” également. “Ceux qui n’ont pas le choix” _ ont désormais celui de faire confiance à des “modules de prédiction” qui choisissent à leur place et qui intègrent différents “briseurs d’égalité” (tiebreaker) comme les vieux systèmes capitalistes, dès l’invention du Fordisme, nourrissaient en leur sein des briseurs de grève. 

     . . . . . . . . . . . . .

    https://seenthis.net/messages/671687 via BCE 106,6 Mhz