• La Cnil s’inquiète d’un possible transfert de nos données de santé aux Etats-Unis
    https://www.mediapart.fr/journal/france/080520/la-cnil-s-inquiete-d-un-possible-transfert-de-nos-donnees-de-sante-aux-eta

    Au nom de l’état d’urgence, le gouvernement a accéléré la mise en place du Health Data Hub, une plateforme devant centraliser la quasi-totalité de nos données de santé. Dans un avis, la Cnil relève, notamment, que le contrat « mentionne l’existence de transferts de données en dehors de l’Union européenne ». La directrice du projet, Stéphanie Combes, dément.

    Tandis que tous les yeux sont rivés sur les débats autour de l’application #StopCovid et du dispositif de fichage envisagé dans le cadre des enquêtes épidémiologiques de suivi des personnes infectées, le gouvernement a autorisé, au nom de l’état d’urgence sanitaire, le déploiement anticipé du Health Data Hub, la plateforme devant centraliser l’ensemble de nos données de santé, hébergées par #Microsoft et, s’inquiète la Commission nationale de l’informatique et des libertés (#Cnil), potentiellement transférables aux États-Unis.

    Alors que le projet était encore en cours de déploiement, et que tous les textes d’applications ne sont pas encore prêts, le gouvernement a pris le 21 avril dernier, au nom de l’état d’urgence sanitaire, un arrêté modifiant celui du 23 mars sur l’organisation du système de santé durant l’épidémie. Il autorise le Health Data Hub, ainsi que la Caisse nationale de l’assurance-maladie (Cnam), à collecter, « aux seules fins de faciliter l’utilisation des données de santé pour les besoins de la gestion de l’urgence sanitaire et de l’amélioration des connaissances sur le virus Covid-19 », un nombre considérable de données.

    Seront ainsi intégrées à la plateforme les données du Système national des données de santé (SNDS) qui regroupe lui-même les principales bases de données de santé publique, les « données de pharmacie », les « données de prise en charge en ville telles que des diagnostics ou des données déclaratives de symptômes issues d’applications mobiles de santé et d’outils de télésuivi, télésurveillance ou télémédecine », les données des laboratoires, celles des services d’urgence, « des enquêtes réalisées auprès des personnes pour évaluer leur vécu » ou encore celles issues du pourtant contesté SI-VIC, le système de suivi des victimes lors de catastrophes sanitaires qui, au mois d’avril dernier, avait été utilisé pour ficher des gilets jaunes.

    Le Health Data Hub récupérera aussi des données issues des enquêtes épidémiologiques instaurées par la loi de prolongation de l’état d’urgence sanitaire, dont celles du Système d’information national de dépistage populationnel (SIDEP), un fichier spécialement créé pour centraliser les résultats d’analyses des laboratoires. Comme l’explique un document du ministère de la santé que Mediapart a pu consulter, l’un des buts du SIDEP sera en effet de « permettre un réutilisation des données homogènes et de qualité pour la recherche ». « Dans le cadre du Health Data Hub », cette réutilisation se fera « avec un chaînage avec les autres données du SNDS ».

    Ce fichier « va aider à l’identification des cas car il permet d’avoir une visibilité sur les nombreux cas de contamination testés en dehors de l’hôpital », explique à Mediapart la directrice du Health Data Hub Stéphanie Combes. « Les données seront pseudonymisées », assure-t-elle.

    Autre ajout au Health Data Hub, l’arrêté prévoit une « remontée hebdomadaire » des données du programme de médicalisation des systèmes d’information (PMSI), qui comptabilise les actes médicaux facturés par les hôpitaux dans un but de gestion économique et administrative des établissements. « C’est essentiellement un fichier économique et qui peut avoir ses limites en fonction des usages, détaille Stéphanie Combes. Mais il comporte beaucoup d’informations intéressantes. Il comprend des codes qui permettent de déterminer chaque acte médical, et donc par exemple de savoir si le patient a été en réanimation. Croisées aux données de l’Assurance-maladie, elles permettront par exemple d’évaluer la comorbidité ou les facteurs de risque. »

    À quoi servira une telle concentration de données ? « Les outils numériques peuvent être une aide à la gestion de cette crise sanitaire », assure Stéphanie Combes, qui donne quelques exemples. « Il y a tout d’abord des outils d’aide à la modélisation de l’évolution de l’épidémie, en analysant notamment les passages aux urgences. On pourra également plus facilement évaluer l’efficacité des traitements grâce à ce qu’on appelle des “essais virtuels”, les “données de vie réelle” qui, croisées avec les données pathologiques, permettront de comprendre dans quels cas le virus se développe et donc de mieux suivre les patients à risque. Même si pour l’instant il est un peu trop tôt, on pourra analyser les parcours de soin des personnes ayant été contaminées. Enfin, à plus long terme, ces données permettront d’étudier les conséquences plus générales de cette crise, au-delà du virus lui-même. Je pense par exemple aux conséquences du confinement sur notre système de santé qui a entraîné le report de nombreux actes médicaux. On pourra mieux prévoir et organiser la reprogrammation de ces actes. »

    Pourtant, la publication de cet arrêté accélérant la mise en place du Health Data Hub n’est pas du goût de tout le monde. Lancé au printemps 2018 par Emmanuel Macron dans la foulée du rapport Villani sur l’intelligence artificielle, ce projet est en effet vivement contesté en raison des craintes relatives à la protection de la vie privée des usagers et faisait actuellement l’objet de discussions visant à apaiser les tensions.

    Le Health Data Hub avait été acté par la loi santé du 24 juillet 2019. Son but est de remplacer l’actuel SNDS qui centralise déjà les principaux fichiers de santé, dont celui de l’Assurance-maladie, tout en élargissant considérablement sa portée. À terme, toute donnée collectée dans le cadre d’un acte remboursé par l’Assurance-maladie sera centralisée dans le Health Data Hub, des données des hôpitaux à celles du dossier médical partagé ou celles des logiciels professionnels utilisés par les médecins et les pharmaciens.

    Cette concentration sans précédent de données de santé avait suscité immédiatement de vives inquiétudes, notamment de la Commission nationale de l’informatique et des libertés (Cnil). Dans un avis rendu sur la loi santé, elle soulignait qu’« au-delà d’un simple élargissement, cette évolution change la dimension même du SNDS, qui viserait à contenir ainsi l’ensemble des données médicales donnant lieu à remboursement ». La commission appelait « dès maintenant l’attention sur la problématique majeure du respect, en pratique, des principes de limitation des finalités et de minimisation des données par ces nouveaux traitements, évoluant dans un contexte d’accumulation de données pour alimenter les algorithmes d’intelligence artificielle ».

    De plus, le Health Data Hub est géré par un groupement d’intérêt public (GIP) chargé d’administrer l’ouverture des données à des acteurs extérieurs. Or, comme le soulignait la Cnil, la loi santé a également modifié les textes régissant ces accès afin de permettre leur utilisation par des acteurs privés. Jusqu’alors, les données personnelles de santé ne pouvaient être soumises à un traitement informatique que dans le cadre de « l’accomplissement des missions des services de l’État » ou « à des fins de recherche, d’étude ou d’évaluation » et « répondant à un motif d’intérêt public ». La loi santé a fait disparaître toute référence à une finalité scientifique pour ne conserver que le « motif d’intérêt public ».

    Enfin, et sans doute s’agit-il du point le plus bloquant, l’ensemble de ces données sera hébergé par le géant américain Microsoft.

    Comme le racontait Mediapart, ce projet était confronté à une fronde de plusieurs acteurs du monde médical. Les hôpitaux, notamment, possèdent déjà leurs propres bases de données, stockées dans des « entrepôts », qu’ils exploitent déjà par eux-mêmes. Beaucoup acceptent mal cette obligation de transférer, sans contrepartie, ce véritable patrimoine numérique, qui plus est pour que celui-ci soit centralisé à l’extrême et confié à un acteur soumis à la loi américaine qui peut, en théorie, le contraindre à offrir un accès à ces données aux autorités. Ces craintes avaient été notamment exprimées dans un courrier envoyé par le directeur de l’AP-HP Martin Hirsch au ministère de la santé et que Mediapart avait pu consulter.

    De plus, l’attribution de l’hébergement à Microsoft s’était faite sans appel d’offres, provoquant ainsi la colère d’autres acteurs du numérique français. Au mois de mars dernier, plusieurs d’entre eux avaient écrit au ministère de la santé pour dénoncer un délit de « favoritisme » et demander l’ouverture d’une enquête.

    Dans ce contexte particulièrement tendu, le déploiement du Health Data Hub devait se faire de manière progressive. La loi santé ne faisait que fixer les grands principes de la plateforme. De nombreux points, notamment son architecture, devaient être tranchés en collaboration avec la Cnil et l’Agence nationale de sécurité des systèmes d’informations (Anssi) avant de faire l’objet d’un décret qui n’a toujours pas été pris. Interrogé par Mediapart au mois de novembre, Thomas Dautieu, directeur de la conformité à la Cnil, se voulait pourtant rassurant. « La sécurité informatique est un sujet dont l’importance est bien prise en compte, nous expliquait-il. Nous avons des échanges réguliers et nous travaillons avec le ministère et avec l’Anssi sur ces questions. Il y a également la question des droits des personnes. C’est un aspect important. Nous avions demandé que les missions de la future plateforme incluent la protection des droits des patients, ce qui a été accepté. »

    Stéphanie Combes renvoie à « la page 11 du contrat »

    La mise en place accélérée du Health Data Hub est donc vue par beaucoup comme un passage en force. Et du côté de la Cnil, le ton s’est visiblement durci. Jeudi 23 avril, la commission a rendu un avis pointant de nombreuses inquiétudes, et dévoilant au passage quelques nouvelles informations sur le projet.

    La plus importante est sans doute que, contrairement à ce qui était jusqu’alors affirmé, des données confiées à Microsoft pourront bien être transférées aux États-Unis dans certains cas. Jusqu’à présent, les données devaient être stockées dans des serveurs gérés par le géant américain, mais localisés dans l’Union européenne. Selon la Cnil, qui a pu consulter le contrat liant le Health Data Hub à Microsoft, celui-ci prévoit bien une localisation par défaut des données au sein de l’UE. En revanche, « cette localisation ne s’applique qu’aux données “au repos”, alors même que le contrat mentionne l’existence de transferts de données en dehors de l’Union européenne dans le cadre du fonctionnement courant de la plateforme, notamment pour les opérations de maintenance ou de résolution d’incident ».

    La Cnil poursuit en soulignant que la législation américaine permet aux autorités de contraindre les entreprises à leur fournir leurs données. Elle rappelle « les inquiétudes […] concernant l’accès par les autorités des États-Unis aux données transférées aux États-Unis, plus particulièrement la collecte et l’accès aux données personnelles à des fins de sécurité nationale », notamment dans le cadre de la loi FISA. Elle rappelle que cette question fait d’ailleurs l’objet actuellement d’une procédure « soumises à la Cour de justice de l’Union européenne » et qu’« un arrêt de la Cour dans cette affaire est attendu dans les mois qui viennent ».

    Interrogée sur ce point, Stéphanie Combes dément pourtant les affirmations de la Cnil. « Nous ne sommes pas alignés sur cette phrase de l’avis. Le contrat prévoit en effet que des données peuvent être transférées par l’hébergeur dans certains cas, sauf indication contraire. Or, nous avons bien spécifié que les données ne devaient pas sortir du territoire français », explique-t-elle. La Cnil aurait-elle alors mal lu le contrat ? « Je ne dis pas ça. Mais je trouve que les faits sont un peu détournés. En tout cas, nous avons bien indiqué que les données ne pourront pas être transférées. Je peux même vous dire que c’est à la page 11 du contrat. »

    Peut-être encore plus inquiétant, la Cnil affirme que, même si les données stockées seront bien chiffrées « avec des algorithmes à l’état de l’art à partir de clés générées par les responsables de la plateforme sur un boîtier chiffrant maîtrisé par la plateforme des données de santé », les clefs de déchiffrement seront envoyées à Microsoft. « Elles seront conservées par l’hébergeur au sein d’un boîtier chiffrant, ce qui a pour conséquence de permettre techniquement à ce dernier d’accéder aux données », pointe l’avis de la commission.

    Elle s’inquiète également d’un manque d’encadrement des procédures d’accès des administrateurs de la plateforme. Dans l’étude d’impact du projet, « une fonctionnalité d’autorisation préalable des accès administrateurs » était bien prévue. Mais « la Commission relève que cette fonctionnalité ne semble pas mentionnée dans les contrats fournis. En outre, la Commission s’interroge sur l’effectivité de cette mesure qui ne semble pas couvrir la totalité des accès possibles ».

    Sur ce point, Stéphanie Combes explique qu’en effet les clefs de chiffrements des données seront générées par un « HSM » (Hardware Security Module), un « coffre-fort numérique » et envoyées à la plateforme ainsi qu’à Microsoft. Mais ces clefs « sont utilisées de manière automatique sans intervention humaine ».

    Concernant les accès des administrateurs, la directrice du Health Data Hub explique « qu’il peut y avoir un accès des administrateurs à certaines conditions. Mais pas n’importe lesquelles. Nous contrôlons ces accès et nous nous sommes engagés à refuser toute demande qui ne serait pas légitime. Nous avons totalement sécurisé cet aspect-là », assure-t-elle.

    La Commission remet en cause un autre engagement du Health Data Hub : les données mises à la disposition des porteurs de projets ne devaient pouvoir être utilisées qu’au sein de la plateforme, sans pouvoir les exporter. Si ce principe est maintenu, la Cnil s’interroge désormais dans son avis « sur l’effectivité du blocage de toute possibilité d’exportation » et semble indiquer que celle-ci sera en réalité possible dans certains cas. « En conséquence la Commission appelle le ministère à indiquer explicitement que toutes les fonctionnalités d’exportation des données seront totalement désactivées et inaccessibles aux utilisateurs », recommande l’avis.

    Sur ce point également, Stéphanie Combes dément. « Dans la plateforme, des contrôles tant techniques qu’organisationnels ont été mis en place pour garantir l’impossibilité d’exporter des données brutes. Seuls les résultats des recherches peuvent être exportés après contrôles. Je n’explique pas pourquoi la Cnil exprime des doutes à ce sujet car ce fonctionnement a été présenté dans nos séances de travaux communs et semblait leur convenir », explique-t-elle.

    La directrice du Health Data Hub et la commission sont en revanche d’accord sur un point : la durée de conservation des données. Dans son avis, la Cnil pointe en effet que « le projet ne mentionne pas de durée de conservation précise, s’agissant des données contenues dans l’entrepôt ». Elle « en déduit que les données ne devront être conservées dans celui-ci que pour la durée de l’état d’urgence sanitaire ». Elle précise cependant que celles-ci pourraient être conservées si le décret d’application de la loi santé à venir le prévoit. À condition que celui-ci soit pris avant la fin de l’état d’urgence. La Cnil « considère […] que dans l’hypothèse où l’adoption du cadre juridique de droit commun applicable à la plateforme des données n’aurait pu être finalisé à l’issue de l’état d’urgence sanitaire, l’ensemble des données collectées pendant cette période devra être détruit », indique l’avis.

    « En effet, les données ne sont censées être stockées que durant la période de l’état d’urgence sanitaire, acquiesce Stéphanie Combes. À sa fin, elles devront être détruites, sauf si un autre texte prévoit cette conservation lors de la mise en place finale du Health Data Hub. »

    « On a l’impression que le big data est une réponse magique »

    Sur la forme, la Cnil ne cache pas son étonnement de voir le gouvernement accélérer à ce point la mise en place du Health Data Hub, quitte à donner l’impression d’un passage en force. En effet, non seulement le projet ne dispose pas encore de cadre juridique et technique, mais il faisait en outre actuellement l’objet d’« un plan d’action conséquent de mise en œuvre de mesures de sécurité s’étalant sur une période de plusieurs mois ». « La Commission s’interroge donc sur les conditions de démarrage anticipé de la solution technique dans un contexte où la plateforme de données de santé a dû accomplir en quelques semaines des opérations, dont certaines structurantes, pour garantir la sécurité des données traitées, étaient prévues pour s’étaler sur plusieurs mois », souligne l’avis.

    « Nous avions prévu de mettre en production au début du mois de juin. L’arrêté a été pris fin avril. Cela ne fait que quelques semaines d’avance, plaide Stéphanie Combes. De plus, nous continuons à travailler avec la Commission. Ils étaient d’ailleurs présents à notre dernière réunion d’homologation. Les échanges ne sont pas du tout rompus. Nous allons leur montrer ce que nous avons mis en place. »

    Mais était-il vraiment nécessaire d’utiliser l’état d’urgence pour faire avancer le projet ? « Nous attendons toujours le décret qui va inscrire le Health Data Hub dans notre système santé, répond Stéphanie Combes. Il doit fixer notamment son catalogue, la liste des bases de données qui seront partageables. Pour être totalement transparente, je peux vous dire qu’actuellement, le Health Data Hub ne contient que les données de la base OSCOUR de Santé publique France qui enregistre les passages aux urgences. De plus, les projets qui nous sont présentés doivent respecter toutes les procédures. Il ne peut y avoir d’accès sans cadre clair. C’est pour cela que nous avions besoin d’un texte en attendant que ce décret soit pris. »

    Il n’en reste pas moins que le gouvernement va devoir composer avec les vives résistances que suscite ce projet et que cet arrêté et l’avis de la Cnil ont ravivées. Dès le 10 décembre, une tribune publiée dans Le Monde et signée par plus d’une centaine de personnes, dont de nombreux professionnels de la santé, appelait à « garder la main sur les technologies employées » et à « empêcher la privatisation de la santé » en favorisant des solutions alternatives comme le « partage d’algorithmes et de logiciels transparents et utiles aux patients ».

    Depuis la publication de l’arrêté, le collectif Interhop, composé de professionnels du secteur de la santé et de l’informatique médicale, a publié un nouvel appel. « Contrairement à l’avis de nombreux acteurs – Commission national informatique et des libertés, Ordre national des médecins, Conseil national des barreaux, hôpitaux –, le gouvernement français s’appuie sur le géant américain Microsoft pour stocker l’ensemble des données de santé, affirme-t-il. Nous appelons à la constitution d’un écosystème universitaire, médiatique, juridique, associatif et politique pour réaffirmer les valeurs d’autonomie et des “communs” et, pour faire naître un large débat de société. »

    Les informations de la Cnil selon lesquelles les données pourraient être transférées aux États-Unis par Microsoft, qui, de plus, disposerait des clefs permettant de déchiffrer les données, peuvent, si elles sont avérées, avoir un effet dévastateur sur le projet comme en témoigne cet appel, lancé par un médecin marseillais.

    https://youtu.be/Qbq3JlX29rM

    « Je me souviens que, très tôt, des responsables du Health Data Hub étaient venus nous présenter le projet au CNRS et la question de Microsoft avait été l’une des premières posées », se rappelle Catherine Bourgain, chercheuse en génétique humaine et sociologie des sciences à l’Institut national de la santé et de la recherche médicale (Inserm).

    « Ce projet suscite beaucoup d’oppositions et de freins, poursuit la chercheuse. Les hôpitaux et les chercheurs trouvent exorbitant qu’on leur demande de transférer des données qu’ils ont collectées. J’ai par exemple un collègue de l’Inserm qui est responsable d’une grosse cohorte avec qui je discutais de ce sujet et qui me disait qu’il ne transférerait pas ses données en m’expliquant : “Si nous transférons nos données, c’est également la responsabilité liée à ces données que nous transférons.” Quand un chercheur récolte des données, il y a un contrat moral, et parfois même un contrat tout court, entre lui et la personne qu’il interroge. S’il perd la main sur ses données, comment pourrait-il savoir l’usage qui en sera fait ? »

    Et les autorités auraient tort de sous-estimer le poids de ces résistances, estime Catherine Bourgain : « Il y a le texte et il y a ce qu’en font les acteurs. Penser qu’un arrêté peut changer les pratiques du monde médical, c’est ignorer à quel point celui-ci est structuré par des élites, voire des baronnies, locales ou thématiques, avec une culture très forte de l’opposition. C’est un corps qui ne se laisse pas facilement dicter ce qu’il doit faire. »

    La chercheuse, elle-même, est sceptique sur l’utilité réelle du Health Data Hub. « Il y a une sorte de croyance dans les capacités des traitements algorithmiques, estime-t-elle. Le pari, c’est qu’on va pouvoir croiser des données avec un niveau de quantité très important, même si elles ne sont pas de bonne qualité, pour obtenir quelque chose. Mais beaucoup de spécialistes sont très sceptiques sur cette approche. On a l’impression que le big data est une réponse magique à tous les problèmes, permettant de compenser la qualité par la quantité. Mais cela relève surtout d’un rapport à la construction du savoir très déplacé car ne prenant pas en compte la valeur individuelle des données. »

    Stéphanie Combes, de son côté, reste optimiste. « Les gens du collectif Interhop ne représentent pas tout le monde hospitalier, attaque-t-elle. J’ai encore eu aujourd’hui des réunions avec les initiateurs de trois projets portés par des établissements hospitaliers de l’Est et du Grand-Ouest. Le Health Data Hub ne va pas remplacer les initiatives locales. Nous sommes là pour les favoriser, les aider notamment financièrement en leur proposant des partenariats, car nous avons des financements prévus pour cela. Je suis certaine que les premiers projets vont servir d’exemple et vont réussir à convaincre les autres de suivre. »

    Contactée par Mediapart, la Cnil n’a pas souhaité répondre à nos questions. Mais elle précise qu’elle reviendra « très prochainement » sur le sujet. Selon nos informations, un avis non sollicité par le gouvernement et ne concernant pas le décret doit être adopté jeudi prochain. Parallèlement, Stéphanie Combes sera auditionnée le même jour par la Commission. L’occasion de dissiper les malentendus ou de mettre les points sur les « i ».

    #santé #données_personnelles #big_data #big_pognon #épidémie #traçage

    https://seenthis.net/messages/851610 via EricW


  • Que penser du protocole de traçage des GAFAM ?
    https://www.laquadrature.net/2020/04/29/que-penser-du-protocole-de-tracage-des-gafam

    .spacemargin-bottom : 1em ; Tribune de Guinness, doctorante en informatique et membre de La Quadrature du Net À l’heure où toutes les puissances de la planète se mettent à réfléchir à des solutions de traçage de contact (contact tracing),…

    #Données_personnelles #Surveillance

    https://seenthis.net/messages/848999 via La Quadrature du Net


  • Le gouvernement veut créer un #fichier pour les malades du coronavirus

    Le projet de loi du gouvernement prévoit la création d’un fichier spécifique rassemblant les noms des #malades du #Covid-19 ainsi que de leurs contacts. Et ce « sans le consentement » des personnes concernées.

    Comment assurer le #suivi des malades du Covid-19 et des personnes qu’ils ont croisées ? C’est pour répondre à cette question que le gouvernement entend créer un nouveau fichier, prévu par le projet de loi prorogeant l’#état_d’urgence_sanitaire, qui devrait être examiné par les parlementaires les 4 et 5 mai.

    L’article 6 du texte prévoit en effet que soient rassemblées dans un même fichier toutes les informations susceptibles d’aider à la reconstitution, par des « #brigades » d’#enquêteurs_épidémiologiques, des #relations de chacun. Le fichier, non anonyme, devrait ainsi contenir l’#identité des malades et les résultats de leurs #examens_biologiques, mais aussi plus largement la liste des personnes croisées au cours des derniers jours – car « présentant un #risque_d’infection » -, leur #adresse et leurs #déplacements. Et ce afin d’opérer, peut-on lire dans le texte du gouvernement une « #surveillance_épidémiologique aux niveaux national et local ».

    Plusieurs administrations auront accès aux données

    Le nouveau fichier, qui n’a aucun lien avec l’application de #traçage #StopCovid, dont Olivier #Véran a annoncé qu’elle ne serait pas prête le 11 mai, abritera ces #informations, d’abord collectées par le #médecin_traitant puis par les « brigades » de l’#Assurance_maladie. Des #données_personnelles extrêmement sensibles qui seront ensuite mises à la disposition non seulement des professionnels de santé en charge du suivi des personnes malades, mais aussi de plusieurs administrations comme le #ministère_de_la_santé, le service de santé des #armées, l’Assurance maladie et les #Agences_régionales_de_santé.

    Le dossier est d’autant plus sensible que les données dont il est question sont en partie couvertes par le #secret_médical. « Comme lorsque nous consultons un confrère à propos d’un patient ou lorsque nous envoyons à l’Assurance maladie les motifs médicaux d’arrêt de travail, nous serons dans le cadre d’un #secret_médical_partagé », assure le docteur Jacques Battistoni, président du premier syndicat de médecins généralistes, #MGFrance. Les #généralistes seront chargés de collecter les premières informations sur le « #premier_cercle » fréquenté par un malade dans le fichier. Ils ont d’ailleurs reçu un courrier en ce sens, jeudi 30 avril, signé par Nicolas Revel, le patron de l’Assurance maladie.

    « Je comprends que ce système puisse impressionner, car il contient des #informations_sensibles et personnelles, mais c’est un moindre mal. Il me semble vraiment indispensable si l’on ne veut pas que l’#épidémie reparte », souligne le docteur Battistoni.

    Une transmission de données « sans le #consentement des personnes »

    Autre question sensible, au cœur de ce nouveau fichier : la #transmission_des_informations qu’il contient sera opérée « sans le consentement des personnes intéressées », peut-on lire dans le projet de loi gouvernemental. Une précision qui inquiète plusieurs observateurs, comme le président de l’#Union_française_pour_une_médecine_libre (#UFML), le docteur Jérôme Marty. « Le consentement est l’un des socles de la médecine. Le fait de ne pas demander le consentement de son patient pour constituer un fichier est sans précédent. La situation d’#urgence ne peut pas tout justifier », alerte-t-il.

    « Imaginez le scandale si nous avions fait ce genre de fichiers pour le sida, poursuit-il. Cela pose un problème #éthique et déontologique important. » Ce praticien réclame l’avis Conseil de l’Ordre sur le sujet, mais aussi celui du Comité national d’éthique, de l’Académie de médecine, de la Cnil et du Conseil constitutionnel.

    « Garde-fous »

    « Que signifie cette absence de consentement ? », interroge quant à lui l’avocat Thierry Vallat. Ce spécialiste des données personnelles estime que des « #garde-fous » devront ainsi être nécessaires. « Il faut définir très précisément qui collectera les informations, la liste des informations précises, qui pourra y avoir accès et surtout pour combien de temps », insiste l’avocat. Sur ce dernier point, le gouvernement prévoit la disparition du fichier « au plus tard » un an après la promulgation de la loi.

    Mais surtout, l’avocat s’inquiète d’éventuelles #fuites de données. « Nous sommes dans un contexte exceptionnel où les services de l’État agissent très rapidement, et risquent de ne pas avoir le temps de sécuriser ce nouveau fichier. Or les données de santé font régulièrement l’objet de fuites, et elles sont extrêmement convoitées », estime-t-il.

    Dans l’ensemble, l’architecture de ce nouveau dispositif demeure assez floue. Et pour cause : il devrait ainsi être précisé, après coup, par un #décret d’application. Ce qui permettra de consulter la Cnil sur ce nouveau fichier. Jusqu’à maintenant, la Commission indépendante n’a en effet pas été sollicitée sur ce dossier sensible.

    https://www.la-croix.com/Sciences-et-ethique/Sante/Le-gouvernement-veut-creer-fichier-malades-coronavirus-2020-05-03-12010923
    #coronavirus #France #loi #déontologie
    ping @etraces @isskein

    https://seenthis.net/messages/850324 via CDB_77


  • Where America Didn’t Stay Home Even as the Virus Spread - The New York Times
    https://www.nytimes.com/interactive/2020/04/02/us/coronavirus-social-distancing.html
    https://static01.nyt.com/images/2020/04/02/us/virus-distancing-promo/virus-distancing-promo-facebookJumbo-v4.png

    In areas where public officials have resisted or delayed stay-at-home orders, people changed their habits far less. Though travel distances in those places have fallen drastically, last week they were still typically more than three times those in areas that had imposed lockdown orders, the analysis shows.

    #cartographie #données_téléphoniques (agrégées !)

    https://seenthis.net/messages/837817 via Fil


  • Coronavirus : à quel point le système hospitalier est-il sous pression ? Quelle est sa capacité totale ? Et à quel point cette capacité a-t-elle diminué ces dernières années ?

    Dans les figures certains de mes calculs à l’échelle provinciale et de #bassin_hospitalier (voir les notes).

    Le message est assez clair :
    1. dans les zones les plus touchées, la situation est largement au-delà de la capacité « ordinaire » de gestion par le service national de santé. Heureusement, ces zones sont les plus capables de supporter l’impact (et ce n’est pas un hasard : elles sont parmi les zones les plus « riches les plus interconnectées avec d’autres régions et pays, plus denses de population et activités, et donc plus exposées au danger de contagion). L ’ un des principaux mérites des mesures d’isolement et d’avoir empêché (pour l’instant) que la contagion se répande dans les zones les moins capables.

    2. Le système hospitalier est à peu près partout inadéquat pour gérer une urgence terrible et imprévisible comme celle-ci, notamment en raison de politiques de réduction des dépenses, de réduction du personnel et de réduction des capacités hospitaliers qui se poursuivent depuis plusieurs décennies : le nombre de lits pour le traitement des cas aigus » pour 1.000 habitants était de 10 en 1977, 8 en 1985, 6 en 1995 en 1995, 4 en 2001 , 3 en 2010 et est aujourd’hui d’environ 2,5 (données OCDE). La réduction des lits est également due à la réduction du temps de séjour et du recours à l’hospitalisation, mais elle est liée à la réduction du personnel médical et para-médical. Le nombre de lits équipés pour les soins intensifs est à peu près partout très bas.
    Que la crise soit l’occasion de réfléchir aux raisons qui nous ont amenés jusqu’ici et à ce qu’il faut faire pour éviter que cette situation ne se reproduise lorsque, tôt ou tard, la prochaine pandémie éclate.

    https://i.imgur.com/Vt7n3O7.jpg
    https://i.imgur.com/IoYk2He.jpg
    https://i.imgur.com/VR8qUpg.jpg
    https://i.imgur.com/VXpBrAl.jpg
    https://i.imgur.com/WSlxxnV.jpg
    https://i.imgur.com/ATqXQqO.jpg

    Les suggestions et les critiques sont les bienvenues.

    Je remercie infiniment Gianluigi Salvucci de m’avoir aidé à localiser les hôpitaux et Lorenzo Lev Paglione pour les suggestions utiles sur quoi (ne) carte.

    Notes :
    – les indicateurs sont calculés en additionnant les valeurs par zone avec celles de toutes les zones contiguës afin de « spacialiser » la variable étant donné que toute hospitalisation ne doit pas nécessairement se faire dans les hôpitaux les plus proches des lieux de résidence.
    – on considère le total des cas de contagion avant les guéris, car c’est la seule donnée disponible au niveau provincial (que je sache).
    – les données officielles sur les cas constatées peuvent, comme vous le savez, sous-estimer considérablement le nombre effectif de contaminés et être déformé par les différentes manières avec lesquelles les régions et territoires sont en train de gérer l’épidémie.
    – le rapport entre les cas de Covid-19 et les lits n’est pas un indicateur du niveau de saturation effectif des hôpitaux, mais une proxy du degré global de pression sur le système hospitalier, tant en termes de gestion de la pandémie que de D ’ autres maladies " ordinaires
    – les bassins hospitaliers ont été construits par diagramme de Voronoi à partir de la localisation de chaque établissement hospitalier qui abrite un service de soins intensifs. Les bassins contigus plus petits de 500 km2 ont été agrégés aux bassins contigus.
    – les données pourraient être inexactes en raison d’erreurs lors de l’imputation et de traitement. La photographie globale est cependant valable, peut-être pas dans les valeurs exactes des indicateurs, mais dans leur répartition territoriale.
    – Source des données : Protection civile, Ministère de la santé, Istat (http://opendatadpc.maps.arcgis.com/apps/opsdashboard/index.html#/b0c68bce2cce478eaac82fe38d4138b1, http://www.dati.salute.gov.it/dati/dettaglioDataset.jsp?menu=dati&idPag=96, http://dati.istat.it/Index.aspx?DataSetCode=DCIS_POPRES1)
    – toute utilisation ou réutilisation des images est autorisée, il suffit de citer la source et de me communiquer comment et finalité. Les données sont à la disposition de tous ceux qui en font la demande.

    https://www.facebook.com/filippo.celata/posts/10219670537745528
    #hôpitaux #système_hospitalier #Italie #système_de_santé #cartographie #visualisation #données #chiffres #statistiques
    De #Filippo_Celata
    ping @simplicissimus @reka @fil

    https://seenthis.net/messages/834832 via CDB_77


  • Confinement : plus d’un million de Franciliens ont quitté la région parisienne en une semaine

    Selon une analyse statistique réalisée par #Orange à partir des données de ses abonnés téléphoniques, 17 % des habitants de la métropole du #Grand_Paris ont quitté la région entre le 13 et le 20 mars.

    https://img.lemde.fr/2020/03/16/0/0/2000/1333/688/0/60/0/63945f2_ORoohbmPOU02Q_TjJXIFAeWo.jpg
    https://www.lemonde.fr/pixels/article/2020/03/26/confinement-plus-d-un-million-de-franciliens-ont-quitte-la-region-parisienne
    #Paris #exode #coronavirus #campagnes #France #migrations #téléphone #données_téléphoniques #smartphone #géolocalisation

    ... et ont contaminé la France entière !
    Si on avait fait des tests de dépistages systématiques on aurait pu voir ça, mais sans test............

    ping @reka @fil @simplicissimus

    et ping @etraces vu la manière dont les données ont été récoltées...

    Des données anonymisées

    L’étude a été réalisée par Orange sur la base des données de géolocalisation des téléphones de ses abonnés. Elles ont été compilées et analysées à destination d’acteurs publics, notamment sanitaires. Elles ont été partagées notamment avec les #préfectures en ayant fait la demande, l’Assistance publique-Hôpitaux de Paris (#AP-HP), le #SAMU et l’Institut national de la santé et de la recherche médicale (#Inserm). Certains résultats de cette étude ont été communiqués au Monde. Certains de ces chiffres ont aussi été évoqués jeudi 26 mars par le PDG d’Orange, Stéphane Richard, sur les ondes d’Europe 1.
    Orange assure transmettre à ses partenaires des #agrégats_statistiques et non des #données_individuelles et « identifiantes ». Ils sont compilés à l’échelle de portions du territoire déterminées par l’Insee, qui représentent environ 50 000 personnes.

    Les données transmises par Orange ne permettent pas de localiser des individus, mais simplement de savoir combien de personnes se trouvent dans cette portion de territoire à une date donnée, et ainsi de pouvoir connaître l’évolution de la population, positive ou négative, sur chacune d’entre elles.

    Orange assure ainsi ne pas avoir procédé à un #recensement précis de la localisation des Français, et n’a de visibilité que sur l’activité de ses 24 millions d’utilisateurs quotidiens de ses réseaux. En se fondant sur le nombre d’entre eux s’étant rendu dans chaque zone, l’opérateur assure être capable, compte tenu de son nombre important de clients et au moyen de redressements statistiques, d’obtenir une évolution représentative et fiable de la population.

    https://seenthis.net/messages/834798 via CDB_77


  • Les personnels et étudiant·e·s de l’Université de Strasbourgs ont-ils mis sous #surveillance ?
    (Communiqué de presse du 20 février 2020)

    Les départements de sûreté intérieure se multiplient dans les #universités, les sociétés de sécurité privées s’établissent sur les #campus, la #surveillance_vidéo se généralise, alors que les franchises universitaires sont régulièrement bafouées par la présence de la #police dans les établissements. L’Université de #Strasbourg, qui s’est singularisée ces dernières années par une anticipation et une application zélée de toutes les réformes, se veut probablement à la pointe des #dispositifs_de_surveillance et d’anticipation des mouvements sociaux. Face à plusieurs dérives qui pourraient remettre en cause nos #libertés_fondamentales, les organisations signataires estiment qu’il est aujourd’hui de leur #responsabilité d’alerter les personnels sur les informations dont elles disposent et sur les démarches qu’elles ont engagées. Dans un courrier du 4 février dernier (à lire et télécharger ICI : https://drive.google.com/file/d/1oLOje91aiU_T1p7VDBMIXSk5oaV4w2eL/view), nos organisations ont interrogé le Président de l’université et le Directeur général des services sur des faits dûment constatés ou méritant d’être vérifiés. Tout d’abord sur des pratiques de la société de #sécurité_privée prestataire de notre établissement. Notre inquiétude portait notamment sur une possible pratique de #fichage d’étudiant·e·s et de #personnels. Nous avons demandé la mise en place de mesures permettant, soit de lever ces suspicions, soit de les confirmer. Nous précisons que si le prestataire de sécurité privée a très récemment changé, les salariés restent, pour beaucoup, les mêmes. Or des comportements similaires ou tout aussi graves, ont été constatés. A titre d’exemple, le jeudi 6 février, plusieurs témoins ont fait état de la présence d’au moins un salarié de la société de sécurité privée aux abords de la manifestation intersyndicale au niveau de la Place de la République. Des étudiant·e·s sont allés à sa rencontre pour savoir s’il était en service, ce qu’il a reconnu avant de justifier sa présence en dehors du campus en disant qu’il avait des ordres. De qui émanaient ces ordres ? Notre courrier s’interrogeait ensuite sur les missions du fonctionnaire-adjoint de sécurité et de défense de notre université, sur la nature des rapports qu’il rédige suite à ses tâches de surveillance des AG ainsi que sur les destinataires de ses rapports. Enfin nous demandions que toute la lumière soit faite sur les décisions et les ordres éventuels qui ont pu mener à de telles dérives, mais aussi sur l’utilisation et le devenir des #données_personnelles collectées par les sociétés de sécurité privées et par le fonctionnaire-adjoint de sécurité et de défense. Le mercredi 12 février, nos organisations ont été destinataires d’un courrier émanant du Directeur Général des Services qui apportait, au nom du président et en son nom propre, des éléments de réponse à nos questions et demandes. Ces réponses, que nous publions avec l’accord des auteurs (à lire ICI : https://drive.google.com/file/d/1TDoB-ln6BX3B8Qm2e1CzcdkK0EnS4ya_/view), nous semblent lacunaires. Nous invitons donc le Président #Michel_Deneken à prendre nos questions avec plus de sérieux et à y répondre publiquement avec précision, afin de rassurer notre communauté de recherche et d’enseignement sur la préservation de nos libertés fondamentales.

    L’intersyndicale de l’Université de Strasbourg,CNT-STP67, DICENSUS, FO-ESR, SNCS-FSU, SNASUB-FSU, SNESUP-FSU, Solidaires Étudiant•e•s Alsace, Sud Éducation Alsace.

    https://fsusupalsace.files.wordpress.com/2020/02/communiquec2b4-intersyndical-sur-la-sec2b4curitec2b4-a
    #vidéosurveillance

    ping @etraces
    #Deneken

    https://seenthis.net/messages/827175 via CDB_77


  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.
    http://icmigrations.fr/wp-content/uploads/2020/01/DSCN8950.jpeg

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

    https://seenthis.net/messages/824691 via CDB_77


  • Invisible Women by Caroline Criado Perez – a world designed for men | Books | The Guardian
    https://www.theguardian.com/books/2019/feb/28/invisible-women-by-caroline-criado-perez-review

    https://static.microcosmpublishing.com/previews/IMG_5365.JPG_lg.jpg

    The problem with feminism is that it’s just too familiar. The attention of a jaded public and neophiliac media may have been aroused by #MeToo, with its connotations of youth, sex and celebrity, but for the most part it has drifted recently towards other forms of prejudice, such as transphobia. Unfortunately for women, though, the hoary old problems of discrimination, violence and unpaid labour are still very much with us. We mistake our fatigue about feminism for the exhaustion of patriarchy. A recent large survey revealed that more than two thirds of men in Britain believe that women now enjoy equal opportunities. When the writer and activist Caroline Criado Perez campaigned to have a female historical figure on the back of sterling banknotes, one man responded: “But women are everywhere now!”

    #féminisme #data_féminisme #données #statistiques

    https://seenthis.net/messages/821034 via Reka


  • Interdire la reconnaissance faciale (2/3) : quelles discriminations notre société est-elle prête à accepter ? | InternetActu.net
    http://www.internetactu.net/2020/01/21/interdire-la-reconnaissance-faciale-23-quelles-discriminations-notre-s

    La reporter Tech du New York Times, Kashmir Hill (@kashhill), vient de publier une longue enquête sur Clearview, une entreprise spécialiste de la surveillance, financée par le multimilliardaire libertarien Peter Thiel – qui est déjà à l’origine de Palantir (Wikipédia), un autre géant de la surveillance qui travaille pour les services de renseignements. On y apprend que Clearview a collecté sur le web 3 milliards de photographies provenant principalement des réseaux sociaux (mais également des (...)

    #Clearview #Palantir #Ring #Amazon #algorithme #carte #smartphone #biométrie #racisme #facial #reconnaissance #sexisme #législation #vidéo-surveillance #iris #bénéfices #BigData #data #DataBrokers #discrimination #données #empreintes #immatriculation (...)

    ##Smartcheckr ##pouls
    /assets/images/logo_ia.png

    https://seenthis.net/messages/822206 via etraces


  • RGPD : « Les Américains considèrent la donnée personnelle comme un simple bien commercialisable »
    https://www.lemonde.fr/idees/article/2020/01/20/rgpd-les-americains-considerent-la-donnee-personnelle-comme-un-simple-bien-c

    L’avocat Alexandre Lazarègue constate, dans une tribune au « Monde », que la loi sur la protection des données adoptée par la Californie, contrairement au RGPD européen, ne permet pas aux citoyens américains de reprendre le contrôle de leurs vies privées. Tribune. Depuis le 1er janvier 2020, le California Consumer Privacy Act (CCPA) régit le droit des données personnelles des Californiens. Initié à la faveur d’un référendum populaire, il répond aux besoins des citoyens américains de se prémunir de (...)

    #Apple #Google #Amazon #Facebook #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #législation #BigData #CCPA #data #datamining #discrimination #données #GAFAM (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##oubli ##surveillance
    https://img.lemde.fr/2020/01/17/1574/0/4400/2200/1440/720/60/0/e34a759_WUuB6hOjCouKjN1-6fyeKryp.jpg

    https://seenthis.net/messages/821852 via etraces


  • Drugmakers Turn to Data Mining to Avoid Expensive, Lengthy Drug Trials - WSJ
    https://www.wsj.com/articles/drugmakers-turn-to-data-mining-to-avoid-expensive-lengthy-drug-trials-115770970

    Drugmakers are trying to win drug approvals by parsing vast data sets of electronic medical records, shifting away from lengthy, and costly, clinical trials in patients. Pfizer Inc., Johnson & Johnson and Amgen Inc. are among the drugmakers that have submitted the data-mining analyses to the U.S. Food and Drug Administration in seeking approval to sell new medicines or for new uses for older ones. The FDA has approved new uses for breast cancer, bladder cancer and leukemia drugs in (...)

    #Johnson_&_Johnson #Amgen #Pfizer #algorithme #prédiction #data #BigData #données #santé

    ##Johnson_&_Johnson ##santé
    https://images.wsj.net/im-138721/social

    https://seenthis.net/messages/821344 via etraces


  • Tinder et Grindr revendent vos données personnelles
    https://usbeketrica.com/article/tinder-et-grindr-revendent-vos-donnees-personnelles

    Une étude d’une ONG norvégienne publiée le 14 janvier montre que les principales applications de rencontre comme Tinder, Grindr ou encore OkCupid partagent avec des annonceurs les données personnelles de leurs utilisateurs. Une pratique qui pourrait bien s’avérer illégale. Quoi de plus privé que son orientation sexuelle ? Pour les applications de rencontre les plus populaires du moment, la question ne mérite apparemment même pas d’être posée. D’après un récent rapport du Norwegian Consumer Council, (...)

    #Match #GPS #Grindr #OkCupid #Tinder #géolocalisation #data #DataBrokers #données #LGBT #profiling #publicité (...)

    ##publicité ##marketing
    https://static.usbeketrica.com/images/thumb_840xh/5e1f4e4027190.jpg

    https://seenthis.net/messages/821314 via etraces


  • Top Apps Invade User Privacy By Collecting and Sharing Personal Data, New Report Finds | Electronic Frontier Foundation
    https://www.eff.org/deeplinks/2020/01/new-report-exposes-adtech-invading-our-privacy

    A new year often starts with good resolutions. Some resolve to change a certain habit, others resolve to abandon an undesired trait. Mobile app makers, too, claim to have user behavior and their preferences at their heart. From dating to health to music, their promise is to add convenience to consumers’ lives or to offer support when needed. The bad news is that the ecosystem of the underlying ad tech industry has not changed and still does not respect user privacy. A new report, called Out (...)

    #GooglePlay #manipulation #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #data #discrimination #données #marketing (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##EFF
    https://www.eff.org/files/banner_library/mobile-privacy.png

    https://seenthis.net/messages/821315 via etraces


  • Twitter bans Grindr from ad network following personal data report - CBS News
    https://www.cbsnews.com/amp/news/twitter-bans-grindr-from-ad-network-following-personal-data-report

    Twitter has kicked Grindr off of its ad network after a report claimed the dating app was sharing users’ personal data with marketers and advertisers. Grindr, which bills itself as “the world’s largest social networking app for gay, bi, trans and queer people,” uses Twitter subsidiary MoPub to share user data, according to the report from the Norwegian Consumer Council. "We are currently investigating this issue to understand the sufficiency of Grindr’s consent mechanism. In the meantime, we (...)

    #Match #data #Grindr #MoPub #OkCupid #Tinder #Twitter #données #LGBT #marketing #profiling (...)

    ##publicité
    https://cbsnews2.cbsistatic.com/hub/i/r/2020/01/14/bb531ada-ecf9-44f7-92b9-e8194bef22aa/thumbnail/1200x630/8b67f556e17a1a1c1733141e22e0c7c2/gettyimages-1158411340.jpg

    https://seenthis.net/messages/820976 via etraces


  • Grindr and OkCupid Spread Personal Details, Study Says - The New York Times
    https://www.nytimes.com/2020/01/13/business/grindr-apps-dating-data-tracking.html?auth=login-email&login=email

    Popular dating services like Grindr, OkCupid and Tinder are spreading user information like dating choices and precise location to advertising and marketing companies in ways that may violate privacy laws, according to a new report that examined some of the world’s most downloaded Android apps. Grindr, the world’s most popular gay dating app, transmitted user-tracking codes and the app’s name to more than a dozen companies, essentially tagging individuals with their sexual orientation, (...)

    #Match #AT&T #Grindr #MoPub #OkCupid #Tinder #Twitter #smartphone #géolocalisation #data #données #LGBT #marketing (...)

    ##AT&T ##publicité
    https://static01.nyt.com/images/2020/01/13/business/13grindr1/13grindr1-facebookJumbo.jpg

    https://seenthis.net/messages/820664 via etraces


  • Healthcare and Big Data - Digital Specters and Phantom Objects | Mary Ebeling | Palgrave Macmillan
    https://www.palgrave.com/gp/book/9781137502209

    This highly original book is an ethnographic noir of how Big Data profits from patient private health information. The book follows personal health data as it is collected from inside healthcare and beyond to create patient consumer profiles that are sold to marketers. Primarily told through a first-person noir narrative, Ebeling as a sociologist-hard-boiled-detective, investigates Big Data and the trade in private health information by examining the information networks that patient data (...)

    #algorithme #BigData #data #données #profiling #marketing #santé

    ##santé

    https://seenthis.net/messages/820451 via etraces


  • « Data brokers », la main invisible du marché
    https://korii.slate.fr/tech/a-la-trace-livre-olivier-tesquet-capitalisme-surveillance-donnees-person

    Quelles sont les conséquences en matière de contrôle social quand votre nom se retrouve dans une base de données informatiques ? Le chapitre qui suit est issu du livre du journaliste Olivier Tesquet, « À la trace-Enquête sur les nouveaux territoires de la surveillance », qui paraît ce 9 janvier 2020 aux éditions Premier Parallèle et décrit sans les fantasmer les mécanismes de ces systèmes opaques qui nous gouvernent. Un manuel à l’usage des personnes, trop nombreuses, qui pensent n’avoir rien à cacher. (...)

    #AddThis #Criteo #Datalogix #Epsilon #Equifax #Experian #Microsoft #Oracle #T-Mobile #Weborama #Sprint #AT&T #Foursquare #Twitter #Uber #géolocalisation #consentement #bénéfices #BigData #data #données #DataBrokers #marketing #profiling #publicité (...)

    ##AT&T ##publicité ##surveillance ##santé
    https://korii.slate.fr/sites/default/files/styles/1440x600/public/pp.jpg

    https://seenthis.net/messages/819971 via etraces


  • Amazon : Alexa ou la tentation totalitaire
    https://korii.slate.fr/et-caetera/amazon-alexa-ou-tentation-totalitaire

    La firme américaine souhaite vous accompagner dans chacun des instants de votre quotidien. À quel prix ? Alexa est déjà présente dans des millions de foyers. En juin, le cabinet Loup Venture estimait qu’Amazon vendrait aux États-Unis 72 millions de ses assistants vocaux en 2019, contrôlant ainsi 58% du marché. Alexa n’est pourtant pas partout. Si la firme de Seattle a su inventer le marché en lançant la première, dès 2014, son assistant personnel, elle s’est depuis fait griller la priorité par Google (...)

    #Google #Ring #Amazon #algorithme #robotique #Alexa #Android #domotique #Echo #Look #Ring_ #sonnette #géolocalisation #reconnaissance #data #profiling #surveillance (...)

    ##données
    https://korii.slate.fr/sites/default/files/styles/1440x600/public/amazon_0.jpg

    https://seenthis.net/messages/818352 via etraces


  • Don’t assume technology is racially neutral

    Without adequate and effective safeguards, the increasing reliance on technology in law enforcement risks reinforcing existing prejudices against racialised communities, writes Karen Taylor.

    https://www.theparliamentmagazine.eu/sites/www.theparliamentmagazine.eu/files/styles/original_-_local_copy/entityshare/33329%3Fitok%3DXJY_Dja6#.jpg

    Within the European Union, police and law enforcement are increasingly using new technologies to support their work. Yet little consideration is given to the potential misuse of these technologies and their impact on racialised communities.

    When the everyday experience of racialised policing and ethnic profiling is already causing significant physical, emotional and social harm, how much will these new developments further harm people of colour in Europe?

    With racialised communities already over-policed and under-protected, resorting to data-driven policing may further entrench existing discriminatory practices, such as racial profiling and the construction of ‘suspicious’ communities.

    This was highlighted in a new report published by the European Network Against Racism (ENAR) and the Open Society Justice Initiative.

    Using systems to profile, survey and provide a logic for discrimination is not new; what is new is the sense of neutrality afforded to data-driven policing.

    The ENAR report shows that law enforcement agencies present technology as ‘race’ neutral and independent of bias. However, such claims overlook the evidence of discriminatory policing against racialised minority and migrant communities throughout Europe.

    European criminal justice systems police minority groups according to the myths and stereotypes about the level of ‘risk’ they pose rather than the reality.

    This means racialised communities will feel a disproportionate impact from new technologies used for identification, surveillance and analysis – such as crime analytics, the use of mobile fingerprinting scanners, social media monitoring and mobile phone extraction - as they are already overpoliced.

    For example, in the UK, social media is used to track ‘gang-associated individuals’ within the ‘Gangs Matrix’. If a person shares content on social media that references a gang name or certain colours, flags or attire linked to a gang, they may be added to this database, according to research by Amnesty International.

    Given the racialisation of gangs, it is likely that such technology will be deployed for use against racialised people and groups.

    Another technology, automatic number plate recognition (ANPR) cameras, leads to concerns that cars can be ‘marked’, leading to increased stop and search.

    The Brandenburg police in Germany used the example of looking for “motorhomes or caravans with Polish license plates” in a recent leaked internal evaluation of the system.

    Searching for license plates of a particular nationality and looking for ‘motorhomes or caravans’ suggests a discriminatory focus on Travellers or Roma.

    Similarly, mobile fingerprint technology enables police to check against existing databases (including immigration records); and disproportionately affects racialised communities, given the racial disparity of those stopped and searched.

    Another way in which new technology negatively impacts racialised communities is that many algorithmically-driven identification technologies, such as automated facial recognition, disproportionately mis-identify people from black and other minority ethnic groups – and, in particular, black and brown women.

    This means that police are more likely to wrongfully stop, question and potentially arrest them.

    Finally, predictive policing systems are likely to present geographic areas and communities with a high proportion of minority ethnic people as ‘risky’ and subsequently make them a focus for police attention.

    Research shows that data-driven technologies that inform predictive policing increased levels of arrest for racialised communities by 30 percent. Indeed, place-based predictive tools take data from police records generated by over-policing certain communities.

    Forecasting is based on the higher rates of police intervention in those areas, suggesting police should further prioritise those areas.

    We often – rightly – discuss the ethical implications of new technologies and the current lack of public scrutiny and accountability. Yet we also urgently need to consider how they affect and target racialised communities.

    The European Commission will present a proposal on Artificial Intelligence within 100 days of taking office. This is an opportunity for the European Parliament to put safeguards in place that ensure that the use of AI does not have any harmful and/or discriminatory impact.

    In particular, it is important to consider how the use of such technologies will impact racialised communities, so often overlooked in these discussions. MEPs should also ensure that any data-driven technologies are not designed or used in a way that targets racialised communities.

    The use of such data has wide-ranging implications for racialised communities, not just in policing but also in counterterrorism and immigration control.

    Governments and policymakers need to develop processes for holding law enforcement agencies and technology companies to account for the consequences and effects of technology-driven policing.

    This should include implementing safeguards to ensure such technologies do not target racialised as well as other already over-policed communities.

    Technology is not neutral or objective; unless safeguards are put in place, it will exacerbate racial, ethnic and religious disparities in European justice systems.

    https://www.theparliamentmagazine.eu/articles/opinion/don%E2%80%99t-assume-technology-racially-neutral

    #neutralité #technologie #discriminations #racisme #xénophobie #police #profilage_ethnique #profilage #données #risques #surveillance #identification #big-data #smartphone #réseaux_sociaux #Gangs_Matrix #automatic_number_plate_recognition (#ANPR) #Système_de_reconnaissance_automatique_des_plaques_minéralogiques #plaque_d'immatriculation #Roms #algorythmes #contrôles_policiers

    –--------

    Pour télécharger le rapport:
    https://i.imgur.com/2NT3jhc.png
    https://www.enar-eu.org/IMG/pdf/data-driven-profiling-web-final.pdf

    ping @cede @karine4 @isskein @etraces @davduf

    https://seenthis.net/messages/816511 via CDB_77


  • Le « Health Data Hub », big brother des données de santé lancé ce dimanche
    https://www.ouest-france.fr/sante/le-health-data-hub-big-brother-des-donnees-de-sante-lance-ce-dimanche-6

    Je l’épingle, même si j’arrive pas à le lire car ça me donne trop la gerbe, rien que le nom « Health Data Hub » donne l’idée de la monstruosité qui s’avance, la politique de #santé rentrée de force dans un hub de dentifrice ricain. Ça fait des années que quelques associations dénoncent la main mise des industries privées sur les #données_personnelles de santé, pourtant censées être couvertes par le #secret_médical qui appâte les gros poissons repus. Mais résister face à ce fléau et le troupeau bêlant des technophiles qui ânonnent c’est si pratique à la suite des assurances et des banques, est voué à la grosse déprime.
    #dmp

    https://seenthis.net/messages/814015 via touti


  • Hold-up sur les #données de santé. Patients et soignants unissons-nous
    https://framablog.org/2019/11/29/hold-up-sur-les-donnees-de-sante-patients-et-soignants-unissons-nous

    L’Association Interhop.org est une initiative de professionnels de santé spécialisés dans l’usage et la gestion des données de santé, ainsi que la recherche en machine learning dans de multiples domaines médicaux. Aujourd’hui, en leur donnant la parole sur ce blog, … Lire la suite­­

    #Internet_et_société #Libre_Veille #Santé #Microsoft #Sante


  • Un chercheur découvre une base de donnée contenant 1,2 milliard de données personnelles sur un serveur non sécurisé
    https://cyberguerre.numerama.com/1935-un-chercheur-decouvre-une-base-de-donnee-contenant-12-mil

    Le chercheur en sécurité informatique Vinny Troia a mis la main avec une facilité déconcertante sur une gigantesque base composée de 1,2 milliard de données personnelles exposées, toutes stockées sur un service unique non sécurisé. Et visiblement en libre accès. À la recherche de contacts aux côtés de son collègue Bob Diachenko sur le service Web Shodan, un moteur spécialisé dans la recherche d’objets connectés à Internet, Vinny Troia ne s’attendait pas à faire une pareille découverte. Au cours de sa (...)

    #Google #FBI #Facebook #GoogleCloud #GitHub #LinkedIn #Twitter #BigData #data #données

    //c0.lestechnophiles.com/cyberguerre.numerama.com//content/uploads/sites/2/2019/11/fabio-oyXis2kALVg-unsplash.jpg

    https://seenthis.net/messages/812641 via etraces


  • Department of Education criticised for secretly sharing children’s data

    Information commissioner acts after complaint that data is used for immigration enforcement.
    The UK’s privacy regulator has criticised the Department for Education (DfE) for secretly sharing children’s personal data with the Home Office, triggering fears it could be used for immigration enforcement as part of the government’s hostile environment policy.

    Acting on a complaint by the campaigning organisation, Against Borders for Children (ABC), the Information Commissioner’s Office (ICO) ruled that the DfE had failed to comply fully with its data protection obligations and may face further regulatory action.

    Pupil data is routinely collected by schools, according to the human rights organisation Liberty, representing the complainant, but teachers and parents were unaware in this case that the children’s information could be shared with immigration enforcement and result in their families being deported.

    In a letter to Liberty, seen by the Guardian, the ICO says its investigations team is now considering whether to take further action against the DfE for “wide ranging and serious concerns” highlighted in this case and in response to further concerns raised by “a number of other sources”.

    The ICO only upheld part of the complaint, but its letter said concerns raised had “highlighted deficiencies in the processing of pupil personal data by the DfE”, adding: “Our view is that the DfE is failing to comply fully with its data protection obligations, primarily in the areas of transparency and accountability, where there are far reaching issues, impacting a huge number of individuals in a variety of ways.”

    According to Liberty, the complaint arose out of events which followed the signing of a memorandum of understanding in June 2015, by which the DfE agreed to pass the personal details of up to 1,500 school children to the Home Office each month as part of a policy to create a hostile environment for migrants.

    Parents and campaigners became concerned the following year when the DfE asked schools to start collecting data on children’s nationality and country of birth. This resulted in a mass boycott by families who were worried it might be used for immigration enforcement.

    Following legal action brought in April 2018 by ABC, again represented by Liberty, the DfE announced it would no longer ask schools to collect nationality and country of birth data but, according to Liberty, the DfE’s actions left many parents afraid to send their children to school.

    Liberty lawyer Lara ten Caten said: “Data sharing is just one part of the government’s discredited hostile environment which has left people too afraid to do things like send their children to school, report crime or seek medical help. It’s time to redesign our immigration system so it respects people’s rights and treats everyone with dignity.”

    Liberty called on the DfE to delete children’s nationality and country of birth data that had been collected and urged all political parties to make manifesto commitments to introduce a data firewall which separated public services from immigration enforcement.

    The ABC’s Kojo Kyerewaa said: “The ICO decision has shown that the DfE cannot be trusted with children’s personal data. Without public debate or clear notification, schools have been covertly incorporated as part of Home Office immigration enforcement. These checks have put vulnerable children in further danger as parents are taken away via immigration detention and forced removals.”

    The DfE, unable to respond because of general election purdah constraints, referred to answers to earlier parliamentary questions, which said the department collected data on the nationality and country of birth of pupils via the school census between autumn 2016 and summer 2018.

    “The Home Office can only request information from the Department for Education for immigration enforcement purposes in circumstances where they have clear evidence a child may be at risk or there is evidence of illegal activity, including illegal immigration,” it said.

    An ICO spokesperson said: “As a non-departmental government body, the ICO has to consider its responsibilities during the pre-election period. Our regulatory work continues as usual but we will not be commenting publicly on every issue raised during the general election. We will, however, be closely monitoring how personal data is being used during political campaigning and making sure that all parties and campaigns are aware of their responsibilities under data protection and direct marketing laws.”

    https://www.theguardian.com/education/2019/nov/12/department-of-education-criticised-for-secretly-sharing-childrens-data

    #école #enfants #enfance #surveillance #données #migrations #réfugiés #asile #sans-papiers #renvois #expulsions
    ping @etraces

    https://seenthis.net/messages/811039 via CDB_77


  • A network of ‘camgirl’ sites exposed millions of users and sex workers
    https://techcrunch.com/2019/11/03/camgirl-network-exposed-millions-users

    A number of popular “camgirl” sites have exposed millions of sex workers and users after the company running the sites left the back-end database unprotected. The sites, run by Barcelona-based VTS Media, include amateur.tv, webcampornoxxx.net, and placercams.com. Most of the sites’ users are based in Spain and Europe, but we found evidence of users across the world, including the United States. According to Alexa traffic rankings, amateur.tv is one of the most popular in Spain. The (...)

    #pornographie #données #hacking

    https://techcrunch.com/wp-content/uploads/2019/11/camgirl-site.jpg

    https://seenthis.net/messages/809998 via etraces