#open_data

  • Le site de la Maison Blanche efface l’open data - ZDNet
    http://www.zdnet.fr/blogs/l-esprit-libre/le-site-de-la-maison-blanche-efface-l-open-data-39848708.htm
    http://www.zdnet.fr/i/edit/ne/2017/02/Open.WhiteHouse.gov_NoResults.jpg

    Dans les premiers jours de son entrée en fonctions à la présidence des Etats-Unis, Donald Trump n’a pas fait que bloquer l’entrée des migrants de sept pays et des réfugiés, ou supprimer des financements aux ONG qui de près ou de loin soutiennent l’avortement (ce que Melinda et Bill Gates – parmi beaucoup d’autres – ont critiqué) ; son équipe et lui ont aussi commencé à effacer du Web tout ce qui s’oppose à leurs programmes. On a beaucoup parlé de la suppression des sections sur les droits civiques, le réchauffement climatique ou les énergies renouvelables du site de la Maison Blanche.
    Circulez, il n’y a plus rien à voir

    Une suppression moins parlante pour le grand public, mais pas moins inquiétante, a été réalisée il y a quelques jours : les pages sur l’open data ont à leur tour été retirées. Dans la section open.whitehouse.gov, devenue faute de mieux une sorte de sous-page d’accueil du site avec la mention « Revenez bientôt chercher s’il y a de nouvelles données », cliquer sur l’annuaire des bases de données (« data catalog », à gauche) renvoie « Pas de résultats ».

    #open_data #trump


  • Henri Verdier : « Vers un développement démocratique durable »
    https://www.mediapart.fr/journal/culture-idees/061216/henri-verdier-vers-un-developpement-democratique-durable

    Paris accueille, à partir du mercredi 7 décembre, le 4e sommet du « Partenariat pour un gouvernement ouvert ». Cette initiative internationale, réunissant public et privé, vise à promouvoir les outils de transparence, de consultation, d’ouverture des données… Certains dénoncent les risques, déjà réels, de surveillance des citoyens ou de privatisation de l’action publique. Le directeur interministériel du #Numérique et du système d’information de l’État répond aux questions de Mediapart.

    #Culture-Idées #open_data #open_governement


  • L’écosystème des administrations publiques sur GitHub - Datacolada
    http://alireailleurs.tumblr.com/post/145199144758

    http://67.media.tumblr.com/d363db85205ff9ba30ad917520a2ac3a/tumblr_inline_o81bz2T5mO1qz6b8d_540.png

    L’excellent Data colada (@datacolada), revient sur la présence des administrations sur Github, le site de partage de code. Quelles institutions y sont présentes ? Ce partage est-il un succès ? Que produit-il ?…Derrière le “festin de la transparence”, on compte 600 dépôts institutionnels et les plus importants sont ceux d’administrations américaines et britanniques. Tous les dépôts ne sont pas également actifs et les plus gros ne sont pas les plus actifs. Ce que constate l’analyse de données, c’est que nombre de dépôts n’ont pas de licence claire, empêchant ou limitant leur réutilisation. L’analyse semble montrer que le dépôts qui ont le plus de contributeurs sont ceux qui sont bien documentés… et que le nombre de forks par d’autres administrations semble assez rare. En ce qui concerne la France, 13 (...)

    #open_data #infolabs #services_publics


  • Making Kaggle the Home of #Open_Data | No Free Hunch
    http://blog.kaggle.com/2016/08/17/making-kaggle-the-home-of-open-data
    http://5047-presscdn.pagely.netdna-cdn.com/wp-content/uploads/2016/08/byod-banner-3.png

    As a scientist, you can publish the data and code from your latest experiment. Doing so enables other scientists in your field to reproduce the results in your paper and build on top of them. It will allow others to more deeply engage with your work and give it a wider audience.

    As a hobbyist, you can publish data you’re passionate about on Kaggle and grow a community around the dataset that shares the same interest.

    As a package author, you can release a dataset and code that showcases your package with executable documentation examples. Data scientists find it faster and easier to learn from examples instead of extensive API documentation.

    As a student, you can use Kaggle to create your class projects. This saves you from needing to setup a local analytics environment, and starts building your data science portfolio. We recently revamped Kaggle profiles and the progression system to emphasize code and discussion, making them even more helpful for data science hiring managers.

    As a data vendor, you can release a sample of your dataset. This is the best way to broadcast the potential of your data to the world’s largest community of data scientists.

    As a company or nonprofit, you can publish data that you want our community to explore. At Kaggle, we release most of the publicly scrapable data on the site in an easily digestible form. We learned a lot about our own business from the kernels our community has created.

    As a government, you can release the data your agencies collect on Kaggle. Rather than launching your datasets into an empty room, you can release them into a vibrant ecosystem and see the kind of insights the Kaggle community finds in on your data.

    #data #machine_learning

    https://seenthis.net/messages/517488 via Fil


  • Loi #Numérique : Axelle Lemaire s’explique sur les arbitrages perdus et gagnés
    https://www.mediapart.fr/journal/france/120716/loi-numerique-axelle-lemaire-s-explique-sur-les-arbitrages-perdus-et-gagne

    La secrétaire d’État au numérique défend sa loi sur la #République_numérique avant son adoption définitive par l’Assemblée le 20 juillet, malgré les critiques de nombreuses associations qui en déplorent les lacunes. « C’est un texte de combat » contre les lobbys et les résistances administratives, jure-t-elle. « La politique, c’est une grande leçon de modestie. » Axelle Lemaire en juillet 2014 à l’Assemblée. © Reuters

    #France #chiffrement #darknet #Emmanuel_Macron #open_data #privacy_shield #projet_de_loi #SFR


  • Loi #Numérique : Axelle Lemaire s’explique
    https://www.mediapart.fr/journal/france/120716/loi-numerique-axelle-lemaire-s-explique

    La secrétaire d’État au numérique défend sa loi sur la #République_numérique avant son adoption définitive par l’Assemblée le 20 juillet, malgré les critiques de nombreuses associations qui en déplorent les lacunes. « C’est un texte de combat » contre les lobbys et les résistances administratives, jure-t-elle. « La politique, c’est une grande leçon de modestie. » Axelle Lemaire en juillet 2014 à l’Assemblée. © Reuters

    #France #chiffrement #darknet #Emmanuel_Macron #open_data #privacy_shield #projet_de_loi #SFR


  • Loi #Numérique : Axelle Lemaire s’explique sur les arbitrages gagnés et perdus
    https://www.mediapart.fr/journal/france/120716/loi-numerique-axelle-lemaire-s-explique-sur-les-arbitrages-gagnes-et-perdu

    La secrétaire d’État au numérique défend sa loi sur la #République_numérique avant son adoption définitive par l’Assemblée le 20 juillet, malgré les critiques de nombreuses associations qui en déplorent les lacunes. « C’est un texte de combat » contre les lobbys et les résistances administratives, jure-t-elle. « La politique, c’est une grande leçon de modestie. » Axelle Lemaire en juillet 2014 à l’Assemblée. © Reuters

    #France #chiffrement #darknet #Emmanuel_Macron #open_data #privacy_shield #projet_de_loi #SFR


  • Axelle Lemaire : « Je me suis sentie comme une lanceuse d’alerte au gouvernement »
    https://www.mediapart.fr/journal/france/120716/axelle-lemaire-je-me-suis-sentie-comme-une-lanceuse-d-alerte-au-gouverneme

    La secrétaire d’État au #Numérique défend sa loi sur la #République_numérique avant son adoption définitive par l’Assemblée le 20 juillet, malgré les critiques de nombreuses associations qui en déplorent les lacunes. « C’est un texte de combat » contre les lobbys et les résistances administratives, jure-t-elle. « La politique, c’est une grande leçon de modestie. » Axelle Lemaire en juillet 2014 à l’Assemblée. © Reuters

    #France #chiffrement #darknet #Emmanuel_Macron #open_data #privacy_shield #projet_de_loi #SFR


  • Le Parlement accouche dans la douleur de la loi République #Numérique
    https://www.mediapart.fr/journal/france/300616/le-parlement-accouche-dans-la-douleur-de-la-loi-republique-numerique

    Annoncée dès 2012, cette loi avait ensuite fait l’objet de multiples reports et consultations avant d’arriver, fin 2015, au Parlement. Là, elle a été la cible de campagnes de lobbying et de l’opposition entre députés et sénateurs qui avaient adopté des versions sensiblement différentes. Le texte validé par la Commission mixte paritaire couvre de nombreux domaines : ouverture des données publiques, recherche, protection des internautes… Des associations font pourtant part de leur « déception 2.0 ».

    #France #Fil_d'actualités #Axelle_Lemaire #données_personnelles #Droit_à_l'oubli #open_data


  • Rich Data, Poor Data: What the Data Rich Do - That the Data Poor and the Data Middle Class Do Not! - Shelly Palmer
    http://www.shellypalmer.com/2016/05/rich-data-poor-data-data-rich-data-poor-data-middle-class-not

    Generally speaking, there are two kinds of companies in the world: data rich and data poor. The richest of the data rich are easy to name: Google, Facebook, Amazon, Apple. But you don’t need to be at the top of this list to use data to create value. You need to have the tools in place to turn information (data) into action. That’s what the data rich do that the data poor and the data middle class do not.

    – The Data Rich Treat Data Like Cash
    – Data Is More Powerful in the Presence of Other Data
    – The data rich have data councils that meet regularly to evaluate and modify corporate data governance policies.
    – Data rich companies have data science departments that are tasked with turning information (data) into action. These departments are built on three foundational skills: computer science, math and domain expertise.
    – The data rich make their data actionable by using very sophisticated machine learning and AI algorithms.
    – Data-driven thinking is the key to acting data rich.

    #open_data #propriété_intellectuelle #monopoles #data

    http://seenthis.net/messages/485069 via klaus++


  • A Plethora of Open Data Repositories (i.e., thousands!) - Data Science Central

    http://www.datasciencecentral.com/profiles/blogs/a-plethora-of-open-data-repositories-i-e-thousands

    A Plethora of Open Data Repositories (i.e., thousands!)

    Posted by Kirk Borne on August 30, 2015 at 2:09pm
    View Blog

    Open data repositories are valuable for many reasons, including:

    (1) they provide a source of insight and transparency into the domains and organizations that are represented by the data sets;

    (2) they enable value creation across a variety of domains, using the data as the “fuel” for innovation, government transformation, new ideas, and new businesses;

    (3) they offer a rich variety of data sets for data scientists to sharpen their data mining, knowledge discovery, and machine learning modeling skills; and

    (4) they allow many more eyes to look at the data and thereby to see things that might have been missed by the creators and original users of the data.

    Here are some sources and meta-sources of open data:

    #data #statistiques #open_data

    http://seenthis.net/messages/470874 via Reka


  • Oui à la libre diffusion de la culture et des savoirs !
    http://rue89.nouvelobs.com/rue89-culture/2015/09/11/oui-a-libre-diffusion-culture-savoirs-261153

    En finir avec les revendications abusives de droit d’auteur et inscrire dans la loi le principe des biens communs. C’est en résumé l’appel lancé par 75 personnalités, du monde de la recherche, de la culture et du numérique, à l’initiative du Conseil national du numérique (CNNum), dans une tribune publiée jeudi dans le journal et sur le site du Monde. Parmi les signataires, dont la liste complète figure sur le site du CNNum, se trouvent des défenseurs bien connus de cette cause, tels que Benoît Thieulin, le président du CNNUm, Daniel Kaplan de la FING (Fondation Internet nouvelle...

    #droits_d'auteur #open-source #open_data


  • Pôle emploi doit ouvrir l’accès aux données sur les chômeurs, Stéphanie Delestre, PDG de Qapa.fr ( "274 975 offres à pourvoir maintenant. Des milliers d’entreprises recrutent sur Qapa. Ne manquez pas ces opportunités" )
    http://www.lemonde.fr/idees/article/2015/06/02/pole-emploi-doit-ouvrir-l-acces-aux-donnees-sur-les-chomeurs_4645957_3232.ht

    900 000 emplois non pourvus ou difficilement pourvus [ben voyons], 5 millions de #chômeurs : cherchez l’erreur. Fluidifier le marché de l’emploi passe par l’ouverture des #données détenues par #Pôle_Emploi à tous les acteurs du #marché_du_travail.

    Le système administré et centralisé qu’est Pôle emploi est inapte à réaliser de manière parfaitement efficiente l’adéquation entre les offres et les demandes sur le marché du travail. Aujourd’hui, la qualification des demandes d’emploi par les opérateurs publics se fait par des références à des nomenclatures préexistantes et faiblement évolutives (par exemple la nomenclature ROME [répertoire opérationnel des métiers et des emplois]), peu adaptées à l’accélération des mutations économiques et technologiques ou des changements de parcours professionnels.

    Les offres présentées à un demandeur d’emploi par les institutions spécialisées sont ainsi souvent peu pertinentes. Dans ces conditions, c’est souvent la stratégie individuelle d’un demandeur d’emploi qui lui permet de trouver le bon employeur, intéressé par ses compétences et son parcours et lui proposant un emploi correspondant à sa recherche et à ses souhaits d’évolution professionnelle.

    De 2 heures à 30 minutes par jour

    Or, les stratégies individuelles sur le marché de l’emploi ne font pas encore l’objet d’une observation et d’une interprétation pertinentes pour en faire émerger une intelligence collective propice à l’#efficience_du_marché. Par ailleurs, les demandeurs d’emploi sont confrontés à des difficultés sociales directement liées à leur situation : la passivité et la rupture progressive du lien social rendent d’autant plus difficile leur réinsertion durable sur le marché du travail.

    De nombreux travaux de recherche (Krueger et Mueller, Université de Princeton, 2011) montrent que l’intensité de la recherche d’emploi diminue substantiellement au long d’une période de #chômage. Il est ainsi observé sur un échantillon de demandeurs d’emploi américains qu’après trois mois de chômage la durée quotidienne de recherche d’emploi chute de 2 heures à 30 minutes par jour.

    Avec plus de 5 millions de chômeurs et environ 500 000 offres d’emploi disponibles à un instant « T » sur le marché, c’est la mise en relation efficiente entre l’offre et la demande, entre les candidats et les offres d’emploi, qui doit se développer grâce au numérique (qui offre la possibilité de traiter des grandes quantités de données en temps réel) et à Internet (qui met en relation automatique et en temps réel l’offre et la demande).

    Écosystème de services

    La précision et la quantité des informations sont les clés pour obtenir les meilleurs résultats de matching (appariement). Pôle emploi dispose pour cela d’une énorme quantité « #matière_première » (les CV des chômeurs et les offres d’emploi) sur laquelle un écosystème de services et d’applications innovants peut se nourrir et se développer rapidement pour lutter contre le chômage [ben voyons].

    Ces données sont aussi intéressantes pour les acteurs publics locaux afin de comprendre les besoins de chaque bassin d’emploi, les besoins en formation par secteur d’activité, etc. Les usages sont infinis. Alors pourquoi Pôle emploi refuse-t-il l’accès à ses données, contrairement à ce que recommande le secrétariat général à la modernisation de l’action publique ? Est-ce la peur que de nouveaux acteurs apportent un meilleur service ? Est-ce la peur que le chômage baisse vraiment, et que l’activité même de Pôle Emploi soit à réinventer ?

    Pour accélérer le retour des chômeurs à l’emploi, Pôle emploi doit ouvrir en #open_data ses fichiers d’offres d’emploi et de demandeurs d’emploi [bigre]. En d’autres termes, transformer ses fichiers en données publiques, accessibles à toutes les entreprises dont l’objet est la #fluidité du marché de l’emploi. La lutte contre le chômage doit être la grande cause nationale de la France. Tout demandeur d’emploi doit pouvoir réclamer que sa #candidature soit accessible à tous les recruteurs potentiels !

    La création d’un corps de 200 agents contrôleurs indique bien ce qui donne le la : à Pôle la non indemnisation, les « emplois aidés » et les contrôles, le placement aux #opérateurs_privés, et à qui voudra s’en occuper (...), l’info sur les droits (toujours changeants, soumis à l’arbitraire, conçus pour déstabiliser, produire l’#insécurité_sociale maxi), les recours, la défense des chômeurs.

    http://seenthis.net/messages/376713 via colporteur