#mega_données

  • Le secteur des « iTunes de la #presse » s’organise.

    Sur le modèle de Blendle.com quelques acteurs en cours de démarrage en France :

    https://blendle.com lui même, et aussi
    http://www.moment.news
    http://www.jol-store.com
    http://www.ifeedforu.com

    Les sites auront des algorithmes proposant des articles selon l’intérêt des utilisateurs, lesquels pourront les acheter à l’unité.

    C’est la version achat à l’acte des services type #Flipboard, #Google Play Kiosque, #Newsrepublic, etc qui se financent quant à eux par la #publicité.

    Je ne sais pas vraimment quoi penser de tous ces services. Le succès de Blendle est remarquable, mais a t’on vraiment besoin de sites spécialisés qui agrègent la presse sur abonnement en prenant une commission au passage et en faisant des #méga_données pour créer des communautés et probablement vendre de la pub.

    Quelle sera leur valeur ajoutée par rapport aux autres #réseaux_sociaux qui déjà diffusent la presse massivement le jour ou le #micro_paiement sera facilité, par exemple par des services comme #stripe ?

    On peut imaginer que ces sites permettraient aux media de trouver des lecteurs, ou bien l’inverse, qu’ils finiraient par regrouper les lecteurs en mode #monopole.

    #mercatique

    http://seenthis.net/messages/424377 via BoOz


  • L’inquiétant n’est pas le #Big_data, c’est qui l’utilise et comment | InternetActu
    http://internetactu.blog.lemonde.fr/2015/10/31/linquietant-nest-pas-le-big-data-cest-qui-lutilise-et-comm

    Pourtant, explique encore l’anthropologue, l’enjeu n’est pas de rejeter le Big data. Au contraire, explique celle qui est au conseil d’administration de Crisis Text Line, un service de prévention du suicide par SMS (voir notre article « De la prévention du suicide en ligne ») permettant via le Big data de traiter des millions de messages pour personnaliser chaque réponse de conseillers à l’adolescence en danger. Or, Crisis Text Line utilise les mêmes techniques que celles utilisées par le #marketing ou la #police prédictive. Le problème explique-t-elle est que « la surveillance par des acteurs puissants ne peut pas instaurer la confiance. Elle l’érode. » L’information sur les gens qui s’apprêtent à commettre un délit n’est pas la même selon qu’elle est envoyée à la police ou à un #travailleur_social. « Ce ne sont pas tant les données qui sont inquiétantes, mais c’est la façon dont elles sont utilisées. Et par qui ».

    « Nous entrons dans un monde de prédiction. Un monde où de plus en plus de gens vont être en mesure de porter des jugements sur les autres sur la base de données. » De nombreux militants s’activent à combattre et réguler ce nouvel écosystème de la prédiction. C’est très bien quand ces #technologies sont conçues pour faire le mal. Mais le plus souvent ces outils seront conçus pour être utiles, pour accroître l’efficacité, pour identifier les personnes qui ont besoin d’aide. Ils pourront être à la fois utilisé pour faire le bien et pour être terrifiants. Comment pouvons-nous apprendre à utiliser ces informations pour responsabiliser ?

    Pour #Danah_Boyd, le problème est que la diversité des gens qui construisent, financent et utilisent ces outils pour imaginer notre avenir est extraordinairement réduite. Pour elle, l’enjeu est d’élargir la diversité d’approche du développement comme de l’usage de ces technologies. « Si les gens ne comprennent pas ce que ces systèmes font, comment pouvons-nous espérer que les gens les contestent ? »

    Maintenant plus que jamais, nous avons besoin de ceux qui réfléchissent à la justice sociale pour comprendre la technologie et nous avons besoin que ceux qui comprennent la technologie s’intéressent à la justice sociale."

    #mega_données