• L’inquiétant n’est pas le #Big_data, c’est qui l’utilise et comment | InternetActu
    http://internetactu.blog.lemonde.fr/2015/10/31/linquietant-nest-pas-le-big-data-cest-qui-lutilise-et-comm

    Pourtant, explique encore l’anthropologue, l’enjeu n’est pas de rejeter le Big data. Au contraire, explique celle qui est au conseil d’administration de Crisis Text Line, un service de prévention du suicide par SMS (voir notre article « De la prévention du suicide en ligne ») permettant via le Big data de traiter des millions de messages pour personnaliser chaque réponse de conseillers à l’adolescence en danger. Or, Crisis Text Line utilise les mêmes techniques que celles utilisées par le #marketing ou la #police prédictive. Le problème explique-t-elle est que « la surveillance par des acteurs puissants ne peut pas instaurer la confiance. Elle l’érode. » L’information sur les gens qui s’apprêtent à commettre un délit n’est pas la même selon qu’elle est envoyée à la police ou à un #travailleur_social. « Ce ne sont pas tant les données qui sont inquiétantes, mais c’est la façon dont elles sont utilisées. Et par qui ».

    « Nous entrons dans un monde de prédiction. Un monde où de plus en plus de gens vont être en mesure de porter des jugements sur les autres sur la base de données. » De nombreux militants s’activent à combattre et réguler ce nouvel écosystème de la prédiction. C’est très bien quand ces #technologies sont conçues pour faire le mal. Mais le plus souvent ces outils seront conçus pour être utiles, pour accroître l’efficacité, pour identifier les personnes qui ont besoin d’aide. Ils pourront être à la fois utilisé pour faire le bien et pour être terrifiants. Comment pouvons-nous apprendre à utiliser ces informations pour responsabiliser ?

    Pour #Danah_Boyd, le problème est que la diversité des gens qui construisent, financent et utilisent ces outils pour imaginer notre avenir est extraordinairement réduite. Pour elle, l’enjeu est d’élargir la diversité d’approche du développement comme de l’usage de ces technologies. « Si les gens ne comprennent pas ce que ces systèmes font, comment pouvons-nous espérer que les gens les contestent ? »

    Maintenant plus que jamais, nous avons besoin de ceux qui réfléchissent à la justice sociale pour comprendre la technologie et nous avons besoin que ceux qui comprennent la technologie s’intéressent à la justice sociale."

    #mega_données