Archives de catégorie : tous fichés

Bientôt un identifiant numérique pour tous ?

J’ai publié ce matin dans le quotidien Les Échos une enquête sur l’idée émise par quelques Etats, organismes internationaux ou entreprises de proposer une identité numérique unique qui permettrait à tout le monde de s’identifier, partout. Le support de cette identité pourrait être électronique (sous forme de carte à puce ou sans contact…) ou purement digital (une suite de chiffres). L’identifiant serait validé grâce à des données biométriques, financières (compte bancaire) ou à un profil Internet (compte Facebook, Google…). Il donnerait accès à l’état civil, aux informations de santé, financières, etc., de son propriétaire.

Vous pouvez lire la suite de cet article sur le site des Échos : https://www.lesechos.fr/idees-debats/sciences-prospective/bientot-un-identifiant-numerique-pour-tous-1016724 ou Lesechos.fr > Idées > Sciences & Prospectives > Bientôt un identifiant numérique pour tous ?

Invité hier sur RFI pour débattre de « Faut-il confier les infrastructures de haute technologie à des puissances étrangères ? »

J’étais hier invité sur RFI pour débattre de  « Faut-il confier les infrastructures de haute technologie à des puissances étrangères ? », alors que l’Assemblée nationale devait commencer ce mercredi l’examen d’une  «loi Huawei », du nom du fabricant de matériel de communication chinois soupçonné d’aider Pékin dans ses actions d’espionnage.

Ce risque d’espionnage est-il réel ? S’agit-il d’une tentative de déstabilisation commerciale de la part des États-Unis, inquiets de se voir distancer dans la course à la 5G, cette nouvelle génération de téléphonie mobile qui sera au cœur de l’Internet des objets de demain ? Que peut faire l’Europe pour se protéger ?


Ce « Débat du jour », animé par Guillaume Naudin, est à réécouter sur http://www.rfi.fr/emission/20190402-confier-infrastructures-haute-technologie-puissances-etrangereshttps://www.deezer.com/fr/show/31 et https://itunes.apple.com/fr/podcast/debat-du-jour/id934396837

Saviez-vous que vos remboursements de Sécurité Sociale pouvaient aider la recherche médicale ?

J’ai publié ce matin dans le quotidien Les Échos une enquête sur les données de santé et les recherches médicales menées avec des algorithmes d’Intelligence Artificielle …

Vous connaissez le Sniiram ? Sans doute pas, mais lui vous connaît ! Le Système national d’information inter-régimes de l’Assurance-maladie est en effet une gigantesque base de données qui collecte tous les remboursements de la Sécurité sociale. Il couvre 99 % de la population française et comprend 20 milliards de lignes de prestations ! Rassurez-vous, votre nom n’y figure pas ; il a été remplacé par un pseudonyme……

Vous pouvez lire la suite de cet article ( « Les données de santé, la mère des batailles  »,  « Cryptage et tatouage pour protéger les données de santé », « La France dispose d’un fichier de données de santé unique au monde ») ainsi que le reste du dossier spécial consacré par Les Échos à l’intelligence artificielle et à la santé sur https://www.lesechos.fr/intelligence-artificielle/dossiers/IA-sante-hopital-medecine-infirmier-radiologie-CHU-informatique-AI/

Le RGPD ne serait-il qu’une passoire ?

Vous vous croyez, en tant qu’Européens protégés par le RGPD ? Vous pensez que ce fameux Règlement Général sur la Protection des Données, applicable depuis le 25 mai dernier, met vos données personnelles à l’abris de tout abus ?  Pas si simple : RGPD ou pas, les plateformes d’« ad exchange », qui servent d’intermédiaires entre les annonceurs et les sites ou les applications sur smartphone qui veulent vendre leur espace publicitaire, communiquent allègrement nos données aux annonceurs…
Connaissez-vous les plateformes d’« ad exchange » ? Non ? Vous devriez vous y intéresser car ces plateformes sont au cœur du marché de la publicité sur Internet : ces programmes informatiques de vente et d’achat d’espaces publicitaires sur Internet mettent en relation des acheteurs (agences de publicité, agences médias ou annonceurs directement) et des vendeurs (sites Web, réseaux ou régies publicitaires) : les espaces publicitaires sont mis aux enchères et vendus aux plus offrants. Mais les vendeurs ne mettent pas que leurs espaces publicitaires à la disposition des acheteurs : ils proposent aussi des informations sur les internautes qui pourront voir les publicités des acheteurs. C’est ainsi que nos données de géolocalisation peuvent se retrouver “en vente” sur ces plateformes (lire ci-dessous les explications d’Armand Heslot, expert à la CNIL, la Commission Nationale de l’Informatique et des Libertés)
Résultat ? Nos données de géolocalisation se retrouvent entre des mains inconnues…  Le créateur d’une société spécialisée dans l’exploitation des données de géolocalisation à des fins statistiques et de marketing s’est récemment vanté dans un grand quotidien économique français de pouvoir « observer les trajets d’une personne via une publicité sur mobile, grâce aux accords passés avec certaines plates-formes. »
Comment cela est-il possible alors que le fameux RGPD (règlement général sur la protection des données) est applicable depuis le 25 mai 2018 ? En fait, ce règlement doit être encore accompagné de textes dits « spéciaux » qui vont préciser son application dans certains domaines spécifiques. C’est ainsi qu’une nouvelle directive « ePrivacy » va définir l’application du RGPD aux traitements réalisés dans le contexte des communications électroniques : elle va encadrer la collecte des données sur mobile et sur Internet.
Une première version de la directive ePrivacy existe depuis 2002 et a été modifiée en 2009. « Dans les faits, elle n’est pas appliquée », constate un spécialiste du sujet. Elle n’a été traduite et transcrite dans le droit français qu’en août 2011 et cette transcription laissait substituer de nombreuses zones d’ombre. De plus, la directive est en pleine réécriture au niveau européen ; la nouvelle version devrait entrer en vigueur au cours de l’année 2019. « Dans ce contexte, il est difficile d’appliquer une politique de contrôle », poursuit ce spécialiste.
Le futur texte ePrivacy devrait prévoir « comme principe le recueil du consentement des utilisateurs avant toute utilisation de traceur au sein des terminaux (téléphone, tablette, ordinateur, etc.). La notion de traceur s’entend ici au sens très large puisqu’il s’agit de toutes techniques permettant de suivre les utilisateurs : cookies, empreintes numériques (fingerprinting), pixels invisibles (web bugs) »… (Rapport d’activité 2017 de la CNIL, p. 31).
Autant dire qu’en coulisse les lobbyistes des grands groupes de communication électronique (Cisco, Facebook, Google, IBM, Microsoft, SAP, mais aussi l’IAB, l’Interactive Advertising Bureau, une organisation regroupant les principaux acteurs de la publicité en ligne…) s’activent auprès de la Commission Européenne pour que ce texte soit le moins contraignant possible…
En attendant, les plateformes d’« ad exchange » communiquent la nature de l’appareil que nous utilisons (marque et modèle, nom de l’éventuel opérateur de téléphonie mobile, dimension de l’écran…), notre géolocalisation, notre âge, notre sexe, notre adresse habituelle… Les entreprises peuvent ainsi poursuivre la “réification” de leur stratégie de pouvoir : faire de nous des objets, mesurables et manipulables à distance…
Jacques Henno

 

Armand Heslot (CNIL) : « Une application que vous avez installée sur votre smartphone peut transférer aux annonceurs vos données de géolocalisation »

 
Armand Heslot (service de l’expertise technologique de la CNIL)
 Armand Heslot est ingénieur au service de l’expertise technologique de la CNIL (Commission Nationale de l’Informatique et des Libertés)
  • Comment nos données de géolocalisation sont-elles partagées par les plateformes d’« ad exchange » ?
  • Armand Heslot : La plupart des espaces publicitaires sur les mobiles ou le Web sont effectivement vendus aux enchères par l’intermédiaire de réseaux de commercialisation de publicités, appelés plateformes d’« ad exchange ». Les échanges d’informations ayant lieu au sein de ces plateformes sont régis par des spécifications techniques élaborées par l’Interactive Advertising Bureau, une organisation regroupant les principaux acteurs de la publicité en ligne. J’invite d’ailleurs tous vos lecteurs à consulter la spécification « open RTB » (pour « real-time bidding », enchère en temps réel) de l’IAB. Ils y verront quels formats sont utilisés et surtout quels types d’information sur leur géolocalisation peuvent être transmises : leurs coordonnées GPS, leur adresse IP ou une localisation qu’ils ont eux-mêmes communiquée à un site ou une application.
  • Quelles sont les conséquences pour l’utilisateur d’une application sur smartphone ?
  • Armand Heslot : Une application que vous avez installée sur votre smartphone peut transférer aux annonceurs qui lui achètent des espaces publicitaires vos données de géolocalisation très précises, obtenues par l’intermédiaire du GPS de votre téléphone. Si vous désactivez la géolocalisation sur votre mobile ou si vous ne donnez pas les autorisations d’accès à la géolocalisation à une application, celle-ci ne pourra plus accéder à vos coordonnées GPS, mais elle pourra utiliser d’autre moyens pour avoir une estimation de votre localisation comme votre adresse IP ou l’adresse physique que vous avez déclarée en vous inscrivant sur cette application…
  • Ces transferts d’informations de géolocalisation ne sont pas encadrés par la loi ?
  • Armand Heslot : Si, la CNIL considère que la collecte de données de géolocalisation précises nécessite le consentement des personnes. Par ailleurs, la directive européenne  du 12 juillet 2002 sur la protection de la vie privée dans le secteur des communications électroniques, appelée également directive « ePrivacy » encadre la collecte des données sur mobile et sur le web (Cette directive est en pleine réécriture au niveau européen et devrait être transformée en un règlement). Elle a été traduite et transcrite dans le droit français en août 2011, et a donné lieu à la recommandation du 5 décembre 2013, dans laquelle la CNIL a estimé que la collecte et le transfert de telles données devaient faire l’objet d’un consentement de la part des internautes. Ce que la CNIL constate au travers de ses contrôles, c’est que même si des mécanismes de demande d’autorisation des utilisateurs sont mis en place, l’information est trop souvent incomplète, ce qui rend le consentement des personnes non valable.

Propos recueillis par Jacques Henno

 

 

Les principaux acteurs de l’« ad exchange »

  • AppNexus
  • DoubleClick (Google/Alphabet…)
  • Oath (marque réunissant AOL, Yahoo!…)
  • OpenX
  • Rubicon Project Exchange
  • Smaato

 

Sur RTL pour parler de Facebook et de nos données, qu’il utilise pour gagner de l’argent

J’étais l’invité lundi dernier, 18 septembre 2017, de la seconde partie de La curiosité est un vilain défaut, l’émission que Sidonie Bonnec et Thomas Hugues animent tous les jours de la semaine sur RTL, entre 14H et 15H.

Au programme : comment Facebook s’empare des données que nous lui confions en nous inscrivant et en utilisant ce réseau social  ; comment ils nous suit à la trace sur tous les sites Web disposant d’un bouton « J’aime » ; comment Facebook gagne de l’argent avec ces informations ; et pourquoi il est régulièrement pointé du doigt par la CNIL et d’autres agences européennes de protection des données…

Une émission à réécouter sur http://ift.tt/2jCkz8N (cliquez sur le fichier Facebook, en dessous de la photo des deux animateurs).

 

Interviewé ce soir sur la radio suisse au sujet des PNR

J’ai été interviewé ce soir, mercredi 21 janvier 2015, au cours de l’émission d’actualité Forum de la radio suisse, au sujet des PNR, ces fichiers des compagnies aériennes que l’Europe voudrait réquisitionner dans le cadre de la lutte contre le terrorisme.

Vous pouvez réécouter cette émission en podcast :

http://ift.tt/1xYtBHs

J’interviens 16 mn 44 s après le début de l’émission.

 

Dans mon livre Tous Fichés (éditions Télémaque), je retrace toutes les tentatives du gouvernement américain d’utiliser les nouvelles technologies pour déjouer les attentats terroristes. C’est ainsi que depuis les attentats du 11 septembre 2001, les agences de renseignement américaines ont accès aux PNR (fichiers des passagers) des compagnies aériennes desservant ou survolant les Etats-Unis : elles confrontent ces informations avec d’autres données en leur possession pour tenter de déceler des terroristes voulant entrer sur le territoire américain. L’utilisation de ces fichiers commerciaux à des fins sécuritaires peut cependant constituer une menace pour les libertés individuelles. Le Parlement européen a jusqu’ici bloqué l’utilisation des PNR en Europe à des fins de surveillance.

Uber en sait-il plus sur nous que Facebook ? Ou une autre raison d’apprendre à nos enfants à respecter la vie privée.

L’entreprise spécialisée dans les véhicules avec chauffeur se vante de savoir qui a eu une aventure d’un soir.

Les anglo-saxons appellent cela le « walk of shame », « la marche de la honte », le trajet qui sépare son appartement de celui de son partenaire d’une nuit : quelqu’un rentre chez lui/elle, mal rasé ou sans maquillage, tôt le matin après avoir passé une partie de la nuit chez un/une partenaire rencontré(e) dans un bar, une soirée… Bradley Voytek préfère, lui,  parler de « ride of glory » (trajet de la gloire).
Portrait de Bradley Voytek sur son site http://darb.ketyov.com/

Le plus troublant, c’est que Bradley Voytek est data evangelist (il promeut l’analyse des données) pour Uber, l’application qui permet de commander une voiture avec chauffeur. Et que Bradley Voytek se vante de pouvoir utiliser les données collectées par les ordinateurs de cette entreprise pour savoir qui a eu une aventure d’un soir… Sur le blog qu’il tient pour Uber, Bradley Voytek s’est livré à une longue analyse des « rides of glory » dans six villes américaines, démontrant leur augmentation en fin de semaine (le samedi matin et le dimanche matin) et, dans l’année, par exemple au moment du Tax Day (date limite, vers le 15 avril, aux Etats-Unis pour remplir sa déclaration de revenus ; certains Américains reçoivent alors un remboursement de la part du Fisc…). En revanche, le nombre de « rides of glory » s’effondre à l’approche de la Saint Valentin…
Evolution du nombre de « Rides of Glory » au cours d’une année (source : http://blog.uber.com/ridesofglory)

 

Dans un message précédent, Bradley Voytek avait même établi une corrélation, toujours grâce aux données collectées par Uber, entre le versement des chèques d’allocation et de la Sécurité sociale (les deuxième, troisième et quatrième mercredis du mois, aux Etats-Unis) et la fréquentation des prostituées.

Bien sûr, pour ses calculs, Bradley Voytek n’utilise que des données anonymisées. Mais avant d’être anonymisées, ces données correspondent à des cas réels dont elles révèlent toute la vie. Lors des réunions que les dirigeants d’Uber organisent avant l’ouverture de leur service dans une nouvelle ville, ces responsables auraient même utilisé un logiciel maison, baptisé « God view » (« Ce que voit Dieu », tout un programme…) pour montrer à leur assistance qu’ils pouvaient suivre en direct les déplacements de leurs clients… Ce qui constitue, bien sûr, une violation de la vie privée (sauf dans de très rare cas où cela serait justifié par des nécessités de service ou de sécurité).
Utilisation de God View lors du lancement de Uber à Boston (source : http://www.forbes.com/sites/kashmirhill/2014/10/03/god-view-uber-allegedly-stalked-users-for-party-goers-viewing-pleasure/)


Toutes ces informations sont remontées la surface à la suite d’une récente polémique opposant une journaliste de San Fransisco et un cadre d’Uber, qui se disait prêt à espionner la vie privée de cette dernière (dont il ne supporte pas les articles qu’elle consacre à son entreprise).

Au-delà de cette polémique, le plus choquant est, bien sûr, l’extrême indiscrétion des données collectées (par exemple, qui a fait un « walk of shame » et donc une rencontre d’une nuit, selon Uber) par une simple application sur un smartphone. Un sénateur américain vient d’ailleurs d’écrire aux dirigeants d’Uber pour leur demander des éclaircissements sur l’utilisation des données qu’ils collectent.

Si nous n’apprenons pas aujourd’hui à nos enfants à maîtriser leurs données, à faire respecter leur vie privée, demain ce sont les données des autres, qu’ils seront sans doute conduits à manipuler dans le cadre de leur travail, qu’ils ne respecteront pas. Et les outils formidables que constituent les nouvelles technologies pourraient bien donner naissance à une dictature numérique mondiale.

Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu’ils ne respecteront pas

Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.


Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin

Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).

Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.

Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?

Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.

Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?

Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.

Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».

Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.

Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).

Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?

Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »

Commençons par éduquer nos ados au respect de leur propre vie privée.

___
(1)  La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York,  2013 p. 15
(3) voir mon livre  « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).

Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu'ils ne respecteront pas

Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.


Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin

Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).

Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.

Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?

Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.

Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?

Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.

Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».

Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.

Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).

Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?

Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »

Commençons par éduquer nos ados au respect de leur propre vie privée.

___
(1)  La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York,  2013 p. 15
(3) voir mon livre  « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).

Notre double numérique, véritable enjeu du « droit à l’oubli »

La Cour de justice de l’Union européenne (CJUE) a rendu le 13 mai dernier une décision sur le « droit à l’oubli » : les moteurs de recherche comme Google devront répondre favorablement aux internautes qui souhaiteraient faire effacer des informations sur eux apparaissant sur des sites Web. Malheureusement, cette décision ne constitue qu’une première étape dans la défense de la vie privée. Au-delà des serveurs Internet qui révèlent des informations sur nous, il y a bien plus important à protéger : notre double numérique.

Quelque part dans le monde, à chaque instant, se créent des «doubles numériques» de nous-mêmes, à partir d’informations collectées sur Internet et/ou puisées dans des fichiers existants, contenant des informations parcellaires ou complètes, vraies ou fausses, actualisées ou anciennes, et pouvant être utilisés à des fins commerciales, policières, politiques ou d’espionnage économique.

Jacques Perriault a proposé dès 2003 «la notion de “double numérique” pour caractériser l’ensemble des données que les systèmes d’information recueillent stockent et traitent pour chaque individu [1]». Nous avons utilisé l’expression « double numérique » pour la première fois début 2006, pour parler des fichiers et des fichiers résultant des croisements de fichiers constitués à partir d’informations volontairement communiquées par les internautes-consommateurs-citoyens, mais aussi à partir d’informations collectées à l’insu de ces acteurs. Pour nous, un double numérique n’est donc pas constitué des traces que nous laissons, mais de l’interprétation (la transformation de l’information en savoir ou supposé tel) de ces traces.

Par exemple, lorsque l’utilisateur d’un “capteur de données” (comme le réseau social Facebook) crée son compte chez ce “capteur”, puis s’y connecte, il fournit à ce “capteur” : prénom, nom, date et lieu de naissance, centres d’intérêt, liste d’amis, date et heure de connexion, actualisation de son statut, photos publiées, clics sur des publicités, pages Web visitées contenant une “émanation” du capteur (bouton «J’aime» de Facebook), etc.

Le double numérique de cet utilisateur, compilé par le “capteur de données” (comme Facebook) pour un “marchand de données” (dans notre exemple les propres services commerciaux de Facebook), est souvent constitué d’une liste de centres d’intérêts déduits des données collectées. Cette liste de centre d’intérêts va permettre de classer cet individu dans tel ou tel profil publicitaire (cf. le concept de «database of intentions» de John Battelle [2]) :

Voici, par exemple, le double numérique, compilé par Facebook, d’une lycéenne de 17 ans [3], autrement dit les centres d’intérêts de cette jeune fille, en tout cas ce qu’en perçoit le réseau social :

Sujets publicitaires

  • #Venus

  • #Bookselling

  • #Book

  • #Million

  • #JC Lattès

  • #Whiskas

  • #Mario Vargas Llosa

  • #Francophone

  • #Paul Robert (lexicographer)

  • #Cat

  • #Leo Perutz

  • #French livre

  • #March



La fin de la vie privée ? Enjeux sociétaux, économiques et légaux des doubles numériques.

Les doubles numériques :


• peuvent révéler des pans entiers de la vie privée des internautes-consommateurs-citoyens, y compris des données sensibles (sexualité, préférences politiques…). Sur l’interface que le “capteur/marchand de données” Facebook met à la disposition de ses annonceurs, il est possiblede cibler des internautes en fonction d’intérêts supposés pour des drogues illégales ou des pratiques sexuelles [4].

• échappent partiellement ou totalement à la simple connaissance et encore plus au contrôle des individus ainsi “profilés”. Même si les utilisateurs des plateformes de socialisation décident de cacher telle ou telle information à leurs contacts, l’ensemble des informations qu’ils publient reste accessible aux programmes de profilage de ces plateformes. Les doubles numériques rendent donc plausible l’hypothèse de la fin de la vie privée, contrairement à ce que soutiennent, par exemple, Antonio A. Casilli [5] ou Isabelle Falque-Pierrotin, la présidente de la CNIL (Commission Nationale de l’Informatique et des Libertés) [6]. Si l’on retient comme définition de la vie privée, la possibilité de choisir les informations que l’on souhaite divulguer ou cacher à tels ou tels groupes de personnes [7], cette possibilité n’existe plus avec les doubles numériques.

• peuvent servir à influencer les comportements économiques ou politiques des individus, non seulement à travers des messages publicitaires, mais aussi en ne leur présentant que la partie d’un ensemble qui semble le mieux appropriée à leur double numérique, ce qui peut conduire à une distorsion de la perception de la réalité recherchée par l’utilisateur : le double numérique sert à nous montrer «ce qu’il pense que nous voulons voir [8]». Comment en sommes-nous arrivés à laisser des algorithmes décider de ce qui est bien pour nous ?

• constituent la première source de revenus de l’économie numérique [9]

• servent à surveiller les individus (concept de «dataveillance» de Roger Clarcke [10]) et alimentent une utopie de surveillance totale (projet américain TIA – Total Information Awareness – au lendemain des attentats du 11 septembre 2001 [11]). Utopie que la NSA tente de rendre réelle, comme l’ont montré les révélations de l’ancien consultant de la NSA Edward Snowden. Or, cette utopie remet en cause un des droits de l’homme communs à la plupart des démocraties modernes : «Tout homme étant présumé innocent jusqu’à ce qu’il ait été déclaré coupable […] [12] » ; et le transforme en «Tout individu peut être surveillé et est donc présumé suspect»

De la nécessité d’une recherche sur les doubles numériques


Les doubles numériques méritent donc d’être étudiés à travers les prismes d’au moins sept thèmes :


• “double numérique” et concept : pourquoi « double » plutôt que « simple » dimension supplémentaire d’être au monde et d’existence ? En quoi y a t il « double » plutôt qu’une nouvelle modalité de description des logiques d’actions, de relations, etc.;


• double numérique et dispositifs sociaux-numériques : description des processus de traçabilité et de profilage des utilisateurs qui permettent la création de ces «doubles numériques» ;


• double numérique et représentation de l’identité : «Apparaît un individu réifié devenant une chose manipulable» [ 13]. Le double numérique constitue-il pour l’homme une tentative ultime et désespérée – faute de pouvoir comprendre l’autre, voire de devenir l’autre – d’enfermer cet autre dans  des espaces préconçus ? Quelles sont les conséquences de cette vision réductrice de l’homme (normalement, « […] la répétition la plus exacte, la plus stricte a pour corrélat le maximum de différence » [14]?) sur la doxa (« Ensemble des opinions communes aux membres d’une société et qui sont relatives à un comportement social ») des relations hommes-machines, machines-machines et éventuellement hommes-hommes ?


• double numérique et marchandisation des données : usages commerciaux, policiers et politiques qui peuvent être faits de ces doubles numériques et des abus que ces usages peuvent entraîner. Les doubles numériques, « dans le contexte de l’auto-constitution ontologique du client à partir de son commerce des objets et des services, de sa position dans l’espace-temps numérique à n dimensions, géolocalisé, et à partir de ses énoncés prescriptifs validés [15] » offrent de bien meilleures capacités de profilage que les cartes de paiement ou les cartes de fidélités.

• double numérique et influence : interactions entre les «doubles numériques» et les internautes-consommateurs-citoyens : influence des doubles numériques sur les internautes (en ne nous montrant que ce qu’ils pensent que nous voulons voir, les doubles numériques ne se donnent-ils pas raison ?) ; influence des internautes sur les doubles numériques (boucles d’apprentissage [16] mises au point par les doubles numériques pour améliorer le profilage des internautes en fonction des réactions de ces derniers aux propositions commerciales qui leur sont faites)


• double numérique et surveillance : remise en cause de la notion de vie privée ; remise en cause de la présomption d’innocence ; mais qui surveille qui ? « Avec la nouvelle donne technique, le contrôlé peut désormais avoir accès à des moyens de contrôle utilisés par le contrôleur. De surveillé, il peut devenir à son tour surveillant. [17] »

• double numérique et citoyenneté : perception des doubles numériques par les internautes-consommateurs-citoyens ; éducation des internautes-consommateurs-citoyens à la perception et à la défense de leurs doubles-numériques


• double numérique et propriété : comment reprendre le contrôle de nos données ? Certains experts militent pour un renforcement des législations existantes, d’autres pour un nouveau droit de la propriété des données ou pour de nouvelles technologies [18].


Conclusion

Dans un contexte de dissémination générale des nouvelles technologies, les doubles numériques remettent en cause les notions mêmes de vies privée, citoyenne et politique. Ils constituent donc un enjeu sociétal majeur dans les sociétés numériques et imposent de bousculer «les cloisonnements disciplinaires, en ouvrant de nouvelles voies de recherche, mais aussi en accompagnant de nouvelles formes d’expérimentation sociales, territoriales, éducatives ou cognitives [19] »

Bibliographie


[1] Perriault Jacques, 2009, «Traces numériques personnelles, incertitude et lien social», Traçabilité et réseaux, Hermès 53, CNRS Editions, avril 2009, Paris, p. 15.

[3] Pour connaître la procédure qui  permet d’obtenir la liste des catégories dans lesquelles Facebook range chacun d’entre nous, voir http://tousfiches.com/2013/01/comment-savoir-dans-quelles-categories.html

[5] Casilli A. A. 2013, «Contre l’hypothèse de la « fin de la vie privée », La négociation de la privacy dans les médias sociaux, Revue Française des Sciences de l’Information et de la Communication N°3, 2013, http://rfsic.revues.org/630

[7] Nippert-Eng, Christina. 2010, Islands of Privacy, University of Chicago Press, Chicago, octobre, 416 pages

[8] Eli Pariser, 2011, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press, New York

[9]voir, entre autres, Lafrance J.-P., 2013, «L’économie numérique : la réalité derrière le miracle des NTIC, Revue Française des Sciences de l’Information et de la Communication N°3, http://rfsic.revues.org/639

[11] Mattelart Armand, 2008, La globalisation de la surveillance, La Découverte, Paris, p. 173

[12] extrait de l’article 9 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 ; http://www.legifrance.gouv.fr/Droit-francais/Constitution/Declaration-des-Droits-de-l-Homme-et-du-Citoyen-de-1789

[13] Franck Renucci, Benoît Le Blanc et Samuel Lepastier, 2014, «Introduction générale», L’Autre n’est pas une donnée, Hermès 68, CNRS Editions, avril 2014, Paris, p. 12.

[14] Deleuze Gilles, 1968, Différence et répétition, PUF, Paris, p. 5

[15] Noyer Jean-Max, 2013, « Les vertiges de l’hyper-marketing : Data Mining et production sémiotique », Les débats du numériques, Presse des Mines, Paris, p. 61

[16] Argyris Chris, 1976, «Single-Loop and Double-Loop Models in Research on Decision Making», Administrative Science Quarterly, Vol. 21, No. 3, Johnson Graduate School of Management, Cornell University, Septembre, pp. 363-375 Accès internet : http://academic.udayton.edu/richardghere/igo%20ngo%20research/argyris.pdf

[17] Mattelart Armand, Vitalis André, 2014, Le profilage des populations – Du livret ouvrier au cybercontrôle, La Découverte, Paris, p. 205

[19] Maignien Yannick, 2013, «Quelles redistributions de pouvoirs autour des “automates sémantiques” ?», Les débats du numériques, Presse des Mines, Paris, p. 226