Archives de catégorie : Vie privée

Sur RTL pour parler de Facebook et de nos données, qu’il utilise pour gagner de l’argent

J’étais l’invité lundi dernier, 18 septembre 2017, de la seconde partie de La curiosité est un vilain défaut, l’émission que Sidonie Bonnec et Thomas Hugues animent tous les jours de la semaine sur RTL, entre 14H et 15H.

Au programme : comment Facebook s’empare des données que nous lui confions en nous inscrivant et en utilisant ce réseau social  ; comment ils nous suit à la trace sur tous les sites Web disposant d’un bouton « J’aime » ; comment Facebook gagne de l’argent avec ces informations ; et pourquoi il est régulièrement pointé du doigt par la CNIL et d’autres agences européennes de protection des données…

Une émission à réécouter sur http://ift.tt/2jCkz8N (cliquez sur le fichier Facebook, en dessous de la photo des deux animateurs).

 

Les implants médicaux, futures cibles pour les pirates

Capture Les Echos 29 novembre 2016J’ai publié ce matin dans le quotidien Les Echos une enquête sur les appareils médicaux implantés dans le corps et qui  sont de plus en plus facilement piratables, comme l’ont révélé plusieurs études scientifiques. Les parades restent à mettre au point.

 

Très mauvaise nouvelle pour les millions de porteurs à travers le monde d’un stimulateur cardiaque, d’une pompe à insuline, d’électrodes pour la stimulation cérébrale profonde (utilisées pour soulager des douleurs chroniques ou pour atténuer les tremblements provoqués par la maladie de Parkinson) : ces implants sont facilement piratables. Avec des conséquences potentiellement dramatiques… La suite sur http://www.lesechos.fr/idees-debats/sciences-prospective/0211451070124-les-implants-medicaux-futures-cibles-pour-les-pirates-2046323.php

Cet article comprend également un encadré sur la discrétion observée par les fabricants de ces implants sur les risques de piratage qu’encourent leurs porteurs : http://www.lesechos.fr/idees-debats/sciences-prospective/0211451118962-des-fabricants-tres-discrets-2046307.php

Facebook : la CNIL inflige un camouflet à son équivalent irlandais

COUV_PREDATEURS_VALLEE_130x200_BAT_2Dès mai 2012, j’avais signalé à la CNIL que Facebook collectait des données sensibles (opinion politique, religion, pratiques sexuelles…) en toute illégalité. En réalité, à travers Facebook, c’est l’équivalent irlandais de la CNIL qui semble visé. Quelques jours après qu’Isabelle Falque-Pierrotin, la présidente de la CNIL, ait été réélue à la tête du G29, le groupe de travail qui rassemble les CNIL européennes…

La CNIL (Commission Nationale de l’Informatique et des Libertés) a, hier, publiquement mis en demeure Facebook de se conformer à la loi Informatique et Libertés.

La CNIL a relevé  cinq manquements à la législation française : 

• grâce à des cookies, le réseau social est capable de « suivre la navigation des internautes, à leur insu, sur des sites tiers [contenant un bouton Facebook même si ces Internautes] ne disposent pas de compte Facebook ». 

• Facebook dépose sur l’ordinateur des internautes des cookies à finalité publicitaire, sans les en avoir au préalable correctement informés ni avoir recueilli leur consentement.

• pour mieux connaître les centres d’intérêt de ses membres et leur afficher de la publicité ciblée, le réseau social « procède à la combinaison de toutes les données personnelles qu’il détient sur eux, [qu’elles soient] fournies par les internautes eux-mêmes, collectées par le site, par les autres sociétés du groupe ou transmises par des partenaires commerciaux. » Mais les Internautes ne peuvent pas s’opposer à cette regroupement de données.

• le site « transfère les données personnelles de ses membres aux Etats-Unis sur la base du Safe harbor », ce qui n’est plus possible depuis octobre 2015.

• Enfin, Facebook « ne recueille pas le consentement exprès des internautes lors de la collecte et du traitement des données relatives à leurs opinions politiques, ou religieuses, et à leur orientation sexuelle. » 

Je suis étonné que la CNIL ne s’attaque à ce dernier problème que maintenant. En effet, dès mai 2012, j’avais signalé à la CNIL que Facebook collectait des données sensibles (opinion politique, religion, pratiques sexuelles…) en toute illégalité : « Facebook permet aux annonceurs de cibler les Internautes en fonction de leurs centres d’intérêt – déclarés ou supposés – pour certaines pratiques sexuelles ou pour la drogue. »

Contactée à l’époque, Sophie Nerbonne, directeur adjoint des affaires juridiques de la CNIL, m’avait alors confirmé qu’ «il s’agit d’une utilisation de données sensibles à des fins publicitaires. L’accord préalable des internautes à l’utilisation de ces données aurait dû être recueilli par Facebook. Et le réseau social ne peut pas s’abriter derrière les conditions générales d’utilisation que doit approuver tout nouvel Internaute qui s’inscrit à ses services : ce document ne peut pas suffire pour recueillir le consentement préalable à l’utilisation de données sensibles.»

Pourquoi a-t-il fallu attendre près de quatre ans pour que la CNIL réagisse ?

Le siège social de Facebook Europe étant en Ireland, c’est « the Office of the Data Protection Commissioner », l’équivalent irlandais de la CNIL, qui est plus particulièrement chargé du dossier Facebook. En mai 2012, j’avais d’ailleurs transmis à cet organisme les mêmes remarques qu’à la CNIL. Il s’en était suivi un long échange de mails avec the Office of the Data Protection Commissioner, échange qui s’était achevé en mars 2014 par un dernier message où je demandé aux représentants du Commissioner pourquoi la CNIL irlandaise était aussi indulgente avec le réseau social et quelles sanctions étaient prévues si celui-ci ne se respectait pas leurs demandes… 

En désespoir de cause, j’avais transmis tous ces documents à la CNIL française.

La mise en demeure de Facebook par la CNIL française constitue donc un sérieux camouflet pour le  Data Protection Commissioner irlandais, qui est, normalement, en charge de ce dossier.

Sollicité par courrier électronique, le  Data Protection Commissioner irlandais m’a répondu qu’il « n’avait pas de commentaire à faire sur cette affaire. »

L’assurance et les défis des objets connectés

Les assureurs veulent utiliser les informations collectées par les capteurs de nos voitures ou de nos maisons pour personnaliser les contrats. Mais n’osent pas toucher à leur offre santé. Pour l’instant

J’ai publié ce matin dans le quotidien les Echos une enquête sur l’intérêt que les compagnies d’assurances portent aux objets connectés :

« Grâce aux capteurs dont ils sont équipés, ces objets produisent des données, beaucoup de données […] Ces objets, et les informations qu’ils transmettent sur nos comportements, intéressent au premier chef les assureurs, désireux de toujours mieux évaluer nos profils : jeune conducteur prudent, homme de cinquante-cinq ans sédentaire, citadin qui ne branche jamais l’alarme de son domicile, etc. »

Vous pouvez lire la suite sur http://www.lesechos.fr/idees-debats/sciences-prospective/0204190147952-pourquoi-les-objets-connectes-font-rever-les-compagnies-dassurances-1098284.php?fyoLBWxD24wTtpw3.99

Cet article compote également un encadré sur une start-up américaine qui invite les propriétaires de smartphones à se fixer des objectifs hebdomadaires en termes d’alimentation ou de pratique du sport : si les objectifs sont atteints, l’internaute perçoit une récompense de quelques dollars ; sinon, il doit verser une amende ! Ce système de « carotte/bâton » préfigure-t-il nos futures relations avec la Sécurité Sociale ou notre mutuelle ? Vous pouvez lire « Punir ou récompenser » en cliquant sur le lien suivant : http://www.lesechos.fr/journal20150303/lec1_idees_et_debats/0204193507679-punir-ou-recompenser-1098152.php

Comment Uber tente de faire taire les critiques sur sa collecte de données

La start-up était critiquée pour les données qu’elle collectait sur ses clients ? Ses dirigeants répliquent par un plan de communication démontrant que les informations recueillies par Uber peuvent aider à améliorer le fonctionnement des grandes villes.

A la fin de l’année dernière, Uber, la société de San Francisco, spécialisée dans les véhicules avec chauffeur, a dû faire face à de très nombreuses critiques sur sa collecte d’information (lire : « Uber en sait-il plus sur nous que Facebook ? Ou une autre raison d’apprendre à nos enfants à respecter la vie privée »).

Quelques semaines plus tard, les dirigeants de la start-up californienne pensent avoir trouvé la parade sous la forme d’un plan de communication mettant en avant l’intérêt, pour la gestion des villes, de données recueillies par Uber.

Le Wall Street Journal (http://blogs.wsj.com/digits/2015/01/13/uber-offers-trip-data-to-cities-starting-in-boston/), le Washington Post (http://www.washingtonpost.com/blogs/wonkblog/wp/2015/01/13/uber-offers-cities-an-olive-branch-its-valuable-trip-data/), le New York Times (http://www.nytimes.com/aponline/2015/01/14/us/ap-us-boston-uber.html?_r=0), le Monde (http://siliconvalley.blog.lemonde.fr/2015/01/14/uber-accepte-de-fournir-les-donnees-de-navigation-aux-autorites/), entre autres, ont relaté au cours des derniers jours, comment Uber allait mettre à la disposition des grandes villes américaines des données anonymisées. Ces informations (heure et code postal de départ, heure et code postal d’arrivée) sont censées aider les mairies à mieux planifier leurs travaux (construction de nouvelles infrastructures – routes, transports en commun… – entretien de la voirie…).

En communication de crise, cela s’appelle prendre son interlocuteur à contre-pied : « Vous nous critiquez pour notre collecte de données ? Voyez comment ces données peuvent être utiles à la collectivité ». Le pire c’est que cela semble marcher !

 

Rendez-nous nos données !

J’ai publié ce matin dans les Echos une enquête sur la protection des données personnelles sur le Web, un enjeu crucial pour les années à venir, les internautes se montrant de plus en plus sensibles à l’utilisation de ces informations. Réseaux sociaux, entreprises et chercheurs travaillent à des solutions.

En savoir plus sur http://www.lesechos.fr/journal20141125/lec1_idees_et_debats/0203904882078-proteger-la-vie-privee-un-business-davenir-1067705.php?YRkPceERb6D2HP16.99

Cet article comprend également deux encadrés :

• une interview de la présidente de la CNIL (Commission Nationale de l’Informatique et des Libertés), Isabelle Falque-Pierrotin : « Ceux qui pensent être propriétaires de nos données se trompent »

En savoir plus sur http://www.lesechos.fr/idees-debats/sciences-prospective/0203937716964-isabelle-falque-pierrotin-ceux-qui-pensent-etre-proprietaires-de-nos-donnees-se-trompent-1067857.php?h37KD1tc88re4wRA.99

• Héberger ses données chez soi

En savoir plus sur http://www.lesechos.fr/journal20141125/lec1_idees_et_debats/0203904882396-heberger-ses-donnees-chez-soi-1067774.php

Uber en sait-il plus sur nous que Facebook ? Ou une autre raison d’apprendre à nos enfants à respecter la vie privée.

L’entreprise spécialisée dans les véhicules avec chauffeur se vante de savoir qui a eu une aventure d’un soir.

Les anglo-saxons appellent cela le « walk of shame », « la marche de la honte », le trajet qui sépare son appartement de celui de son partenaire d’une nuit : quelqu’un rentre chez lui/elle, mal rasé ou sans maquillage, tôt le matin après avoir passé une partie de la nuit chez un/une partenaire rencontré(e) dans un bar, une soirée… Bradley Voytek préfère, lui,  parler de « ride of glory » (trajet de la gloire).
Portrait de Bradley Voytek sur son site http://darb.ketyov.com/

Le plus troublant, c’est que Bradley Voytek est data evangelist (il promeut l’analyse des données) pour Uber, l’application qui permet de commander une voiture avec chauffeur. Et que Bradley Voytek se vante de pouvoir utiliser les données collectées par les ordinateurs de cette entreprise pour savoir qui a eu une aventure d’un soir… Sur le blog qu’il tient pour Uber, Bradley Voytek s’est livré à une longue analyse des « rides of glory » dans six villes américaines, démontrant leur augmentation en fin de semaine (le samedi matin et le dimanche matin) et, dans l’année, par exemple au moment du Tax Day (date limite, vers le 15 avril, aux Etats-Unis pour remplir sa déclaration de revenus ; certains Américains reçoivent alors un remboursement de la part du Fisc…). En revanche, le nombre de « rides of glory » s’effondre à l’approche de la Saint Valentin…
Evolution du nombre de « Rides of Glory » au cours d’une année (source : http://blog.uber.com/ridesofglory)

 

Dans un message précédent, Bradley Voytek avait même établi une corrélation, toujours grâce aux données collectées par Uber, entre le versement des chèques d’allocation et de la Sécurité sociale (les deuxième, troisième et quatrième mercredis du mois, aux Etats-Unis) et la fréquentation des prostituées.

Bien sûr, pour ses calculs, Bradley Voytek n’utilise que des données anonymisées. Mais avant d’être anonymisées, ces données correspondent à des cas réels dont elles révèlent toute la vie. Lors des réunions que les dirigeants d’Uber organisent avant l’ouverture de leur service dans une nouvelle ville, ces responsables auraient même utilisé un logiciel maison, baptisé « God view » (« Ce que voit Dieu », tout un programme…) pour montrer à leur assistance qu’ils pouvaient suivre en direct les déplacements de leurs clients… Ce qui constitue, bien sûr, une violation de la vie privée (sauf dans de très rare cas où cela serait justifié par des nécessités de service ou de sécurité).
Utilisation de God View lors du lancement de Uber à Boston (source : http://www.forbes.com/sites/kashmirhill/2014/10/03/god-view-uber-allegedly-stalked-users-for-party-goers-viewing-pleasure/)


Toutes ces informations sont remontées la surface à la suite d’une récente polémique opposant une journaliste de San Fransisco et un cadre d’Uber, qui se disait prêt à espionner la vie privée de cette dernière (dont il ne supporte pas les articles qu’elle consacre à son entreprise).

Au-delà de cette polémique, le plus choquant est, bien sûr, l’extrême indiscrétion des données collectées (par exemple, qui a fait un « walk of shame » et donc une rencontre d’une nuit, selon Uber) par une simple application sur un smartphone. Un sénateur américain vient d’ailleurs d’écrire aux dirigeants d’Uber pour leur demander des éclaircissements sur l’utilisation des données qu’ils collectent.

Si nous n’apprenons pas aujourd’hui à nos enfants à maîtriser leurs données, à faire respecter leur vie privée, demain ce sont les données des autres, qu’ils seront sans doute conduits à manipuler dans le cadre de leur travail, qu’ils ne respecteront pas. Et les outils formidables que constituent les nouvelles technologies pourraient bien donner naissance à une dictature numérique mondiale.

Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu’ils ne respecteront pas

Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.


Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin

Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).

Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.

Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?

Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.

Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?

Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.

Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».

Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.

Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).

Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?

Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »

Commençons par éduquer nos ados au respect de leur propre vie privée.

___
(1)  La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York,  2013 p. 15
(3) voir mon livre  « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).

Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu'ils ne respecteront pas

Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.


Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin

Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).

Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.

Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?

Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.

Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?

Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.

Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».

Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.

Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).

Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?

Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »

Commençons par éduquer nos ados au respect de leur propre vie privée.

___
(1)  La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York,  2013 p. 15
(3) voir mon livre  « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).

Notre double numérique, véritable enjeu du « droit à l’oubli »

La Cour de justice de l’Union européenne (CJUE) a rendu le 13 mai dernier une décision sur le « droit à l’oubli » : les moteurs de recherche comme Google devront répondre favorablement aux internautes qui souhaiteraient faire effacer des informations sur eux apparaissant sur des sites Web. Malheureusement, cette décision ne constitue qu’une première étape dans la défense de la vie privée. Au-delà des serveurs Internet qui révèlent des informations sur nous, il y a bien plus important à protéger : notre double numérique.

Quelque part dans le monde, à chaque instant, se créent des «doubles numériques» de nous-mêmes, à partir d’informations collectées sur Internet et/ou puisées dans des fichiers existants, contenant des informations parcellaires ou complètes, vraies ou fausses, actualisées ou anciennes, et pouvant être utilisés à des fins commerciales, policières, politiques ou d’espionnage économique.

Jacques Perriault a proposé dès 2003 «la notion de “double numérique” pour caractériser l’ensemble des données que les systèmes d’information recueillent stockent et traitent pour chaque individu [1]». Nous avons utilisé l’expression « double numérique » pour la première fois début 2006, pour parler des fichiers et des fichiers résultant des croisements de fichiers constitués à partir d’informations volontairement communiquées par les internautes-consommateurs-citoyens, mais aussi à partir d’informations collectées à l’insu de ces acteurs. Pour nous, un double numérique n’est donc pas constitué des traces que nous laissons, mais de l’interprétation (la transformation de l’information en savoir ou supposé tel) de ces traces.

Par exemple, lorsque l’utilisateur d’un “capteur de données” (comme le réseau social Facebook) crée son compte chez ce “capteur”, puis s’y connecte, il fournit à ce “capteur” : prénom, nom, date et lieu de naissance, centres d’intérêt, liste d’amis, date et heure de connexion, actualisation de son statut, photos publiées, clics sur des publicités, pages Web visitées contenant une “émanation” du capteur (bouton «J’aime» de Facebook), etc.

Le double numérique de cet utilisateur, compilé par le “capteur de données” (comme Facebook) pour un “marchand de données” (dans notre exemple les propres services commerciaux de Facebook), est souvent constitué d’une liste de centres d’intérêts déduits des données collectées. Cette liste de centre d’intérêts va permettre de classer cet individu dans tel ou tel profil publicitaire (cf. le concept de «database of intentions» de John Battelle [2]) :

Voici, par exemple, le double numérique, compilé par Facebook, d’une lycéenne de 17 ans [3], autrement dit les centres d’intérêts de cette jeune fille, en tout cas ce qu’en perçoit le réseau social :

Sujets publicitaires

  • #Venus

  • #Bookselling

  • #Book

  • #Million

  • #JC Lattès

  • #Whiskas

  • #Mario Vargas Llosa

  • #Francophone

  • #Paul Robert (lexicographer)

  • #Cat

  • #Leo Perutz

  • #French livre

  • #March



La fin de la vie privée ? Enjeux sociétaux, économiques et légaux des doubles numériques.

Les doubles numériques :


• peuvent révéler des pans entiers de la vie privée des internautes-consommateurs-citoyens, y compris des données sensibles (sexualité, préférences politiques…). Sur l’interface que le “capteur/marchand de données” Facebook met à la disposition de ses annonceurs, il est possiblede cibler des internautes en fonction d’intérêts supposés pour des drogues illégales ou des pratiques sexuelles [4].

• échappent partiellement ou totalement à la simple connaissance et encore plus au contrôle des individus ainsi “profilés”. Même si les utilisateurs des plateformes de socialisation décident de cacher telle ou telle information à leurs contacts, l’ensemble des informations qu’ils publient reste accessible aux programmes de profilage de ces plateformes. Les doubles numériques rendent donc plausible l’hypothèse de la fin de la vie privée, contrairement à ce que soutiennent, par exemple, Antonio A. Casilli [5] ou Isabelle Falque-Pierrotin, la présidente de la CNIL (Commission Nationale de l’Informatique et des Libertés) [6]. Si l’on retient comme définition de la vie privée, la possibilité de choisir les informations que l’on souhaite divulguer ou cacher à tels ou tels groupes de personnes [7], cette possibilité n’existe plus avec les doubles numériques.

• peuvent servir à influencer les comportements économiques ou politiques des individus, non seulement à travers des messages publicitaires, mais aussi en ne leur présentant que la partie d’un ensemble qui semble le mieux appropriée à leur double numérique, ce qui peut conduire à une distorsion de la perception de la réalité recherchée par l’utilisateur : le double numérique sert à nous montrer «ce qu’il pense que nous voulons voir [8]». Comment en sommes-nous arrivés à laisser des algorithmes décider de ce qui est bien pour nous ?

• constituent la première source de revenus de l’économie numérique [9]

• servent à surveiller les individus (concept de «dataveillance» de Roger Clarcke [10]) et alimentent une utopie de surveillance totale (projet américain TIA – Total Information Awareness – au lendemain des attentats du 11 septembre 2001 [11]). Utopie que la NSA tente de rendre réelle, comme l’ont montré les révélations de l’ancien consultant de la NSA Edward Snowden. Or, cette utopie remet en cause un des droits de l’homme communs à la plupart des démocraties modernes : «Tout homme étant présumé innocent jusqu’à ce qu’il ait été déclaré coupable […] [12] » ; et le transforme en «Tout individu peut être surveillé et est donc présumé suspect»

De la nécessité d’une recherche sur les doubles numériques


Les doubles numériques méritent donc d’être étudiés à travers les prismes d’au moins sept thèmes :


• “double numérique” et concept : pourquoi « double » plutôt que « simple » dimension supplémentaire d’être au monde et d’existence ? En quoi y a t il « double » plutôt qu’une nouvelle modalité de description des logiques d’actions, de relations, etc.;


• double numérique et dispositifs sociaux-numériques : description des processus de traçabilité et de profilage des utilisateurs qui permettent la création de ces «doubles numériques» ;


• double numérique et représentation de l’identité : «Apparaît un individu réifié devenant une chose manipulable» [ 13]. Le double numérique constitue-il pour l’homme une tentative ultime et désespérée – faute de pouvoir comprendre l’autre, voire de devenir l’autre – d’enfermer cet autre dans  des espaces préconçus ? Quelles sont les conséquences de cette vision réductrice de l’homme (normalement, « […] la répétition la plus exacte, la plus stricte a pour corrélat le maximum de différence » [14]?) sur la doxa (« Ensemble des opinions communes aux membres d’une société et qui sont relatives à un comportement social ») des relations hommes-machines, machines-machines et éventuellement hommes-hommes ?


• double numérique et marchandisation des données : usages commerciaux, policiers et politiques qui peuvent être faits de ces doubles numériques et des abus que ces usages peuvent entraîner. Les doubles numériques, « dans le contexte de l’auto-constitution ontologique du client à partir de son commerce des objets et des services, de sa position dans l’espace-temps numérique à n dimensions, géolocalisé, et à partir de ses énoncés prescriptifs validés [15] » offrent de bien meilleures capacités de profilage que les cartes de paiement ou les cartes de fidélités.

• double numérique et influence : interactions entre les «doubles numériques» et les internautes-consommateurs-citoyens : influence des doubles numériques sur les internautes (en ne nous montrant que ce qu’ils pensent que nous voulons voir, les doubles numériques ne se donnent-ils pas raison ?) ; influence des internautes sur les doubles numériques (boucles d’apprentissage [16] mises au point par les doubles numériques pour améliorer le profilage des internautes en fonction des réactions de ces derniers aux propositions commerciales qui leur sont faites)


• double numérique et surveillance : remise en cause de la notion de vie privée ; remise en cause de la présomption d’innocence ; mais qui surveille qui ? « Avec la nouvelle donne technique, le contrôlé peut désormais avoir accès à des moyens de contrôle utilisés par le contrôleur. De surveillé, il peut devenir à son tour surveillant. [17] »

• double numérique et citoyenneté : perception des doubles numériques par les internautes-consommateurs-citoyens ; éducation des internautes-consommateurs-citoyens à la perception et à la défense de leurs doubles-numériques


• double numérique et propriété : comment reprendre le contrôle de nos données ? Certains experts militent pour un renforcement des législations existantes, d’autres pour un nouveau droit de la propriété des données ou pour de nouvelles technologies [18].


Conclusion

Dans un contexte de dissémination générale des nouvelles technologies, les doubles numériques remettent en cause les notions mêmes de vies privée, citoyenne et politique. Ils constituent donc un enjeu sociétal majeur dans les sociétés numériques et imposent de bousculer «les cloisonnements disciplinaires, en ouvrant de nouvelles voies de recherche, mais aussi en accompagnant de nouvelles formes d’expérimentation sociales, territoriales, éducatives ou cognitives [19] »

Bibliographie


[1] Perriault Jacques, 2009, «Traces numériques personnelles, incertitude et lien social», Traçabilité et réseaux, Hermès 53, CNRS Editions, avril 2009, Paris, p. 15.

[3] Pour connaître la procédure qui  permet d’obtenir la liste des catégories dans lesquelles Facebook range chacun d’entre nous, voir http://tousfiches.com/2013/01/comment-savoir-dans-quelles-categories.html

[5] Casilli A. A. 2013, «Contre l’hypothèse de la « fin de la vie privée », La négociation de la privacy dans les médias sociaux, Revue Française des Sciences de l’Information et de la Communication N°3, 2013, http://rfsic.revues.org/630

[7] Nippert-Eng, Christina. 2010, Islands of Privacy, University of Chicago Press, Chicago, octobre, 416 pages

[8] Eli Pariser, 2011, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press, New York

[9]voir, entre autres, Lafrance J.-P., 2013, «L’économie numérique : la réalité derrière le miracle des NTIC, Revue Française des Sciences de l’Information et de la Communication N°3, http://rfsic.revues.org/639

[11] Mattelart Armand, 2008, La globalisation de la surveillance, La Découverte, Paris, p. 173

[12] extrait de l’article 9 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 ; http://www.legifrance.gouv.fr/Droit-francais/Constitution/Declaration-des-Droits-de-l-Homme-et-du-Citoyen-de-1789

[13] Franck Renucci, Benoît Le Blanc et Samuel Lepastier, 2014, «Introduction générale», L’Autre n’est pas une donnée, Hermès 68, CNRS Editions, avril 2014, Paris, p. 12.

[14] Deleuze Gilles, 1968, Différence et répétition, PUF, Paris, p. 5

[15] Noyer Jean-Max, 2013, « Les vertiges de l’hyper-marketing : Data Mining et production sémiotique », Les débats du numériques, Presse des Mines, Paris, p. 61

[16] Argyris Chris, 1976, «Single-Loop and Double-Loop Models in Research on Decision Making», Administrative Science Quarterly, Vol. 21, No. 3, Johnson Graduate School of Management, Cornell University, Septembre, pp. 363-375 Accès internet : http://academic.udayton.edu/richardghere/igo%20ngo%20research/argyris.pdf

[17] Mattelart Armand, Vitalis André, 2014, Le profilage des populations – Du livret ouvrier au cybercontrôle, La Découverte, Paris, p. 205

[19] Maignien Yannick, 2013, «Quelles redistributions de pouvoirs autour des “automates sémantiques” ?», Les débats du numériques, Presse des Mines, Paris, p. 226