J’ai été interrogé, aux côtés d’autres experts, pour la couverture du Point de cette semaine consacrée aux écrans.
https://www.lepoint.fr/versions-numeriques/
N° 2452 –
Archives de catégorie : Silicon Valley / Prédateurs Vallée ?
Le RGPD ne serait-il qu’une passoire ?

Armand Heslot (CNIL) : « Une application que vous avez installée sur votre smartphone peut transférer aux annonceurs vos données de géolocalisation »
![]() |
Armand Heslot (service de l’expertise technologique de la CNIL) |
- Comment nos données de géolocalisation sont-elles partagées par les plateformes d’« ad exchange » ?
- Armand Heslot : La plupart des espaces publicitaires sur les mobiles ou le Web sont effectivement vendus aux enchères par l’intermédiaire de réseaux de commercialisation de publicités, appelés plateformes d’« ad exchange ». Les échanges d’informations ayant lieu au sein de ces plateformes sont régis par des spécifications techniques élaborées par l’Interactive Advertising Bureau, une organisation regroupant les principaux acteurs de la publicité en ligne. J’invite d’ailleurs tous vos lecteurs à consulter la spécification « open RTB » (pour « real-time bidding », enchère en temps réel) de l’IAB. Ils y verront quels formats sont utilisés et surtout quels types d’information sur leur géolocalisation peuvent être transmises : leurs coordonnées GPS, leur adresse IP ou une localisation qu’ils ont eux-mêmes communiquée à un site ou une application.
- Quelles sont les conséquences pour l’utilisateur d’une application sur smartphone ?
- Armand Heslot : Une application que vous avez installée sur votre smartphone peut transférer aux annonceurs qui lui achètent des espaces publicitaires vos données de géolocalisation très précises, obtenues par l’intermédiaire du GPS de votre téléphone. Si vous désactivez la géolocalisation sur votre mobile ou si vous ne donnez pas les autorisations d’accès à la géolocalisation à une application, celle-ci ne pourra plus accéder à vos coordonnées GPS, mais elle pourra utiliser d’autre moyens pour avoir une estimation de votre localisation comme votre adresse IP ou l’adresse physique que vous avez déclarée en vous inscrivant sur cette application…
- Ces transferts d’informations de géolocalisation ne sont pas encadrés par la loi ?
- Armand Heslot : Si, la CNIL considère que la collecte de données de géolocalisation précises nécessite le consentement des personnes. Par ailleurs, la directive européenne du 12 juillet 2002 sur la protection de la vie privée dans le secteur des communications électroniques, appelée également directive « ePrivacy » encadre la collecte des données sur mobile et sur le web (Cette directive est en pleine réécriture au niveau européen et devrait être transformée en un règlement). Elle a été traduite et transcrite dans le droit français en août 2011, et a donné lieu à la recommandation du 5 décembre 2013, dans laquelle la CNIL a estimé que la collecte et le transfert de telles données devaient faire l’objet d’un consentement de la part des internautes. Ce que la CNIL constate au travers de ses contrôles, c’est que même si des mécanismes de demande d’autorisation des utilisateurs sont mis en place, l’information est trop souvent incomplète, ce qui rend le consentement des personnes non valable.
Propos recueillis par Jacques Henno
Les principaux acteurs de l’« ad exchange »
- AppNexus
- DoubleClick (Google/Alphabet…)
- Oath (marque réunissant AOL, Yahoo!…)
- OpenX
- Rubicon Project Exchange
- Smaato
- …
Sur RTL pour parler de Facebook et de nos données, qu’il utilise pour gagner de l’argent
J’étais l’invité lundi dernier, 18 septembre 2017, de la seconde partie de La curiosité est un vilain défaut, l’émission que Sidonie Bonnec et Thomas Hugues animent tous les jours de la semaine sur RTL, entre 14H et 15H.
Au programme : comment Facebook s’empare des données que nous lui confions en nous inscrivant et en utilisant ce réseau social ; comment ils nous suit à la trace sur tous les sites Web disposant d’un bouton « J’aime » ; comment Facebook gagne de l’argent avec ces informations ; et pourquoi il est régulièrement pointé du doigt par la CNIL et d’autres agences européennes de protection des données…
Une émission à réécouter sur http://ift.tt/2jCkz8N (cliquez sur le fichier Facebook, en dessous de la photo des deux animateurs).
Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu'ils ne respecteront pas
Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.
Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin
Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).
Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.
Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?
Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.
Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?
Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.
Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».
Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.
Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).
Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?
Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »
Commençons par éduquer nos ados au respect de leur propre vie privée.
___
(1) La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York, 2013 p. 15
(3) voir mon livre « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).
Pourquoi il faut apprendre aux enfants à bien paramétrer Facebook : demain, ce seront les données des autres qu’ils ne respecteront pas
Devenus adultes, les ados d’aujourd’hui travailleront peut-être dans l’analyse des données, un métier en plein essor. Si nous ne les aidons pas, maintenant, à faire respecter, sur Facebook, leur intimité et à respecter celle de leurs amis, ils risquent fort de ne pas acquérir de bons réflexes en termes de défense de la vie privée. Et de conserver ces comportements dans leur travail, où ils seront justement conduits à manipuler des données personnelles. Les conséquences pourraient être catastrophiques sur les libertés individuelles.
Adam D. I. Kramer, Jamie E. Guillory et Jeffrey T. Hancock – photos extraites de leurs profils Facebook ou Linkedin
Trois brillants trentenaires américains, Adam D. I. Kramer, «data scientist» (data scientifique ou chargé de modélisation des données) au service « Recherche » de Facebook, Jamie E. Guillory, chercheuse postdoctorale à l’université de San Francisco, et Jeffrey T. Hancock, professeur à l’université Cornell (Ithaca, état de New York), ont publié le 17 juin 2014 une étude intitulée « Preuve expérimentale de contagion émotionnelle à grande échelle par l’intermédiaire des réseaux sociaux » (« Experimental evidence of massive-scale emotional contagion through social networks »).
Ces trois titulaires d’un doctorat (en communication pour la jeune femme et en psychologie pour ses deux collègues) y affirment avoir modifié les contenus vus par 689 003 utilisateurs, consultant Facebook en anglais, du 11 au 18 janvier 2012 ; ils voulaient prouver que plus un internaute voyait de messages négatifs sur ce réseau, plus il aurait tendance à publier lui-même des messages négatifs ; inversement avec les messages positifs.
Les résultats de ce travail doivent être relativisés, puisque seulement 0,1% à 0,07% des internautes auraient modifié leur comportement. Mais sa révélation a, fort justement, suscité un tollé dans le monde entier : certes Facebook n’a rien à se reprocher sur le plan légal (1), mais avait-il le droit moral de manipuler ses utilisateurs ?
Voilà trois jeunes gens bardés de diplômes qui n’ont pas réfléchi aux conséquences de leurs agissements. Comment le pourraient-ils ? Voilà des années qu’ils dévoilent leur vie sur les réseaux sociaux : Jeffrey T. Hancock et Jamie E. Guillory utilisent Facebook depuis 2004, et Adam D. I. Kramer, depuis 2007.
Ils pourraient servir de cobayes pour une étude validant la prophétie que Mark Zuckberg, le fondateur de Facebook, fit en 2010 : « la vie privée n’est plus une norme sociale.» Comment des jeunes gens, à qui ce réseau social a fait perdre la notion même de vie privée, pour eux, mais aussi pour les autres – ce qui leur a donc fait ôter une grande partie de ce qui constitue le respect d’autrui-, pourraient-ils avoir des remords en manipulant les informations envoyées à des internautes ?
Voilà bien ce qui risque d’arriver si nous n’ouvrons pas les yeux de nos adolescents sur le modèle économique des sites Internet gratuits comme les réseaux sociaux (ils revendent nos données à des entreprises, sous formes de publicité) et si nous ne les sensibilisons pas au respect de la vie privée, entre autres en leur montrant comment paramétrer correctement leur profil Facebook : devenus adultes, s’ils travaillent sur des données personnelles, ils risquent de ne pas les estimer à leur juste valeur.
Or, ces données sont aussi précieuses que les êtres humains qu’elles représentent, puisqu’elles en constituent le « double numérique ».
Il est donc urgent de former les jeunes au respect des données : nombre d’entre eux vont devenir data scientist, comme Adam D. I. Kramer. On estime à un million le nombre de spécialistes de cette science qu’il va falloir former au cours des dix prochaines années dans le monde.
Nous vivons une « datafication (2) » de nos sociétés : bientôt tous les êtres humains, tous les objets produiront des données, par l’intermédiaire des capteurs dont ils seront équipés (un smartphone, par exemple, contient plusieurs capteurs permettant de suivre son propriétaire quasiment à la trace).
Schématiquement, on peut dire que l’analyse de cette quantité d’informations incroyables à laquelle l’humanité a désormais accès, constitue ce que l’on appelle le « Big Data » ; l’objectif du « Big Data » étant de trouver, au sein de ces données, des corrélations (des règles), qui vont expliquer des phénomènes jusqu’ici mystérieux. Puis de s’en servir pour réaliser des prédictions : quel traitement va le mieux marcher sur tel malade ? quelle pièce sur tel modèle d’avion assemblé telle année dans telle usine présente un risque de « casser » ? ou qui a le plus de chance de voter pour tel candidat (3) ?
Voici ce qu’a répondu Stéphane Mallat, 50 ans, mathématicien, professeur à l’Ecole Normale Supérieure de Paris, lorsque j’ai demandé si les scientifiques n’avaient pas l’impression, avec le Big Data, de jouer avec le feu :«[…] un outil scientifique, on le sait très bien, on peut l’utiliser à des objectifs qui peuvent être complètement différents. Une roue, ça peut servir à faire un char de guerre tout comme à transporter de la nourriture. C’est absolument clair que les outils de Big Data peuvent avoir des effets nocifs de surveillance et il faut pouvoir le contrôler, donc là, c’est à la société d’établir des règles et surtout d’abord de comprendre la puissance pour pouvoir adapter la législation, les règles à l’éthique. A partir de là, en même temps, il faut bien réaliser qu’avec ces outils, on est capable de potentiellement considérablement améliorer la médecine, notamment en définissant des cures qui ne sont plus adaptées à un groupe de population, mais à une personne en fonction de son génome de son mode de vie.[…] Donc ce que je pense, c’est que c’est un outil extraordinairement riche et ensuite, c’est à nous tous en termes de société de s’assurer qu’il est utilisé à bon escient. (4) »
Commençons par éduquer nos ados au respect de leur propre vie privée.
___
(1) La Politique d’utilisation des données de Facebook précise « […] nous pouvons utiliser les informations que nous recevons à votre sujet : […] pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services.»
(2) Victor Mayer-Schönberger, Kenneth Cukier, « Big Data A revolution that will transform how we live, work and think», Hougthon Mifflin Harcourt, Boston New York, 2013 p. 15
(3) voir mon livre « Silicon Valley / Prédateurs Vallée ? Comment Apple, Facebook, Google et les autres s’emparent de nos données »
(4) le phénomène Big Data, Les fondamentales (CNRS), La Sorbonne, 15 novembre 2013, à réécouter sur http://ift.tt/1snUCUo (je pose ma question 1H05 après le début du débat).
Cette semaine, France Culture, France Info et France 5 m'ont invité pour parler du programme américain de surveillance électronique
• Mardi 11 juin, j’ai été l’invité du journal de 18H de Tara Schlegel, pour parler du scandale Prism, le système d’espionnage américain, révélé par Edward Snowden ; vous pouvez réécouter mon intervention en suivant ce lien :
• Jeudi 13 juin, je suis intervenu pendant Les Choix de France Info, l’émission de Jean Leymarie, pour parler de nos «Données personnelles : quelles traces laissons-nous ?», à réécouter sur :
• Enfin, toujours, jeudi, j’étais sur le plateau de C Dans l’air, dont le thème était «Qui espionne qui ?»
http://www.france5.fr/c-dans-l-air/international/qui-espionne-qui-39118
Cette semaine, France Culture, France Info et France 5 m’ont invité pour parler du programme américain de surveillance électronique
• Mardi 11 juin, j’ai été l’invité du journal de 18H de Tara Schlegel, pour parler du scandale Prism, le système d’espionnage américain, révélé par Edward Snowden ; vous pouvez réécouter mon intervention en suivant ce lien :
• Jeudi 13 juin, je suis intervenu pendant Les Choix de France Info, l’émission de Jean Leymarie, pour parler de nos «Données personnelles : quelles traces laissons-nous ?», à réécouter sur :
• Enfin, toujours, jeudi, j’étais sur le plateau de C Dans l’air, dont le thème était «Qui espionne qui ?»
http://www.france5.fr/c-dans-l-air/international/qui-espionne-qui-39118
Espionnage américain : les données qu’Apple, Facebook ou Google possèdent sur nous sont extrêmement indiscrètes
The Guardian et The Washington Post ont révélé que la NSA (National Security Agency), l’agence américaine chargée des écoutes électroniques, pouvait avoir directement accès aux serveurs d’Apple, Facebook, Google, Microsoft, Skype et autre Yahoo! pour espionner des citoyens du monde entier.
Pour se rendre compte à quel point les données archivées par ces géants de l’Internet révèlent tout de nous, y compris notre intimité, il suffit de créer une publicité sur Facebook.
Voici déjà plusieurs mois que j’ai constaté que Facebook permettait aux annonceurs de cibler des publicités en fonction de nos centres d’intérêt supposés pour certaines pratiques sexuelles ou certaines drogues illicites (lire l’épisode 1 : Les publicités Facebook ciblent nos préférences sexuelles ! ; l’épisode 2 avec l’avis de la CNIL et de son homologue irlandais ; l’épisode 3, avec la réponse officielle, mais décevante, de Facebook, ainsi qu’une interview de Benoit Dupont, titulaire de la Chaire de recherche du Canada en sécurité, identité et technologie de l’Université de Montréal ; l’épisode 4 avec l’ultimatum que la CNIL irlandaise avait lancé à Facebook ; l’épisode 5 pour apprendre comment Facebook nous range dans telle ou telle catégorie pour nous afficher des publicités ciblées).
La saisie d’écran ci-dessous, réalisée ce matin même, prouve qu’il est toujours possible de concevoir une publicité sur Facebook ciblant les internautes en fonction de données sensibles.
Espionnage américain : les données qu'Apple, Facebook ou Google possèdent sur nous sont extrêmement indiscrètes
The Guardian et The Washington Post ont révélé que la NSA (National Security Agency), l’agence américaine chargée des écoutes électroniques, pouvait avoir directement accès aux serveurs d’Apple, Facebook, Google, Microsoft, Skype et autre Yahoo! pour espionner des citoyens du monde entier.
Pour se rendre compte à quel point les données archivées par ces géants de l’Internet révèlent tout de nous, y compris notre intimité, il suffit de créer une publicité sur Facebook.
Voici déjà plusieurs mois que j’ai constaté que Facebook permettait aux annonceurs de cibler des publicités en fonction de nos centres d’intérêt supposés pour certaines pratiques sexuelles ou certaines drogues illicites (lire l’épisode 1 : Les publicités Facebook ciblent nos préférences sexuelles ! ; l’épisode 2 avec l’avis de la CNIL et de son homologue irlandais ; l’épisode 3, avec la réponse officielle, mais décevante, de Facebook, ainsi qu’une interview de Benoit Dupont, titulaire de la Chaire de recherche du Canada en sécurité, identité et technologie de l’Université de Montréal ; l’épisode 4 avec l’ultimatum que la CNIL irlandaise avait lancé à Facebook ; l’épisode 5 pour apprendre comment Facebook nous range dans telle ou telle catégorie pour nous afficher des publicités ciblées).
La saisie d’écran ci-dessous, réalisée ce matin même, prouve qu’il est toujours possible de concevoir une publicité sur Facebook ciblant les internautes en fonction de données sensibles.