L’Amérique construit sa cyber « ligne Maginot »

Pour lutter contre le terrorisme visant son territoire, le gouvernement américain s’est lancé dans d’impressionnants développements informatiques. Certains doutent de leur efficacité et craignent pour les libertés publiques.

ENGLISH

Il y a un peu plus d’un mois, au moment de Noël, le gouvernement français, alerté par les agences de renseignement américaines, annulait six vols d’Air France pour Los Angeles. En croisant les fichiers des passagers avec leurs bases de données, les services secrets de Washington croyaient tenir un suspect. Il y aurait eu en fait une homonymie : le nom d’un terroriste aurait été mal transcrit, puis confondu avec celui d’un voyageur. Cette erreur illustre les difficultés que pose l’incroyable défi technologique relevé par Washington, à coups de centaines de millions de dollars : développer des systèmes informatiques capables de détecter à l’avance toute action d’Al-Qaida.

Ce programme repose sur un postulat tactique et technique. Il s’agit d’abord d’appliquer à la lutte antiterroriste une méthode déjà utilisée contre d’autres formes de criminalité, en particulier le blanchiment d’argent sale : identifier les criminels grâce aux messages qu’ils doivent échanger entre eux et avec des prestataires (banques, compagnies aériennes, hôtels, etc.). « Les transactions commerciales doivent être exploitées pour découvrir les terroristes, insiste un responsable du département américain de la Défense. Ces gens émettent forcément un signal qu’il nous faut capter parmi les autres transactions. C’est comparable à la lutte anti-sous-marins où il faut repérer les submersibles au milieu d’un océan de bruits. »

La seconde conviction est technologique : les outils informatiques seront bientôt assez puissants pour analyser tout ce qui se trame dans le monde. Aux Etats-Unis, dont l’histoire est jalonnée de prouesses techniques, des chemins de fer transcontinentaux aux navettes spatiales, penser cela n’a rien de surprenant. « La confiance dans la technique est une des caractéristiques du peuple américain, rappelle Guillaume Parmentier, directeur du Centre français sur les Etats-Unis, affilié à l’Ifri (Institut français des relations internationales). C’est encore plus vrai dans les cercles gouvernementaux proches des milieux d’affaires. Donald Rumsfeld, le secrétaire à la Défense, croit que l’on peut tout résoudre par la technologie. »

Un chercheur en informatique connaissant bien les services de renseignement américains estime la chose techniquement possible : « Cela n’a rien d’une chimère. Avec Echelon, leur réseau d’antennes géantes, les agences fédérales sont capables d’intercepter la plupart des messages échangés dans un pays sous une forme numérique. Certes, après, il faut tout transcrire et trier… Mais ces experts savent déjà analyser toutes les émissions de télé ou de radio diffusées aux Etats-Unis, avec 20 % d’erreur. Alors, faire une sorte de « Google » des écoutes, en indexant toutes les communications électroniques échangées dans le monde, ce n’est plus de la science-fiction. »

Dans cette énorme machinerie, l’identification des passagers est le problème le moins difficile. Le gouvernement fédéral va investir 710 millions de dollars dans le programme US-Visit (United States Visitor and Immigrant Status Indicator Technology), qui va permettre de vérifier, grâce à la biométrie, les empreintes des touristes en possession d’un visa. Et un système de présélection des passagers par ordinateur, Capps 2 (Computer Assisted Passenger Pre-screening System 2), est en test dans quelques aéroports. Il rassemble les données disponibles sur les voyageurs et attribue à ces derniers un code couleur en fonction de leur dangerosité estimée. Coût : plus de 164 millions de dollars.

Pour que ces systèmes déclenchent l’alarme à bon escient, ils doivent être alimentés en informations fiables. Chaque logiciel impliqué dans la chaîne du renseignement doit être revu. Il faut traduire des informations d’origines très diverses : fournies par les gouvernements alliés, remises gracieusement (c’est le cas des fichiers des lignes aériennes) ou contre paiement par des entreprises commerciales, ou encore interceptées par Echelon. Puis, il faut agréger ces données éparpillées entre plusieurs dizaines d’agences (sécurité intérieure, affaires étrangères, défense…), les croiser et analyser le tout. « C’est du datamining, mais appliqué à une masse d’informations inimaginable, explique Serge Abiteboul, spécialiste de la gestion de données de très gros volume à l’Inria (Institut national de recherche en informatique et en automatique). La « fouille de données » peut permettre de découvrir des informations intéressantes sans savoir a priori où celles-ci se trouvent, ni même exactement à quoi s’attendre. » Elle révèle ainsi des schémas de comportement auxquels on n’avait pas a priori pensé, et permet de s’en servir ensuite de manière prédictive. Or, quelques-uns des meilleurs experts en datamining sont justement aux Etats-Unis, en particulier chez IBM.

Dans l’ombre, les chercheurs de dizaines d’entreprises ou de laboratoires universitaires travaillent ainsi à la mise au point d’un système de surveillance de la planète. La société Language Weaver affûte des logiciels de traduction plus fiables, tandis que le CNLP (Center for Natural Language Processing), de l’université de Syracuse (Etat de New York), peaufine un programme qui apprend à identifier les comportements suspects. A Atlanta, Nexidia planche sur les données audio-vidéo. Dans la Silicon Valley, Inxight améliore l’agrégation des informations. Andrew More et Jeff Schneider, de l’université Carnegie-Mellon, à Pittsburgh, combinent probabilités et datamining. En Virginie, la firme SRA International travaille sur l’extraction de données, etc.

Le financement ? Aucun problème. Depuis le 11 septembre 2001, les fonds publics consacrés à ces recherches ont été démultipliés. Et les investisseurs privés voient là un bon moyen de concilier patriotisme et business. « En 2004, rien qu’en recherche-développement, les agences fédérales vont consacrer plus de 3,5 milliards de dollars à la sécurité intérieure, c’est-à-dire à l’antiterrorisme », a calculé Serge Hagège, attaché pour la science et la technologie à l’ambassade de France aux Etats-Unis.

Dans le privé, une mini-bulle spéculative s’est même formée autour de ces activités de surveillance. « Toutes les entreprises qui travaillent dans le datamining ont le vent en poupe », confirme Timothy Quillin, analyste financier chez Stephens, une banque de gestion de portefeuilles et un des rares spécialistes de l’informatique de défense et de sécurité. En Bourse, les investisseurs parient sur les groupes proposant des solutions complètes aux agences fédérales. En 2003, SRA International a ainsi vu son action progresser de 40 %.

Mais cette fièvre sécuritaire a également contaminé le capital-risque, qui a vu éclore des fonds voués à la défense et à la sécurité. Modèle du genre ? Le Homeland Security Fund, de Paladin Capital Group, à Washington, qui finance la protection des réseaux informatiques et des logiciels ou l’analyse de fichiers audio et vidéo. Or, deux des patrons de Paladin connaissent bien les besoins des services secrets : James Woolsey a dirigé la CIA et Kenneth Minihan, la NSA (National Security Agency).

Des chercheurs motivés, de l’argent à profusion… En dehors des problèmes de faisabilité technique, il semble n’y avoir qu’un obstacle à la construction de cette cyber « ligne Maginot » autour des Etats-Unis : les associations américaines de défense des droits de l’homme (lire page suivante). Sous leur pression, le gouvernement a renoncé à son projet initial : mettre en fiches l’humanité ou presque. L’IAO (Information Awareness Office), dirigé par l’amiral John Poindexter et doté d’un budget de près de 600 millions de dollars sur quatre ans, devait développer le projet Total Information Awareness (TIA), un gigantesque système capable d’accumuler des informations sur n’importe quel individu.

En septembre dernier, le TIA a été officiellement arrêté devant l’inquiétude du Congrès, et les agences de renseignement ont interdiction d’utiliser ce qui existait déjà du projet pour espionner des citoyens américains aux Etats-Unis. Dans le même temps, l’IAO a disparu des organigrammes. Mais la retraite du gouvernement n’a été qu’une stratégie de façade. « Les composantes du TIA ont été dispersées entre différentes agences fédérales », estime Steven Aftergood, responsable de la mission « Secret d’Etat » au sein de la FAS, la Fédération des scientifiques américains (3.000 personnalités, dont 50 Prix Nobel). Et, comme par hasard, l’Arda (agence de recherche des services secrets américains) finance actuellement un programme, NIMD (Novel Intelligence from Massive Data), très proche du TIA…

Dernier épisode en date : la semaine dernière, George W. Bush a profité de son discours sur l’Etat de l’Union pour appeler les législateurs à renouveler certaines clauses du Patriot Act. Ces clauses, qui concernent la surveillance des communications électroniques des individus, étaient censées expirer fin 2005.

Jacques Henno (article paru dans le quotidien Les Echos le 28 janvier 2004)

L'Amérique construit sa cyber « ligne Maginot »

Pour lutter contre le terrorisme visant son territoire, le gouvernement américain s’est lancé dans d’impressionnants développements informatiques. Certains doutent de leur efficacité et craignent pour les libertés publiques.

ENGLISH

Il y a un peu plus d’un mois, au moment de Noël, le gouvernement français, alerté par les agences de renseignement américaines, annulait six vols d’Air France pour Los Angeles. En croisant les fichiers des passagers avec leurs bases de données, les services secrets de Washington croyaient tenir un suspect. Il y aurait eu en fait une homonymie : le nom d’un terroriste aurait été mal transcrit, puis confondu avec celui d’un voyageur. Cette erreur illustre les difficultés que pose l’incroyable défi technologique relevé par Washington, à coups de centaines de millions de dollars : développer des systèmes informatiques capables de détecter à l’avance toute action d’Al-Qaida.

Ce programme repose sur un postulat tactique et technique. Il s’agit d’abord d’appliquer à la lutte antiterroriste une méthode déjà utilisée contre d’autres formes de criminalité, en particulier le blanchiment d’argent sale : identifier les criminels grâce aux messages qu’ils doivent échanger entre eux et avec des prestataires (banques, compagnies aériennes, hôtels, etc.). « Les transactions commerciales doivent être exploitées pour découvrir les terroristes, insiste un responsable du département américain de la Défense. Ces gens émettent forcément un signal qu’il nous faut capter parmi les autres transactions. C’est comparable à la lutte anti-sous-marins où il faut repérer les submersibles au milieu d’un océan de bruits. »

La seconde conviction est technologique : les outils informatiques seront bientôt assez puissants pour analyser tout ce qui se trame dans le monde. Aux Etats-Unis, dont l’histoire est jalonnée de prouesses techniques, des chemins de fer transcontinentaux aux navettes spatiales, penser cela n’a rien de surprenant. « La confiance dans la technique est une des caractéristiques du peuple américain, rappelle Guillaume Parmentier, directeur du Centre français sur les Etats-Unis, affilié à l’Ifri (Institut français des relations internationales). C’est encore plus vrai dans les cercles gouvernementaux proches des milieux d’affaires. Donald Rumsfeld, le secrétaire à la Défense, croit que l’on peut tout résoudre par la technologie. »

Un chercheur en informatique connaissant bien les services de renseignement américains estime la chose techniquement possible : « Cela n’a rien d’une chimère. Avec Echelon, leur réseau d’antennes géantes, les agences fédérales sont capables d’intercepter la plupart des messages échangés dans un pays sous une forme numérique. Certes, après, il faut tout transcrire et trier… Mais ces experts savent déjà analyser toutes les émissions de télé ou de radio diffusées aux Etats-Unis, avec 20 % d’erreur. Alors, faire une sorte de « Google » des écoutes, en indexant toutes les communications électroniques échangées dans le monde, ce n’est plus de la science-fiction. »

Dans cette énorme machinerie, l’identification des passagers est le problème le moins difficile. Le gouvernement fédéral va investir 710 millions de dollars dans le programme US-Visit (United States Visitor and Immigrant Status Indicator Technology), qui va permettre de vérifier, grâce à la biométrie, les empreintes des touristes en possession d’un visa. Et un système de présélection des passagers par ordinateur, Capps 2 (Computer Assisted Passenger Pre-screening System 2), est en test dans quelques aéroports. Il rassemble les données disponibles sur les voyageurs et attribue à ces derniers un code couleur en fonction de leur dangerosité estimée. Coût : plus de 164 millions de dollars.

Pour que ces systèmes déclenchent l’alarme à bon escient, ils doivent être alimentés en informations fiables. Chaque logiciel impliqué dans la chaîne du renseignement doit être revu. Il faut traduire des informations d’origines très diverses : fournies par les gouvernements alliés, remises gracieusement (c’est le cas des fichiers des lignes aériennes) ou contre paiement par des entreprises commerciales, ou encore interceptées par Echelon. Puis, il faut agréger ces données éparpillées entre plusieurs dizaines d’agences (sécurité intérieure, affaires étrangères, défense…), les croiser et analyser le tout. « C’est du datamining, mais appliqué à une masse d’informations inimaginable, explique Serge Abiteboul, spécialiste de la gestion de données de très gros volume à l’Inria (Institut national de recherche en informatique et en automatique). La « fouille de données » peut permettre de découvrir des informations intéressantes sans savoir a priori où celles-ci se trouvent, ni même exactement à quoi s’attendre. » Elle révèle ainsi des schémas de comportement auxquels on n’avait pas a priori pensé, et permet de s’en servir ensuite de manière prédictive. Or, quelques-uns des meilleurs experts en datamining sont justement aux Etats-Unis, en particulier chez IBM.

Dans l’ombre, les chercheurs de dizaines d’entreprises ou de laboratoires universitaires travaillent ainsi à la mise au point d’un système de surveillance de la planète. La société Language Weaver affûte des logiciels de traduction plus fiables, tandis que le CNLP (Center for Natural Language Processing), de l’université de Syracuse (Etat de New York), peaufine un programme qui apprend à identifier les comportements suspects. A Atlanta, Nexidia planche sur les données audio-vidéo. Dans la Silicon Valley, Inxight améliore l’agrégation des informations. Andrew More et Jeff Schneider, de l’université Carnegie-Mellon, à Pittsburgh, combinent probabilités et datamining. En Virginie, la firme SRA International travaille sur l’extraction de données, etc.

Le financement ? Aucun problème. Depuis le 11 septembre 2001, les fonds publics consacrés à ces recherches ont été démultipliés. Et les investisseurs privés voient là un bon moyen de concilier patriotisme et business. « En 2004, rien qu’en recherche-développement, les agences fédérales vont consacrer plus de 3,5 milliards de dollars à la sécurité intérieure, c’est-à-dire à l’antiterrorisme », a calculé Serge Hagège, attaché pour la science et la technologie à l’ambassade de France aux Etats-Unis.

Dans le privé, une mini-bulle spéculative s’est même formée autour de ces activités de surveillance. « Toutes les entreprises qui travaillent dans le datamining ont le vent en poupe », confirme Timothy Quillin, analyste financier chez Stephens, une banque de gestion de portefeuilles et un des rares spécialistes de l’informatique de défense et de sécurité. En Bourse, les investisseurs parient sur les groupes proposant des solutions complètes aux agences fédérales. En 2003, SRA International a ainsi vu son action progresser de 40 %.

Mais cette fièvre sécuritaire a également contaminé le capital-risque, qui a vu éclore des fonds voués à la défense et à la sécurité. Modèle du genre ? Le Homeland Security Fund, de Paladin Capital Group, à Washington, qui finance la protection des réseaux informatiques et des logiciels ou l’analyse de fichiers audio et vidéo. Or, deux des patrons de Paladin connaissent bien les besoins des services secrets : James Woolsey a dirigé la CIA et Kenneth Minihan, la NSA (National Security Agency).

Des chercheurs motivés, de l’argent à profusion… En dehors des problèmes de faisabilité technique, il semble n’y avoir qu’un obstacle à la construction de cette cyber « ligne Maginot » autour des Etats-Unis : les associations américaines de défense des droits de l’homme (lire page suivante). Sous leur pression, le gouvernement a renoncé à son projet initial : mettre en fi
ches l’humanité ou presque. L’IAO (Information Awareness Office), dirigé par l’amiral John Poindexter et doté d’un budget de près de 600 millions de dollars sur quatre ans, devait développer le projet Total Information Awareness (TIA), un gigantesque système capable d’accumuler des informations sur n’importe quel individu.

En septembre dernier, le TIA a été officiellement arrêté devant l’inquiétude du Congrès, et les agences de renseignement ont interdiction d’utiliser ce qui existait déjà du projet pour espionner des citoyens américains aux Etats-Unis. Dans le même temps, l’IAO a disparu des organigrammes. Mais la retraite du gouvernement n’a été qu’une stratégie de façade. « Les composantes du TIA ont été dispersées entre différentes agences fédérales », estime Steven Aftergood, responsable de la mission « Secret d’Etat » au sein de la FAS, la Fédération des scientifiques américains (3.000 personnalités, dont 50 Prix Nobel). Et, comme par hasard, l’Arda (agence de recherche des services secrets américains) finance actuellement un programme, NIMD (Novel Intelligence from Massive Data), très proche du TIA…

Dernier épisode en date : la semaine dernière, George W. Bush a profité de son discours sur l’Etat de l’Union pour appeler les législateurs à renouveler certaines clauses du Patriot Act. Ces clauses, qui concernent la surveillance des communications électroniques des individus, étaient censées expirer fin 2005.

Jacques Henno (article paru dans le quotidien Les Echos le 28 janvier 2004)

Edition : le marketing californien

Chaque été, Stanford, l’une des plus prestigieuses universités américaines, organise une session de dix jours de cours à l’intention d’éditeurs venus du monde entier.

Jacques Henno écoute Martin Levin, 80 ans bien frappés, dans un amphithéâtre de l’université Stanford, en juillet 2003, dans le cadre du SPPC (Stanford Professional Publishing Course). D. R.



Article paru dans le magazine Lire le 30 novembre 2003


Ils sont tous là, assis devant moi dans un amphithéâtre de l’université Stanford, en Californie: cinquante-cinq éditeurs, américains, bien sûr, mais aussi allemands, colombiens, espagnols, finlandais, indiens, japonais, sud-africains… redevenus simples étudiants pour assister au «Stanford Professional Publishing Course» (SPPC, cours de Stanford pour les professionnels de l’édition). Aujourd’hui, samedi 26 juillet, c’est la fin des classes et la présentation des travaux en groupe. Huit équipes ont planché, parfois tard dans la nuit, sur le lancement d’une collection. Mon groupe est le deuxième à passer et je suis chargé d’en résumer la stratégie marketing. Les profs nous ont prévenus: nous serons jugés aussi bien sur l’originalité de nos idées que sur notre humour. Alors je force un peu sur mon accent, déjà bien franchouillard, et je caricature le dernier intervenant américain de la veille : gesticulations en tous sens, coups de poing sur la table pour souligner mes propos… La salle est pliée en deux et l’un des membres du jury me lance un triple «bravo». Bon présage, puisque nous décrocherons la deuxième place.
Mais je ne saurai jamais si ce résultat récompense notre concept de livres pour jeunes diplômés ou nos talents d’acteur…
Fond ou forme ? L’éternelle question m’a taraudé pendant tout le séminaire. D’abord, au sujet des cours : certains intervenants étaient remarquables, mais il y avait aussi de parfaits faiseurs. Ensuite, par rapport au métier même d’éditeur : les Américains que j’ai rencontrés estiment que le marché du livre est saturé et que, dans ce contexte, ce qui fait un bon ouvrage, ce n’est pas tant son contenu que le marketing ou la communication qui l’entourent.
Ce malthusianisme ne colle pas, bizarrement, à la réputation plutôt progressiste de Stanford. Cette université privée, située à une quarantaine de kilomètres au sud de San Francisco, est considérée comme une des cinq meilleures facs des Etats-Unis en sciences ou en management. Dix-sept Prix Nobel de chimie, d’économie ou de physique enseignent sur son magnifique campus, mélange de bâtiments néoclassiques en pierres de grès et d’immeubles modernes en béton ocre, bordés de palmiers, de séquoias et d’eucalyptus.
Stanford passe pour donner d’assez bons cours de littérature ou de journalisme. Dès sa création en 1978, le SPPC, le séminaire d’été sur l’édition, attira des «étudiants» de tous les pays. Il est vrai que ce diplôme est pratiquement unique au monde. Des centaines d’éditeurs sont venus ici se remettre à niveau en publicité, finance, droit ou design.
Parmi eux, des pontes de Dunod, Flammarion, France Loisirs, Hachette, Play Bac… Pour moi, journaliste et auteur qui souhaite me lancer dans l’édition, cela semblait donc être la formation idéale. Le premier contact, cependant, me laisse perplexe : Martin Levin, avocat et ancien président des éditions Times-Mirror, explique pendant toute une journée le marché américain. Le bonhomme, qui a 80 ans bien frappés, ne se fatigue pas. D’une voix monotone, il enfile les banalités : «Si vous voulez vendre les droits de vos livres à des maisons américaines, allez à la Foire du livre de Francfort»…
Heureusement, la plupart des cours suivants seront passionnants. George Gibson nous a fait partager ses joies et angoisses d’éditeur, Margaret Neale, son art de la négociation. Nigel Holmes, spécialiste de l’illustration, nous a fait mourir de rire en nous prouvant, dessins sur son tee-shirt à l’appui, qu’un estomac humain pouvait contenir cinquante hot dogs ! Quant à Alberto Vitale, un Italien qui a dirigé pendant neuf ans Random House, une des plus grandes maisons d’édition américaines, il était très attendu pour sa conférence sur l’avenir de l’édition. Malheureusement, il a passé une heure à aboyer, sans donner d’exemple, que «the future of book is Digital» l’avenir du livre c’est le numérique). Pas très nouveau ni très étayé.
Je sais gré, cependant, à Alberto d’une chose. Il est le seul des quarante intervenants à avouer que « le marché du livre compte seulement 12 millions d’acheteurs réguliers aux Etats-Unis, et 3 millions en France ; il est saturé et cela ne va pas s’arranger: la lecture est de plus en plus concurrencée par les médias électroniques… ».
De fait, cet inquiétant constat a sous-tendu tout le stage. Un résumé du SPPC serait en effet : «Dans un marché aussi encombré, la forme prime sur le fond. » Aucun prof, par exemple, n’a abordé l’écriture ou l’editing des textes. A croire que le contenu et les auteurs n’ont pas beaucoup d’importance… Lorsque Amy Rhodes, vice-présidente de Rodale, un éditeur spécialisé dans les livres de santé, nous présenta son succès de l’année, The South Beach Cookbook (plus de 900 000 exemplaires imprimés, cinq mois parmi les best-sellers du New York Times…), elle reconnut que « ce livre de régime était bon, mais pas si excellent que cela». Et elle ne mentionna le nom de l’auteur, le cardiologue Arthur Agatston, que pour préciser qu’il n’était pas très doué pour les interviews avec la presse.
Plus grossier encore: lors de la remise d’un prix littéraire, organisé pendant le SPPC en mémoire de l’écrivain William Saroyan, l’animateur de la soirée invita les deux finalistes présents, Jonathan Foer et Adam Rapp, à monter sur scène, les laissa s’approcher, puis renvoya Rapp d’un blessant : « Vous n’avez pas gagné, vous pouvez vous rasseoir. »
Peu de place pour les auteurs, donc, mais, en revanche, tous les autres corps de métier furent dignement accueillis. Pas moins de quatre directeurs artistiques vinrent commenter les couvertures de livres qui se vendent ou qui ne se vendent pas. Deux experts ès Internet nous expliquèrent ce qu’il fallait mettre en ligne et il n’y eut pas moins de quatre cours sur la distribution. Enfin, Amy Rhodes bénéficia de deux heures pour décrire, avec volupté, toutes ses actions de communication pour The South Beach Diet Cookbook, depuis les 180 000 euros dépensés en publicité jusqu’aux 5 millions de lettres envoyées dans les foyers américains, en passant par la pastille jaune (« Lose belly fat first », Perdez vite du ventre) collée sur la couverture: « Très efficace ! »
Je vais mettre un autocollant jaune sur le classeur regroupant les notes que j’ai prises pendant le SPPC : «Perdez vite vos illusions. »

Jacques Henno

Comment on suit les produits à la trace

Madame Martin choisit une barquette de beefsteak et se dirige aussitôt vers la borne interactive installée devant le rayon boucherie. Elle saisit le code que porte l’emballage et, immédiatement, apparaît à l’écran la fiche d’identité de l’animal abattu : une vache de 10 ans, de race charolaise. Un clique de plus et notre ménagère obtient les coordonnées de l’éleveur, Serge Hellouin, à Ondefontaine, dans le Calvados. Rassurée sur l’origine, bien française de son beefsteak, madame Martin poursuit ses courses… Voilà plusieurs mois que les clients de l’hypermarché Continent d’Ormesson-sur-Marne, près de Paris, peuvent vérifier l’origine de la viande qu’ils achètent. Pour parvenir à ce degré de précision, le distributeur et son fournisseur, Soviba ont développé une énorme base de données, qui conserve le numéro d’identification du bovin, la date et l’heure d’abattage, etc.

A l’instar de Continent et de Soviba, de plus en plus d’entreprises agro-alimentaires suivent leurs produits à la trace, depuis l’usine jusqu’à la livraison chez le distributeur ou le consommateur final. C’est le fameux principe de traçabilité, que les industriels mettent en avant, pour rassurer le public, à chaque nouvel accident : fromages aux listeria, vaches folles, fongicide sur des canettes de Coca, cochons ou poulets à la dioxine… Mais ce système de sécurité est également utilisé pour les voitures, les pièces d’avion, les cosmétiques, les médicaments ou les jouets. Un établissement de transfusion sanguine découvre qu’un de ses donneurs souffre d’une maladie contagieuse ? Le suivi informatique permet d’avertir tous les patients susceptibles d’avoir été contaminés. De même, si un garagiste trouve un boulon mal serré sur une voiture neuve, on peut remonter la chaîne de production, identifier l’origine du défaut et localiser tous les véhicules concernés. «La traçabilité, c’est comme les cailloux du Petit Poucet, on retrouve son chemin dans les deux sens : du fabricant au consommateur, et réciproquement», résume Alain Peretti, directeur d’une coopérative agricole, la Caps, à Sens, où les sacs de blé font l’objet d’un suivi draconien.

Mais ces procédures de surveillance ne servent pas qu’en cas de crise. Dans l’agro-alimentaire, elles constituent aussi un argument de vente : de plus en plus d’entreprises du secteur n’hésitent pas à parler, dans leur communication, de traçabilité. Elles rappellent que ce système permet de garantir l’origine d’un produit (viande française, par exemple) ou sa composition (absence d’OGM, les fameux organismes génétiquement modifiés). Objectif : rassurer les Français, de plus en plus exigeants sur la qualité de leur nourriture. Le groupe français Bourgoin, un des leaders européens de la volaille, a ainsi créé, début septembre, une filière 100% naturelle pour les poulets de la marque Duc : le soja servi aux animaux est certifié sans OGM. Pour cela, un «tracking» (suivi) a été mis en place tout au long de la chaîne alimentaire, depuis les champs de soja jusqu’aux barquettes de blanc de poulet. Les premiers résultats de ces expériences sont plutôt encourageants. «Depuis l’installation de la borne interactive dans cet hypermarché, les ventes de viande y sont en constante augmentation», affirme Eric Leroux, responsable du département «boucheries» chez Continent.

Le grand public commence à peine à se familiariser avec la notion de traçabilité. Mais, pour les industriels, il s’agit d’une vieille technique. Ils l’ont mis en pratique dès le milieu des années quatre-vingt. Non pour des motifs de sécurité, mais pour des raisons financières. A l’époque, il s’agissait simplement de s’assurer que les commandes des clients étaient transmises, sans erreur, à tous les échelons de l’entreprise : usine, logistique, etc. Puis, l’administration française s’y est intéressée aux début des années quatre-vingt dix. Pour faciliter les rappels de produits défectueux, elle a imposé, en 1991, la traçabilité «par lots» (on sait retrouver un lot de produits) pour les denrées alimentaires, les médicaments et les cosmétiques. Mais, depuis, plusieurs entreprises ont perfectionné le système et appliquent une traçabilité «individuelle» (elles peuvent localiser les produits un par un).

Dans l’agro-alimentaire et la pharmacie, mais aussi le jouet ou l’électroménager, la plupart des industriels se contente d’une traçabilité par lots : ils affectent le même numéro à tous les articles fabriqués le même jour dans la même usine. Exemple concret, dans l’alimentaire, chez Lactalis, à Saint-Maclou (Normandie). Dans cette usine du groupe Besnier, où est fabriqué le camembert Le Petit, le lait est fourni par 400 exploitants. Il est regroupé dans trois cuves, en fonction des tournées de ramassage. Chacune de ces citernes ne sert à fabriquer qu’une seule série de fromages. «Nous imprimons sur les emballages le numéro du réservoir utilisé et la date de fabrication», précise Jacques Frankinet, directeur de la qualité. Cette information est reportée sur les palettes livrées aux grossistes ou aux centrales d’achat.

Sur le papier, ce système, peu onéreux, est fiable. Si un producteur livre du lait impropre à la consommation (trace de dioxine par exemple), Jacques Frankinet identifie le camion qui est passé dans cette exploitation, puis la cuve contaminée et, à partir de là, tous les fromages impropres à la consommation. Mais la procédure de retrait devient vite un vrai casse-tête. Pour seulement 1 000 litres de lait suspects (et mélangés, dans la citerne à 40 autres livraisons), il faut détruire 25 000 fromages. Coût de l’opération : plus de 2 millions de francs… Il y a pire. Cet été, Coca-Cola a dû retirer de la vente, en Belgique, en France et au Luxembourg, des millions de canettes contaminées par du soufre ou du phénol. La facture aurait dépassé les 600 millions de francs !

Les procédures de tracking sont similaires dans l’industrie du jouet. Ainsi, chez Berchet, à Oyonnax, dans l’Ain, on se contente d’imprimer la date de fabrication sur les emballages. «Je sais quels composants ont été utilisés tel jour, assure Patrick Nappez, responsable qualité. Si, par exemple, je découvre un problème sur une fixation, je peux retrouver tous les lots de chevaux à bascules concernés.» Mais, là encore, par précaution il faut tout rapatrier en usine. Et, plus les lots sont importants, plus l’opération coûte cher. L’an dernier, Lego a déboursé plus de 50 millions de francs pour le retrait de 700 000 hochets dans toute l’Europe.

Pour tous les produits à très forte valeur (automobiles, avions…), les industriels ne peuvent pas procéder de façon aussi grossière. Les opérations de rappel deviendraient vite ruineuses. Les responsables de Citroën estiment ainsi que l’échange de réservoir auquel ils sont en train de procéder sur des Xantia fonctionnant au GPL, va leur coûter près de 6 millions de francs (lire l’encadré ci-dessous). «Pourtant, seuls 600 véhicules sont concernés», précise Bernard Troadec, directeur du département «après-vente» de Citroën. Pour prévenir tout dérapage, les entreprises peuvent alors opter pour une traçabilité totale, permettant de suivre individuellement chaque produit. Dans certaines filières, comme celle de la transfusion sanguine, où le moindre incident pourrait avoir d’effroyables conséquences sanitaires, ce suivi draconien est même imposé par la réglementation. Enfin, quelques industriels de l’agro-alimentaire, on l’a vu, s’y sont mis, mais pour des raisons marketing.

Deux éléments sont nécessaires pour obtenir un «tracking» parfait : un numéro d’identification (une «étiquette» en quelque sorte), infalsifiable, pour repérer chaque article ; puis, pour suivre ses déplacements, de puissants ordinateurs.

Première étape, donc, la mise au point d’un «identifiant». Dans certains secteurs, cela ne pose pas trop de problème. Ainsi, les constructeurs automobiles ont pris depuis longtemps l’habitude d’apposer un VIN («Vehicule identification number» ou numéro d’identification du véhicule) sur toutes leurs voitures. Ce matricule, gravé sur la plaque du véhicule, dans le compartiment moteur, et frappé à froid sur le châssis est difficilement effaçable (c’est ce numéro que l’on retrouve également sur les cartes grises françaises). Même principe dans l’aéronautique : «Sur un Airbus, plus d’un millier de pièces portent un numéro d’identification individuel», révèle Maurice Azéma, le Monsieur «qualité» du programme Airbus, chez Aerospatiale-Matra. En revanche, apposer un numéro sur un animal s’avère plus délicat. Lorsque la traçabilité des veaux est devenue obligatoire dans notre pays, il n’y avait aucun précédent. Au départ, en 1978, ce suivi répondait à un simple souci d’amélioration des races bovines. Depuis 1984, il permet également de vérifier que les éleveurs ne «gonflent» pas les effectifs de leurs troupeaux, dans l’espoir d’obtenir des subventions européennes plus importantes… Mais ce n’est qu’en 1996, avec la crise de la vache folle, que les experts lui ont trouvé une application sanitaire.

Le système d’identification retenu est particulièrement contraignant pour les agriculteurs. Dans les sept jours qui suivent la naissance d’un veau, l’éleveur doit poser une boucle en plastique, de couleur saumon, sur chaque oreille de l’animal. Seules deux sociétés, Chevillot, à Albi, et Reydet, près de Cluse, fabriquent ces pendeloques. Celles-ci ne sont remises qu’aux exploitations exemptes d’EBS (encéphalite bovine spongiforme) et respectant des consignes alimentaires strictes (pas de viandes animales…). Elles comportent un matricule à 10 chiffres, véritable numéro de sécurité social de la bête, fourni par l’administration. Ce matricule est reporté sur un document rose, infalsifiable, grâce aux filigranes qu’il comporte et à l’encre spéciale avec laquelle il est imprimé. Sur ce «passeport» va être enregistrée toute la vie de l’animal : sa date de naissance, les élevages qu’il a fréquentés, les maladies qu’il a développées, etc. Lorsqu’un veau arrive à l’abattoir, les vétérinaires vérifient que les numéros des boucles et du passeport coïncident. Si c’est bien le cas, l’animal est abattu et sa carcasse découpée.

Officiellement, ce système est très fiable. «Entre 1996 et 1998, nous n’avons constaté que 366 fraudes dans les abattoirs», indique-t-on à la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes), le gendarme de l’alimentaire. Problème : ce chiffre est trompeur. Car seulement 48 500 contrôles ont été effectués. Une peccadille comparée aux 6 millions de bovins qui sont abattus chaque année. Or, la tentation est parfois grande de tricher. «Une boucle, ça se coupe, ça se remplace…», souffle un spécialiste du secteur.

Pour prévenir ce genre d’«accidents», la Communauté européenne finance la mise au point de boucles électroniques, inviolables. Nom de code du projet : Idea (identification électronique des animaux). «Il s’agit d’une étiquette-radio, semblable à celles utilisées pour les télépéages d’autoroute, explique Jacques Delacroix, chef du service “identification” à l’Institut de l’élevage. On peut la lire à distance et donc l’implanter dans un endroit inaccessible.» Première application en France, où des chercheurs ont fait avaler à quelque 25 000 bovins des puces électroniques enrobées de céramique. Ces mini-émetteurs resteront dans leur estomac toute leur vie. Là, on ne peut ni les retirer, ni les modifier.

Dernière étape : le suivi informatique. Tant que les produits sont en atelier, ils sont pris en charge par les systèmes de GPAO (gestion de production assistée par ordinateur), installés dans les années quatre-vingt. Deux exemples concrets dans l’alimentaire : chez Soviba, troisième producteur de viande bovine en France, chaque abattoir dispose d’une centaine de PC et de scanners qui permettent d’enregistrer les déplacements des carcasses ; même principe à la Caps, la coopérative agricole de Sens, où les ouvriers disposent de 50 terminaux, reliés à un ordinateur central.

Mais, parfois, l’homme n’a même pas à intervenir. Dans l’industrie automobile, par exemple, tout devient automatique : chez Mercedes, des caméras lisent les code-barres apposés sur les cartons de pièces détachées livrés par les sous-traitants ; et des boîtiers électroniques, fixés sur les véhicules en cours de montage, enregistrent chaque intervention.

A la sortie, toutes ces informations sont basculées dans une immense base de données. Les abattoirs Soviba sont ainsi capables de dire comment ont été conditionnées et à quels grossistes ont été expédiées les carcasses des 20 000 bovins et 80 000 porcs qui sont tués chaque mois. Ces dossiers sont conservés pendant un an. Ce dispositif revient à moins de 15 centimes par barquette de viande. Autre exemple, dans l’automobile, cette fois : Citroën dispose pour chaque véhicule fabriqué d’une fiche informatique comportant son matricule, bien sûr, mais également les référence de ses 400 principaux composants (moteur, boîte de vitesse, freins, suspension…), ainsi que le nom du concessionnaire à qui il a été livré. «En cas de problème sur un lot de climatiseurs, par exemple, je peux immédiatement identifier les voitures touchées par ce défaut et avertir nos concessionnaires», explique Bernard Troadec, du service après-vente.

Beaucoup de progrès restent cependant à faire dans le domaine de la traçabilité. Par exemple, pour les OGM, les fameux organismes génétiquement modifiés : «Vous ne pouvez pas détecter les OGM dans les aliments cuits», révèle Rémi Alary, de l’Inra (Institut national de la recherche agronomique) (lire l’encadré ci-dessous). Enfin, dans certains cas, la traçabilité ne sert pas à grand chose. Ainsi, les autorités sanitaires belges avaient mis en place un tracking ultra-sophistiqué pour les cochons : Outre-Quiévrain chaque goret porte à l’oreille droite une pastille d’identification. Mais, dans le scandale du porc à la dioxine, qui défraye la chronique depuis cinq mois, ce dispositif n’a été d’aucune utilité. Et pour cause : «Tous nos porcs avaient mangé des graisses contenant de la dioxine», regrette Luc Laengelé, vétérinaire-directeur au ministère de l’Agriculture belge. 200 000 cochons ont dû être abattus. Quel gâchis !

Encadré OGM

Les OGM (organismes génétiquement modifiés) sont des végétaux, comme le maïs ou le soja dans lesquels on a incorporé, en laboratoire, le gène d’une autre plante, d’un animal ou d’un virus. Ils deviennent ainsi plus résistants aux parasites et maladies, ce qui augmente la productivité des exploitations agricoles. Prend-on un risque en consommant des OGM ou des aliments préparés à base d’OGM ? Selon certains experts, ces organismes transgénique sont totalement inoffensifs. Pour d’autres, au contraire, le gène modifié pourrait être transmis à l’homme pendant la digestion.

En raison de cette incertitude, les consommateurs veulent être avertis de la présence éventuelle d’OGM dans la nourriture qu’ils achètent. Un règlement européen prévoit bien l’étiquetage de tous les produits contenant du maïs ou du soja transgénique. Mais les  directives d’application se font toujours attendre.

De toute façon, il faudra croire sur paroles les industriels qui présenteront leurs produits comme étant «naturels» ou «biologiques». S’il est très facile de repérer les aliments de bases  (maïs…) génétiquement modifiés, cela devient très difficile dans les préparations culinaires. «Souvent le processus industriel détruit le code génétique des OGM, ce qui empêche tout contrôle», explique Rémi Alary, de l’Inra (Institut national de la recherche agronomique). Dans les autres cas, la technique PCR (Polymerase chain reaction) permet de détecter la présence de transgènes. Coût : 1 500 francs.

Encadré Voiture

Dimanche 31 janvier 1999, à Vénissieux, près de Lyon : trois mineurs mettent le feu à une voiture roulant au GPL (gaz de pétrole liquéfié). Arrivés sur les lieux quelques minutes plus tard, les pompiers tentent d’éteindre l’incendie. Le réservoir explose, blessant grièvement un des soldats du feu. Depuis la réglementation sur les réservoirs de GPL a été modifiée par l’administration française. Alors que cela leur était interdit auparavant, les constructeurs automobiles peuvent désormais installer des bouchons de sécurité, qui libèrent le gaz en cas de suppression.

La direction de Citroën a décidé de modifier 600 Xantia «GPL» déjà en circulation. La base de données de l’entreprise a permis d’identifier les concessionnaires qui avaient vendu ce modèle. Ces derniers ont envoyé en mai 1999 une lettre aux conducteurs, les invitant à passer au garage à partir du mois de septembre. Au cas, où ils avaient déjà revendu leur véhicule, ils leur étaient demandés de bien vouloir indiquer le nom du nouveau propriétaire. Si nécessaire, Citroën pourra consulter le fichier des cartes grises. Au total, l’opération devrait s’étaler sur un an et coûter près de 6 millions de francs.

Consoles de jeux vidéo : comment les Japonais s’affrontent

Visite à Tokyo et Kyoto chez les trois seigneurs des jeux vidéo : Nintendo, Sega et Sony.

Une première courbette lorsqu’un visiteur s’empare de la manette de jeu, un deuxième salut lorsqu’il repart, un coup de chiffon sur la télécommande, puis recourbette devant un nouveau joueur, etc. Ce cérémonial, les hôtesses qui travaillaient sur le Tokyo Game Show l’ont répété inlassablement : plus de 150 000 jeunes Japonais ont fréquenté, les 18 et 19 septembre derniers, cette gigantesque foire consacrée aux jeux vidéo, qui se tient deux fois par an près de la capitale nippone. L’occasion rêvée pour 74 fabricants de consoles et éditeurs de CD-Rom, venus du monde entier, de présenter leurs nouveautés. Parmi les révélations les plus attendues : la nouvelle console de Sony, la Playstation 2. Sur le stand de la marque, les «core gamers» (mordus de jeux vidéo) devaient attendre une demi-heure avant de pouvoir essayer un des dix prototypes exposés. Pour les impatients, une vidéo, diffusée sur écran géant, détaillait les multiples avantages de cette machine, qui permet, entre autres, de visionner un film DVD. Un peu plus loin, des centaines de spectateurs se pressaient devant le podium Sega, où un «Monsieur Loyal», encadré par quatre danseuses en mini-jupes noires, vantait les qualités de la dernière console-maison, la Dreamcast. Seul Nintendo n’était pas présent sur le salon. Mais il y avait dépêché ses «mouchards», chargés de repérer les innovations qui pourront être incorporées dans la Dolphin, son prochain terminal de jeux.

Cette opération d’espionnage ne constitue qu’un épisode mineur de la guerre qui se prépare. Nintendo, Sega et Sony, les trois sumos qui, depuis quinze ans, se disputent le marché mondial des consoles, sont, de nouveau, sur le point de s’empoigner. A eux trois, ils contrôlent 100% de ce secteur, estimé à 30 milliards de francs par an. Mais avec leurs nouvelles machines, révolutionnaires, ils veulent relancer l’engouement pour les jeux vidéo, qui comptent déjà trois cents millions d’adeptes, à travers le monde. «Ce chiffre va doubler au cours des quatre prochaines années», assure Shoichiro Irimajiri, le patron de Sega, interrogé, quelques jours plus tard, au siège de l’entreprise, un immeuble bleu et blanc, au sud-ouest de Tokyo. Dans cette bataille, l’homme joue tout simplement l’avenir de son groupe. La Dreamcast constitue en effet la dernière chance de Sega de revenir sur le segment des consoles, dont il est quasiment sorti, après un lancement raté en 1995.

Ses deux concurrents, eux, espèrent simplement profiter de ce renouveau pour améliorer leur score de ventes. Et pour terrasser l’ennemi commun, le PC, devenu, au fil des ans, trop gourmand. En France, par exemple, 35% des foyers possèdent une console et 24% ont acquis un micro-ordinateur. Or, les jeux vidéo constituent la principale motivation des familles qui achètent un PC : près d’un tiers des jeux se vendent désormais sous forme de CD-Rom pour ordinateurs. Certes, les consoles, équipées de manettes, restent plus faciles à utiliser. Mais, moins puissantes, elles offrent des images de médiocre qualité. Cet handicap va disparaître. Les trois industriels ont investi des milliards pour mettre au point une nouvelle génération de consoles, beaucoup plus puissantes, car doté de microprocesseurs ultra-rapides. Résultat : sur la Playstation 2 et la Dreamcast, les images sont d’une incroyable netteté, comme le prouvaient les jeux présentés au Tokyo Game Show. Les mouvements de Sonic, célèbre hérisson bleu et mascotte de Sega, deviennent extraordinairement fluides sur la Dreamcast. Même amélioration pour la version Playstation 2 de Gran Turismo, une course de voitures très populaire (la première édition s’est vendue à plus de 7 millions d’exemplaires). «Les effets de lumière sont extras, on se croirait dans un film», s’extasiait Yuu-ta, un gamin de 9 ans, venu avec sa sœur et un copain.

Seconde innovation majeure de la Playstation 2 et la Dreamcast : elles se connectent à Internet. Ce qui permet, grâce aux réseaux des réseaux, d’affronter des joueurs situés à l’autre bout de la planète. Mais aussi de se servir de sa console et de sa télé pour surfer sur le Web. Les dirigeants de Nintendo, eux, hésitent encore à jouer la carte de la connectivité. «Nous voulons d’abord nous assurer que les jeux en ligne sont rentables, explique Yasuhiro Minagawa, du département marketing. Pour l’instant, personne ne gagne d’argent dans ce métier.»

Comme toujours, les constructeurs qui imposeront leurs équipements domineront aussi le marché des logiciels. Les consoles sont en effet incompatibles. Chacune utilise des disques différents : GDD (Giga drive disk) pour la Dreamcast, DVD (Digital versatile disk) avec un système anti-piratage Sony pour la Playstation 2 et DVD pour la Dolphin, également, mais, cette fois, au format Matsushita. L’utilisateur qui, par exemple, choisira la Dreamcast sera donc obligé d’acheter des jeux au standard Sega. C’est le principe de la clientèle captive.

De plus, les trois firmes sont les seules à pouvoir fabriquer ces disques. Tout éditeur de jeu qui souhaite utiliser un des ces formats doit donc faire presser ses disques par Nintendo ou Sony. Les fabricants de console en profitent pour prélever, au passage, d’énormes royalties. «C’est ce qui leur rapporte le plus, explique Mitsuko Morita, analyste chez Morgan Stanley Japan. Ils ne gagnent presque rien sur le hardware.»

En cela, le secteur du jeu vidéo s’apparente à un marché «rasoirs et lames». L’équipement de base (la console) est proposé à prix coûtant, mais les «consommables» (les jeux) sont vendus au prix fort : malgré la redevance versée aux constructeurs, la marge nette dépasse souvent les 20%. Du coup, non contents de racketter les autres éditeurs, Nintendo, Sega et Sony se sont également lancés dans le business, très rentable, des logiciels de jeux. Chaque belligérant possède ses propres studios de création. Gran Turismo, par exemple, est édité par Polyphony Digital, une filiale de Sony.

Comme pour toute nouvelle idée de CD-Rom, cette course de voiture a d’abord été discrètement testée dans les «GéSen», des salles de jeux très populaires au Japon. A Shinjuku, le quartier branché de Tokyo, chaque rue comporte au moins un GéSen, où on peut s’éclater sur des simulateurs de vol ou de tir. Parmi les derniers succès, «Brave firefighters» (Courageux pompiers), conçu par Sega et où il faut sauver les habitants d’une maison en feu.

Cet engouement pour les jeux électroniques explique d’ailleurs la percée des industriels japonais dans ce secteur. Lorsque les premiers jeux Pong  furent importés des Etats-Unis, au milieu des années 70, ils connurent ici un succès foudroyant. A partir de là, se développa une forte culture multimédia. Et si c’est une firme américaine, Atari, qui, en 1974, inventa la console, ce sont deux entreprises japonaises qui en ont fait un best-seller planétaire : Nintendo, un fabricant de cartes à jouer reconverti dans l’électronique, et Sega, une firme créée à l’origine par un ex-GI américain. Depuis le milieu des années 80, ces deux-là n’ont cessé de s’affronter, à coups d’innovations technologiques. Nintendo, l’a d’abord emporté d’une courte tête, grâce à sa Nes, plus performante. Nouveau conflit mondial en 1991, avec la deuxième génération de machines. Avantage, cette fois, à Sega qui avait dégainé le premier, avec sa Megadrive. Le troisième round, à partir de 1994, vit l’entrée en scène de Sony. Le marketing devint le nerf de la guerre. A grand renfort de publicité, l’inventeur du Walkman infligea une raclée à Nintendo et envoya Sega au tapis. En cinq ans, la Playstation 1 s’est vendue à près de 60 millions d’exemplaires, contre moins de 40 millions pour la Nintendo 64 et quelques centaines de milliers seulement pour la Saturn.

La quatrième manche commence à peine. Cette fois, Sega pourrait bien être définitivement écrasée par les rouleaux compresseurs Sony et Nintendo. L’entreprise est exsangue : sur les deux dernières années, son chiffre d’affaires a fondu de 38%, pour tomber à 15,7 milliards de francs, tandis que ses pertes s’élevaient, au total, à 4,6 milliards. En fait, après l’échec de sa console Saturn, en 1995, la firme n’a survécu que grâce à ses autres activités, les jeux d’arcades et les parcs de loisirs. Ses deux adversaires, eux, roulent sur l’or. L’ogre Sony (403 milliards de francs de chiffre d’affaires) aligne 11 milliards de bénéfices annuels et 35 milliards de liquidité. L’activité jeu ne représente que 11% de ses ventes, mais elle est stratégique pour le groupe, puisqu’elle rapporte 41% de ses bénéfices. La palme de la rentabilité revient cependant à Nintendo, avec 4,5 milliards de bénéfices pour 15,7 milliards de ventes (uniquement dans les jeux), soit une marge nette de 28%. De plus, la firme possède un impressionnant matelas de cash : 38 milliards de francs ! «Nous sommes une des entreprises japonaises les mieux gérées», sourit Shigeru Miyamoto, directeur du développement des jeux. Une des plus pingres, pourrait-il ajouter : à Kyoto, l’ex-ville impériale située à 400 kilomètres à l’ouest de Tokyo, les 1 000 employés de la multinationale Nintendo sont logés dans des petits bâtiments, coincés le long d’une voie de chemin de fer, à la périphérie de la ville.

Heureusement, Sega va avoir le champ libre pendant quelques mois. Sortie à Tokyo en novembre 1998, la Dreamcast a été lancée aux Etats-Unis en septembre dernier, puis, un mois plus tard, en Europe. La Playstation 2 devrait être disponible au Japon dès mars prochain, mais Américains et Européens devront patienter jusqu’à l’automne suivant. Quant à la Dolphin, elle ne commencera sa carrière commerciale qu’à Noël 2000.

Conscients que la Dreamcast constitue leur planche de salut, les dirigeants de Sega ont soigneusement préparé sa sortie. Tout le contraire du lancement précédent, celui de la Saturn, opéré dans la précipitation. «A l’époque, nous avions pêché par excès de confiance, reconnaît un dirigeant du groupe. Nous n’avions même pas fait d’étude préalable.» Pour la Dreamcast, au contraire, tout a été soigneusement testé. «Nous avons demandé à un panel d’informaticiens, distributeurs et joueurs d’imaginer la console du futur, raconte Shoichiro Irimajiri, le P-DG. Sur leurs suggestions nous avons élaboré le concept, très simple, d’une machine puissante et capable de se connecter à Internet.» Puis, pendant un an, des spécialistes ont planché sur le nom. Après les appellations (Megadrive et Saturn) trop «froides» des deux derniers terminaux, un patronyme un peu plus «fun» a été retenu : Dreamcast.

Sega a également mis le paquet sur la promotion. Le budget de lancement s’élève à 1,8 milliard de francs, réparti à égalité entre le Japon, les Etats-Unis et l’Europe. A chaque fois, des opérations très ponctuelles ont été menées : sponsoring des Music Awards sur la chaîne de télé américaine MTV ; diffusion, en Europe, de spots publicitaires au cinéma, juste avant le film «Star Wars, la Menace fantôme». Objectif ? Toucher des publics variés. «Et, ainsi, positionner la Dreamcast comme la console de tout le monde», explique Jean-François Cécillon, directeur Europe.

Pour l’instant, la machine n’a remporté qu’un demi-succès au Japon : 1,3 million d’unités écoulées depuis novembre dernier. «Nous espérions faire mieux», reconnaît-on chez Sega. En revanche, elle a réussi sa percée aux Etats-Unis, avec 370 000 terminaux vendus en seulement quatre jours. Malheureusement, le tremblement de terre survenu à Taiwan mi-septembre risque de casser cet élan. «Beaucoup de nos composants sont fabriqués là-bas, s’inquiète Shoishiro Irimajiri. Si nos fournisseurs accumulent trop de retard, nous ne pourrons pas faire face à la demande.»

Voilà qui arrangerait bien Sony Computer Entertainment, la filiale «jeux vidéo» du groupe nippon. Au siège de l’entreprise, un immeuble ultra-moderne du cœur de Tokyo, on affiche en effet de très hautes ambitions pour la Playstation 2. «Notre objectif, au Japon, est d’en vendre 1 million dans les deux premiers jours du lancement, au prix unitaire de 39 800 yens (2 400 francs)», lance Akira Sato, directeur général de la filiale. Intox ? Pas sûr, car si les responsables de Sony veulent rapidement recouvrer leurs mises, ils devront écouler 4 millions de consoles. Les seuls coûts de développement dépassent les 6 milliards de francs !

Un pari d’autant plus osé, qu’aucune pré-étude n’a été faite. «Il n’y a pas eu de test marketing, avoue Mark Kato, le numéro 3 de Sony Computer Entertainment, en charge de l’international. Nos ingénieurs ont soumis l’idée d’une machine qui serve également de lecteur de DVD et de terminal Internet. Après, nous avons regardé ce qu’il était techniquement possible de faire. C’est tout.» Les dirigeants de Sony, à leur tour, auraient-ils pêché par orgueil ?

En tout cas, tous les spécialistes du marketing s’interrogent sur le positionnement de la Playstation 2. Elle est en effet présentée comme une console de jeu et un lecteur de DVD bon marché. Mais, dans ce cas, Sony va devoir affronter, en plus de la concurrence de Nintendo et de Sega, celle des Philips, Samsung et autres fabricants de lecteurs. Ce qui fait beaucoup de monde. A Kyoto, près de la voie ferrée, on se prépare à compter les morts.

Jacques Henno

Consoles de jeux vidéo : comment les Japonais s'affrontent

Visite à Tokyo et Kyoto chez les trois seigneurs des jeux vidéo : Nintendo, Sega et Sony.

Une première courbette lorsqu’un visiteur s’empare de la manette de jeu, un deuxième salut lorsqu’il repart, un coup de chiffon sur la télécommande, puis recourbette devant un nouveau joueur, etc. Ce cérémonial, les hôtesses qui travaillaient sur le Tokyo Game Show l’ont répété inlassablement : plus de 150 000 jeunes Japonais ont fréquenté, les 18 et 19 septembre derniers, cette gigantesque foire consacrée aux jeux vidéo, qui se tient deux fois par an près de la capitale nippone. L’occasion rêvée pour 74 fabricants de consoles et éditeurs de CD-Rom, venus du monde entier, de présenter leurs nouveautés. Parmi les révélations les plus attendues : la nouvelle console de Sony, la Playstation 2. Sur le stand de la marque, les «core gamers» (mordus de jeux vidéo) devaient attendre une demi-heure avant de pouvoir essayer un des dix prototypes exposés. Pour les impatients, une vidéo, diffusée sur écran géant, détaillait les multiples avantages de cette machine, qui permet, entre autres, de visionner un film DVD. Un peu plus loin, des centaines de spectateurs se pressaient devant le podium Sega, où un «Monsieur Loyal», encadré par quatre danseuses en mini-jupes noires, vantait les qualités de la dernière console-maison, la Dreamcast. Seul Nintendo n’était pas présent sur le salon. Mais il y avait dépêché ses «mouchards», chargés de repérer les innovations qui pourront être incorporées dans la Dolphin, son prochain terminal de jeux.

Cette opération d’espionnage ne constitue qu’un épisode mineur de la guerre qui se prépare. Nintendo, Sega et Sony, les trois sumos qui, depuis quinze ans, se disputent le marché mondial des consoles, sont, de nouveau, sur le point de s’empoigner. A eux trois, ils contrôlent 100% de ce secteur, estimé à 30 milliards de francs par an. Mais avec leurs nouvelles machines, révolutionnaires, ils veulent relancer l’engouement pour les jeux vidéo, qui comptent déjà trois cents millions d’adeptes, à travers le monde. «Ce chiffre va doubler au cours des quatre prochaines années», assure Shoichiro Irimajiri, le patron de Sega, interrogé, quelques jours plus tard, au siège de l’entreprise, un immeuble bleu et blanc, au sud-ouest de Tokyo. Dans cette bataille, l’homme joue tout simplement l’avenir de son groupe. La Dreamcast constitue en effet la dernière chance de Sega de revenir sur le segment des consoles, dont il est quasiment sorti, après un lancement raté en 1995.

Ses deux concurrents, eux, espèrent simplement profiter de ce renouveau pour améliorer leur score de ventes. Et pour terrasser l’ennemi commun, le PC, devenu, au fil des ans, trop gourmand. En France, par exemple, 35% des foyers possèdent une console et 24% ont acquis un micro-ordinateur. Or, les jeux vidéo constituent la principale motivation des familles qui achètent un PC : près d’un tiers des jeux se vendent désormais sous forme de CD-Rom pour ordinateurs. Certes, les consoles, équipées de manettes, restent plus faciles à utiliser. Mais, moins puissantes, elles offrent des images de médiocre qualité. Cet handicap va disparaître. Les trois industriels ont investi des milliards pour mettre au point une nouvelle génération de consoles, beaucoup plus puissantes, car doté de microprocesseurs ultra-rapides. Résultat : sur la Playstation 2 et la Dreamcast, les images sont d’une incroyable netteté, comme le prouvaient les jeux présentés au Tokyo Game Show. Les mouvements de Sonic, célèbre hérisson bleu et mascotte de Sega, deviennent extraordinairement fluides sur la Dreamcast. Même amélioration pour la version Playstation 2 de Gran Turismo, une course de voitures très populaire (la première édition s’est vendue à plus de 7 millions d’exemplaires). «Les effets de lumière sont extras, on se croirait dans un film», s’extasiait Yuu-ta, un gamin de 9 ans, venu avec sa sœur et un copain.

Seconde innovation majeure de la Playstation 2 et la Dreamcast : elles se connectent à Internet. Ce qui permet, grâce aux réseaux des réseaux, d’affronter des joueurs situés à l’autre bout de la planète. Mais aussi de se servir de sa console et de sa télé pour surfer sur le Web. Les dirigeants de Nintendo, eux, hésitent encore à jouer la carte de la connectivité. «Nous voulons d’abord nous assurer que les jeux en ligne sont rentables, explique Yasuhiro Minagawa, du département marketing. Pour l’instant, personne ne gagne d’argent dans ce métier.»

Comme toujours, les constructeurs qui imposeront leurs équipements domineront aussi le marché des logiciels. Les consoles sont en effet incompatibles. Chacune utilise des disques différents : GDD (Giga drive disk) pour la Dreamcast, DVD (Digital versatile disk) avec un système anti-piratage Sony pour la Playstation 2 et DVD pour la Dolphin, également, mais, cette fois, au format Matsushita. L’utilisateur qui, par exemple, choisira la Dreamcast sera donc obligé d’acheter des jeux au standard Sega. C’est le principe de la clientèle captive.

De plus, les trois firmes sont les seules à pouvoir fabriquer ces disques. Tout éditeur de jeu qui souhaite utiliser un des ces formats doit donc faire presser ses disques par Nintendo ou Sony. Les fabricants de console en profitent pour prélever, au passage, d’énormes royalties. «C’est ce qui leur rapporte le plus, explique Mitsuko Morita, analyste chez Morgan Stanley Japan. Ils ne gagnent presque rien sur le hardware.»

En cela, le secteur du jeu vidéo s’apparente à un marché «rasoirs et lames». L’équipement de base (la console) est proposé à prix coûtant, mais les «consommables» (les jeux) sont vendus au prix fort : malgré la redevance versée aux constructeurs, la marge nette dépasse souvent les 20%. Du coup, non contents de racketter les autres éditeurs, Nintendo, Sega et Sony se sont également lancés dans le business, très rentable, des logiciels de jeux. Chaque belligérant possède ses propres studios de création. Gran Turismo, par exemple, est édité par Polyphony Digital, une filiale de Sony.

Comme pour toute nouvelle idée de CD-Rom, cette course de voiture a d’abord été discrètement testée dans les «GéSen», des salles de jeux très populaires au Japon. A Shinjuku, le quartier branché de Tokyo, chaque rue comporte au moins un GéSen, où on peut s’éclater sur des simulateurs de vol ou de tir. Parmi les derniers succès, «Brave firefighters» (Courageux pompiers), conçu par Sega et où il faut sauver les habitants d’une maison en feu.

Cet engouement pour les jeux électroniques explique d’ailleurs la percée des industriels japonais dans ce secteur. Lorsque les premiers jeux Pong  furent importés des Etats-Unis, au milieu des années 70, ils connurent ici un succès foudroyant. A partir de là, se développa une forte culture multimédia. Et si c’est une firme américaine, Atari, qui, en 1974, inventa la console, ce sont deux entreprises japonaises qui en ont fait un best-seller planétaire : Nintendo, un fabricant de cartes à jouer reconverti dans l’électronique, et Sega, une firme créée à l’origine par un ex-GI américain. Depuis le milieu des années 80, ces deux-là n’ont cessé de s’affronter, à coups d’innovations technologiques. Nintendo, l’a d’abord emporté d’une courte tête, grâce à sa Nes, plus performante. Nouveau conflit mondial en 1991, avec la deuxième génération de machines. Avantage, cette fois, à Sega qui avait dégainé le premier, avec sa Megadrive. Le troisième round, à partir de 1994, vit l’entrée en scène de Sony. Le marketing devint le nerf de la guerre. A grand renfort de publicité, l’inventeur du Walkman infligea une raclée à Nintendo et envoya Sega au tapis. En cinq ans, la Playstation 1 s’est vendue à près de 60 millions d’exemplaires, contre moins de 40 millions pour la Nintendo 64 et quelques centaines de milliers seulement pour la Saturn.

La quatrième manche commence à peine. Cette fois, Sega pourrait bien être définitivement écrasée par les rouleaux compresseurs Sony et Nintendo. L’entreprise est exsangue : sur les deux dernières années, son chiffre d’affaires a fondu de 38%, pour tomber à 15,7 milliards de francs, tandis que ses pertes s’élevaient, au total, à 4,6 milliards. En fait, après l’échec de sa console Saturn, en 1995, la firme n’a survécu que grâce à ses autres activités, les jeux d’arcades et les parcs de loisirs. Ses deux adversaires, eux, roulent sur l’or. L’ogre Sony (403 milliards de francs de chiffre d’affaires) aligne 11 milliards de bénéfices annuels et 35 milliards de liquidité. L’activité jeu ne représente que 11% de ses ventes, mais elle est stratégique pour le groupe, puisqu’elle rapporte 41% de ses bénéfices. La palme de la rentabilité revient cependant à Nintendo, avec 4,5 milliards de bénéfices pour 15,7 milliards de ventes (uniquement dans les jeux), soit une marge nette de 28%. De plus, la firme possède un impressionnant matelas de cash : 38 milliards de francs ! «Nous sommes une des entreprises japonaises les mieux gérées», sourit Shigeru Miyamoto, directeur du développement des jeux. Une des plus pingres, pourrait-il ajouter : à Kyoto, l’ex-ville impériale située à 400 kilomètres à l’ouest de Tokyo, les 1 000 employés de la multinationale Nintendo sont logés dans des petits bâtiments, coincés le long d’une voie de chemin de fer, à la périphérie de la ville.

Heureusement, Sega va avoir le champ libre pendant quelques mois. Sortie à Tokyo en novembre 1998, la Dreamcast a été lancée aux Etats-Unis en septembre dernier, puis, un mois plus tard, en Europe. La Playstation 2 devrait être disponible au Japon dès mars prochain, mais Américains et Européens devront patienter jusqu’à l’automne suivant. Quant à la Dolphin, elle ne commencera sa carrière commerciale qu’à Noël 2000.

Conscients que la Dreamcast constitue leur planche de salut, les dirigeants de Sega ont soigneusement préparé sa sortie. Tout le contraire du lancement précédent, celui de la Saturn, opéré dans la précipitation. «A l’époque, nous avions pêché par excès de confiance, reconnaît un dirigeant du groupe. Nous n’avions même pas fait d’étude préalable.» Pour la Dreamcast, au contraire, tout a été soigneusement testé. «Nous avons demandé à un panel d’informaticiens, distributeurs et joueurs d’imaginer la console du futur, raconte Shoichiro Irimajiri, le P-DG. Sur leurs suggestions nous avons élaboré le concept, très simple, d’une machine puissante et capable de se connecter à Internet.» Puis, pendant un an, des spécialistes ont planché sur le nom. Après les appellations (Megadrive et Saturn) trop «froides» des deux derniers terminaux, un patronyme un peu plus «fun» a été retenu : Dreamcast.

Sega a également mis le paquet sur la promotion. Le budget de lancement s’élève à 1,8 milliard de francs, réparti à égalité entre le Japon, les Etats-Unis et l’Europe. A chaque fois, des opérations très ponctuelles ont été menées : sponsoring des Music Awards sur la chaîne de télé américaine MTV ; diffusion, en Europe, de spots publicitaires au cinéma, juste avant le film «Star Wars, la Menace fantôme». Objectif ? Toucher des publics variés. «Et, ainsi, positionner la Dreamcast comme la console de tout le monde», explique Jean-François Cécillon, directeur Europe.

Pour l’instant, la machine n’a remporté qu’un demi-succès au Japon : 1,3 million d’unités écoulées depuis novembre dernier. «Nous espérions faire mieux», reconnaît-on chez Sega. En revanche, elle a réussi sa percée aux Etats-Unis, avec 370 000 terminaux vendus en seulement quatre jours. Malheureusement, le tremblement de terre survenu à Taiwan mi-septembre risque de casser cet élan. «Beaucoup de nos composants sont fabriqués là-bas, s’inquiète Shoishiro Irimajiri. Si nos fournisseurs accumulent trop de retard, nous ne pourrons pas faire face à la demande.»

Voilà qui arrangerait bien Sony Computer Entertainment, la filiale «jeux vidéo» du groupe nippon. Au siège de l’entreprise, un immeuble ultra-moderne du cœur de Tokyo, on affiche en effet de très hautes ambitions pour la Playstation 2. «Notre objectif, au Japon, est d’en vendre 1 million dans les deux premiers jours du lancement, au prix unitaire de 39 800 yens (2 400 francs)», lance Akira Sato, directeur général de la filiale. Intox ? Pas sûr, car si les responsables de Sony veulent rapidement recouvrer leurs mises, ils devront écouler 4 millions de consoles. Les seuls coûts de développement dépassent les 6 milliards de francs !

Un pari d’autant plus osé, qu’aucune pré-étude n’a été faite. «Il n’y a pas eu de test marketing, avoue Mark Kato, le numéro 3 de Sony Computer Entertainment, en charge de l’international. Nos ingénieurs ont soumis l’idée d’une machine qui serve également de lecteur de DVD et de terminal Internet. Après, nous avons regardé ce qu’il était techniquement possible de faire. C’est tout.» Les dirigeants de Sony, à leur tour, auraient-ils pêché par orgueil ?

En tout cas, tous les spécialistes du marketing s’interrogent sur le positionnement de la Playstation 2. Elle est en effet présentée comme une console de jeu et un lecteur de DVD bon marché. Mais, dans ce cas, Sony va devoir affronter, en plus de la concurrence de Nintendo et de Sega, celle des Philips, Samsung et autres fabricants de lecteurs. Ce qui fait beaucoup de monde. A Kyoto, près de la voie ferrée, on se prépare à compter les morts.

Jacques Henno

Le papier électronique bientôt dans nos entreprises

Sur ce matériau révolutionnaire ultra-fin, on peut afficher n’importe quel texte ou image vidéo.

Voilà quelques semaines, les clients de JC Penney, une chaîne de grands magasins américains, ont découvert, suspendues au plafond de quelques points de vente, d’immenses affiches magiques. Sur ces panneaux de 2 mètres sur 1,3, ils voient défiler des images, du texte ou de la vidéo (portraits de sportifs, publicités pour une marque, etc.). Explication : ces affiches sont réalisées dans un matériau révolutionnaire, appelé «papier électronique» et mis au point par E-Ink, une start-up de la côte est des Etats-Unis.
A priori, cette feuille bleue de 3 millimètres d’épaisseur n’est qu’un vulgaire bout de plastique. Mais, en fait, elle est composée de millions de microcapsules, noires d’un côté, blanches de l’autre. Chacune de ces billes est reliée à un minuscule fil électrique, qui permet de la faire pivoter selon l’impulsion envoyée. Ajoutez à cela des filtres colorés très fins qui recouvrent toute la feuille, et vous obtenez un support qui peut reproduire à l’infini n’importe quel élément visuel, en noir et blanc ou en bichromie. Autre avantage : très souple, ce papier peut s’installer n’importe où, même sur un support irrégulier.
«Dans un premier temps, nous visons le marché des affiches et autres panneaux d’information utilisés dans les entreprises, prévient Jim Iuliano, le président d’E-Ink. Mais, d’ici trois à cinq ans, nous espérons attaquer les secteurs de la presse et de l’édition.» Lorsqu’il sera suffisamment miniaturisé, le papier électronique permettra en effet aux particuliers de ne plus posséder qu’un seul livre, réalisé dans ce matériau. Ils pourront successivement «imprimer»  ou plutôt télécharger à partir d’un site Internet  le dernier livre de Tom Wolfe, «Le Grand Meaulnes» ou un polar en vogue. Même chose pour les journaux et les magazines qui n’auront plus besoin d’être imprimés, mais qu’on transférera sur cette ardoise magique
Pour autant, fabricants de papier et imprimeurs ont encore un bel avenir devant eux. Car, au stade actuel, le papier électronique reste très coûteux (E-Ink ne dévoile aucun chiffre à ce sujet). Et, surtout, pour l’instant, il n’est pas possible d’écrire à la main sur ce support. Tant pis pour ceux qui annotent les documents qu’ils lisent
Jacques Henno

(article paru dans le mensuel Capital, numéro d’août 1999)

Quelques informations sur la Silicon Valley

Carte de la Silicon Valley, en Californie

La Silicon Valley, vue de l'espace (1995)
La Silicon Valley, vue de l'espace (1995)

La carte ci-dessus a été réalisée grâce au site américain http://tiger.census.gov. La photo, prise en 1995 depuis la navette spatiale, est extraite des archives de la Nasa (http://earth.jsc.nasa.gov).

Carte de la Silicon Valley (source : Google Maps 2010)
Carte de la Silicon Valley (source : Google Maps 2010)

La Silicon Valley ou « Vallée du Silicium », située en Californie, s’étend sur une quarantaine de kilomètres au Sud-Est de San Francisco, entre les cités de San Mateo et Fremont, en passant par San Jose. C’est la Mecque de l’informatique mondiale. Là se trouvent en effet la plupart des grands fabricants d’ordinateurs, des principaux éditeurs de logiciels et des moteurs de recherche grand public : Intel (qui produit les microprocesseurs, le cerveau des PC), Apple, Hewlett-Packard, Sun, Palm Pilot,Yahoo, Google….

Le saviez-vous ?

Il est connu que si la Californie devenait un état indépendant, elle serait la sixième puissance économique au monde.
Mais l’on sait moins que si la Silicon Valley accédait à l’indépendance, elle constituerait la douzième puissance mondiale
La Silicon Valley en chiffres :
• 2,51 millions d’habitants
• 37% des habitants ont entre 20 et 44 ans
• revenu moyen : 74 300 $ par an
• taux de divorce : plus de 50%
• 49% des adultes sont considérés comme obèses ou en surpoids
• 1 950 kilomètres de pistes cyclables sillonnent la Silicon Valley
• 11 nouvelles sociétés créées chaque semaine
• quelque 11 500 entreprises high-tech au total, employant 416 000 salariés, cadres et ingénieurs, réalisent 99 milliards de dollars de chiffre d’affaires
• 159 firmes de capital-risque sont implantées dans la région
• en 2005, la Silicon Valley a reçu près de 5 milliards de dollars sous forme de capital-risque (27% du capital-risque américain)
• en 2005, 11% des brevets déposés aux Etats-Unis l’ont été par des entreprises, des universités ou des laboratoires de la Silicon Valley
(sources : Anna Lee Saxenian, Public Policy Institute of California/Wall Street Journal/ Joint Venture Silicon Valley Network)

Mais la Silicon Valley n’est pas qu’un énorme centre de recherche industrielle et de production. C’est également un gigantesque laboratoire où s’élabore la société de demain.

«Tenter de repousser le modèle de la Silicon Valley, c’est aller à la défaite économique et sociale. C’est comme si l’on avait dit qu’il fallait refuser la révolution industrielle», Manuel Castells, professeur à l’université Berkeley (Californie) (1)

Quelques informations sur la Silicon Valley :

Les produits qui viennent de la Silicon Valley :
puces électroniques (micro-processeur) Intel
ordinateurs Apple
Imprimantes et ordinateurs Hewlett-Packard

Java
Palm Pilot

Google
Yahoo
magazine Wired
un grande partie du trafic Internet mondial passe par cette région du monde

Les Français célèbres de la Silicon Valley
140 000 Français (familles comprises) seraient enregistrés auprès du consulat de San Francisco. Parmi les plus connus, on trouve :
• Jean-Louis Gassée (ancien dirigeant d’Apple, fondateur de Be Incorporated, aujourd’hui partenaire d’Allegis Capital)
• Eric Benhamou (ancien patron de 3Com, il est maintenant business angel)
• Jean-Claude Latombe (ancien chairman du département de sciences informatiques de l’université Stanford à Palo Alto, il enseigne toujours dans cet établissement)
• Philippe Kahn (fondateur et ancien patron de Borland, il a créé Fullpower, une start-up dédiée à la convergence « Sciences de la Vie » et « Liaisons sans Fil »)
• Philippe Pouletty (ancien chercheur à Stanford, inventeur de 21 brevets, fondateur de SangStat, président du Conseil Stratégique de l’Innovation… )
• Claude Léglise, (ancien vice-président d’Intel, puis d’Intel Capital, il est membre du conseil d’administration de SupportSoft, une entreprise spécialisée dans l’automatisation du support technique)
• Pierre Lamond, un des associés de Sequoia Capital, une des plus importantes firmes de capital-risque de la Silicon Valley.

Les tremblements de terre

La Silicon Valley est située sur la faille de San Andreas. Tous les jours, un ou plusieurs séismes secouent la région. Heureusement, la plupart de ces mouvements telluriques sont de très faible amplitude. Mais de temps en temps, une secousse plus forte provoque de très gros dégâts (séisme de 1989) ou détruit tout sur son passage (catastrophe de 1906).

Une rue de San Francisco en 1906.

Tremblement de terre de 1906 : l’université Stanford, à Palo Alto, au coeur de ce qui deviendra cinquante ans plus tard la Silicon Valley.

En attendant le « Big One », le tremblement de terre final qui devrait engloutir la Californie, on peut consulter le site http://quake.wr.usgs.gov/recenteqs/Maps/SF_Bay.html qui recense tous les séismes survenus dans la région de San Francisco au cours des derniers jours. Il est actualisé en permanence. D’après les scientifiques qui animent ce site, il est à peu près certain (70% de probabilité) qu’un très fort tremblement de terre va toucher la région de San Francisco d’ci à l’an 2030 : http://quake.wr.usgs.gov/study/wg99/index.html

————-

(1) D’origine espagnole, Manuel Castells, 57 ans, est l’auteur d’une trilogie consacrée à «L’Ere de l’information» et parue en France chez Fayard : «La Société en réseaux» (1998), «Le Pouvoir de l’identité» et «Fin de millénaire» (1999).

High-tech : les Etats-Unis ont une révolution d’avance sur le reste du monde

Micro-ordinateurs, logiciels, Internet, agendas électroniques… Toutes ces découvertes ont vu le jour outre-Atlantique. Aujourd’hui, ce sont elles qui tirent l’économie du pays et créent des emplois.

Palo Alto, une petite ville situé à 30 kilomètres au sud de San Francisco, en pleine Silicon Valley. En ce dimanche après-midi, le parking de Fry’s, un grand magasin d’informatique, est plein à craquer. Mordus de high-tech et badauds sont venus découvrir les derniers gadgets électroniques : dictaphone Dragon, qui convertit automatiquement un message oral en texte, agenda électronique Rex, de la taille d’une carte de crédit, mini-antenne GPS et logiciel Door-to-Door Co-Pilot, pour transformer les ordinateurs portables en navigateurs routiers… Rares sont les clients qui ne repartent pas avec un ou deux de ces appareils, «made in USA».

Le moteur de la croissance américa[1]ine, c’est eux. Californiens, Texans ou New-yorkais, passionnés par la «high-tech», sont tous suréquipés en micro-ordinateurs et autres CD-Rom. Outre-Atlantique, les achats de matériels informatiques représentent 30% des investissements des entreprises et des ménages, contre seulement 8% en France. Du coup, les usines d’Intel (micro-processeurs) ou de Dell (PC vendus par correspondance) tournent 24 heures sur 24. «Aujourd’hui, la high-tech américaine réalise 700 milliards de dollars de chiffre d’affaires, soit 20% du PIB des Etats-Unis», estime Kay Howell, directrice du NCO (National coordination office), l’agence fédérale qui coordonne la recherche en informatique. Et le secteur embauche à tour de bras, créant 30% des nouveaux emplois du payæs.

Ted Hoff peut-être fier de lui. Sans cet ingénieur américain, aujourd’hui âgé de 70 ans, rien de cela ne serait jamais arrivé. C’est lui, en effet, qui en 1971, a mis au point le premier Ômicroprocesseur. Depuis, l’Amérique n’a cessé de dominer le secteur de la high-tech. Deux exemples : le premier ordinateur personnel a vu le jour à Palo Alto, au Xerox Parc (lire page XXX) et le premier «browser» (navigateur sur Internet) ‚a été mis au point par un étudiant de l’Illinois. Aujourd’hui, les Etats-Unis gardent une avance considérable dans tous les domaines, logiciels, ordinateurs, réseaux, annuaires de recherche sur Internet… Mais cela ne les empêche pas d’investir massivement dans la recherche. Déjà, les universitaires américains préparent la nouvelle génération d’Internet. Elle permettra le développement d’applications spectaculaires, comme la reconnaissance tactile à distance (lire ci-contre). La croissance américaine n’est pas prête de s’arrêter.

De notre envoyé spécial à San Francisco et Washington, Jacques Henno

Internet 2 : sur les campus américains, on prépare déjà le Web de demain

Le nouveau réseau électronique développé par les universités américaines va révolutionner Internet.

Installés à l’université de Chapel Hill, en Caroline du Nord, deux étudiants observent une fibre de coton à travers un microscope électronique. Ce qu’ils voient ? Une sorte de gros tuyau blanc rugueux posé sur une surface jaune. Cinq cents kilomètres plus au Nord, à Washington, trois autres élèves regardent sur un PC la même image, transmise par une ligne Internet à haut débit. Mais le plus extraordinaire, c’est qu’ils peuvent toucher – oui, toucher à distance – cette fibre. Sur l’ordinateur de Washington, la traditionnelle souris a été remplacée par un stylet, supporté par un bras mécanique. Il suffit de positionner le curseur au-dessus de la fibre, puis de descendre lentement, pour sentir, à travers le stylet, la résistance du coton.

Cette surprenante expérience de reconnaissance tactile constituait le clou du forum «Networking 99» qui s’est tenu fin avril à Washington et qui a rassemblé le gratin de l’Internet : 550 représentants de facultés ou de firmes high-tech américaines, ainsi que les meilleurs spécialistes européens. Tout ce petit monde était venu célébrer la naissance d’Internet 2, un réseau électronique révolutionnaire qui d’ici à la fin de l’année va relier 154 universités yankees. Ultra-rapide, il pourra transporter l’équivalent de 90 000 pages de texte en une seconde. Un chiffre qui a de quoi faire rêver l’internaute moyen, dont le modem fonctionne à 56 000 bits par seconde et qui peut donc télécharger moins de deux pages de texte par seconde. A 2,4 milliards de bits par seconde, Internet 2 ira 50 000 fois plus vite. Finies les longues minutes d’attente devant un écran vide. Télécharger un logiciel ou des clips vidéo s’effectuera en un clin d’œil.

Du coup, cette super-autoroute de l’information va permettre la mise au point de nouvelles applications, inimaginables jusqu’à présent. «Jamais l’homme n’a eu une telle opportunité pour améliorer ses moyens de communication !», a lancé, sous les applaudissements de ses confrères, Joe Mambretti, directeur du centre de recherche en informatique de la North Carolina State University. Son équipe planche sur un système de télé-enseignement en 3 dimensions : les étudiants, équipés de lunettes de vue en relief, pourront assister, comme s’ils y étaient, à un cours donné à l’autre bout du monde. Les ingénieurs du California Institute of Technology, eux, travaillent sur un nouveau procédé de vidéo-conférence : jusqu’à 100 personnes pourront s’y connecter en même temps et se voir, se parler ou échanger des documents électroniques. Et à la San Diego University, on prépare, pour les carabins, un cours d’anatomie virtuelle. Les dépouilles de deux condamnés à mort américains ont été congelées, puis découpées en 3 500 tranches, qui ont été numérisées. Ces données permettent, à partir de n’importe quel PC, de reconstituer virtuellement chaque organe et de le manipuler sous tous les angles.

Beaucoup d’autres applications, encore plus proches des attentes du grand public, sont à l’étude. Dans quelques années, les étudiants américains utiliseront sans doute des ordinateurs très bons marchés, car dépourvus, de disques durs : ils conserveront tous leurs fichiers sur un serveur central, auquel ils accéderont instantanément.

En fait, Internet 2 va permettre à de nombreuses entreprises et laboratoires de recherche d’éprouver de nouveaux matériels et logiciels (fibres optiques, protocoles d’échange de fichiers, serveurs…). Le même phénomène s’était déjà produit à partir de 1985, lorsque les universités américaines avaient commencé à se brancher sur l’ancêtre d’Internet, NSF-Net. C’est sur ce réseau, mis en place par la National Science Foundation, l’équivalent américain du CNRS français, qu’on a testé tous les équipements du Web actuel. En 1993, par exemple, Marc Andreessen, alors simple étudiant à l’Université de l’Illinois, imagina Mosaic, le premier browser. Un an plus tard, il créait sa propre société, Netscape.

Les retombées économique d’Internet 2 pourraient être encore plus importantes. Aussi toutes les entreprises high-tech américaines soutiennent ce projet. «Internet 2 va révolutionner l’informatique», prédit Rick Rashid, un des responsables de la recherche chez Microsoft. Qwest, la cinquième compagnie de téléphone du pays, a prêté ses réseaux en fibre optique ; Cisco et 3Com (équipements de réseau) ont fourni pour 30 millions de francs de matériel ; sans oublier le gouvernement qui verse quelques dizaines de millions. «Au total, notre budget dépasse les 200 millions de dollars», jubile Doug Van Houweling, président de l’association Internet 2. Une manne qui, indirectement, va profiter à toute l’industrie informatique américaine. Et lui permettre de creuser un peu plus l’écart avec ses concurrents européens ou japonais.

Visite au Xerox Parc, le labo qui a inventé la micro-informatique

Dès 1971, les équipes de ce temple du high-tech avaient mis au point le premier odrinateur personnel. Aujourd’hui, elles planchent sur les écrans en trois dimensions et le papier électronique.

La cafetière qui bout dans la cuisine du Xerox Parc, à Palo Alto, au cœur de la Silicon Valley, ressemble à n’importe quel autre percolateur. A un détail près : elle est dotée d’un petit bouton rouge, relié au réseau informatique de ce laboratoire de recherche, propriété de Xerox, le leader mondial des photocopieurs. Les personnes qui passent dans la cuisine, l’actionnent dès que le café est prêt. Aussitôt, un message s’affiche sur les PC de tous les chercheurs, les invitant à faire une pause. L’occasion pour les psychologues et anthropologues qui planchent sur un nouvel écran d’ordinateur d’échanger quelques idées avec leurs collègues, ingénieurs spécialistes des imprimantes laser ou mathématiciens passionnés d’Internet.

La plupart des découvertes faites au Xerox Parc sont nées ainsi, au cours d’une discussion informelle. Et des trouvailles, ici, on en fait tous les jours. Les 250 scientifiques employés par ce labo déposent 150 brevets par an. Le Parc est inconnu du grand public mais, pour les spécialistes de la high-tech, ce lieu est mythique. C’est dans ce bâtiment de cinq étages, construit à flanc de colline, qu’a été inventée l’informatique moderne : l’Alto, le premier micro-ordinateur, a vu le jour ici, en 1971. De même, l’interface graphique (pour lancer un logiciel on clique sur une icône), l’imprimante laser, la carte Ethernet (qui permet aux PC de communiquer entre eux) et une partie des protocoles Internet ont été développés dans cet immeuble. Mieux : Steve Jobs, le fondateur d’Apple, aurait eu l’idée du Macintosh en visitant le Parc, à la fin des années soixante-dix.

«A l’époque, nous n’aurions pas pu faire lui faire de procès, sourit Richard Bruce, docteur en physique et directeur de la section “ordinateur”. Les juristes de Xerox ne prenaient même pas la peine de breveter les nouveaux logiciels !» Lors de sa création, en 1970, l’établissement avait reçu pour mission d’imaginer le bureau et les photocopieurs du futur. La direction embaucha des scientifiques de formation ou de nationalité très diverses et leur laissa mener de front travaux théoriques et recherches appliquées. La première équipe (Alan Kay, Bob Taylor…) s’intéressa surtout à la micro-informatique mais les patrons de Xerox ne comprirent pas l’intérêt de ses découvertes. Résultat, les idées furent exploitées par d’autres sociétés de la région : Hewlett-Packard, Intel, Sun…

Aujourd’hui, plus question de refaire les mêmes erreurs. Après un passage à vide, au début des années quatre-vingt dix, le Parc bénéficie à nouveau du soutien de la direction de Xerox et se retrouve à la pointe de la recherche. «C’est l’endroit où il faut être si l’on veut marquer son époque», affirme, tout de go, Jim Pitkow, qui a rejoint le labo en 1997, tout de suite après avoir décroché un doctorat en informatique. Dotées d’un budget de 360 millions de francs, les équipes travaillent sur une multitude de projets : agrafes électroniques qui indiqueront où sont rangées les factures de gaz ou de téléphone, interfaces en 3 dimension pour les ordinateurs, papier intelligent (lorsqu’on le passe dans la photocopieuse-scanner, il stipule à quels destinataires il doit être faxé), etc. «80% de ces travaux n’aboutiront pas», estime Johan de Kleer, Hollandais, titulaire d’un doctorat du MIT et salarié du Parc depuis 1979. Mais toutes les inventions-maison sont désormais soigneusement protégées. Ainsi, Xerox vient d’intenter un procès contre le groupe 3 Com. Motif : le Palm Pilot, le célèbre agenda électronique commercialisé par 3 Com, utiliserait un langage dérivé de l’Unistroke Alphabet, un alphabet simplifié mis au point au Parc. Si Xerox gagne son procès, cela devrait lui rapporter beaucoup, beaucoup d’argent : des millions de Palm Pilot ont déjà été vendus à travers le monde.

Jacques Henno

Articles parus dans le mensuel Capital en juin 1999

High-tech : les Etats-Unis ont une révolution d'avance sur le reste du monde

Micro-ordinateurs, logiciels, Internet, agendas électroniques… Toutes ces découvertes ont vu le jour outre-Atlantique. Aujourd’hui, ce sont elles qui tirent l’économie du pays et créent des emplois.

Palo Alto, une petite ville situé à 30 kilomètres au sud de San Francisco, en pleine Silicon Valley. En ce dimanche après-midi, le parking de Fry’s, un grand magasin d’informatique, est plein à craquer. Mordus de high-tech et badauds sont venus découvrir les derniers gadgets électroniques : dictaphone Dragon, qui convertit automatiquement un message oral en texte, agenda électronique Rex, de la taille d’une carte de crédit, mini-antenne GPS et logiciel Door-to-Door Co-Pilot, pour transformer les ordinateurs portables en navigateurs routiers… Rares sont les clients qui ne repartent pas avec un ou deux de ces appareils, «made in USA».

Le moteur de la croissance américa[1]ine, c’est eux. Californiens, Texans ou New-yorkais, passionnés par la «high-tech», sont tous suréquipés en micro-ordinateurs et autres CD-Rom. Outre-Atlantique, les achats de matériels informatiques représentent 30% des investissements des entreprises et des ménages, contre seulement 8% en France. Du coup, les usines d’Intel (micro-processeurs) ou de Dell (PC vendus par correspondance) tournent 24 heures sur 24. «Aujourd’hui, la high-tech américaine réalise 700 milliards de dollars de chiffre d’affaires, soit 20% du PIB des Etats-Unis», estime Kay Howell, directrice du NCO (National coordination office), l’agence fédérale qui coordonne la recherche en informatique. Et le secteur embauche à tour de bras, créant 30% des nouveaux emplois du payæs.

Ted Hoff peut-être fier de lui. Sans cet ingénieur américain, aujourd’hui âgé de 70 ans, rien de cela ne serait jamais arrivé. C’est lui, en effet, qui en 1971, a mis au point le premier Ômicroprocesseur. Depuis, l’Amérique n’a cessé de dominer le secteur de la high-tech. Deux exemples : le premier ordinateur personnel a vu le jour à Palo Alto, au Xerox Parc (lire page XXX) et le premier «browser» (navigateur sur Internet) ‚a été mis au point par un étudiant de l’Illinois. Aujourd’hui, les Etats-Unis gardent une avance considérable dans tous les domaines, logiciels, ordinateurs, réseaux, annuaires de recherche sur Internet… Mais cela ne les empêche pas d’investir massivement dans la recherche. Déjà, les universitaires américains préparent la nouvelle génération d’Internet. Elle permettra le développement d’applications spectaculaires, comme la reconnaissance tactile à distance (lire ci-contre). La croissance américaine n’est pas prête de s’arrêter.

De notre envoyé spécial à San Francisco et Washington, Jacques Henno

Internet 2 : sur les campus américains, on prépare déjà le Web de demain

Le nouveau réseau électronique développé par les universités américaines va révolutionner Internet.

Installés à l’université de Chapel Hill, en Caroline du Nord, deux étudiants observent une fibre de coton à travers un microscope électronique. Ce qu’ils voient ? Une sorte de gros tuyau blanc rugueux posé sur une surface jaune. Cinq cents kilomètres plus au Nord, à Washington, trois autres élèves regardent sur un PC la même image, transmise par une ligne Internet à haut débit. Mais le plus extraordinaire, c’est qu’ils peuvent toucher – oui, toucher à distance – cette fibre. Sur l’ordinateur de Washington, la traditionnelle souris a été remplacée par un stylet, supporté par un bras mécanique. Il suffit de positionner le curseur au-dessus de la fibre, puis de descendre lentement, pour sentir, à travers le stylet, la résistance du coton.

Cette surprenante expérience de reconnaissance tactile constituait le clou du forum «Networking 99» qui s’est tenu fin avril à Washington et qui a rassemblé le gratin de l’Internet : 550 représentants de facultés ou de firmes high-tech américaines, ainsi que les meilleurs spécialistes européens. Tout ce petit monde était venu célébrer la naissance d’Internet 2, un réseau électronique révolutionnaire qui d’ici à la fin de l’année va relier 154 universités yankees. Ultra-rapide, il pourra transporter l’équivalent de 90 000 pages de texte en une seconde. Un chiffre qui a de quoi faire rêver l’internaute moyen, dont le modem fonctionne à 56 000 bits par seconde et qui peut donc télécharger moins de deux pages de texte par seconde. A 2,4 milliards de bits par seconde, Internet 2 ira 50 000 fois plus vite. Finies les longues minutes d’attente devant un écran vide. Télécharger un logiciel ou des clips vidéo s’effectuera en un clin d’œil.

Du coup, cette super-autoroute de l’information va permettre la mise au point de nouvelles applications, inimaginables jusqu’à présent. «Jamais l’homme n’a eu une telle opportunité pour améliorer ses moyens de communication !», a lancé, sous les applaudissements de ses confrères, Joe Mambretti, directeur du centre de recherche en informatique de la North Carolina State University. Son équipe planche sur un système de télé-enseignement en 3 dimensions : les étudiants, équipés de lunettes de vue en relief, pourront assister, comme s’ils y étaient, à un cours donné à l’autre bout du monde. Les ingénieurs du California Institute of Technology, eux, travaillent sur un nouveau procédé de vidéo-conférence : jusqu’à 100 personnes pourront s’y connecter en même temps et se voir, se parler ou échanger des documents électroniques. Et à la San Diego University, on prépare, pour les carabins, un cours d’anatomie virtuelle. Les dépouilles de deux condamnés à mort américains ont été congelées, puis découpées en 3 500 tranches, qui ont été numérisées. Ces données permettent, à partir de n’importe quel PC, de reconstituer virtuellement chaque organe et de le manipuler sous tous les angles.

Beaucoup d’autres applications, encore plus proches des attentes du grand public, sont à l’étude. Dans quelques années, les étudiants américains utiliseront sans doute des ordinateurs très bons marchés, car dépourvus, de disques durs : ils conserveront tous leurs fichiers sur un serveur central, auquel ils accéderont instantanément.

En fait, Internet 2 va permettre à de nombreuses entreprises et laboratoires de recherche d’éprouver de nouveaux matériels et logiciels (fibres optiques, protocoles d’échange de fichiers, serveurs…). Le même phénomène s’était déjà produit à partir de 1985, lorsque les universités américaines avaient commencé à se brancher sur l’ancêtre d’Internet, NSF-Net. C’est sur ce réseau, mis en place par la National Science Foundation, l’équivalent américain du CNRS français, qu’on a testé tous les équipements du Web actuel. En 1993, par exemple, Marc Andreessen, alors simple étudiant à l’Université de l’Illinois, imagina Mosaic, le premier browser. Un an plus tard, il créait sa propre société, Netscape.

Les retombées économique d’Internet 2 pourraient être encore plus importantes. Aussi toutes les entreprises high-tech américaines soutiennent ce projet. «Internet 2 va révolutionner l’informatique», prédit Rick Rashid, un des responsables de la recherche chez Microsoft. Qwest, la cinquième compagnie de téléphone du pays, a prêté ses réseaux en fibre optique ; Cisco et 3Com (équipements de réseau) ont fourni pour 30 millions de francs de matériel ; sans oublier le gouvernement qui verse quelques dizaines de millions. «Au total, notre budget dépasse les 200 millions de dollars», jubile Doug Van Houweling, président de l’association Internet 2. Une manne qui, indirectement, va profiter à toute l’industrie informatique américaine. Et lui permettre de creuser un peu plus l’écart avec ses concurrents européens ou japonais.

Visite au Xerox Parc, le labo qui a inventé la micro-informatique

Dès 1971, les équipes de ce temple du high-tech avaient mis au point le premier odrinateur personnel. Aujourd’hui, elles planchent sur les écrans en trois dimensions et le papier électronique.

La cafetière qui bout dans la cuisine du Xerox Parc, à Palo Alto, au cœur de la Silicon Valley, ressemble à n’importe quel autre percolateur. A un détail près : elle est dotée d’un petit bouton rouge, relié au réseau informatique de ce laboratoire de recherche, propriété de Xerox, le leader mondial des photocopieurs. Les personnes qui passent dans la cuisine, l’actionnent dès que le café est prêt. Aussitôt, un message s’affiche sur les PC de tous les chercheurs, les invitant à faire une pause. L’occasion pour les psychologues et anthropologues qui planchent sur un nouvel écran d’ordinateur d’échanger quelques idées avec leurs collègues, ingénieurs spécialistes des imprimantes laser ou mathématiciens passionnés d’Internet.

La plupart des découvertes faites au Xerox Parc sont nées ainsi, au cours d’une discussion informelle. Et des trouvailles, ici, on en fait tous les jours. Les 250 scientifiques employés par ce labo déposent 150 brevets par an. Le Parc est inconnu du grand public mais, pour les spécialistes de la high-tech, ce lieu est mythique. C’est dans ce bâtiment de cinq étages, construit à flanc de colline, qu’a été inventée l’informatique moderne : l’Alto, le premier micro-ordinateur, a vu le jour ici, en 1971. De même, l’interface graphique (pour lancer un logiciel on clique sur une icône), l’imprimante laser, la carte Ethernet (qui permet aux PC de communiquer entre eux) et une partie des protocoles Internet ont été développés dans cet immeuble. Mieux : Steve Jobs, le fondateur d’Apple, aurait eu l’idée du Macintosh en visitant le Parc, à la fin des années soixante-dix.

«A l’époque, nous n’aurions pas pu faire lui faire de procès, sourit Richard Bruce, docteur en physique et directeur de la section “ordinateur”. Les juristes de Xerox ne prenaient même pas la peine de breveter les nouveaux logiciels !» Lors de sa création, en 1970, l’établissement avait reçu pour mission d’imaginer le bureau et les photocopieurs du futur. La direction embaucha des scientifiques de formation ou de nationalité très diverses et leur laissa mener de front travaux théoriques et recherches appliquées. La première équipe (Alan Kay, Bob Taylor…) s’intéressa surtout à la micro-informatique mais les patrons de Xerox ne comprirent pas l’intérêt de ses découvertes. Résultat, les idées furent exploitées par d’autres sociétés de la région : Hewlett-Packard, Intel, Sun…

Aujourd’hui, plus question de refaire les mêmes erreurs. Après un passage à vide, au début des années quatre-vingt dix, le Parc bénéficie à nouveau du soutien de la direction de Xerox et se retrouve à la pointe de la recherche. «C’est l’endroit où il faut être si l’on veut marquer son époque», affirme, tout de go, Jim Pitkow, qui a rejoint le labo en 1997, tout de suite après avoir décroché un doctorat en informatique. Dotées d’un budget de 360 millions de francs, les équipes travaillent sur une multitude de projets : agrafes électroniques qui indiqueront où sont rangées les factures de gaz ou de téléphone, interfaces en 3 dimension pour les ordinateurs, papier intelligent (lorsqu’on le passe dans la photocopieuse-scanner, il stipule à quels destinataires il doit être faxé), etc. «80% de ces travaux n’aboutiront pas», estime Johan de Kleer, Hollandais, titulaire d’un doctorat du MIT et salarié du Parc depuis 1979. Mais toutes les inventions-maison sont désormais soigneusement protégées. Ainsi, Xerox vient d’intenter un procès contre le groupe 3 Com. Motif : le Palm Pilot, le célèbre agenda électronique commercialisé par 3 Com, utiliserait un langage dérivé de l’Unistroke Alphabet, un alphabet simplifié mis au point au Parc. Si Xerox gagne son procès, cela devrait lui rapporter beaucoup, beaucoup d’argent : des millions de Palm Pilot ont déjà été vendus à travers le monde.

Jacques Henno

Articles parus dans le mensuel Capital en juin 1999

Internet, téléphone mobile, jeux vidéo… la révolution numérique affecte toute notre vie