De omni re scibili, et quibusdam aliis

L'Internet

Les recherches sur l'histoire de l'Internet ont débuté en 2010, au moment de la parution de mon livre Rêveurs, marchands, pirates. Que reste-t-il du rêve de l'Internet ? aux éditions Le passager clandestin.

Fil des billets - Fil des commentaires

mardi, mai 31 2016

Une histoire de la NSA... avant Snowden

La NSA (National Security Agency) et ses activités sont devenues un sujet de préoccupation majeur pour l’ensemble du monde occidental depuis les révélations d’Edward Snowden, un analyste de l’agence. Pourtant, il ne s’agit pas du premier scandale qui touche l’agence américaine en charge des interceptions, depuis sa création en 1952. Un peu d’histoire…

Lire la suite...

mercredi, juillet 7 2010

Les DRM (Digital Rights Management)

Le texte qui suit est une version abrégée de la communication effectuée lors des journées Couperin, consacrées au livre électronique, qui se sont tenues à Lille en mai 2010.

Lire la suite...

vendredi, juin 18 2010

Les premiers hackers

« Pirates ». Le terme est accusateur et renvoie aujourd’hui à des réalités très diverses : organisations criminelles spécialisées dans la contrefaçon des grandes marques et des supports de contenus culturels, « génériqueurs » indiens ou sud-africains imitant les médicaments sous brevet de l’industrie pharmaceutique occidentale pour les diffuser à moindre coût dans les pays du tiers-monde, mais aussi particuliers effectuant des copies (ou photocopies) de disques, de livres ou de films pour leur usage personnel ou pour se les échanger entre amis. À l’ère de l’Internet et des contenus « immatériels », la qualification de pirate s’étend du cybercriminel qui pénètre les réseaux informatiques institutionnels pour les détourner ou les saboter, au groupe de pressions engagé dans le combat pour la réforme du Code de la propriété intellectuelle – tels que les « partis pirates » des pays scandinaves –, en passant par tous ceux qui mettent en ligne ou simplement téléchargent des fichiers texte, audio ou vidéo.
Dans l’esprit de ceux qui la combattent, la notion de piraterie est donc indissociable de celle de propriété intellectuelle. Le pirate serait celui qui détourne à son profit les productions de l’esprit, productions dont les auteurs, en vertu des législations nationales sur le copyright ou le brevetage, seraient en théorie les seuls propriétaires légitimes.
Pourtant, la propriété intellectuelle, loin d’être un droit naturel, est une notion depuis longtemps débattue [1].
L’objet de cette partie n’est pas d’entrer dans ces débats. Notons simplement que pour ses défenseurs – dont les plus virulents sont ceux qui en bénéficient à titre commercial (laboratoires pharmaceutiques, industries du film, du disque, pour ne citer que ceux-là) –, son régime juridique devrait se calquer sur celui de la propriété des biens physiques (une voiture, une maison...) dont l’usage est dit « rival » et « excluable » – c’est- à-dire qu’il est limité par celui que pourrait en faire un tiers et peut donc justifier des mesures pour l’en empêcher. Or, un médicament ou une œuvre artistique n’ont de sens que s’ils bénéficient au plus grand nombre. Leur appliquer strictement les règles de la propriété des biens physique reviendrait à remettre en cause l’idée de santé publique ou la dissémination de la connaissance. C’est cette idée de l’intérêt général derrière la diffusion des biens immatériels qui a présidé, dans l’esprit du législateur, à la recherche d’un « équilibre entre le droit des créateurs à bénéficier des fruits de leur travail, et celui de la société à bénéficier de la plus grande circulation des savoirs et de la culture »[2]. Il n’est pas question dans ces pages de contester la nécessité de proposer un cadre légal visant à protéger les droits – et de prévoir des mécanismes de rémunération – des auteurs de biens culturels. On remarquera cependant que la politique du brevetage systématique des productions de l’esprit, l’assimilation de la copie privée au vol, ou le combat contre le téléchargement libre et gratuit de contenus culturels numérisés renvoient le plus souvent à une même réalité, celle de la défense de leur position dominante par les industries qui font commerce de ces biens. Dans ce contexte, et dans sa polysémie même, comme l’écrit Florent Latrive, « le vocable de pirate sert d’épouvantail, il renvoie sur le même banc d’infamie l’adolescent qui télécharge une chanson au format mp3 et le propriétaire d’un atelier clandestin de duplication de disques dans une banlieue de Pékin » [3]. Le terme de pirates est donc stigmatisant, mais, comme tout stigmate, certains n’hésitent pas à le retourner en se le réappropriant.

Dans ce qui suit, il désignera les membres de ces communautés, – parfois autoproclamées « pirates » suivant une acception proche de celle qu’en propose Hakim Bey dans son livre sur les « zones autonomes temporaires »[4] – qui se fondent, explicitement ou nom, sur l’idée que le droit de la propriété intellectuelle ne doit pas faire obstacle à la diffusion la plus large possible de la culture et des savoirs, et qui organisent dans ce but des systèmes collectifs de classification et de partage des connaissances et des ressources textuelles, audio et vidéo sur l’Internet.
Ces pirates-là ont un lien de parenté assez étroit avec la figure plus ancienne du hacker. Les hackers sont ces programmeurs astucieux dont la culture allie la virtuosité et la curiosité à l’égard des technologies informatiques au goût de la liberté et à une certaine propension à la transgression des règles faisant obstacle à leur pratique. Leur culture du « libre », notamment, qui a trouvé à s’exprimer dans la participation à l’élaboration collective d’interfaces ouvertes pour l’Internet, est à la base du développement des utopies « pirates » dont il sera question un peu plus loin.

LES PREMIERS HACKERS

Les hackers font leur apparition bien avant la naissance de l’Internet, dans les années 1950. À l’origine, aux États-Unis, le terme désigne un programmeur habile, un « bidouilleur » – le mot n’a pas de connotation péjorative ; il doit être pris dans le sens d’autodidacte astucieux –, enclin à rechercher des solutions originales aux problèmes de programmation informatique qui se posent à lui [5]. Le hacker se distingue des autres programmeurs par sa persévérance, sa capacité à se consacrer entièrement à la résolution d’un problème, et par son insatiable curiosité, qui le pousse à analyser l’ensemble des outils disponibles. S’ils sont motivés avant tout par le travail en solitaire, les hackers se regroupent parfois dans des « clubs », comme au MIT, l’un des hauts lieux de la recherche en informatique, dans les années 1960 [6].
Les hackers eurent très vite tendance à rejeter l’autorité lorsque ses décisions entraient en contradiction avec leur soif de connaissance et leur souci constant de perfectionner les systèmes en y apportant leurs propres modifications. Tant que l’informatique en était à ses balbutiements, de telles pratiques étaient tolérées, voire encouragées, dans la mesure où elles faisaient progresser la recherche. Mais lorsque, dans les années 1980 commença la phase de commercialisation des logiciels informatiques, les législations sur la propriété intellectuelle entreprirent de les contingenter, voire de les interdire purement et simplement [7]. Or, « les hackers aimaient réellement la liberté de partager et de modifier les logiciels : c’était la base de notre communauté insouciante » [8] ; aussi furent-ils tentés de braver ces nouveaux interdits : pour le hacker, tout système fermé ou protégé par la loi – du logiciel « propriétaire » au réseau d’entreprise – représenta donc bientôt une cible de choix.

Des « cyberanars » ?

Cet idéal de liberté, cette inclination à défier l’autorité ont conduit les médias, dans les années 1980, à rapprocher les hackers de la mouvance anarchiste. Or, si tous les hackers partagent le goût de la programmation et la volonté de tester les limites des systèmes informatiques au mépris des risques légaux, seuls quelques-uns ont effectivement pris pied dans « l’underground » et exprimé des tendances « anar » proprement dites. C’est le cas notamment de la nébuleuse constituée autour de la revue électronique Phrack, créée en 1985 [9].

Revue importante de hacking, Phrack est notamment connue pour avoir publié, dans son septième numéro, en janvier 1986, un texte intitulé « La conscience d’un hacker », qui a largement contribué à la diffusion d’une certaine définition de l’identité et de l’idéal du hacker.

La conscience d’un hacker
par The Mentor

Un autre s’est fait prendre aujourd’hui, c’est partout dans les journaux. “Scandale : un adolescent arrêté pour crime informatique”, “Arrestation d’un ‘hacker’ après le piratage d’une banque”... Sales gosses, tous les mêmes. Mais vous, avec votre psychologie trois-pièces et votre techno- cerveau des années cinquante, avez-vous un jour pensé à regarder le monde à travers les yeux d’un hacker ? Ne vous êtes-vous jamais demandé comment il pensait, quelles forces le travaillaient ? Ce qui avait pu le modeler ? Je suis un hacker, entrez dans mon monde... C’est un monde qui commence avec l’école... Je suis plus malin que la plupart des autres enfants, et les conneries qu’on m’enseigne m’ennuient... Sale cancre, tous les mêmes. Je suis au collège ou au lycée. J’ai écouté les professeurs expliquer pour la quinzième fois comment réduire une fraction. J’ai compris depuis belle lurette. “Non Mme Dubois, je ne peux pas vous montrer mon travail. Tout est dans ma tête”. Sale gosse. Il a certainement triché. Tous les mêmes. J’ai fait une découverte aujourd’hui. J’ai trouvé un ordinateur. Attends une minute, mais c’est cool, ça ! Il fait ce que je lui demande. S’il fait une erreur, c’est parce que je me suis planté. Pas parce qu’il ne m’aime pas... Ou qu’il se sent menacé par moi... Ou qu’il pense que je suis un petit malin... Ou parce qu’il n’aime pas enseigner et ne devrait pas être là... Sale gosse. Tout juste bon à jouer. Tous les mêmes. Et puis, c’est arrivé... Une porte s’est ouverte sur un monde... Fonçant le long des lignes téléphoniques comme l’héroïne dans les veines d’un drogué, une pulsation électronique est envoyée, à la recherche d’un refuge contre les incompétences quotidiennes... On a trouvé une planche de salut... “C’est exactement ça... C’est là que je me sens bien...” Je connais tout le monde ici... Même si je ne les ai jamais rencontrés, ne leur ai jamais adressé la parole, n’entendrai peut-être jamais plus parler d’eux... Je vous connais tous... Sale gosse. Il squatte encore la ligne téléphonique. Tous les mêmes. Tu peux parier, y’a pas à tortiller, on est tous les mêmes... À l’école, on nous gavait de bouillie pour bébé alors que nous voulions du steak... Les morceaux de viande qu’il vous arrivait de nous refiler étaient prémâchés et sans saveur. Nous étions écrasés par des sadiques, ou ignorés par des indifférents. Ceux qui avaient effectivement quelque chose à nous apprendre trouvaient en nous des élèves pleins de bonne volonté, mais ils n’étaient que gouttes d’eau dans le désert. C’est ça notre monde maintenant... Le monde de l’électron et de l’interrupteur, la beauté du bit. Nous profitons d’un service qui existait avant nous, nous refusons de payer pour quelque chose qui serait quasiment gratuit s’il n’était pas géré par des profiteurs insatiables, et c’est nous que vous appelez criminels. Nous sommes des explorateurs... Et vous nous traitez de criminels. Nous avons soif de connaissance... Et vous nous traitez de criminels. Nous existons par-delà la couleur de la peau, la nationalité, les partis pris religieux... Et vous nous traitez de criminels. Vous fabriquez des bombes atomiques, vous faites la guerre, vous assassinez, trichez, nous abreuvez de mensonges en essayant de nous faire croire que c’est pour notre propre bien, et ce serait nous les criminels ? Eh bien oui, je suis un criminel. Mon crime est la curiosité. Mon crime est de juger les gens pour ce qu’ils disent et pensent, non pour leur apparence. Mon crime est d’être plus malin que vous, et vous ne me le pardonnerez jamais. Je suis un hacker, et ceci est mon manifeste. Vous arrêterez peut- être tel individu, mais vous ne pourrez nous arrêtez tous... Après tout, nous sommes tous les mêmes [10].

Curiosité, idéal de liberté et de gratuité de l’information, addiction à la programmation pour des jeunes surdoués qui ne trouvent pas leur place dans le système éducatif américain, rejet des conventions sociales et aspiration à une fraternité universelle, tous ces thèmes ébauchés ici, non sans un certain romantisme, vont trouver un écho considérable auprès de plusieurs générations de programmeurs autodidactes, en particulier dans l’univers du logiciel libre. Aujourd’hui encore, le « Manifeste d’un hacker » et la totalité des numéros de Phrack peuvent être téléchargés d’un seul clic sur certaines distributions Linux. Des jeunes « bidouilleurs » en informatique, dont le portrait robot semble correspondre en tout point à celui du « Mentor », se font encore régulièrement remarquer par quelque forfait largement médiatisé. Tout récemment, en mars 2010, un jeune Auvergnat de 23 ans, dont le nom n’a pas été révélé, a été arrêté après avoir piraté le réseau social Twitter, et notamment le compte de Barack Obama. Le 25 mars 2010, le procureur de Clermont-Ferrand évoquait pour l’AFP les motivations du jeune homme, peu après son arrestation : « Il a agi par pari, par défi de hacker. C’est le genre de gars qui revendique ce qu’il a fait ». Ce garçon, apparemment introverti, titulaire d’un BEP d’électronique mais sans profession, était exclusivement passionné d’informatique et avait adopté le pseudonyme de « Hacker-croll ». Son acte n’était pas motivé par la volonté d’enrichissement personnel – ce qu’il aurait aisément pu faire en revendant les données collectées –, mais simplement par le désir de « démontrer que les grandes sociétés ne sont pas plus en sécurité que n’importe quel internaute » [11].

Des cybercriminels ?

Depuis les années 1960, plusieurs générations de hackers se sont succédé dont les motivations ont beaucoup varié. Les premiers hackers se réunissaient dans des clubs, sur les campus des grandes universités américaines telles que Stanford ou le MIT. Avant l’apparition de l’Internet, toute une génération de hackers s’est intéressée aux réseaux de communication qu’ils étudiaient en profondeur. Certains y virent l’occasion d’exercer leurs talents en les piratant. L’un des exemples les plus connus est celui de Steve Jobs et Stephen Wozniak, cofondateurs d’Apple, qui, en 1972, avaient mis en vente auprès des étudiants de l’université de Californie une « blue box », sorte de téléphone qui permettait de se connecter au réseau de télécommunications AT&T et d’appeler gratuitement des correspondants longues distances, partout dans le monde [12]. Ils n’étaient pas les seuls ; au cours des années 1970, de nombreux hackers s’intéressèrent au monde des télécommunications, moins dans l’objectif d’en tirer un bénéfice financier que, dans leur quête de nouveaux exploits à accomplir, pour tester les limites du réseau téléphonique américain. Un terme nouveau vit d’ailleurs le jour pour le désigner, celui de « phreaker » [13].%% Plus tard, dans les années 1980, le terme « hacker » fut employé pour désigner les membres de certains « clubs » d’envergure internationale, tels que le CCC (Chaos Computer Club), né en 1981 en Allemagne. Certains de ses membres furent arrêtés au cours des années 1980 pour avoir organisé le piratage des systèmes informatiques de certaines sociétés commerciales, ou encore du gouvernement allemand et américain, en vue de la revente des données confidentielles collectées. Les dérapages de certains membres du Chaos Computer Club ont contribué à donner dans les années 1980 une image négative du « hacker », puisqu’il pouvait mettre à profit ses connaissances à des fins d’enrichissement personnel.
Ce type de posture et les quelques cas spectaculaires d’intrusion dans des réseaux protégés jetés en pâture aux médias ont ainsi conduit à assimiler le hacking à la criminalité informatique. En français, le terme de hacking est le plus souvent traduit par « piratage », suggérant qu’il impliquerait par essence la violation de la loi. La réalité est cependant beaucoup plus complexe, et beaucoup de hackers « historiques » préfèrent mettre en avant la passion pour la technologie et la quête de savoir, tout en récusant un quelconque mépris de principe à l’égard des dispositifs légaux :

« L’utilisation du mot “hacker” dans le sens de celui “qui viole des systèmes de sécurité”, écrit Richard Stallman en 1999, est un amalgame instillé par les mass médias. Nous autres hackers refusons de reconnaître ce sens, et continuons d’utiliser ce mot dans le sens de “qui aime programmer et apprécie de le faire de manière astucieuse et intelligente” » [14].

De fait, cette définition correspond mieux à tous ceux qui, dans les années 1970-1980, avaient passionnément contribué au développement des logiciels qui ont rendu possible la navigation sur l’Internet (parmi lesquels on retrouve les principaux promoteurs du fameux « logiciel libre »)2. Le monde du hacking est donc pluriel, il ne se laisse pas facilement appréhender, et c’est entretenir une véritable confusion que d’employer de manière indistincte les termes « pirate » ou hacker pour désigner des individus ou des groupes dont les motivations sont pourtant très différentes. Hormis leurs aptitudes dans le domaine informatique, il n’y a en effet guère de rapport entre des programmeurs tels que Richard Stallman ou Linus Torvalds, co-inventeurs du système GNU-Linux, Larry Wall qui a créé le très populaire langage de programmation PERL, Guido Van Rossum, inventeur du langage Python, et des groupes qui conduisent des opérations de destruction d’architectures informatiques pour des raisons politiques (militants écologistes et anarchistes, partisans de la cause israélienne ou palestinienne, groupes d’islamistes radicaux, etc.), ou ceux qui travaillent – à titre individuel ou collectif – à détourner des flux financiers pour leur propre compte, voire pour celui de mafias, comme The Russian Business Network, véritable nébuleuse fondée par de jeunes ingénieurs en informatique, qui serait responsable de près de 60 % des opérations de cybercriminalité dans le monde [15].

« Chapeaux noirs », « chapeaux blancs » : hacking, éthique et politique

Cette confusion a amené certains chercheurs ou éditeurs de logiciels [16] à proposer dans les années 1990 une terminologie des hackers, selon que ceux-ci mènent ou non des activités criminelles ; il faudrait selon eux distinguer les « black hat hackers » (les « Chapeaux noirs »), qui mettraient leurs talents au service d’opérations criminelles, et les « white hat hackers » (les « Chapeaux blancs »), ces « bidouilleurs » de génie, qui travailleraient la sécurité informatique. Cette vision simpliste ne correspond presque jamais à la réalité. La complexité, voire l’ambivalence du concept de hacker est risque toujours de se laisser entraîner aux confins de la légalité. Cette ambivalence est bien perçue par les pouvoirs politiques et économiques. De nombreux hackers condamnés par la justice pour leurs actions « criminelles », seront en effet recrutés par des sociétés de conseil en sécurité informatique ou des agences gouvernementales.d’ailleurs, si l’on peut dire, inscrite dans ses gènes, puisque, en tant qu’informaticien passionné, il est tout entier dédié au développement de nouveaux outils, tandis que, sa pratique le poussant à expérimenter les limites des systèmes existants, il risque toujours de se laisser entraîner aux confins de la légalité. Cette ambivalence est bien perçue par les pouvoirs politiques et économiques. De nombreux hackers condamnés par la justice pour leurs actions « criminelles », seront en effet recrutés par des sociétés de conseil en sécurité informatique ou des agences gouvernementales.

Tel est le cas, par exemple, de Robert T. Morris, qui a créé un des premiers « vers », une sorte de virus informatique particulièrement redoutable, dont la spécificité est de se reproduire et de s’étendre un peu partout sur les réseaux. Robert T. Morris met au point ce programme informatique en 1988, alors qu’il est étudiant au MIT, avant de le lâcher sur l’Internet. Les conséquences sont désastreuses : près d’un dixième des serveurs reliés à l’Internet sont affectés, plus ou moins gravement [17]. Un an plus tard, en 1989, Morris est condamné à de lourdes amendes et à trois années de probation. Il est aujourd’hui professeur associé au MIT. De la même manière, Kevin Mitnick a longtemps été l’un des criminels les plus recherchés des États-Unis. En 1983, il n’a que 20 ans lorsqu’il réussit à s’introduire dans le système informatique du Pentagone en utilisant la connexion Arpanet de l’université de Californie du Sud. Condamné à une peine assez légère, il est, dès sa sortie, à l’origine de nombreuses intrusions et de vols de données dans des systèmes informatiques de grandes entreprises (Motorola, Novell, Fujitsu, Sun Microsystems, etc.). Condamné à nouveau à quatre ans de prison en 1999, il est désormais libre et établi comme consultant en sécurité pour de grandes entreprises.
Beaucoup de grosses entreprises ou d’administrations des pays occidentaux ont ainsi recyclé les « pirates », à partir des années 1980-1990, pour les intégrer à leurs équipes en charge de la sécurité informatique ou de la guerre économique. Cette rencontre entre de jeunes informaticiens prodiges et les institutions économiques et gouvernementales repose en partie sur le pragmatisme quelque peu cynique des seconds et sur l’individualisme et la conscience politique floue des premiers. Par là même, elle éclaire d’un nouveau jour la distinction un peu spécieuse établie par les très officielles agences de sécurité informatique entre « white hat hackers » et « black hat hackers » [18].

L’absence de sens moral et la faiblesse des convictions politiques n’est cependant pas, loin s’en faut, le fait de tous les « hackers ». C’est même en se fondant sur eux que nombre de ces bidouilleurs se sont engagés, à la même époque, dans l’action directe électronique, pour faire pression sur les institutions impliquées dans des actions réputées « immorales », ou considérées comme telles, du point de vue social :

« L’activisme politique virtuel est basé sur un objectif défini, une action à conduire, orientée autour d’une communauté. Le but est de provoquer des changements politiques à travers l’attention accordée par la presse à des actions directes visant le réseau informatique d’une entreprise ou d’un gouvernement (...).

Il s’agit d’attirer l’attention sur des injustices, d’obtenir la réaction de la presse toujours très intéressée par les questions de cyberterrorisme, beaucoup moins par les questions politiques de manifestants, et de développer la vigilance provenant d’une attention accrue de la part d’internautes citoyens. Les participants peuvent alors devenir des partisans dans le domaine social et réel » [19].

Au cours des années 1980 et 1990, de nombreux groupes ont mené des actions illégales pour protester contre certains aspects de la politique internationale des pays occidentaux. En 1995, au moment où la France reprenait ses essais nucléaires dans le Pacifique, certains hackers liés au Chaos Computer Club allemand pénétrèrent en signe de protestation les réseaux de télécommunication français afin de les perturber [20].

Plus récemment, à côté de ces mouvements « historiques » dont les acteurs étaient souvent des militants anarchistes ou écologistes, ou en tout cas philosophiquement proches de ces mouvances, de nouvelles formes de hacking se sont développées, tout aussi politisées, mais intervenant désormais dans le cadre de conflits internationaux. Ainsi, depuis quelques années – et tout particulièrement depuis l’occupation de la bande de Gaza par Israël en 2008 –, des hackers des deux camps se sont engagés dans le conflit israélo-palestinien. Des banques israéliennes ont été choisies pour cibles par les hackers du monde arabe : en novembre 2009, un hacker palestinien de 22 ans était arrêté par la police israélienne pour avoir dérobé des informations bancaires à la Bank of Israel et à la Bank Leumi [21]. Peu de temps auparavant, le site Internet de Kadima, l’un des principaux partis politiques israéliens, avait été la cible d’attaques de hackers pro-palestiniens, qui avaient remplacé la page d’accueil par une série de messages anti-israéliens. En mai 2008, trois sites majeurs de défense de la cause palestinienne avaient été « défacés », selon le terme consacré [22], par des hackers du camp israélien, qui avaient placé le drapeau et le texte de l’hymne national israéliens sur leurs pages d’accueil [23]. Enfin, en juillet de cette même année, c’est un hacker iranien, cette fois, qui s’en prenait au site du Jerusalem Online [24]. Il est donc quelque peu artificiel (et sans doute non dénué d’arrière-pensées) de prétendre enfermer les hackers dans une alternative manichéenne, avec, d’un côté, ceux qui porteraient atteinte à la fluidité des échanges (le plus souvent commerciaux) sur l’Internet et, de l’autre, ceux qui contribueraient au contraire à les sécuriser. Le phénomène du hacking recouvre de multiples réalités, allant de la contribution décisive de précurseurs en informatique à la construction de l’Internet et la promotion du logiciel libre, à la guérilla électronique entre blocs nationaux ou politiques opposés, en passant par le débauchage de petits criminels repentis par le monde du business ou les agences gouvernementales ou par les actions militantes de groupes politisés au service de leur cause. Néanmoins, nombreux sont ceux parmi eux qui se retrouvent dans l’idéal fondateur de l’Internet, selon lequel « l’information veut être libre » et appellerait le partage. On ne s’étonnera donc pas que beaucoup de hackers aient joué un rôle déterminant dans la conception des fameux réseaux peer-to-peer : Shawn Fanning avec Napster, Jed Mccaleb avec le protocole eDonkey, l’Allemand Hendrik Breitkreuz dans le cas d’eMule, ou encore Bram Cohen pour le BitTorrent, pour n’en citer que quelques-uns.

Notes

[1] Pour une réflexion complète et stimulante sur les enjeux, les limites et les dérives de la notion de propriété intellectuelle, voir l’ouvrage déjà cité de Florent Latrive, Du bon usage de la piraterie.

[2] Ibid., p.19.

[3] Ibid., p.17.

[4] Hakim Bey, Taz. Zone autonome temporaire, Paris, Éditions de l’Éclat, 1997.

[5] Pour une définition des termes propres au monde de l’informatique, il existe une resource importante, en anglais : le Foldoc (Free On-line Dictionary of Computing), projet développé depuis 1985, qui propose un lexique du vocabulaire informatique et du « jargon » des développeurs (http://foldoc.org/).

[6] Sur le développement de la culture hacker au MIT, voir le livre de référence de Ste- ven Levy, Hackers: Heroes of the Computer Revolution, New York, Anchor Press/Doubleday, 1984.

[7] Jusqu’aux années 1980, bien que les programmes informatiques fussent protégés par les législations sur la propriété industrielle, l’accès d’autres programmeurs que leurs auteurs au code source et, si nécessaire, la modification de ces programmes étaient naturels et tolérés. Une situation de compromis appelée par Richard Stallman « coopération passive », dans une conférence prononcée à Paris en 1998 (http://www.linux-france.org/article/these/ conf/stallman_199811.orig.html). Stallman expliquait alors : « Vous pouviez lancer le programme, et l’utiliser, vous pouviez changer le programme, y ajouter de nouvelles fonctions, vous pouviez couper des morceaux de programme pour les mettre dans les programmes nouveaux que vous écriviez (...). » Mais avec le développement du copyright informatique et de la pratique du brevet, ce droit de modifier et d’améliorer fut progressivement remis en cause au cours des années 1980, y compris pour ceux qui travaillaient dans les universités et les centres de recherche. C’est ce qui conduisit des gens comme Stallman à démissionner de leur poste pour se consacrer au développement de logiciels dont le code source serait librement partagé.

[8] Propos de Richard Stallman dans un entretien de 2002 avec Tere Vadén (http://www. gnu.org/philosophy/rms-hack.fr.html).

[9] Le premier numéro de cette revue accueillait ainsi ses nouveaux lecteurs : « Bienvenue sur les Philes de Phrack Inc..... Si vous êtes intéressé par l’écriture de Philes pour Phrack Inc., vous, votre groupe, votre BBS ou les autres crédits seront mentionnés. Ces Philes peuvent inclure des articles sur les télécoms (phreaking/hacking), l’anarchie (les armes, la mort et la destruction), ou le kracking. D’autres sujets pourront être abordés dans certains cas. » (Un BBS ou Bulletin Board System était utilisé dans les années 1970 ou 1980 pour se connecter à un serveur via sa ligne téléphonique, à l’aide d’un modem).

[10] Traduction française revue pour cette édition. La version anglaise de ce texte (intitulée « The hacker Manifesto ») est disponible à l’adresse suivante : http://www.mithral. com/~beberg/manifesto.html.

[11] http://www.france-info.com/france-justice-police-2010-03-25-le-pirate-du-compte-twit- ter-d-obama-sera-juge-le-24-juin-422088-9-11.html.

[12] Le concept de « blue box », qui exploitait une faille de sécurité dans le système de télécommunications d’AT&T, fut mis au point par un hacker devenu un mythe dans le monde des développeurs : John T. Draper, alias « Captain Crunch ».

[13] L’origine étymologique du terme phreaker, selon le Dictionnaire Oxford de la langue américaine, vient de la contraction des deux mots : phone et freak, qui désigne quelqu’un de fanatique, de passionné. Un « phreaker » serait ainsi un passionné des systèmes de télé- communications.

[14] La version française de ce texte de Richard Stallman est disponible sur le site de la Free Software Foundation (http://www.gnu.org/gnu/thegnuproject.fr.html). Traduction française de Sébastien Blondeel, revue par Richard Stallman (NdT : en français, on pourrait rendre le terme « hacker » par le néologisme « bitouilleur », c’est-à-dire, celui qui « touille des bits »).

[15] Selon un article du Guardian datant de 2007 (http://www.guardian.co.uk/technology/2007/ nov/15/news.crime). Les groupes criminels qui cherchent à s’enrichir ou à mener des attaques ciblées contre les administrations de certaines nations sont le plus souvent originaires de Chine et de Russie. Viennent ensuite la Roumanie et la Turquie. Des pays où les vastes contingents d’informaticiens formés chaque année peuvent trouver un complément de revenu dans le piratage informatique (http://www.lexpansion.com/economie/actualite-econo- mique/la-russie-patrie-du-cybercrime_204484.html). Comme l’explique l’un d’entre eux au Journal du Net en 2001 : « Ce n’est pas très facile de trouver à Saint-Pétersbourg un travail bien payé pour un informaticien. Pourquoi ne pas gagner un peu d’argent en piratant si tu es capable de le faire ? » JDNet Solutions, 27/11/2001.

[16] Voir par exemple, Webster’s New World Hacker Dictionary, Wiley, 2006. Ce type de discours a été repris par de nombreuses compagnies de sécurité telles que McAfee, l’un des leaders mondiaux en matière de logiciels de sécurité.

[17] Voir l’article correspondant à l’année 1988 sur le site du Computer History Museum (http://www.computerhistory.org/timeline/?category=net).

[18] Cette distinction conduit notamment à ignorer que c’est parmi ces programmeurs astucieux et épris de liberté que se sont trouvés des gens comme Richard Stallman ou Linus Torvalds. Leur sens critique à l’égard des normes imposées par les États et les grandes firmes de l’informatique sur l’utilisation des logiciels les ont amenés à promouvoir l'appropriation et l’usage collectifs et libres de leur propre création, le GNU/Linux, qui taille aujourd’hui des croupières aux systèmes d’exploitation propriétaires, comme celui de Microsoft.

[19] James Morgan, « Virtual Political and Cultural Activism », http://switch.sjsu.edu/v7n1/ articles/james02.html

[20] Voir la synthèse effectuée par le cabinet d’études anglo-saxon Encurve en 2008, « Hack- tivism and Politically Motivated Computer Crime », disponible à l’adresse suivante : http:// www.aracnet.com/~kea/Papers/Politically%20Motivated%20Computer%20Crime.pdf.

[21] Voir Haaretz, 15 novembre 2009 (http://www.haaretz.com/hasen/spages/1128269. html).

[22] « Défacer » (defacing en anglais) consiste à remplacer la page d’accueil d’un site Internet par une autre, avec un message clair et la marque de l’équipe qui a procédé à cet exploit.

[23] Haaretz, 26.06.2007 (http://www.haaretz.com/hasen/spages/996578.html).

[24] Haaretz, 23.07.2007 (http://www.haaretz.com/hasen/spages/1004730.html).

Free Software vs Open Source

Les concepts de « logiciels libres » (Free Software) et de « logiciels à sources ouvertes » (Open Source), souvent utilisés de manière interchangeable dans les médias, ne recouvrent pourtant pas la même réalité et ne peuvent donc pas être utilisés l’un pour l’autre.

D’un côté, l’expression « logiciel libre » – défendue par Richard Stallman et la fondation GNU – renvoie à une conception philosophique du développement logiciel et met l’accent sur les implications sociales et politiques du mouvement, au niveau de la société dans son ensemble. Le terme Free signifie surtout, dans ce contexte, « libre », la gratuité n’étant que l’une des conséquences de la liberté.

Les « logiciels à sources ouvertes » sont quant à eux promus depuis 1998 par l’Open Source Initiative (OSI), qui met surtout l’accent sur l’efficacité économique et technique du modèle des « sources ouvertes ».

Selon l’OSI, l’expression « open source » permet de lever toute ambiguïté sur la notion de gratuité, équivoque selon eux dans l’emploi du terme Free Software. Surtout, l’OSI a pu, en mettant l’accent sur l’idée d’efficacité économique, rallier à sa cause de grandes sociétés cotées en Bourse, telles que Red Hat ou IBM qui se sont engagées dans l’ouverture des codes sources de leurs logiciels.

Mais le succès rencontré par l’Open Source auprès des professionnels s’est traduit par l’affaiblissement du message politique, toujours porté par la Free Software Foundation, comme l’expliquent les biographes de Richard Stallman :

« Le message des promoteurs de l’Open Source était simple : tout ce dont vous avez besoin pour vendre le concept de logiciel libre, c’est de le rendre intéressant pour les entreprises. De leur point de vue, Stallman et le mouvement pour le logiciel libre étaient en lutte contre le marché, tandis qu’eux cherchaient à l’exploiter. Plutôt que de jouer les cancres bannis du lycée, ils préféraient jouer la carte de la popularité, accroissant leur pouvoir par la même occasion. Si ces méthodes servaient la cause de l’Open Source, les idéaux du logiciel libre étaient perdants. Tout ce qui avait été fait pour « répandre le bon tuyau » avait occulté la composante du message de départ la plus importante : la liberté comme enjeu éthique »

Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Framabook/Eyrolles, 2010, p. 244.

dimanche, mai 23 2010

Présentation du livre

« Nous sommes tous des internautes ! » Sans doute, et pourtant nous oublions souvent que l'Internet est une formidable machinerie dont nos écrans escamotent les rouages. Quelles sont les aspirations et les logiques qui ont donné naissance à l'Internet ? Comment est-il devenu le terrain de jeu favori de quelques sociétés cotées en Bourse ? À quelles réalités sociales et économiques renvoie cette explosion de l'Internet marchand ? Que recouvre l'enthousiasme médiatique pour le « web 2.0 » ? Quels sont les véritables enjeux du débat sur le droit de la propriété intellectuelle ? L'Internet est-il encore un lieu de partage des savoirs et d'invention participative ?

Telles sont quelques-unes des questions auxquelles s'efforce de répondre ce livre foisonnant. L'auteur esquisse tout d'abord une histoire de l'Internet, depuis l'utopie des origines jusqu'à l'ouverture du réseau au grand public. Il dresse ensuite un portrait critique du Net et des multiples formes d'exploitation qu'il recouvre à l'ère de Google. Il montre enfin que certains « pirates », au-delà des discours médiatiques, s'inscrivent dans une tradition encore très vivace, qui a donné naissance à des projets aussi novateurs sur les plans économique et politique que celui des logiciels libres. Ce faisant, il nous entraîne « de l'autre côté du miroir » de nos « interfaces utilisateurs ».

Présentation du livre par les éditions Le Passager Clandestin

De l'autre côté de l'écran

L’intensification des échanges commerciaux sur l’Internet, la vitesse et l’augmentation du nombre et du montant global des transactions, la chute des prix de vente de la plupart des produits, le sentiment d’immédiateté éprouvé par l’internaute, de plus en plus enclin à faire ses achats depuis son domicile, tout ceci ne pouvait se faire sans la mise en œuvre de nouvelles logiques de distribution. Conçu à l’origine comme une plate-forme d’échange et de diffusion libres et gratuits de contenus scientifiques et informatifs, l’Internet a ainsi imposé un nouveau modèle économique et social, décuplant les effets de la division traditionnelle du travail dans l’économie capitaliste.

Ce modèle est d’une terrifiante simplicité : d’un côté, des cadres dirigeants et des programmeurs intéressés aux bénéfices par le biais des stock-options, de l’autre, des manutentionnaires en situation de grande précarité, travaillant dans de vastes entrepôts proches des grands axes routiers, qui traitent les commandes et expédient quotidiennement des millions de colis, et des centres d’appel, localisés dans les pays en voie de développement, en charge de la relation client.

Les cadres des grandes sociétés de l’Internet, qu’ils appartiennent à la sphère du marketing ou à celle de la programmation informatique, sont les enfants chéris de cette nouvelle société. Généralement, leur rémunération est triple, composée d’une part fixe (salaire mensuel), d’une part variable (intéressement aux résultats) et d’une part différée (les fameuses stock-options), quand la société est cotée en Bourse. Ils ont généralement moins de trente ans lorsqu’ils font partie des services de recherche et de développement, un peu plus dans le cas des cadres administratifs et commerciaux. À titre d’exemple, un ingénieur employé par Amazon en charge du développement de la plate-forme perçoit, selon son expérience, entre 80 000 et 120 000 dollars par an ; même chose pour un analyste financier [1].

La masse de travailleurs précaires affectés aux entrepôts du commerce électronique à travers le monde ne bénéficie pas du même traitement : cadences de travail toujours plus élevées, droits sociaux réduits à la portion congrue, généralisation des contrats précaires et obstacles mis au développement des organisations syndicales se combinent avec des salaires souvent inférieurs au salaire horaire minimum garanti.

Amazon : des « associés » moins égaux que d’autres

Le cas d’Amazon est à ce titre emblématique. La firme, fondée par Jeff Bezos en 1995, avait été érigée en modèle de la nouvelle économie, peu avant l’explosion de la bulle spéculative sur les entreprises de l’Internet, en 2000. En 1999, Jeffrey Preston Bezos était même sacré « personnalité de l’année » par le très sérieux magazine Time [2]. Bezos a la prétention de révolutionner les relations sociales au sein de l’entreprise, en même temps que le mode de fonctionnement économique de celle-ci. Le discours officiel est qu’Amazon n’a pas de salariés, seulement des « associés », puisqu’en principe tout employé recruté par la firme en CDI se voit aussi attribuer un certain nombre de stock-options. Cet intéressement aux résultats de l’entreprise suffirait à faire naître chez tous, du directeur commercial de la maison mère au chef de rayon de l’entrepôt du Bedfordshire, le sentiment de participer à un projet commun. Cette posture a d’ailleurs valu à Jeff Bezos une image médiatique de patron humain et compréhensif, de « Mr Nice Guy » [3], que la réalité des conditions de travail dans le secteur de la distribution de l’entreprise vient pourtant sérieusement écorner.

Les internautes adeptes de l’e-shopping sont familiers de l’enseigne d’Amazon, vaste librairie en ligne à laquelle ils sont systématiquement renvoyés (les fameux « liens entrants » opèrent ici à plein régime) lorsqu’ils effectuent une recherche portant sur à peu près n’importe quel ouvrage. On connaît beaucoup moins en revanche la partie immergée de ce gigantesque iceberg, celle de la distribution. De fait, ce n’est qu’assez récemment que le grand public a pu avoir connaissance des conditions de travail dans les entrepôts de la firme. En décembre 2008, la journaliste Claire Newell, parvenue à se faire recruter comme intérimaire dans l’une de ces immenses plaques tournantes située à Bedfordshire, en Angleterre, livre une enquête qui fait grand bruit. Publié par le Sunday Times [4], le constat est édifiant, et l’article sera repris un peu partout dans le monde [5]. La journaliste infiltrée y décrit les cadences infernales, les objectifs quasi impossibles à atteindre, le contrôle exercé par des managers sourcilleux, mais aussi par un système de vidéosurveillance extrêmement sophistiqué. Dans cet entrepôt, les manutentionnaires parcourent chaque jour jusqu’à 22 kilomètres pour un salaire de 7,50 euros de l’heure, une partie de cette somme servant d’ailleurs à payer le transport pour atteindre un lieu de travail situé loin de toute agglomération. La journée de travail n’est interrompue que par deux pauses de 15 et 20 minutes ; aux cinq journées de travail hebdomadaire s’ajoute une « nuitée » obligatoire de 10 h 30, du samedi soir au dimanche matin. En outre, la direction alloue à chaque employé un quota fixe de six points ; chaque absence, même justifiée par un certificat médical, entraîne le retrait d’un point. Au bout de six points, c’est la porte. Sans surprise, peu de citoyens anglais acceptent de telles conditions de travail. La plupart des manutentionnaires sont donc des ressortissants de pays d’Europe de l’Est, qui espèrent ainsi obtenir une prolongation de leur permis de séjour. Un intérimaire britannique confie d’ailleurs à Claire Newell : « “Ces pauvres diables”, qu’est-ce qu’ils endurent ! » Il ajoute : « Jamais plus je ne regarderai Amazon de la même manière ». Inutile de préciser que, face à ces conditions de travail, les employés extrêmement précarisés d’Amazon sont à peu près dépourvus de tout moyen de faire entendre leurs revendications. C’est aussi le cas des salariés peut-être un peu mieux lotis des services clients du groupe, qui, en tant que titulaires de CDI, possèdent des actions dans l’entreprise. Dès lors, puisqu’ils en sont « propriétaires », comme aime à le dire son fondateur Jeff Bezos, nul besoin pour eux d’en passer par une quelconque action collective pour faire entendre leur voix. C’est en se fondant sur ce principe qu’en 2000, le groupe de Jeff Bezos s’efforça d’empêcher la création du tout premier syndicat de l’économie numérique américaine, au sein du service clients de sa maison mère, à Seattle. Au premier trimestre 2000, le chiffre d’affaires d’Amazon était en recul de 17 % (soit 99 millions de dollars de perte). Pour faire face à cette situation, le siège avait imposé un plan de rigueur au sein de l’entreprise, tout en demandant des augmentations très importantes de productivité dans ses entrepôts. Parallèlement, des services entiers, basés à Seattle, étaient délocalisés en Inde (plateaux d’appels) et au Dakota du Nord. Dans ce contexte, les employés de Seattle, et en particulier ceux du service clients, soutenus par deux syndicats américains, WashTech (Washington Alliance of Technological Workers[6]) et le POF (Prewitt Organizing Fund), initièrent un mouvement de recrutement et d’organisation collective, dans la perspective de négociations avec la direction du groupe. Or, pour Jeff Bezos, on l’a vu, la pratique syndicale est tout à fait inutile au sein d’Amazon, puisque, par le biais de l’intéressement (les stock-options), « chacun (...) peut y exercer à tout moment son droit à soulever des questions et des préoccupations liées au lieu de travail » [7]. Très vite, un certain nombre de décisions furent prises qui ne laissèrent guère planer de doute sur les intentions de la direction. Les cadres de Seattle reçurent tout d’abord par e-mail l’instruction de prévenir les activistes des risques liés au développement de toute activité syndicale : « Informez les représentants du personnel des inconvénients inhérents à la syndicalisation, notamment les grèves et la gestion des piquets de grèves, les amendes, les cotisations. » Des réunions se tinrent, où chacun était fermement convié – quitte à prendre sur ses jours de congé – pour s’entendre exposer, sans possibilité de discussion, tous les maux du syndicalisme. Bientôt, les stands installés par les représentants du personnel dans la cafétéria furent interdits au motif qu’ils violaient le règlement sur le prosélytisme – tandis que d’autres stands faisant la publicité d’actions culturelles étaient, quant à eux, parfaitement tolérés. Puis les premières rumeurs de licenciements commencèrent à circuler, jusqu’au début de l’année 2001, où, sur les 1 300 suppressions d’emplois décidées par la firme, 850 affectèrent le centre de Seattle, sans aucun critère objectif pour l’expliquer [8]. Le but était clairement d’étouffer dans l’œuf toute velléité d’organisation sociale du travail. Velléités vraisemblablement couronnées de succès, puisque, dix ans plus tard, aucune activité syndicale n’est attestée chez Amazon États-Unis.

Avec une hypocrisie caractéristique de la novlangue capitaliste, la direction d’Amazon se refuse à désigner ces travailleurs comme des « employés », préférant, dès lors que l’ensemble du personnel de la société est censé posséder des stock-options, le terme d’« associés ». Non seulement les cadres dirigeants un peu partout dans le monde, mais aussi les manutentionnaires des entrepôts du Bedfordshire, les employés du service clients de Seattle et tous les salariés de la firme sont donc les associés du fondateur Jeff Bezos ; ils travaillent, comme lui, au succès d’Amazon, et doivent tirer fierté de participer au rayonnement de l’entreprise [9]. Pourtant, tous les « associés » d’Amazon ne sont pas égaux, même en matière d’intéressement : en 2004, lorsque sa filiale française met en œuvre un plan social de grande ampleur, la plupart des employés remerciés constatent que, grâce à un savant montage, ils sont dans l’impossibilité de liquider leurs stock-options pour en récupérer la contrepartie financière [10]. Le vernis du discours fondateur d’Amazon (une entreprise caractérisée par la participation de tous à l’activité et aux bénéfices, des conditions de travail décontractées, amicales et stimulantes, etc.) n’aura donc pas mis très longtemps à craquer, comme le constate d’ailleurs dès 2001 Marcus Courtney, l’un des fondateurs de WashTech :

« C’était l’exemple-à-suivre.com, le lieu où il fallait travailler, où il fallait être. Aujourd’hui, c’est la compétition avec les travailleurs indiens pour les postes. C’est la “Silicon jungle” ».

Logistique et distribution : le silence des entrepôts

L’exemple d’Amazon n’est pas isolé. La firme de Jeff Bezos n’est que l’archétype des nouvelles formes d’exploitation que recouvre l’Internet. Les usagers de l’Internet ont d’ailleurs du mal à se figurer qu’au-delà de l’écran, des hommes et des femmes bien réels enregistrent et assurent la préparation et la livraison de leurs commandes, répondent à leurs demandes d’assistance en ligne, etc. De façon générale, les « travailleurs de l’Internet » forment une masse invisible, paupérisée, retranchée dans des entrepôts placés sous vidéosurveillance, mais à l’abri des regards extérieurs. Mener l’enquête dans de tels endroits est une tâche difficile et l’information sur les conditions de travail de ces lieux est rare, mais chaque fois qu’à la faveur de mouvements sociaux encore embryonnaires, elle parvient à filtrer, elle donne à voir une réalité peu amène. Et la France n’y fait pas exception. Le 13 mai 2008, une centaine d’employés de CDiscount, sur les 800 que compte le groupe, se mettent en grève, en Gironde. La plupart sont caristes et préparateurs de commandes. Ils souhaitent notamment bénéficier de temps de pause plus longs alors qu’il leur arrive, « l’hiver, de travailler dans les entrepôts par des températures négatives, sans pouvoir prendre de boissons chaudes » [11]. L’immense majorité d’entre eux ne gagnent pas plus que le Smic, même après plusieurs années d’ancienneté. Au bout de dix jours à peine, les salariés doivent interrompre le mouvement sans avoir obtenu la moindre avancée, parce qu’ils ne peuvent plus tenir financièrement [12]. En décembre 2009, une grève touche l’entrepôt principal d’Amazon France, près d’Orléans. Les syndicats s’insurgent contre le fait que plusieurs salariés ont été licenciés pour « insuffisance professionnelle » depuis le début de l’année ; l’approche des fêtes de fin d’année a entraîné le doublement des effectifs grâce au recrutement d’intérimaires. « L’ambiance est actuellement très tendue, commente un responsable de Force ouvrière. Pour faire face à l’afflux des commandes, on nous demande des objectifs que l’on ne peut pas atteindre » [13]. Les revendications des grévistes – ceux des salariés qui bénéficient de contrats à durée déterminée – sont simples : hausse des salaires, possibilité d’un treizième mois, tickets restaurants et primes d’équipe, et augmentation de 10 minutes du temps de pause quotidien. Devant la difficulté de mobiliser les intérimaires [14], la grève prendra rapidement fin sans que la direction n’ait eu à faire la moindre concession. Ces divers mouvements de grève ne doivent pas être traités comme des cas isolés. Cadences infernales, salaires minima, contrats précaires, fragilisation des droits sociaux et syndicaux : le commerce sur l’Internet est un secteur économique fortement concentré, animé pour l’essentiel par quelques groupes d’envergure nationale ou internationale, placés dans une situation de concurrence accrue ; ces firmes tentent donc, par tous les moyens, de réduire le coût d’une main-d’œuvre encore indispensable tout en augmentant son volume d’activité. Tâche en partie facilitée par l’isolement des travailleurs au sein de grands entrepôts, eux- mêmes situés à l’écart des grands centres urbains et par l’ignorance publique et l’indifférence médiatique à l’égard de leur situation. Ignorance et indifférence encore plus grande lorsqu’il s’agit de services sous-traités et délocalisés à l’étranger comme les plates-formes téléphoniques dédiées à la « relation clients ».

Longue distance : la délocalisation des centres d’appels

Tout comme la logistique, les services de gestion de la relation clients nécessitent une main-d’œuvre généralement peu qualifiée, mais importante, donc onéreuse. Cependant, à l’inverse de la première, difficile à délocaliser pour des raisons évidentes d’acheminement des produits, les services téléphoniques de relation clientèle peuvent aisément être installés dans les pays qui pratiquent le dumping social. La délocalisation des grands centres d’appels dédiés aux clients des entreprises de l’Internet – en Inde pour les pays anglo-saxons, en Tunisie, au Maroc et en Roumanie pour les pays francophones – est ainsi devenue une pratique généralisée. Le secteur du commerce électronique n’est d’ailleurs pas le seul à exploiter en sous-traitance les plateaux de centres d’appels installés dans les pays en voie de développement. Tous les acteurs de l’Internet, notamment les FAI, ont systématiquement recours à cette pratique. La concurrence est féroce au sein même des pays en développement pour capter le marché de l’« outsourcing offshore », expression anglo-saxonne désignant les opérations de délocalisation des activités de service. Ce marché représente plus de 500 milliards de dollars $$Données communiquées par le Commonwealth Business Council en septembre 2008 (http://www.cbcglobal.org/CBC_Pages/MediaDetails.aspx?MediaId=95). Une entreprise comme Webhelp, basée en France, dispose de plus de 4 000 conseillers à Fès et à Rabat, selon le journal marocain Le Matin. Dès 2003, Frédéric Jousset, président de Webhelp, expliquait sans fard, dans une interview au Journal du Net, tous les mérites de l’externalisation :

« D’abord, cette activité attire à l’étranger des personnes plus qualifiées et plus motivées qu’en France. Par rapport au marché du travail local, les rémunérations qui sont proposées par les centres d’appels sont plus élevées que la moyenne, ce qui permet de capter une population de jeunes, ayant souvent un niveau de formation bac +3, bac +4. Parallèlement, la motivation se traduit par un plus faible absentéisme et un “turn-over”» moins important. Alors qu’en France, le “turn-over” est proche de 30 %, il n’est que de 9 à 10 % à l’étranger. Deuxièmement, le cadre réglementaire est plus souple, surtout en ce qui concerne le travail de nuit, pendant les week-ends ou les jours fériés. Les plages horaires sont plus étendues et les possibilités de flexibilité plus importantes pour un coût moindre. Enfin, le dernier avantage réside dans les économies substantielles que l’on peut faire sur l’externalisation d’un centre d’appels. Grâce à un prestataire offshore, les coûts d’une externalisation peuvent baisser de 35 % » [15].

Sur son site Internet, Webhelp enfonce le clou en affirmant que l’une des raisons pour délocaliser est « une flexibilité accrue en raison de la souplesse des législations, et des comportements sociaux permettant de gérer les pics d’activité avec une réactivité difficile et très coûteuse en métropole » [16]. SFR, Orange, Bouygues Télécom en tant que fournisseurs d’accès Internet, La Redoute, PixMania, M6 Boutique, CDiscount et eBay en tant que sites de commerce électronique sont les clients réguliers de Webhelp. Et cette société n’est qu’un exemple parmi des dizaines d’autres de sous-traitance de la relation clientèle, désormais monnaie courante. Pourtant, le parti pris de l’« outsourcing » n’est pas assumé par les sociétés clientes, que ce soit en Europe ou aux États-Unis : afin de satisfaire leurs contractants, Webhelp, Sitel et tous les autres acteurs du marché demandent par exemple à leurs téléconseillers marocains « une neutralisation de l’accent » [17]. Quant à leurs homologues indiens, employés par les sociétés américaines, ils doivent apprendre par cœur les résultats des compétitions de football américain, au cas où il viendrait à l’idée d’un client de tester leur degré d’« américanité » en les interrogeant sur le dernier match du Superbowl. Ici comme dans le domaine de la distribution, l’écran se dresse entre l’internaute et la réalité ; pour celui-ci, confortablement installé devant son ordinateur, les événements doivent s’enchaîner avec simplicité et fluidité, au gré des doubles-clics [18]. Tout est donc fait pour qu’il ignore les effets pervers de la croissance exponentielle du commerce en ligne. Le rapport marchand est constamment gommé, dissimulé derrière un discours de la « gratuité », de l’« immédiateté », de la « proximité »,de la « disponibilité », de l’« interactivité », etc. qui vise à masquer une réalité beaucoup moins virtuelle et reluisante, celle de rapports d’exploitation décuplés et d’un creusement du fossé entre les cadres dirigeants, principaux bénéficiaires de cette nouvelle donne, et la masse invisible et silencieuse des OS du web.

Profits et participation à l’« économie réelle »

Tandis qu’un employé de centre d’appels marocain gagne à peine 300 euros par mois, la rémunération des administrateurs et ingénieurs de l’économie numérique peut aisément atteindre une centaine de milliers d’euros par an [19]. Sur les 19 665 employés que compte Google, première entreprise du Net, 1 200 sont millionnaires, 500 en dizaines et 80 en centaines de millions de dollars [20]. Les profits des entreprises de l’Internet à l’ère de Google atteignent des sommets. Le numéro 1 mondial de la publicité en ligne annonçait en 2009 un chiffre d’affaires de près de 22 milliards de dollars. Dans le top 30 des firmes de l’Internet, on trouve aussi Amazon (19,1 milliards), Yahoo! (7,2 milliards), eBay (6,3 milliards), iTunes (1,9 milliard) ou encore Buy.com (0,4 milliard) [21]. Avec de tels résultats, on pourrait au moins s’attendre à ce que ces sociétés occupent une part importante dans les recettes fiscales des pays où elles déploient leur activité. Ce serait ignorer les logiques de l’économie mondialisée. Les grandes firmes de l’Internet sont en effet passées maîtresses dans l’art de l’évasion fiscale, grâce à des montages financiers complexes et à la pratique de la délocalisation dans les fameux « paradis fiscaux » des pans les plus rentables de leur activité. Une firme américaine sera par exemple encline à domicilier ses filiales détentrices de brevets dans l’État du Delaware, à la fiscalité plus qu’avantageuse [22]. Les entreprises de l’Internet qui créent des filiales en Europe vont tout aussi naturellement les implanter au Luxembourg. eBay, Skype, AOL, Amazon, l’iTunes Music Store d’Apple, sont toutes établies dans le Grand-Duché, officiellement, du fait de la place centrale que ce pays occupe en Europe, en réalité parce que le Luxembourg, avec l’un des taux de TVA les plus faibles au monde, constitue une véritable oasis fiscale pour ces gros acteurs de l’« économie virtuelle ». L’actuel PDG de PriceMinister, Pierre Kosciusko-Morizet, adepte du libéralisme le plus agressif, s’est d’ailleurs récemment plaint de cette situation dans une interview, jugeant « scandaleux » le dumping fiscal lié à la domiciliation des entreprises au Luxembourg. Il y a, à ses yeux, concurrence déloyale, lorsque des sociétés comme eBay ou Amazon ne paient que 5 % de TVA, alors que les entreprises domiciliées en France sont assujetties à un taux de 19,6 %. L’article lié à cette interview parle de 400 milliards d’euros de manque à gagner pour l’État français en 2008, mais ne précise pas l’origine de cette estimation [23]. Dans ce secteur comme dans d’autres, il faudra donc bien plus qu’un simple « engagement » de la part des États du G20 pour qu’on puisse dire un jour avec l’actuel président de la République française que « les paradis fiscaux, le secret bancaire et la fraude sont terminés » [24]. En avril 2009, le magazine BusinessWeek établit un classement des entreprises américaines cotées à l’indice boursier S&P 500 – qui réunit les 500 plus grandes sociétés du marché américain – en fonction du profit qu’elles parviennent à tirer de la complexité et des « niches fiscales » du code des impôts américain. Sur les vingt-cinq sociétés citées dans cette étude, celles qui paient le moins d’impôt sont liées à l’Internet : au lieu des 35 % qu’elle devrait théoriquement verser au Trésor américain, Amazon ne paie par exemple que 4,1 % d’impôt ; Yahoo! 7,3 %, Akamai, 2,9 %, Saleforce.com, 4 % [25]. Le discours de nombreux économistes selon lequel les bouleversements de secteurs entiers de l’économie et les répercussions sociales entraînées par l’activité des grandes firmes de l’Internet seraient compensés par le fait qu’elles exploitent « de nouveaux gisements de richesse » et participent ainsi au développement de l’économie réelle est donc en grande partie un leurre. Certes, ces firmes engrangent parfois d’énormes profits, mais cette accumulation de richesses n’a qu’un impact très faible sur l’économie réelle, les bénéfices tirés de l’économie de l’Internet étant immobilisés dans les grandes banques des paradis fiscaux et échappant ainsi à toute véritable taxation. Le monde idéal de l’Internet, règne des bonnes affaires et des transactions commerciales simplifiées, univers de l’information gratuite et généralisée, de l’immédiateté des échanges et d’une sociabilité planétaire apparaît donc comme une formidable illusion, un miroir aux alouettes qui dissimule en réalité une machinerie complexe où des soutiers dont on s’applique à nier l’existence participent bon gré mal gré à la prospérité de grandes sociétés commerciales. Quant aux alouettes – c’est-à-dire nous autres internautes –, non seulement elles ignorent le plus souvent cette réalité, mais elles ne semblent pas non plus conscientes de ce que leur participation de plus en plus active à la production des contenus sur le web est elle-même détournée au profit de quelques grandes plates-formes de diffusion. C’est pourtant bien cette autre réalité qui se cache derrière l’enthousiasme un peu trop expansif des partisans de l’« économie numérique » pour le fameux « web 2.0 ».

Notes

[1] Source : http://www.glassdoor.com/.

[2] http://www.time.com/time/magazine/article/0,9171,992927-2,00.html.

[3] Cf. Andrew Gumbel, « Short shrift for unions in Amazon’s silicon jungle », The Indepen- dent, 3 février 2001 (http://www.independent.co.uk/news/business/news/short-shrift-for- unions-in-amazons-silicon-jungle-691065.html).

[4] .http://business.timesonline.co.uk/tol/business/industry_sectors/retailing/article5337770.ece.

[5] En France, on en rend compte sous le titre : « Chez Amazon, des conditions de travail dignes de Zola » (voir France-Info, 17 décembre 2008, http://www.france-info.com/eco- nomie-entreprises-secteurs-2008-12-17-chez-amazon-des-conditions-de-travail-dignes-de- zola-226711-22-23.html).

[6] WashTech est un syndicat américain né au sein de Microsoft, en 1998. Il regroupe donc surtout des ingénieurs et techniciens de l’industrie électronique et logicielle, et combat désormais surtout les tentatives de délocalisation (outsourcing) des grandes compagnies technologiques américaines (voir leur site Internet : http://www.washtech.org).

[7] « Short shrift... », art. cit.

[8] Ibid. Les 450 autres emplois supprimés s’expliquent par la fermeture, au même moment, d’un centre de distribution situé en Géorgie.

[9] En réaction à l’enquête du Sunday Times, Allan Lyal, vice-président pour l’Europe d’Amazon, indiquait au journal : « Nous voulons que nos associés soient heureux de travailler chez Amazon et les intérêts des travailleurs sont défendus par un forum démocratiquement élu des employés, qui rencontrent régulièrement l’encadrement. » (http://business.timesonline. co.uk/tol/business/industry_sectors/retailing/article5337770.ece).

[10] Voir 01net, 10 août 2004 (http://www.01net.com/editorial/249388/droit/amazon-france-en-rupture-de-stock-options/).

[11] Voir 01net, 23 mai 2008 (http://www.01net.com/editorial/381207/chez-cdiscount-la- greve-prend-fin-mais-le-malaise-social-demeure/).

[12] Comme l’explique à 20 minutes Claudine Beyssière, responsable syndicale FO, le 23 mai 2008 (http://www.20minutes.fr/article/232497/Bordeaux-Fin-de-la-greve-a-CDiscount. php).

[13] L’Expansion, 9 décembre 2009 : http://www.lexpansion.com/economie/actualite-high- tech/appel-a-la-greve-chez-amazon-france_210618.html.

[14] Leur « moyenne d’âge ne dépasse pas la trentaine. Ils ne sont pas syndiqués ». Voir l’article d’Alain Beuve-Mery, « En remontant le cours d’Amazon jusqu’aux sources du e-com- merce », Le Monde des Livres, 18 janvier 2007.

[15] http://www.journaldunet.com/0304/030403webhelp.shtml

[16] http://www.webhelp.fr/fr/vos_enjeux/externaliser_centre_appel.

[17] Comme le note par exemple cette annonce du centre d’appels marocain de la compa- gnie Sitel : « Une attention particulière est apportée aux formations non seulement au métier des centres d’appels et aux offres de nos clients, mais également à des considérations plus contextuelles telles que la neutralisation de l’accent et la culture générale française » (http://www.ulysoft-solutions.com/sites/accueilulysoft/Lists/Annuaire_Ulysoft/DispForm. aspx?ID=1761).

[18] Cette demande croît de façon exponentielle et varie suivant les périodes de l’année. Au mois de décembre, période particulièrement propice aux achats sur les sites de vente en ligne, la population des manutentionnaires double dans les entrepôts de préparation des commandes.

[19] On pourra se faire une idée des revenus des employés des grandes entreprises de l’Inter- net en consultant le site Glassdoor.com (http://www.glassdoor.com/index.htm), où ceux-ci sont invités à déclarer spontanément et anonymement leurs rémunérations.

[20] Cf. http://www.webrankinfo.com/dossiers/google/chiffres-cles.

[21] Cf. http://www.begeek.fr/top-30-des-sites-qui-generent-le-plus-de-chiffre-daffaire-en- 2009-2471.

[22] « Le G20 est une entreprise sans crédibilité si sur la liste dite “noire” des paradis fiscaux, il n’y a pas le Delaware, il n’y a pas le Wyoming, il n’y a pas le Nevada... » (Déclaration du Premier ministre luxembourgeois Jean-Claude Juncker, Le Figaro, 2 avril 2009).

[23] http://www.journaldunet.com/ebusiness/commerce/pierre-kosciusko-morizet-chat-avec- pierre-kosciusko-morizet/dumping-fiscal.shtml. Officiellement, le taux de TVA au Luxem- bourg est à 15 %, mais les grands commerçants de l’Internet peuvent facilement négocier leur propre taux et le faire tomber aux alentours de 5 %.

[24] Propos de Nicolas Sarkozy au journal de 20 heures du 23 septembre 2009 (http://www. dailymotion.com/video/xam4kz_sarkozy-il-n-y-a-plus-de-paradis-fi_news).

[25] http://images.businessweek.com/ss/09/04/0423_corporate_taxes/1.htm. Google ne fait pas partie de l’indice S&P 500, d’où son absence dans ce classement. Akamai est une société pour l’ensemble des grands sites Internet des serveurs de « cache » à l’échelle planétaire, et une architecture pour diffuser à des coûts moindres des vidéos et documents audio. Salesforce.com est, quant à elle, une société spécialisée dans la mise à disposition d’outils Internet qui permettent de gérer les relations commerciales avec les clients.

Prologue du livre « Rêveurs, marchands et pirates »

Tout commence par un rêve. Le rêve d’une « société ouverte », pour reprendre la belle expression du philosophe Karl Popper[1]. L’Internet en devait être le pilier, en permettant aux uns et aux autres d’échanger en toute liberté. Connaissances, savoir et culture seraient à la disposition de tous et entreraient en résonnance.

De nombreux philosophes ou chercheurs avaient imaginé la situation, avant même que la technique soit en mesure de répondre à cet idéal. Marshall McLuhan, anticipant de quelques décennies l’invention de l’Internet, avait même forgé une expression propre à définir cet état : « le village mondial ». « De toutes parts, écrivait-il en 1962, nous parvient l’information à vitesse accélérée, à vitesse électronique. On dirait que nous faisons tous partie (…) d’un petit village mondial »[2]. Le philosophe chrétien Pierre Teilhard de Chardin avait d’ailleurs lui-même préfiguré la pensée de Marshall McLuhan, en empruntant à Vladimir Ivanovitch Vernadski le concept de « noosphère ». Teilhard de Chardin définissait celle-ci comme une couche de faible épaisseur entourant la Terre et englobant l’ensemble des consciences humaines, comme une immense sphère de la pensée destinée à recouvrir l’humanité[3].

Les pionniers de l’Internet ambitionnèrent d’accomplir ce rêve : approcher un état de « conscience globale », créer des liens entre les hommes, diffuser le savoir et la connaissance, par-delà la distance qui les sépare. Et leur ambition serait aujourd’hui devenue une réalité, pour les deux milliards d’individus qui utilisent régulièrement le réseau Internet. Pourtant, l’idée d’une libération de l’homme par la technologie commençait déjà, à l’époque, à être sérieusement battue en brèche. Les travaux d’un Herbert Marcuse ou d’un Jacques Ellul, par exemple, suggéraient dès les années 1950-1960 que la technique et les valeurs qui lui sont associées pouvaient bel et bien être porteuses de régressions, sur tous les plans – social, culturel, politique, économique et écologique[4]. L’Internet ne semble pas avoir échappé à cette règle, et ses caractéristiques propres (immédiateté des échanges, fluidité de l’accès à l’information, mise en réseau des individus, agrégation des contenus, etc.), qui auraient dû être des atouts pour la transmission de la connaissance et l’avènement d’une conscience universelle, sont devenues autant d’armes au service de l’hégémonie marchande. L’Internet, tel qu’il fut conçu à l’origine paraît n’être plus aujourd’hui qu’un vieux mythe.

À l’heure du web 2.0, l’utilisation du concept d’« ouvert » qui désignait à l’origine des projets collaboratifs, libres d’accès et susceptibles d’être modifiés par tous les utilisateurs – les fameux « logiciels libres » – y est désormais massive, alors même que la plupart des « projets » se prévalant de ce qualificatif sont conçus par des sociétés qui ont au contraire vocation à exercer un droit de propriété sur les contenus et à monétiser leur diffusion. Le terme est même repris désormais par des institutions soucieuses de redorer leur image (voir par exemple l’Open Government Initiative de la Maison blanche aux États-Unis, censée garantir l’idéal démocratique) et peu à peu vidé de son sens. L’Internet est ainsi devenu, en quelques années, un média de masse servant avant tout les intérêts de quelques grandes firmes qui y trouvent des leviers de rentabilité rarement atteints au niveau de l’économie physique (Google, Amazon, les fournisseur d’accès Internet, les « marketplaces », pour n’en citer que quelques-unes). Avec, pour corollaire, de très nombreuses interrogations liées au modèle social de ces sociétés, basé principalement sur l’association d’un petit nombre d’ingénieurs et de cadres intéressés aux bénéfices à une masse de travailleurs précaires, dont une bonne partie sont délocalisés en Chine, à Madagascar ou en Afrique du Nord. Avec également pour conséquence un effort d’appropriation des savoirs, des « biens communs », par ces mêmes acteurs[5], à travers la captation des contenus générés par les utilisateurs du web, qui alimentent leurs plates-formes en ligne, véritables aspirateurs publicitaires. Mais de tout cela, nous n’entendons guère parler. De temps à autre, une coupure de presse nous apprend que la terreur règne dans les entrepôts d’Amazon Grande-Bretagne pour tenir les cadences infernales imposées par le succès foudroyant de la vente en ligne ; ou encore que Google, grâce aux dispositions découvertes au détour d’un paragraphe de son « Contrat de licence utilisateur final », se propose de devenir propriétaire de l’ensemble des informations enregistrées par son navigateur Google Chrome. Mais qui y accorde la moindre attention ? Certes pas les internautes qui ignorent, pour la plupart, les réalités complexes que leur voile l’écran.

Les enjeux liés à l’Internet, lorsque les grands médias s’en font l’écho, sont avant tout de nature financière. On y parle de la capitalisation de Google, du chiffre d’affaires généré en fin d’année par Amazon, ou encore de la valorisation Facebook. Toutes ces informations appellent généralement des discours laudateurs, compte tenu des bénéfices records atteints par ces sociétés et de la jeunesse de leurs dirigeants. L’attention devrait pourtant se porter ailleurs : sur le modèle de société qui nous est proposé par l’Internet et les grand groupes qui polarisent le réseau, sur les problèmes liés à l’articulation public/ privé sur le réseau mondial, sur le fossé numérique qui sépare les pays du Nord de ceux du Sud, ou encore sur la nécessité de préserver les « biens communs », notamment le patrimoine écrit ou visuel de l’humanité, des appétits des grandes firmes. Les véritables enjeux sont là. Sur certains de ces points, des livres souvent très complets ont été écrits ces dix dernières années, porteurs de nombreux débats publics. Beaucoup d’entre eux évoquent pour les déplorer les disparités géographiques de l’accès à l’Internet. De nombreux sociologues et chercheurs en sciences de l’information travaillent sur la notion de la rareté et de la diffusion de l’information. En revanche, peu s’intéressent à la genèse de ce média, aux enjeux qui ont présidé à sa création, aux conséquences économiques et sociales de son ouverture au grand public. Si beaucoup de personnes se défient de l’Internet en général, de la marchandisation des échanges qu’il encourage, de ses atteintes à la vie privée, de l’absence de médiateurs identifiés et de la masse d’informations non vérifiées qui y circule, de l’individualisme et des formes de désocialisation qu’il suscite, bien rares sont les travaux qui s’emparent de ces questions et envisagent la possibilité même d’un contre-modèle.

Or, la dimension de mise en commun des savoirs et l’idée que celle-ci peut nous ouvrir des perspectives en matière culturelle, sociale et même politique n’ont pas complètement déserté l’Internet. Elles se sont déplacées et, pour ainsi dire, réfugiées, au sein des communautés privées de « pirates ». Des îlots dédiés à la conservation du savoir et fondés sur la construction de références communes survivent ça et là, groupes fermés, difficiles à « pénétrer », mais qui accueillent au total plusieurs millions d’internautes de par le monde. Ces « îlots pirates », qu’il faut distinguer des grands sites publics de peer-to-peer, dont l’exceptionnelle rentabilité repose notamment sur des liens étroits avec l’industrie du sexe ou du jeu, se financent par le don, qui leur permet d’assurer la pérennité de leur structure. Ils s’articulent autour de cette idée, fondatrice de l’Internet, que le partage des connaissances et le foisonnement des échanges qu’il entraîne sont, en soi, des richesses et des facteurs d’innovations collectives. Ils contribuent ainsi à l’existence de formes de contre-culture, ancrées dans les concepts au fort potentiel subversif que sont le « libre » et le « participatif ».

L’ambition de ce livre, qui ne prétend donc pas à l’exhaustivité, est de proposer un portrait critique et général de l’Internet, des origines à nos jours, tout en projetant un peu de lumière sur quelques-uns des angles morts de la réflexion sur le « réseau des réseaux ». S’il parvient à fournir au lecteur – dont on prendra le pari qu’il est aussi, à l’occasion, un internaute – quelques clés pour appréhender la « toile » et exercer son discernement lorsqu’il évolue dans ses méandres, alors il aura atteint son objectif.

Notes

[1] Cf. Karl Popper, La société ouverte et ses ennemis (The Open Society and its Enemies ̧ 1945), Paris, Seuil, 1979, 2 tomes.

[2] La Galaxie Gutenberg, la genèse de l’homme typographique, (The Gutenberg Galaxy : The Making of Typographic Man, University of Toronto Press, 1962), Paris, Gallimard, collec- tion « Idées » 1977, 2 tomes.

[3] Teilhard de Chardin parle « d’un reploiement définitif et global de la masse pensante à l’intérieur d’un hémisphère supérieur, où elle ne saurait plus aller que se contractant et se concentrant sous l’effet du temps » (Sur le concept de noosphère chez Pierre Teilhard de Chardin, voir La place de l’homme dans la nature, in Œuvres complètes, tome VIII, Paris, Seuil, 1963).

[4] Voir par exemple Jacques Ellul, La technique ou l’enjeu du siècle, Paris, Armand Colin, 1954 et Herbert Marcuse, La Fin de l’utopie, Paris, Seuil, 1968.

[5] Voir à ce propos le livre brillant de Philippe Aigrain, Cause Commune, l’information entre bien commun et propriété, Paris, Fayard, 2005.

Épilogue

L’ambition de ce livre n’était pas d’aborder l’ensemble des problèmes posés par les évolutions récentes de l’Internet. Le problème majeur du respect de la vie privée et de la confidentialité des données personnelles à l’ère de Google et de Facebook n’a par exemple pas pu être abordé. Ces questions, souvent évoquées par les médias, constituent pourtant un enjeu majeur qui font parfois réagir les gouvernements nationaux, comme l’Allemagne. L’Union européenne, à travers notamment l'action de Viviane Reding, commissaire chargée de la société de l’information et des médias, milite de son côté pour un « droit à l’oubli numérique », qui permettrait à chacun d’entre nous, sur simple demande, d’obtenir la destruction des informations personnelles collectées par Facebook, Google et autres Twitter. Ces questions mériteraient à elles seules une étude approfondie.

Il paraissait cependant urgent de relever quelques-uns des angles morts d’une réflexion sur l’Internet, qui reste trop souvent consensuelle et caricaturale. Est-il normal que le problème du modèle social imposé par l’Internet, qui semble renvoyer aux heures obscures de la première révolution industrielle (syndicats interdits, ouvriers à l’écart dans de vastes ensembles manufacturiers, etc.), ne soit jamais abordé ? C’est pourtant ce qui se passe, et le silence se fait lorsqu’on prétend, par exemple, mener l’enquête dans les entrepôts d’Amazon ou des grands magasins de vente en ligne, ou que les places de marché mettent en concurrence particuliers et professionnels, à l’échelle mondiale, dans une dynamique qui appauvrit les uns et les autres, tandis que les firmes qui les administrent bénéficient de toutes les failles de la législation pour organiser de vastes plans d’évasion fiscale. On ne reprendra pas ici la liste des impensés du libéralisme sauvage qui se développe depuis près de vingt ans sur la toile.

De nombreux groupes de travail, dans la plupart des pays occidentaux, se targuent de réfléchir aux enjeux d’une véritable « économie du numérique » tout en projetant de vastes plans pour tenter de lui donner une orientation et un cadre. Pourtant, au vu des récentes évolutions, tout indique qu’il s’agit d’un vœu pieux. Une « économie du numérique » est d’ores et déjà à l’œuvre, et ses principaux acteurs s’accommodent fort bien de l’absence de régulation des pouvoirs publics – sauf à leur demander de restreindre les droits des internautes lorsque leurs pratiques portent atteinte à leurs propres intérêts (ainsi des efforts entrepris un peu partout pour obtenir l’application plus stricte du « droit de la propriété intellectuelle »). Économie qui repose pour une large part sur l’activité de quelques grandes firmes adeptes du dumping social et culturel et de l’évasion fiscale.

L’Internet fut rêvé par des pionniers qui misaient avant tout sur les effets bénéfiques d’une plus large diffusion des savoirs. Naïfs sans doute, ils furent incapables de percevoir que ce rêve serait confisqué et instrumentalisé par les nouvelles formes du capitalisme, qui, grâce à leur incroyable capacité d’absorption et de détournement, en ont redessiné les contours pour en faire autant d’occasions de profits.

Mais l’utopie des fondateurs n’est peut-être pas totalement morte. L’intelligence collective mise en œuvre par certaines communautés de pirates, qui feignent d’ignorer les législations nationales en vigueur sur la propriété intellectuelle, mais contribuent simultanément à la constitution d’immenses bibliothèques numériques, semble très féconde. Ces communautés dessinent, en effet, des modèles inédits de délibération participative, de nouvelles conditions légales de mise à disposition des œuvres – autour de la notion au fort potentiel subversif de « libre » –, de nouvelles pratiques d’élaboration de savoirs communs et, partant, des cultures, voire des contre-cultures extrêmement vivantes et dynamiques. Par leur « action discrète » – mais bien réelle – ces communautés apportent chaque jour la preuve, pour peu qu’on veuille bien y prêter attention, que l’Internet peut être un fabuleux espace de créations tant sociales que culturelles, économiques ou politiques.

Le rêve n’a pas cessé de vivre.

Web 2.0 mon amour

Depuis 2004 ou 2005, la nature même de l’Internet aurait profondément changé et on serait même passé à un deuxième âge du web, à en croire certains chercheurs, publicitaires ou éditeurs, tel Tim O’Reilly, qui a largement contribué à populariser le terme de web 2.0[1]. Selon ses « évangélistes », le web 2.0 se définit par tout un ensemble d’applications Internet, dont l’usage s’est fortement développé depuis 2004, qui permettraient la création ou le partage de contenus textuels (blogs, wikis – dont le succès doit beaucoup à la montée en puissance de Wikipédia), d’images (Flickr, Picasa de Google) ou de vidéos (YouTube, Dailymotion). Le web 2.0 serait avant tout « participatif », en ce qu’il permettrait aux internautes de construire collectivement et de partager plus facilement leurs univers de référence, grâce aux réseaux sociaux que sont Facebook, MySpace, Viadeo et LinkedIn (réseau professionnel), et au développement plus récent du « microblogging » dont Twitter est aujourd’hui l’archétype.

La popularité de ces plates-formes ne fait aucun doute. Selon le baromètre Alexa [2], Facebook est, juste après Google, le deuxième site Internet le plus visité au monde ; YouTube se classe à la troisième position, Wikipédia à la sixième, tandis que MySpace et Twitter se rangent respectivement à la douzième et treizième place. Le principe déclaré du web 2.0 – son présupposé participatif –, la gratuité des droits d’accès des utilisateurs, la fonction d’échange de l’information qu’il se donne, les notions de partage et de convivialité qui y sont constamment mises en avant, donnent à penser qu’il s’agit là de l’expression achevée de l’idéal de diffusion et de mise à disposition des savoirs qui animait l’Internet des origines.

Pourtant, au sein de la galaxie dite du web 2.0, seul Wikipédia est une structure à but non lucratif [3]. Les autres plates-formes sont tout sauf des organisations philanthropiques. Leur « business » se fonde sur un principe simple, efficace et peu coûteux : l’UGC (User Generated Content, ou « contenu généré par les utilisateurs »).

Les UGC : des « petites mains » aux grands portefeuilles

Avant l’avènement du web 2.0 et des réseaux sociaux, développer sur l’Internet un projet susceptible d’être référencé par Google et d’attirer les annonceurs impliquait que chaque site fût en mesure de générer quasi quotidiennement énormément de contenus (textes, images ou vidéos). Une telle activité était coûteuse et demandait beaucoup de temps ; les grandes sociétés de l’Internet n’hésitaient donc pas à faire appel à une kyrielle de « stagiaires », qu’elles chargeaient de rédiger des argumentaires, de réaliser des reportages, etc. C’est dans ce contexte que le « miracle » des « contenus générés par les utilisateurs » a pu s’imposer comme une évidence. En effet, pourquoi une compagnie débourserait-elle de telles sommes pour la préparation de ces nombreux documents, alors que la plupart des internautes sont prêts à effectuer le travail gratuitement, pour peu qu’ils aient le sentiment de « participer » à un projet collectif, de faire partie d’une « communauté » ? Olivier Mathiot, vice-président de PriceMinister, l’affirmait d’ailleurs sans ambages, lors du Forum emarketing 2009 : « Le web 2.0, c’est faire travailler les utilisateurs à notre place » [4].

Le contenu généré par les utilisateurs a une réelle valeur marchande, le plus souvent ignorée des internautes qui participent à améliorer les fiches de présentation des livres sur Amazon, proposent leurs critiques de films sur Allociné, commentent et notent restaurants, cafés, concerts et spectacles sur Cityvox, etc. Ce faisant, ils permettent aux grandes sociétés de faire des économies substantielles, tels les fournisseurs d’accès Internet qui sont de plus en plus nombreux à proposer sur leur site des espaces communautaires, réservés aux abonnés, où ceux-ci peuvent s’entraider sans recourir aux techniciens de la marque.

L’exemple de MySpace est très éclairant à ce titre. En 2005, lorsque Rupert Murdoch rachète ce champion des UGC, son ambition est claire : « monétiser » son audience, qui connaissait à l’époque une croissance fulgurante [5]. Un accord fut bientôt signé avec Google, qui faisait du moteur de recherche le partenaire publicitaire exclusif de MySpace. Google versa en échange à News Corp, la société de Murdoch, plus de 900 millions de dollars sur quatre ans. « D’un seul coup, se réjouit aussitôt Peter Chemin, président et directeur des opérations de News Corp, nous couvrons les deux tiers de nos investissements Internet. Nous bénéficions d’une prime de 70 % sur les investissements de MySpace et nous pouvons maintenant jouer avec l’argent du ménage » [6]. Au sein de MySpace, personne ne travaille sur les contenus. La plus-value du site Internet, qui jouit toujours d’une très forte audience, synonyme de recettes publicitaires, tient uniquement aux nombreuses pages personnelles alimentées par les internautes. Au-delà de discours convenus des philosophes ou des sociologues du Net sur l’« intelligence collective » mise en branle par les réseaux, le web 2.0 est donc devenu une immense machine à récolter de l’information pour les grandes sociétés de l’Internet, tout en créant un trafic suffisamment dense pour justifier la mise en œuvre de campagnes de publicité à une échelle encore jamais atteinte. Les résultats sont saisissants : la société Doctissimo édition, qui gérait, avant son rachat par Lagardère, le site Internet Doctissimo.fr, présente, dans son bilan 2007, un bénéfice net de près de cinq millions d’euros, pour un chiffre d’affaires de plus de huit millions d’euros, le tout avec seulement treize employés... Une rentabilité extraordinaire, rendue possible par l’absence presque totale d’investissement humain, puisque la quasi-totalité des « contenus » du site, qui autorisent un référencement exceptionnel sur Google et un trafic Internet considérable, sont produits par les utilisateurs eux-mêmes.

L’entretien de l’illusion participative

Dans le web estampillé « 2.0 », les internautes ont l’illusion de participer à des projets collectifs et désintéressés, alors qu’ils sont en réalité les « petites mains » bénévoles de quelques grandes firmes que leurs productions enrichissent. L’illusion est d’ailleurs savamment entretenue par les sociétés elles-mêmes. Le site Internet français Cityvox, qui appartient désormais au groupe Orange et dont le slogan est « partager la vie au quotidien », se définit ainsi comme une plate-forme dédiée à la facilitation des échanges entre internautes, nécessairement éclairés et acteurs premiers du développement culturel et économique de la vie locale :

« Quelle est la légitimité d’une rédaction, aussi talentueuse soit-elle, pour attribuer de bonnes ou de mauvaises notes aux acteurs de la ville ? Comment peut-on juger un restaurant en y passant rapidement, au mieux une fois par an ? Comment se faire une idée d’un spectacle ou d’un film avec la critique d’un seul reporter ? Pour toutes ces raisons, Cityvox considère que les internautes sont les plus compétents pour donner leurs avis. Notre rôle est de rendre possibles leurs contributions, en référençant les lieux, les événements ou l’actualité locale. Mais les commentaires subjectifs sont beaucoup plus riches lorsqu’ils émanent de dizaines d’internautes » [7].

Les utilisateurs et contributeurs de Cityvox formeraient donc en quelque sorte une communauté, où chaque membre serait intéressé à faire profiter les autres membres de son expérience personnelle de la ville et des loisirs qu’elle peut offrir. De là à laisser entendre que le site lui-même serait moins celui de ses fondateurs ou de ceux qu’il rémunère que celui des internautes qui le nourrissent de leurs « posts » et y viennent chercher l’information, il n’y a qu’un pas. Cityvox le franchit allègrement, n’hésitant pas, dans un paragraphe intitulé « Développer l’audience pour disposer des moyens de financer la croissance », à suggérer que les contributeurs, pourtant bénévoles, seront les premiers bénéficiaires de la rentabilité économique de « leur » site Internet :

« Aujourd’hui, une quarantaine de salariés travaillent pour développer Cityvox : informatique, éditorial, commercial... les tâches sont nombreuses ! Pour financer tout cela, notre modèle est clair : faire la plus forte audience possible afin de vendre plus de publicité et de disposer de ressources plus importantes pour traiter de nouvelles villes et améliorer sans cesse notre couverture des villes existantes. En faisant découvrir Cityvox à vos amis, en suggérant votre événement ou votre établissement, vous contribuez à développer votre site » [8].

La publicité n’est d’ailleurs pas la seule rente que l’augmentation des « contenus générés par les utilisateurs » assure à des projets comme Cityvox. Il faut tâtonner un peu sur les différents sites que regroupe ce dernier pour découvrir une « Charte du membre » dont l’un des paragraphes stipule que Cityvox SAS se réserve le droit :

« de publier, sans rétribution de quelque nature que ce soit, tout ou partie de vos avis, comme s’ils faisaient partie du domaine public, sur son site mais également sur n’importe quel support connu à ce jour ou non connu encore, incluant notamment la possibilité de les utiliser commercialement ou de les publier sur des sites partenaires » [9].

Non seulement les contributions « librement » apportées par les internautes participent à la croissance de Cityvox et de ses sites partenaires via la publicité, mais encore le groupe s’autorise « éventuellement » à les revendre à d’autres sociétés. Une possibilité déjà largement exploitée : depuis 2007, Google Maps peut en effet puiser dans la base d’« avis des cityreporters » de Cityvox, grâce à un accord signé entre les deux sociétés et dont les termes n’ont jamais été dévoilés. Google Maps a ainsi pu considérablement enrichir sa propre base de données de commentaires d’internautes sur les restaurants, les bars et autres commerces des grandes villes françaises cartographiées par ses soins.

Allociné, autre exemple, aujourd’hui l’un des sites européens de référence, en ce qui concerne le cinéma, s’est transformé au cours des deux dernières années en média participatif, incitant les internautes à partager leurs connaissances cinématographiques. Les conditions d’utilisation du site Internet Allociné ne laissent cependant planer aucun doute sur l’ambition de la manœuvre. En effet,

« en donnant son avis dans l’une quelconque des rubriques du site AlloCiné, l’utilisateur cède expressément et gracieusement à AlloCiné tous droits de propriété intellectuelle y afférant et notamment le droit de reproduction, de représentation, d’adaptation, sur tout support et en tout format connus ou inconnus à ce jour, pour le monde entier et pour la durée légale de protection des droits d’auteur » [10].

Sous couvert de « participer » à un projet de partage des connaissances dans le domaine du cinéma, les internautes « participent » en réalité, là aussi, à l’immense succès commercial d’une structure toute entière tendue vers la captation de leurs contributions bénévoles. Un vaste marché de dupes qui permet à la société mère d’Allociné, Productions du Téléphone, société inscrite au Registre du commerce de Paris, de présenter, année après année, une rentabilité tout à fait exceptionnelle [11].

Il n’est pas jusqu’à l’industrie de la pornographie qui n’ait compris l’intérêt de « l’approche web 2.0 ». Dans le sillage des grands sites Internet tels que YouTube ou Dailymotion, de grands projets Internet de partage de vidéos pornographiques sont nés dès 2006. PornTube, Pornhub, YouPorn font partie des sites les plus visités au monde. Selon le classement Alexa, Pornhub détient le 50e rang, et même le 36e si on ne considère que le marché américain. Ces plates-formes en ligne permettent à chacun de publier ses vidéos pornographiques, ou les extraits de films pornographiques qu’il a aimés. Le succès est immense, et le retour sur investissement considérable, les coûts de production des films proposés étant nuls dès lors que ce sont les internautes eux-mêmes qui les réalisent et y tiennent – parfois à leur insu – les rôles principaux. Ces structures n’ont besoin pour fonctionner que de solides architectures d’hébergement gérées par des ingénieurs système.

Une « gratuité » financée par la publicité

Le phénomène du web 2.0 et la médiatisation des réseaux sont liés, de manière indissoluble, à la montée en puissance de la publicité sur Internet. Depuis 2004, les investissements publicitaires sur la toile connaissent une progression constante dans le monde entier. Au point que l’Internet est désormais, dans la plupart des pays, le troisième support de publicité, derrière la presse et la télévision. Le marché mondial de la publicité y aurait ainsi atteint 44 milliards de dollars en 2008 [12]. C’est même le seul secteur où la publicité connaît aujourd’hui une croissance soutenue, à deux chiffres, alors que, partout ailleurs, depuis 2008 et l’entrée en récession de nombreux pays industriels, ce marché est en chute libre [13]. Les investissements publicitaires continuent donc d’affluer massivement sur le réseau et permettent d’entretenir l’illusion de la gratuité de l’Internet. Il n’est pas nécessaire de payer pour ouvrir un compte sur Facebook, pour bénéficier d’une messagerie Yahoo! ou pour publier une vidéo sur Dailymotion. Le coût de ces projets, souvent colossal, est pris en charge par la publicité et la revente des contenus générés par les utilisateurs à des sociétés tierces, qui génèrent à leur tour de formidables plus-values.

Derrière les discours lénifiants des acteurs du web 2.0 – qui ne visent qu’à inciter l’internaute à produire toujours plus d’informations – se livre en réalité une bataille fratricide entre les majors de l’Internet, dont l’enjeu est de s’emparer des nombreuses bases de données enrichies par les internautes afin de les « monétiser » par la publicité ou la revente des « profils ». Au passage, les grandes sociétés impliquées dans cette guerre commerciale contribuent par leurs discours à opposer frontalement les informations recueillies par les internautes, et celles issues du travail des professionnels comme les journalistes. Les premières, parées de toutes les vertus, notamment du point de vue démocratique, permettraient, dès lors qu’il n’existe pas de « filtre » mis en place par une rédaction de journalistes, de couvrir quasi exhaustivement les pratiques sociales, culturelles, politiques, etc., des individus. En même temps que s’instaure une nouvelle illusion, celle d’une société de la transparence totale, où chaque individu serait un « informateur » potentiel – et, plus sournoisement, un acteur de la surveillance de tous pour tous, dont les effets seraient démultipliés par la technologie –, tous ceux dont l’activité était – du moins en théorie – de créer une « valeur ajoutée » en matière de production de l’information et de savoir (journalistes et organes qui les emploient, critiques professionnels, écrivains, etc.), sont confrontés à une concurrence de plus en plus difficile à soutenir.

La presse écrite d’information générale, en quête perpétuelle depuis plusieurs années d’un modèle économique viable, est bien sûr particulièrement concernée par ce problème. Déjà menacée par l’apparition des journaux gratuits au début des années 2000, concurrencée par le développement des sites d’information en ligne, oscillant constamment entre différentes formules pour ses propres sites Internet, du tout payant à la gratuité totale, elle doit aujourd’hui faire face au développement en son sein de la D’ailleurs, les grandes rédactions de la presse internationale ont d’autres motifs de se sentir utilisées et pillées par les grands acteurs de l’Internet. Ainsi, par exemple, lorsque Google instaure, avec Google News (Google Actualité pour la presse francophone depuis 2009), une page unique sur laquelle figure un panorama quotidien de l’actualité, triée par thèmes, telle qu’elle est traitée par les grands médias présents sur le Net. Selon une disposition datant de la fin de l’année 2009, Google peut en effet placer sur cette page des liens publicitaires et se créer ainsi une source de revenus à partir de contenus générés par d’autres organes de presse. Les grands journaux du monde entier qui fournissent la matière première de cette information ne tirent en revanche aucun bénéfice de ces « emprunts ». Il est à la fois piquant et significatif de constater que le magnat de la presse, Rupert Murdoch, l’un des capitaines d’industrie les plus agressifs de sa génération, propriétaire de plus de 175 journaux dans le monde entier, en appelle aujourd’hui à une révolte organisée contre Google, qu’il accuse de « cleptomanie » et traite de « parasite ». Tout récemment encore, il expliquait au Guardian de Londres :

« Les gens qui piochent un peu partout et disparaissent avec leur butin – qui volent nos reportages, j’affirme qu’ils volent nos reportages –, ils se servent sans se poser de question. C’est Google, c’est Microsoft, c’est Ask.com, tout un tas de gens... Ils ne devraient pas s’en tirer comme ça, gratuitement, tout le temps, et je pense que nous nous sommes assoupis » [14].

Rupert Murdoch, avec d’autres, s’est effectivement assoupi. Le vieux tsar des médias n’a pas compris le « nouvel état du capitalisme » qui se déploie sur l’Internet à l’heure du web 2.0, celui de l’accumulation et de la diffusion des richesses immatérielles produites par l’ensemble de la communauté humaine, au profit de quelques grands prédateurs dont Google est aujourd’hui le modèle. La notion de gratuité est désormais un leitmotiv commercial sur Internet. Détournant à leur profit l’idéal du « libre » (free, en anglais, signifie à la fois « libre » et « gratuit » [15]) qui a permis l’essor de l’Internet grand public – à travers, notamment, l’invention collaborative de logiciels accessibles au plus grand nombre ou la création de plates-formes participatives de diffusion du savoir –, quelques grandes sociétés se sont emparées de ce vaste réseau et y ont imposé des logiques marchandes plébiscitées par les consommateurs et, partant, très difficiles à attaquer.

« Free ! Entrez dans l’économie du gratuit », proclame en guise de titre le récent et très remarqué ouvrage de Chris Anderson, rédacteur en chef charismatique de la revue américaine Wired' $$Chris Anderson, Free ! Entrez dans l’économie du gratuit, Paris, Pearson, 2009 (Free! The Future of a Radical Price'', New York, Hyperion, juin 2009, pour l’édition originale).$$'. Le livre explique avec enthousiasme comment la logique de la « gratuité » – des rasoirs Gillette aux messageries Google et Yahoo! – a pénétré l’ensemble de la sphère économique, depuis l’avènement du web 2.0. Or, cette gratuité n’est évidemment qu’apparente, et si Chris Anderson emploie tout son talent à mettre en lumière le rôle des progrès technologiques dans la baisse tendancielle des coûts de stockage et de bande passante sur l’Internet, désormais proche de zéro – ce qui permet à Yahoo! ou Google de fournir aux détenteurs de comptes de messagerie de vastes espaces de stockage –, s’il estime, en outre, que le financement de la gratuité par la publicité est un modèle à suivre, il ne dit rien en revanche des conditions de production de ce qui est ainsi mis « gratuitement » et massivement à disposition.

Or, on le sait depuis Marx, la production industrielle de biens et de services suppose l’expropriation et la paupérisation des forces productives. Phénomènes décuplés par le rapprochement et la mise en réseau, via l’Internet, des marchands et des consommateurs. Produire et distribuer gratuitement ou tout au moins à bas coûts implique ainsi, à l’ère de l’Internet, une mise en concurrence féroce d’entreprises ou de particuliers pressés de vendre leurs biens (les places de marché), l’exploitation de salariés sous-payés et interchangeables (les manutentionnaires des entrepôts du e-commerce, les téléphonistes des services clientèle délocalisés) et la captation de contenus librement mis en ligne par les utilisateurs (le web 2.0). Le tout étant rendu pratiquement invisible pour la plupart des internautes, ignorants ou indifférents aux réalités complexes situées au-delà de leur écran et que s’emploie à recouvrir un discours habile sur les valeurs fondatrices de l’Internet. Néanmoins, un petit nombre d’utilisateurs de l’Internet restent attachés à ces valeurs et persistent à les mettre en pratique, en dépit des attaques dont ils sont très souvent l’objet sous le vocable de « pirates ».

Notes

[1] http://oreilly.com/web2/archive/what-is-web-20.html.

[2] Alexa est une société qui appartient à Amazon. Le classement des sites Internet les plus vi- sités qu’elle organise est actualisé chaque jour. Avec le classement Nielsen/NetRatings, dont la méthodologie est différente, le classement Alexa est une source assez fiable concernant le trafic sur les sites Internet.

[3] Wikipédia est financé par les dons des internautes et de certaines entreprises privées. Cette source de revenu semble actuellement suffire à assurer la viabilité à moyen terme de la fondation qui gère le projet.

[4] http://www.marketing-professionnel.fr/outil-marketing/communautes-ugc-user-genera- ted-content.html.

[5] Au moment de son rachat, MySpace rassemblait « seulement » 47 millions d’utilisateurs, mais enregistrait un million de nouveaux inscrits par semaine. La montée en puissance de Facebook s’est généralement effectuée au détriment de MySpace. En 2009, le réseau social contrôlé par Rupert Murdoch comptait 100 millions d’utilisateurs, contre 130 millions pour Facebook (http://www.zdnet.fr/actualites/internet/0,39020774,39700422,00.htm).

[6] Cf. Financial Times, 7 août 2006 (http://www.ft.com/cms/s/2/17e8e67e-2660-11db- afa1-0000779e2340.html). Pour une analyse critique du phénomène MySpace, du point de vue de l’un de ses utilisateurs, voir le long billet publié sur le blog l’Excroissance et intitulé : « Pourquoi je quitte MySpace et pourquoi vous devriez en faire autant » (http:// lexcroissance.hautetfort.com/archive/2007/12/09/pourquoi-je-quitte-myspace-et-pour- quoi-vous-devriez-en-faire.html).

[7] http://www.cityvox.net/category/cityvox/strategie-cityvox/.

[8] Idem (c’est nous qui soulignons).

[9] http://www.webcity.fr/charte/membres (c’est nous qui soulignons).

[10] Conditions générales d’utilisation du site Allociné (http://www.allocine.fr/service/conditions.html).

[11] Productions du Téléphone, la société qui détient Allocine.com, a présenté en 2008 un bénéfice net de 2,75 millions d’euros pour un chiffre d’affaires de 15 millions d’euros, soit une rentabilité nette qui approche les 20 %. Des résultats à faire pâlir d’envie la plupart des investisseurs, dus surtout à l’absence de charges liées aux salaires. La plupart des 66 salariés d’Allociné – ce qui est extrêmement peu au regard du chiffre d’affaires – s’occupent du marketing ou du développement de l’architecture technique.

[12] Cf. Le Monde, 31 août 2008.

[13] « Au premier trimestre 2009, nous subissons une baisse à deux chiffres dans tous les pays du monde sur tous médias, sauf sur Internet », expliquait Didier Quillot, président de Lagardère Active, aux Échos, en mars 2009.

[14] The Guardian, 9 novembre 2009 (http://www.guardian.co.uk/media/2009/nov/09/ murdoch-google).

[15] Ambiguïté sémantique qui transparaît jusque dans la description, en apparence très proche, que Google et Wikipédia proposent de leur mission. « Google a pour mission d’organiser les informations à l’échelle mondiale dans le but de les rendre accessibles et utiles à tous. (...) Aujourd’hui, le moteur de recherche Google (...) se présente comme un service gratuit et facile à utiliser permettant d’obtenir des résultats pertinents en une fraction de seconde », lit-on sur la page de présentation de la société. Pour Jimmy Wales, le fondateur de Wikipédia, il s’agissait de créer « un monde où chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines. » Wikipédia, fondation à but non lucratif, ne poursuivant donc pas d’ambition commerciale parle ainsi de « libre accès », tandis que Google, société de droit américain cotée en Bourse, insiste pour sa part sur la notion de « service gratuit ».

Google Chrome, un navigateur qui vous veut du bien

En septembre 2008, Google publie la première version de son navigateur Internet, Google Chrome. Très attendu du point de vue technique, ce navigateur contient un Cluf (contrat de licence d’utilisateur final), auquel l’internaute doit souscrire lors du premier lancement du navigateur. Ce contrat stipule que l’utilisateur cède à Google, sur l’ensemble des contenus publiés ou affichés sur le navigateur, « un droit irrévocable, perpétuel, à l’échelle planétaire, gratuitement, qui peut être revendu à des sociétés tierces » [1].

En d’autres termes, Google devient de plein droit le propriétaire de tous les contenus publiés sur Chrome : billets de blog, vidéos, messages de forum, etc. Un véritable hold-up qui provoque immédiatement la colère de très nombreux blogueurs américains, puis européens, la presse spécialisée s’en faisant ensuite largement l’écho.

Google ne s’attendait sans doute pas à une telle réaction. Devant l’ampleur prise par l’affaire et sa médiatisation, la firme annonce, dès le 5 septembre 2008, une nouvelle version de son Cluf : chaque internaute pourrait désormais conserver l’intégralité de ses droits sur les contenus publiés grâce au navigateur. Ce revirement ne doit pas faire oublier la tentative initiale. D’autres clauses liées à l’utilisation de Google Chrome sont toujours sujettes à polémique, notamment celle qui concerne la collecte de données prévue par le navigateur sur les sites visités par l’internaute et les termes utilisés dans ses recherches.

À tel point que les autorités allemandes, particulièrement sensibles aux enjeux de respect de la vie privée, recommandent la plus grande prudence dans l’utilisation de Google Chrome. Matthias Gärtner, porte-parole de l’autorité allemande de Sûreté des techniques d’information (BSI), juge même que, « pour des raisons de sécurité, l’accumulation de données par une société pose problème » et que, de ce point de vue, la taille des bases de données Google est « effrayante » [2]. Par la suite, de nombreux développeurs mettront au point des logiciels destinés à court-circuiter ces fonctionnalités de collecte des données de Google Chrome.

Notes

[1] Paragraphe 11 de la première version de la licence d’utilisateur final de Google Chrome. Voir également : http://www.pcworld.com/businesscenter/article/150637/google_ amends_chrome_license_agreement_after_objections.html.

[2] Cf. Berliner Zeitung, 6 novembre 2008 (http://www.berlinonline.de/berliner-zeitung/ archiv/.bin/dump.fcgi/2008/0906/wirtschaft/0024/index.html).

- page 1 de 2