De omni re scibili, et quibusdam aliis

dimanche, mai 23 2010

Présentation du livre

« Nous sommes tous des internautes ! » Sans doute, et pourtant nous oublions souvent que l'Internet est une formidable machinerie dont nos écrans escamotent les rouages. Quelles sont les aspirations et les logiques qui ont donné naissance à l'Internet ? Comment est-il devenu le terrain de jeu favori de quelques sociétés cotées en Bourse ? À quelles réalités sociales et économiques renvoie cette explosion de l'Internet marchand ? Que recouvre l'enthousiasme médiatique pour le « web 2.0 » ? Quels sont les véritables enjeux du débat sur le droit de la propriété intellectuelle ? L'Internet est-il encore un lieu de partage des savoirs et d'invention participative ?

Telles sont quelques-unes des questions auxquelles s'efforce de répondre ce livre foisonnant. L'auteur esquisse tout d'abord une histoire de l'Internet, depuis l'utopie des origines jusqu'à l'ouverture du réseau au grand public. Il dresse ensuite un portrait critique du Net et des multiples formes d'exploitation qu'il recouvre à l'ère de Google. Il montre enfin que certains « pirates », au-delà des discours médiatiques, s'inscrivent dans une tradition encore très vivace, qui a donné naissance à des projets aussi novateurs sur les plans économique et politique que celui des logiciels libres. Ce faisant, il nous entraîne « de l'autre côté du miroir » de nos « interfaces utilisateurs ».

Présentation du livre par les éditions Le Passager Clandestin

De l'autre côté de l'écran

L’intensification des échanges commerciaux sur l’Internet, la vitesse et l’augmentation du nombre et du montant global des transactions, la chute des prix de vente de la plupart des produits, le sentiment d’immédiateté éprouvé par l’internaute, de plus en plus enclin à faire ses achats depuis son domicile, tout ceci ne pouvait se faire sans la mise en œuvre de nouvelles logiques de distribution. Conçu à l’origine comme une plate-forme d’échange et de diffusion libres et gratuits de contenus scientifiques et informatifs, l’Internet a ainsi imposé un nouveau modèle économique et social, décuplant les effets de la division traditionnelle du travail dans l’économie capitaliste.

Ce modèle est d’une terrifiante simplicité : d’un côté, des cadres dirigeants et des programmeurs intéressés aux bénéfices par le biais des stock-options, de l’autre, des manutentionnaires en situation de grande précarité, travaillant dans de vastes entrepôts proches des grands axes routiers, qui traitent les commandes et expédient quotidiennement des millions de colis, et des centres d’appel, localisés dans les pays en voie de développement, en charge de la relation client.

Les cadres des grandes sociétés de l’Internet, qu’ils appartiennent à la sphère du marketing ou à celle de la programmation informatique, sont les enfants chéris de cette nouvelle société. Généralement, leur rémunération est triple, composée d’une part fixe (salaire mensuel), d’une part variable (intéressement aux résultats) et d’une part différée (les fameuses stock-options), quand la société est cotée en Bourse. Ils ont généralement moins de trente ans lorsqu’ils font partie des services de recherche et de développement, un peu plus dans le cas des cadres administratifs et commerciaux. À titre d’exemple, un ingénieur employé par Amazon en charge du développement de la plate-forme perçoit, selon son expérience, entre 80 000 et 120 000 dollars par an ; même chose pour un analyste financier [1].

La masse de travailleurs précaires affectés aux entrepôts du commerce électronique à travers le monde ne bénéficie pas du même traitement : cadences de travail toujours plus élevées, droits sociaux réduits à la portion congrue, généralisation des contrats précaires et obstacles mis au développement des organisations syndicales se combinent avec des salaires souvent inférieurs au salaire horaire minimum garanti.

Amazon : des « associés » moins égaux que d’autres

Le cas d’Amazon est à ce titre emblématique. La firme, fondée par Jeff Bezos en 1995, avait été érigée en modèle de la nouvelle économie, peu avant l’explosion de la bulle spéculative sur les entreprises de l’Internet, en 2000. En 1999, Jeffrey Preston Bezos était même sacré « personnalité de l’année » par le très sérieux magazine Time [2]. Bezos a la prétention de révolutionner les relations sociales au sein de l’entreprise, en même temps que le mode de fonctionnement économique de celle-ci. Le discours officiel est qu’Amazon n’a pas de salariés, seulement des « associés », puisqu’en principe tout employé recruté par la firme en CDI se voit aussi attribuer un certain nombre de stock-options. Cet intéressement aux résultats de l’entreprise suffirait à faire naître chez tous, du directeur commercial de la maison mère au chef de rayon de l’entrepôt du Bedfordshire, le sentiment de participer à un projet commun. Cette posture a d’ailleurs valu à Jeff Bezos une image médiatique de patron humain et compréhensif, de « Mr Nice Guy » [3], que la réalité des conditions de travail dans le secteur de la distribution de l’entreprise vient pourtant sérieusement écorner.

Les internautes adeptes de l’e-shopping sont familiers de l’enseigne d’Amazon, vaste librairie en ligne à laquelle ils sont systématiquement renvoyés (les fameux « liens entrants » opèrent ici à plein régime) lorsqu’ils effectuent une recherche portant sur à peu près n’importe quel ouvrage. On connaît beaucoup moins en revanche la partie immergée de ce gigantesque iceberg, celle de la distribution. De fait, ce n’est qu’assez récemment que le grand public a pu avoir connaissance des conditions de travail dans les entrepôts de la firme. En décembre 2008, la journaliste Claire Newell, parvenue à se faire recruter comme intérimaire dans l’une de ces immenses plaques tournantes située à Bedfordshire, en Angleterre, livre une enquête qui fait grand bruit. Publié par le Sunday Times [4], le constat est édifiant, et l’article sera repris un peu partout dans le monde [5]. La journaliste infiltrée y décrit les cadences infernales, les objectifs quasi impossibles à atteindre, le contrôle exercé par des managers sourcilleux, mais aussi par un système de vidéosurveillance extrêmement sophistiqué. Dans cet entrepôt, les manutentionnaires parcourent chaque jour jusqu’à 22 kilomètres pour un salaire de 7,50 euros de l’heure, une partie de cette somme servant d’ailleurs à payer le transport pour atteindre un lieu de travail situé loin de toute agglomération. La journée de travail n’est interrompue que par deux pauses de 15 et 20 minutes ; aux cinq journées de travail hebdomadaire s’ajoute une « nuitée » obligatoire de 10 h 30, du samedi soir au dimanche matin. En outre, la direction alloue à chaque employé un quota fixe de six points ; chaque absence, même justifiée par un certificat médical, entraîne le retrait d’un point. Au bout de six points, c’est la porte. Sans surprise, peu de citoyens anglais acceptent de telles conditions de travail. La plupart des manutentionnaires sont donc des ressortissants de pays d’Europe de l’Est, qui espèrent ainsi obtenir une prolongation de leur permis de séjour. Un intérimaire britannique confie d’ailleurs à Claire Newell : « “Ces pauvres diables”, qu’est-ce qu’ils endurent ! » Il ajoute : « Jamais plus je ne regarderai Amazon de la même manière ». Inutile de préciser que, face à ces conditions de travail, les employés extrêmement précarisés d’Amazon sont à peu près dépourvus de tout moyen de faire entendre leurs revendications. C’est aussi le cas des salariés peut-être un peu mieux lotis des services clients du groupe, qui, en tant que titulaires de CDI, possèdent des actions dans l’entreprise. Dès lors, puisqu’ils en sont « propriétaires », comme aime à le dire son fondateur Jeff Bezos, nul besoin pour eux d’en passer par une quelconque action collective pour faire entendre leur voix. C’est en se fondant sur ce principe qu’en 2000, le groupe de Jeff Bezos s’efforça d’empêcher la création du tout premier syndicat de l’économie numérique américaine, au sein du service clients de sa maison mère, à Seattle. Au premier trimestre 2000, le chiffre d’affaires d’Amazon était en recul de 17 % (soit 99 millions de dollars de perte). Pour faire face à cette situation, le siège avait imposé un plan de rigueur au sein de l’entreprise, tout en demandant des augmentations très importantes de productivité dans ses entrepôts. Parallèlement, des services entiers, basés à Seattle, étaient délocalisés en Inde (plateaux d’appels) et au Dakota du Nord. Dans ce contexte, les employés de Seattle, et en particulier ceux du service clients, soutenus par deux syndicats américains, WashTech (Washington Alliance of Technological Workers[6]) et le POF (Prewitt Organizing Fund), initièrent un mouvement de recrutement et d’organisation collective, dans la perspective de négociations avec la direction du groupe. Or, pour Jeff Bezos, on l’a vu, la pratique syndicale est tout à fait inutile au sein d’Amazon, puisque, par le biais de l’intéressement (les stock-options), « chacun (...) peut y exercer à tout moment son droit à soulever des questions et des préoccupations liées au lieu de travail » [7]. Très vite, un certain nombre de décisions furent prises qui ne laissèrent guère planer de doute sur les intentions de la direction. Les cadres de Seattle reçurent tout d’abord par e-mail l’instruction de prévenir les activistes des risques liés au développement de toute activité syndicale : « Informez les représentants du personnel des inconvénients inhérents à la syndicalisation, notamment les grèves et la gestion des piquets de grèves, les amendes, les cotisations. » Des réunions se tinrent, où chacun était fermement convié – quitte à prendre sur ses jours de congé – pour s’entendre exposer, sans possibilité de discussion, tous les maux du syndicalisme. Bientôt, les stands installés par les représentants du personnel dans la cafétéria furent interdits au motif qu’ils violaient le règlement sur le prosélytisme – tandis que d’autres stands faisant la publicité d’actions culturelles étaient, quant à eux, parfaitement tolérés. Puis les premières rumeurs de licenciements commencèrent à circuler, jusqu’au début de l’année 2001, où, sur les 1 300 suppressions d’emplois décidées par la firme, 850 affectèrent le centre de Seattle, sans aucun critère objectif pour l’expliquer [8]. Le but était clairement d’étouffer dans l’œuf toute velléité d’organisation sociale du travail. Velléités vraisemblablement couronnées de succès, puisque, dix ans plus tard, aucune activité syndicale n’est attestée chez Amazon États-Unis.

Avec une hypocrisie caractéristique de la novlangue capitaliste, la direction d’Amazon se refuse à désigner ces travailleurs comme des « employés », préférant, dès lors que l’ensemble du personnel de la société est censé posséder des stock-options, le terme d’« associés ». Non seulement les cadres dirigeants un peu partout dans le monde, mais aussi les manutentionnaires des entrepôts du Bedfordshire, les employés du service clients de Seattle et tous les salariés de la firme sont donc les associés du fondateur Jeff Bezos ; ils travaillent, comme lui, au succès d’Amazon, et doivent tirer fierté de participer au rayonnement de l’entreprise [9]. Pourtant, tous les « associés » d’Amazon ne sont pas égaux, même en matière d’intéressement : en 2004, lorsque sa filiale française met en œuvre un plan social de grande ampleur, la plupart des employés remerciés constatent que, grâce à un savant montage, ils sont dans l’impossibilité de liquider leurs stock-options pour en récupérer la contrepartie financière [10]. Le vernis du discours fondateur d’Amazon (une entreprise caractérisée par la participation de tous à l’activité et aux bénéfices, des conditions de travail décontractées, amicales et stimulantes, etc.) n’aura donc pas mis très longtemps à craquer, comme le constate d’ailleurs dès 2001 Marcus Courtney, l’un des fondateurs de WashTech :

« C’était l’exemple-à-suivre.com, le lieu où il fallait travailler, où il fallait être. Aujourd’hui, c’est la compétition avec les travailleurs indiens pour les postes. C’est la “Silicon jungle” ».

Logistique et distribution : le silence des entrepôts

L’exemple d’Amazon n’est pas isolé. La firme de Jeff Bezos n’est que l’archétype des nouvelles formes d’exploitation que recouvre l’Internet. Les usagers de l’Internet ont d’ailleurs du mal à se figurer qu’au-delà de l’écran, des hommes et des femmes bien réels enregistrent et assurent la préparation et la livraison de leurs commandes, répondent à leurs demandes d’assistance en ligne, etc. De façon générale, les « travailleurs de l’Internet » forment une masse invisible, paupérisée, retranchée dans des entrepôts placés sous vidéosurveillance, mais à l’abri des regards extérieurs. Mener l’enquête dans de tels endroits est une tâche difficile et l’information sur les conditions de travail de ces lieux est rare, mais chaque fois qu’à la faveur de mouvements sociaux encore embryonnaires, elle parvient à filtrer, elle donne à voir une réalité peu amène. Et la France n’y fait pas exception. Le 13 mai 2008, une centaine d’employés de CDiscount, sur les 800 que compte le groupe, se mettent en grève, en Gironde. La plupart sont caristes et préparateurs de commandes. Ils souhaitent notamment bénéficier de temps de pause plus longs alors qu’il leur arrive, « l’hiver, de travailler dans les entrepôts par des températures négatives, sans pouvoir prendre de boissons chaudes » [11]. L’immense majorité d’entre eux ne gagnent pas plus que le Smic, même après plusieurs années d’ancienneté. Au bout de dix jours à peine, les salariés doivent interrompre le mouvement sans avoir obtenu la moindre avancée, parce qu’ils ne peuvent plus tenir financièrement [12]. En décembre 2009, une grève touche l’entrepôt principal d’Amazon France, près d’Orléans. Les syndicats s’insurgent contre le fait que plusieurs salariés ont été licenciés pour « insuffisance professionnelle » depuis le début de l’année ; l’approche des fêtes de fin d’année a entraîné le doublement des effectifs grâce au recrutement d’intérimaires. « L’ambiance est actuellement très tendue, commente un responsable de Force ouvrière. Pour faire face à l’afflux des commandes, on nous demande des objectifs que l’on ne peut pas atteindre » [13]. Les revendications des grévistes – ceux des salariés qui bénéficient de contrats à durée déterminée – sont simples : hausse des salaires, possibilité d’un treizième mois, tickets restaurants et primes d’équipe, et augmentation de 10 minutes du temps de pause quotidien. Devant la difficulté de mobiliser les intérimaires [14], la grève prendra rapidement fin sans que la direction n’ait eu à faire la moindre concession. Ces divers mouvements de grève ne doivent pas être traités comme des cas isolés. Cadences infernales, salaires minima, contrats précaires, fragilisation des droits sociaux et syndicaux : le commerce sur l’Internet est un secteur économique fortement concentré, animé pour l’essentiel par quelques groupes d’envergure nationale ou internationale, placés dans une situation de concurrence accrue ; ces firmes tentent donc, par tous les moyens, de réduire le coût d’une main-d’œuvre encore indispensable tout en augmentant son volume d’activité. Tâche en partie facilitée par l’isolement des travailleurs au sein de grands entrepôts, eux- mêmes situés à l’écart des grands centres urbains et par l’ignorance publique et l’indifférence médiatique à l’égard de leur situation. Ignorance et indifférence encore plus grande lorsqu’il s’agit de services sous-traités et délocalisés à l’étranger comme les plates-formes téléphoniques dédiées à la « relation clients ».

Longue distance : la délocalisation des centres d’appels

Tout comme la logistique, les services de gestion de la relation clients nécessitent une main-d’œuvre généralement peu qualifiée, mais importante, donc onéreuse. Cependant, à l’inverse de la première, difficile à délocaliser pour des raisons évidentes d’acheminement des produits, les services téléphoniques de relation clientèle peuvent aisément être installés dans les pays qui pratiquent le dumping social. La délocalisation des grands centres d’appels dédiés aux clients des entreprises de l’Internet – en Inde pour les pays anglo-saxons, en Tunisie, au Maroc et en Roumanie pour les pays francophones – est ainsi devenue une pratique généralisée. Le secteur du commerce électronique n’est d’ailleurs pas le seul à exploiter en sous-traitance les plateaux de centres d’appels installés dans les pays en voie de développement. Tous les acteurs de l’Internet, notamment les FAI, ont systématiquement recours à cette pratique. La concurrence est féroce au sein même des pays en développement pour capter le marché de l’« outsourcing offshore », expression anglo-saxonne désignant les opérations de délocalisation des activités de service. Ce marché représente plus de 500 milliards de dollars $$Données communiquées par le Commonwealth Business Council en septembre 2008 (http://www.cbcglobal.org/CBC_Pages/MediaDetails.aspx?MediaId=95). Une entreprise comme Webhelp, basée en France, dispose de plus de 4 000 conseillers à Fès et à Rabat, selon le journal marocain Le Matin. Dès 2003, Frédéric Jousset, président de Webhelp, expliquait sans fard, dans une interview au Journal du Net, tous les mérites de l’externalisation :

« D’abord, cette activité attire à l’étranger des personnes plus qualifiées et plus motivées qu’en France. Par rapport au marché du travail local, les rémunérations qui sont proposées par les centres d’appels sont plus élevées que la moyenne, ce qui permet de capter une population de jeunes, ayant souvent un niveau de formation bac +3, bac +4. Parallèlement, la motivation se traduit par un plus faible absentéisme et un “turn-over”» moins important. Alors qu’en France, le “turn-over” est proche de 30 %, il n’est que de 9 à 10 % à l’étranger. Deuxièmement, le cadre réglementaire est plus souple, surtout en ce qui concerne le travail de nuit, pendant les week-ends ou les jours fériés. Les plages horaires sont plus étendues et les possibilités de flexibilité plus importantes pour un coût moindre. Enfin, le dernier avantage réside dans les économies substantielles que l’on peut faire sur l’externalisation d’un centre d’appels. Grâce à un prestataire offshore, les coûts d’une externalisation peuvent baisser de 35 % » [15].

Sur son site Internet, Webhelp enfonce le clou en affirmant que l’une des raisons pour délocaliser est « une flexibilité accrue en raison de la souplesse des législations, et des comportements sociaux permettant de gérer les pics d’activité avec une réactivité difficile et très coûteuse en métropole » [16]. SFR, Orange, Bouygues Télécom en tant que fournisseurs d’accès Internet, La Redoute, PixMania, M6 Boutique, CDiscount et eBay en tant que sites de commerce électronique sont les clients réguliers de Webhelp. Et cette société n’est qu’un exemple parmi des dizaines d’autres de sous-traitance de la relation clientèle, désormais monnaie courante. Pourtant, le parti pris de l’« outsourcing » n’est pas assumé par les sociétés clientes, que ce soit en Europe ou aux États-Unis : afin de satisfaire leurs contractants, Webhelp, Sitel et tous les autres acteurs du marché demandent par exemple à leurs téléconseillers marocains « une neutralisation de l’accent » [17]. Quant à leurs homologues indiens, employés par les sociétés américaines, ils doivent apprendre par cœur les résultats des compétitions de football américain, au cas où il viendrait à l’idée d’un client de tester leur degré d’« américanité » en les interrogeant sur le dernier match du Superbowl. Ici comme dans le domaine de la distribution, l’écran se dresse entre l’internaute et la réalité ; pour celui-ci, confortablement installé devant son ordinateur, les événements doivent s’enchaîner avec simplicité et fluidité, au gré des doubles-clics [18]. Tout est donc fait pour qu’il ignore les effets pervers de la croissance exponentielle du commerce en ligne. Le rapport marchand est constamment gommé, dissimulé derrière un discours de la « gratuité », de l’« immédiateté », de la « proximité »,de la « disponibilité », de l’« interactivité », etc. qui vise à masquer une réalité beaucoup moins virtuelle et reluisante, celle de rapports d’exploitation décuplés et d’un creusement du fossé entre les cadres dirigeants, principaux bénéficiaires de cette nouvelle donne, et la masse invisible et silencieuse des OS du web.

Profits et participation à l’« économie réelle »

Tandis qu’un employé de centre d’appels marocain gagne à peine 300 euros par mois, la rémunération des administrateurs et ingénieurs de l’économie numérique peut aisément atteindre une centaine de milliers d’euros par an [19]. Sur les 19 665 employés que compte Google, première entreprise du Net, 1 200 sont millionnaires, 500 en dizaines et 80 en centaines de millions de dollars [20]. Les profits des entreprises de l’Internet à l’ère de Google atteignent des sommets. Le numéro 1 mondial de la publicité en ligne annonçait en 2009 un chiffre d’affaires de près de 22 milliards de dollars. Dans le top 30 des firmes de l’Internet, on trouve aussi Amazon (19,1 milliards), Yahoo! (7,2 milliards), eBay (6,3 milliards), iTunes (1,9 milliard) ou encore Buy.com (0,4 milliard) [21]. Avec de tels résultats, on pourrait au moins s’attendre à ce que ces sociétés occupent une part importante dans les recettes fiscales des pays où elles déploient leur activité. Ce serait ignorer les logiques de l’économie mondialisée. Les grandes firmes de l’Internet sont en effet passées maîtresses dans l’art de l’évasion fiscale, grâce à des montages financiers complexes et à la pratique de la délocalisation dans les fameux « paradis fiscaux » des pans les plus rentables de leur activité. Une firme américaine sera par exemple encline à domicilier ses filiales détentrices de brevets dans l’État du Delaware, à la fiscalité plus qu’avantageuse [22]. Les entreprises de l’Internet qui créent des filiales en Europe vont tout aussi naturellement les implanter au Luxembourg. eBay, Skype, AOL, Amazon, l’iTunes Music Store d’Apple, sont toutes établies dans le Grand-Duché, officiellement, du fait de la place centrale que ce pays occupe en Europe, en réalité parce que le Luxembourg, avec l’un des taux de TVA les plus faibles au monde, constitue une véritable oasis fiscale pour ces gros acteurs de l’« économie virtuelle ». L’actuel PDG de PriceMinister, Pierre Kosciusko-Morizet, adepte du libéralisme le plus agressif, s’est d’ailleurs récemment plaint de cette situation dans une interview, jugeant « scandaleux » le dumping fiscal lié à la domiciliation des entreprises au Luxembourg. Il y a, à ses yeux, concurrence déloyale, lorsque des sociétés comme eBay ou Amazon ne paient que 5 % de TVA, alors que les entreprises domiciliées en France sont assujetties à un taux de 19,6 %. L’article lié à cette interview parle de 400 milliards d’euros de manque à gagner pour l’État français en 2008, mais ne précise pas l’origine de cette estimation [23]. Dans ce secteur comme dans d’autres, il faudra donc bien plus qu’un simple « engagement » de la part des États du G20 pour qu’on puisse dire un jour avec l’actuel président de la République française que « les paradis fiscaux, le secret bancaire et la fraude sont terminés » [24]. En avril 2009, le magazine BusinessWeek établit un classement des entreprises américaines cotées à l’indice boursier S&P 500 – qui réunit les 500 plus grandes sociétés du marché américain – en fonction du profit qu’elles parviennent à tirer de la complexité et des « niches fiscales » du code des impôts américain. Sur les vingt-cinq sociétés citées dans cette étude, celles qui paient le moins d’impôt sont liées à l’Internet : au lieu des 35 % qu’elle devrait théoriquement verser au Trésor américain, Amazon ne paie par exemple que 4,1 % d’impôt ; Yahoo! 7,3 %, Akamai, 2,9 %, Saleforce.com, 4 % [25]. Le discours de nombreux économistes selon lequel les bouleversements de secteurs entiers de l’économie et les répercussions sociales entraînées par l’activité des grandes firmes de l’Internet seraient compensés par le fait qu’elles exploitent « de nouveaux gisements de richesse » et participent ainsi au développement de l’économie réelle est donc en grande partie un leurre. Certes, ces firmes engrangent parfois d’énormes profits, mais cette accumulation de richesses n’a qu’un impact très faible sur l’économie réelle, les bénéfices tirés de l’économie de l’Internet étant immobilisés dans les grandes banques des paradis fiscaux et échappant ainsi à toute véritable taxation. Le monde idéal de l’Internet, règne des bonnes affaires et des transactions commerciales simplifiées, univers de l’information gratuite et généralisée, de l’immédiateté des échanges et d’une sociabilité planétaire apparaît donc comme une formidable illusion, un miroir aux alouettes qui dissimule en réalité une machinerie complexe où des soutiers dont on s’applique à nier l’existence participent bon gré mal gré à la prospérité de grandes sociétés commerciales. Quant aux alouettes – c’est-à-dire nous autres internautes –, non seulement elles ignorent le plus souvent cette réalité, mais elles ne semblent pas non plus conscientes de ce que leur participation de plus en plus active à la production des contenus sur le web est elle-même détournée au profit de quelques grandes plates-formes de diffusion. C’est pourtant bien cette autre réalité qui se cache derrière l’enthousiasme un peu trop expansif des partisans de l’« économie numérique » pour le fameux « web 2.0 ».

Notes

[1] Source : http://www.glassdoor.com/.

[2] http://www.time.com/time/magazine/article/0,9171,992927-2,00.html.

[3] Cf. Andrew Gumbel, « Short shrift for unions in Amazon’s silicon jungle », The Indepen- dent, 3 février 2001 (http://www.independent.co.uk/news/business/news/short-shrift-for- unions-in-amazons-silicon-jungle-691065.html).

[4] .http://business.timesonline.co.uk/tol/business/industry_sectors/retailing/article5337770.ece.

[5] En France, on en rend compte sous le titre : « Chez Amazon, des conditions de travail dignes de Zola » (voir France-Info, 17 décembre 2008, http://www.france-info.com/eco- nomie-entreprises-secteurs-2008-12-17-chez-amazon-des-conditions-de-travail-dignes-de- zola-226711-22-23.html).

[6] WashTech est un syndicat américain né au sein de Microsoft, en 1998. Il regroupe donc surtout des ingénieurs et techniciens de l’industrie électronique et logicielle, et combat désormais surtout les tentatives de délocalisation (outsourcing) des grandes compagnies technologiques américaines (voir leur site Internet : http://www.washtech.org).

[7] « Short shrift... », art. cit.

[8] Ibid. Les 450 autres emplois supprimés s’expliquent par la fermeture, au même moment, d’un centre de distribution situé en Géorgie.

[9] En réaction à l’enquête du Sunday Times, Allan Lyal, vice-président pour l’Europe d’Amazon, indiquait au journal : « Nous voulons que nos associés soient heureux de travailler chez Amazon et les intérêts des travailleurs sont défendus par un forum démocratiquement élu des employés, qui rencontrent régulièrement l’encadrement. » (http://business.timesonline. co.uk/tol/business/industry_sectors/retailing/article5337770.ece).

[10] Voir 01net, 10 août 2004 (http://www.01net.com/editorial/249388/droit/amazon-france-en-rupture-de-stock-options/).

[11] Voir 01net, 23 mai 2008 (http://www.01net.com/editorial/381207/chez-cdiscount-la- greve-prend-fin-mais-le-malaise-social-demeure/).

[12] Comme l’explique à 20 minutes Claudine Beyssière, responsable syndicale FO, le 23 mai 2008 (http://www.20minutes.fr/article/232497/Bordeaux-Fin-de-la-greve-a-CDiscount. php).

[13] L’Expansion, 9 décembre 2009 : http://www.lexpansion.com/economie/actualite-high- tech/appel-a-la-greve-chez-amazon-france_210618.html.

[14] Leur « moyenne d’âge ne dépasse pas la trentaine. Ils ne sont pas syndiqués ». Voir l’article d’Alain Beuve-Mery, « En remontant le cours d’Amazon jusqu’aux sources du e-com- merce », Le Monde des Livres, 18 janvier 2007.

[15] http://www.journaldunet.com/0304/030403webhelp.shtml

[16] http://www.webhelp.fr/fr/vos_enjeux/externaliser_centre_appel.

[17] Comme le note par exemple cette annonce du centre d’appels marocain de la compa- gnie Sitel : « Une attention particulière est apportée aux formations non seulement au métier des centres d’appels et aux offres de nos clients, mais également à des considérations plus contextuelles telles que la neutralisation de l’accent et la culture générale française » (http://www.ulysoft-solutions.com/sites/accueilulysoft/Lists/Annuaire_Ulysoft/DispForm. aspx?ID=1761).

[18] Cette demande croît de façon exponentielle et varie suivant les périodes de l’année. Au mois de décembre, période particulièrement propice aux achats sur les sites de vente en ligne, la population des manutentionnaires double dans les entrepôts de préparation des commandes.

[19] On pourra se faire une idée des revenus des employés des grandes entreprises de l’Inter- net en consultant le site Glassdoor.com (http://www.glassdoor.com/index.htm), où ceux-ci sont invités à déclarer spontanément et anonymement leurs rémunérations.

[20] Cf. http://www.webrankinfo.com/dossiers/google/chiffres-cles.

[21] Cf. http://www.begeek.fr/top-30-des-sites-qui-generent-le-plus-de-chiffre-daffaire-en- 2009-2471.

[22] « Le G20 est une entreprise sans crédibilité si sur la liste dite “noire” des paradis fiscaux, il n’y a pas le Delaware, il n’y a pas le Wyoming, il n’y a pas le Nevada... » (Déclaration du Premier ministre luxembourgeois Jean-Claude Juncker, Le Figaro, 2 avril 2009).

[23] http://www.journaldunet.com/ebusiness/commerce/pierre-kosciusko-morizet-chat-avec- pierre-kosciusko-morizet/dumping-fiscal.shtml. Officiellement, le taux de TVA au Luxem- bourg est à 15 %, mais les grands commerçants de l’Internet peuvent facilement négocier leur propre taux et le faire tomber aux alentours de 5 %.

[24] Propos de Nicolas Sarkozy au journal de 20 heures du 23 septembre 2009 (http://www. dailymotion.com/video/xam4kz_sarkozy-il-n-y-a-plus-de-paradis-fi_news).

[25] http://images.businessweek.com/ss/09/04/0423_corporate_taxes/1.htm. Google ne fait pas partie de l’indice S&P 500, d’où son absence dans ce classement. Akamai est une société pour l’ensemble des grands sites Internet des serveurs de « cache » à l’échelle planétaire, et une architecture pour diffuser à des coûts moindres des vidéos et documents audio. Salesforce.com est, quant à elle, une société spécialisée dans la mise à disposition d’outils Internet qui permettent de gérer les relations commerciales avec les clients.

Prologue du livre « Rêveurs, marchands et pirates »

Tout commence par un rêve. Le rêve d’une « société ouverte », pour reprendre la belle expression du philosophe Karl Popper[1]. L’Internet en devait être le pilier, en permettant aux uns et aux autres d’échanger en toute liberté. Connaissances, savoir et culture seraient à la disposition de tous et entreraient en résonnance.

De nombreux philosophes ou chercheurs avaient imaginé la situation, avant même que la technique soit en mesure de répondre à cet idéal. Marshall McLuhan, anticipant de quelques décennies l’invention de l’Internet, avait même forgé une expression propre à définir cet état : « le village mondial ». « De toutes parts, écrivait-il en 1962, nous parvient l’information à vitesse accélérée, à vitesse électronique. On dirait que nous faisons tous partie (…) d’un petit village mondial »[2]. Le philosophe chrétien Pierre Teilhard de Chardin avait d’ailleurs lui-même préfiguré la pensée de Marshall McLuhan, en empruntant à Vladimir Ivanovitch Vernadski le concept de « noosphère ». Teilhard de Chardin définissait celle-ci comme une couche de faible épaisseur entourant la Terre et englobant l’ensemble des consciences humaines, comme une immense sphère de la pensée destinée à recouvrir l’humanité[3].

Les pionniers de l’Internet ambitionnèrent d’accomplir ce rêve : approcher un état de « conscience globale », créer des liens entre les hommes, diffuser le savoir et la connaissance, par-delà la distance qui les sépare. Et leur ambition serait aujourd’hui devenue une réalité, pour les deux milliards d’individus qui utilisent régulièrement le réseau Internet. Pourtant, l’idée d’une libération de l’homme par la technologie commençait déjà, à l’époque, à être sérieusement battue en brèche. Les travaux d’un Herbert Marcuse ou d’un Jacques Ellul, par exemple, suggéraient dès les années 1950-1960 que la technique et les valeurs qui lui sont associées pouvaient bel et bien être porteuses de régressions, sur tous les plans – social, culturel, politique, économique et écologique[4]. L’Internet ne semble pas avoir échappé à cette règle, et ses caractéristiques propres (immédiateté des échanges, fluidité de l’accès à l’information, mise en réseau des individus, agrégation des contenus, etc.), qui auraient dû être des atouts pour la transmission de la connaissance et l’avènement d’une conscience universelle, sont devenues autant d’armes au service de l’hégémonie marchande. L’Internet, tel qu’il fut conçu à l’origine paraît n’être plus aujourd’hui qu’un vieux mythe.

À l’heure du web 2.0, l’utilisation du concept d’« ouvert » qui désignait à l’origine des projets collaboratifs, libres d’accès et susceptibles d’être modifiés par tous les utilisateurs – les fameux « logiciels libres » – y est désormais massive, alors même que la plupart des « projets » se prévalant de ce qualificatif sont conçus par des sociétés qui ont au contraire vocation à exercer un droit de propriété sur les contenus et à monétiser leur diffusion. Le terme est même repris désormais par des institutions soucieuses de redorer leur image (voir par exemple l’Open Government Initiative de la Maison blanche aux États-Unis, censée garantir l’idéal démocratique) et peu à peu vidé de son sens. L’Internet est ainsi devenu, en quelques années, un média de masse servant avant tout les intérêts de quelques grandes firmes qui y trouvent des leviers de rentabilité rarement atteints au niveau de l’économie physique (Google, Amazon, les fournisseur d’accès Internet, les « marketplaces », pour n’en citer que quelques-unes). Avec, pour corollaire, de très nombreuses interrogations liées au modèle social de ces sociétés, basé principalement sur l’association d’un petit nombre d’ingénieurs et de cadres intéressés aux bénéfices à une masse de travailleurs précaires, dont une bonne partie sont délocalisés en Chine, à Madagascar ou en Afrique du Nord. Avec également pour conséquence un effort d’appropriation des savoirs, des « biens communs », par ces mêmes acteurs[5], à travers la captation des contenus générés par les utilisateurs du web, qui alimentent leurs plates-formes en ligne, véritables aspirateurs publicitaires. Mais de tout cela, nous n’entendons guère parler. De temps à autre, une coupure de presse nous apprend que la terreur règne dans les entrepôts d’Amazon Grande-Bretagne pour tenir les cadences infernales imposées par le succès foudroyant de la vente en ligne ; ou encore que Google, grâce aux dispositions découvertes au détour d’un paragraphe de son « Contrat de licence utilisateur final », se propose de devenir propriétaire de l’ensemble des informations enregistrées par son navigateur Google Chrome. Mais qui y accorde la moindre attention ? Certes pas les internautes qui ignorent, pour la plupart, les réalités complexes que leur voile l’écran.

Les enjeux liés à l’Internet, lorsque les grands médias s’en font l’écho, sont avant tout de nature financière. On y parle de la capitalisation de Google, du chiffre d’affaires généré en fin d’année par Amazon, ou encore de la valorisation Facebook. Toutes ces informations appellent généralement des discours laudateurs, compte tenu des bénéfices records atteints par ces sociétés et de la jeunesse de leurs dirigeants. L’attention devrait pourtant se porter ailleurs : sur le modèle de société qui nous est proposé par l’Internet et les grand groupes qui polarisent le réseau, sur les problèmes liés à l’articulation public/ privé sur le réseau mondial, sur le fossé numérique qui sépare les pays du Nord de ceux du Sud, ou encore sur la nécessité de préserver les « biens communs », notamment le patrimoine écrit ou visuel de l’humanité, des appétits des grandes firmes. Les véritables enjeux sont là. Sur certains de ces points, des livres souvent très complets ont été écrits ces dix dernières années, porteurs de nombreux débats publics. Beaucoup d’entre eux évoquent pour les déplorer les disparités géographiques de l’accès à l’Internet. De nombreux sociologues et chercheurs en sciences de l’information travaillent sur la notion de la rareté et de la diffusion de l’information. En revanche, peu s’intéressent à la genèse de ce média, aux enjeux qui ont présidé à sa création, aux conséquences économiques et sociales de son ouverture au grand public. Si beaucoup de personnes se défient de l’Internet en général, de la marchandisation des échanges qu’il encourage, de ses atteintes à la vie privée, de l’absence de médiateurs identifiés et de la masse d’informations non vérifiées qui y circule, de l’individualisme et des formes de désocialisation qu’il suscite, bien rares sont les travaux qui s’emparent de ces questions et envisagent la possibilité même d’un contre-modèle.

Or, la dimension de mise en commun des savoirs et l’idée que celle-ci peut nous ouvrir des perspectives en matière culturelle, sociale et même politique n’ont pas complètement déserté l’Internet. Elles se sont déplacées et, pour ainsi dire, réfugiées, au sein des communautés privées de « pirates ». Des îlots dédiés à la conservation du savoir et fondés sur la construction de références communes survivent ça et là, groupes fermés, difficiles à « pénétrer », mais qui accueillent au total plusieurs millions d’internautes de par le monde. Ces « îlots pirates », qu’il faut distinguer des grands sites publics de peer-to-peer, dont l’exceptionnelle rentabilité repose notamment sur des liens étroits avec l’industrie du sexe ou du jeu, se financent par le don, qui leur permet d’assurer la pérennité de leur structure. Ils s’articulent autour de cette idée, fondatrice de l’Internet, que le partage des connaissances et le foisonnement des échanges qu’il entraîne sont, en soi, des richesses et des facteurs d’innovations collectives. Ils contribuent ainsi à l’existence de formes de contre-culture, ancrées dans les concepts au fort potentiel subversif que sont le « libre » et le « participatif ».

L’ambition de ce livre, qui ne prétend donc pas à l’exhaustivité, est de proposer un portrait critique et général de l’Internet, des origines à nos jours, tout en projetant un peu de lumière sur quelques-uns des angles morts de la réflexion sur le « réseau des réseaux ». S’il parvient à fournir au lecteur – dont on prendra le pari qu’il est aussi, à l’occasion, un internaute – quelques clés pour appréhender la « toile » et exercer son discernement lorsqu’il évolue dans ses méandres, alors il aura atteint son objectif.

Notes

[1] Cf. Karl Popper, La société ouverte et ses ennemis (The Open Society and its Enemies ̧ 1945), Paris, Seuil, 1979, 2 tomes.

[2] La Galaxie Gutenberg, la genèse de l’homme typographique, (The Gutenberg Galaxy : The Making of Typographic Man, University of Toronto Press, 1962), Paris, Gallimard, collec- tion « Idées » 1977, 2 tomes.

[3] Teilhard de Chardin parle « d’un reploiement définitif et global de la masse pensante à l’intérieur d’un hémisphère supérieur, où elle ne saurait plus aller que se contractant et se concentrant sous l’effet du temps » (Sur le concept de noosphère chez Pierre Teilhard de Chardin, voir La place de l’homme dans la nature, in Œuvres complètes, tome VIII, Paris, Seuil, 1963).

[4] Voir par exemple Jacques Ellul, La technique ou l’enjeu du siècle, Paris, Armand Colin, 1954 et Herbert Marcuse, La Fin de l’utopie, Paris, Seuil, 1968.

[5] Voir à ce propos le livre brillant de Philippe Aigrain, Cause Commune, l’information entre bien commun et propriété, Paris, Fayard, 2005.

Épilogue

L’ambition de ce livre n’était pas d’aborder l’ensemble des problèmes posés par les évolutions récentes de l’Internet. Le problème majeur du respect de la vie privée et de la confidentialité des données personnelles à l’ère de Google et de Facebook n’a par exemple pas pu être abordé. Ces questions, souvent évoquées par les médias, constituent pourtant un enjeu majeur qui font parfois réagir les gouvernements nationaux, comme l’Allemagne. L’Union européenne, à travers notamment l'action de Viviane Reding, commissaire chargée de la société de l’information et des médias, milite de son côté pour un « droit à l’oubli numérique », qui permettrait à chacun d’entre nous, sur simple demande, d’obtenir la destruction des informations personnelles collectées par Facebook, Google et autres Twitter. Ces questions mériteraient à elles seules une étude approfondie.

Il paraissait cependant urgent de relever quelques-uns des angles morts d’une réflexion sur l’Internet, qui reste trop souvent consensuelle et caricaturale. Est-il normal que le problème du modèle social imposé par l’Internet, qui semble renvoyer aux heures obscures de la première révolution industrielle (syndicats interdits, ouvriers à l’écart dans de vastes ensembles manufacturiers, etc.), ne soit jamais abordé ? C’est pourtant ce qui se passe, et le silence se fait lorsqu’on prétend, par exemple, mener l’enquête dans les entrepôts d’Amazon ou des grands magasins de vente en ligne, ou que les places de marché mettent en concurrence particuliers et professionnels, à l’échelle mondiale, dans une dynamique qui appauvrit les uns et les autres, tandis que les firmes qui les administrent bénéficient de toutes les failles de la législation pour organiser de vastes plans d’évasion fiscale. On ne reprendra pas ici la liste des impensés du libéralisme sauvage qui se développe depuis près de vingt ans sur la toile.

De nombreux groupes de travail, dans la plupart des pays occidentaux, se targuent de réfléchir aux enjeux d’une véritable « économie du numérique » tout en projetant de vastes plans pour tenter de lui donner une orientation et un cadre. Pourtant, au vu des récentes évolutions, tout indique qu’il s’agit d’un vœu pieux. Une « économie du numérique » est d’ores et déjà à l’œuvre, et ses principaux acteurs s’accommodent fort bien de l’absence de régulation des pouvoirs publics – sauf à leur demander de restreindre les droits des internautes lorsque leurs pratiques portent atteinte à leurs propres intérêts (ainsi des efforts entrepris un peu partout pour obtenir l’application plus stricte du « droit de la propriété intellectuelle »). Économie qui repose pour une large part sur l’activité de quelques grandes firmes adeptes du dumping social et culturel et de l’évasion fiscale.

L’Internet fut rêvé par des pionniers qui misaient avant tout sur les effets bénéfiques d’une plus large diffusion des savoirs. Naïfs sans doute, ils furent incapables de percevoir que ce rêve serait confisqué et instrumentalisé par les nouvelles formes du capitalisme, qui, grâce à leur incroyable capacité d’absorption et de détournement, en ont redessiné les contours pour en faire autant d’occasions de profits.

Mais l’utopie des fondateurs n’est peut-être pas totalement morte. L’intelligence collective mise en œuvre par certaines communautés de pirates, qui feignent d’ignorer les législations nationales en vigueur sur la propriété intellectuelle, mais contribuent simultanément à la constitution d’immenses bibliothèques numériques, semble très féconde. Ces communautés dessinent, en effet, des modèles inédits de délibération participative, de nouvelles conditions légales de mise à disposition des œuvres – autour de la notion au fort potentiel subversif de « libre » –, de nouvelles pratiques d’élaboration de savoirs communs et, partant, des cultures, voire des contre-cultures extrêmement vivantes et dynamiques. Par leur « action discrète » – mais bien réelle – ces communautés apportent chaque jour la preuve, pour peu qu’on veuille bien y prêter attention, que l’Internet peut être un fabuleux espace de créations tant sociales que culturelles, économiques ou politiques.

Le rêve n’a pas cessé de vivre.

Web 2.0 mon amour

Depuis 2004 ou 2005, la nature même de l’Internet aurait profondément changé et on serait même passé à un deuxième âge du web, à en croire certains chercheurs, publicitaires ou éditeurs, tel Tim O’Reilly, qui a largement contribué à populariser le terme de web 2.0[1]. Selon ses « évangélistes », le web 2.0 se définit par tout un ensemble d’applications Internet, dont l’usage s’est fortement développé depuis 2004, qui permettraient la création ou le partage de contenus textuels (blogs, wikis – dont le succès doit beaucoup à la montée en puissance de Wikipédia), d’images (Flickr, Picasa de Google) ou de vidéos (YouTube, Dailymotion). Le web 2.0 serait avant tout « participatif », en ce qu’il permettrait aux internautes de construire collectivement et de partager plus facilement leurs univers de référence, grâce aux réseaux sociaux que sont Facebook, MySpace, Viadeo et LinkedIn (réseau professionnel), et au développement plus récent du « microblogging » dont Twitter est aujourd’hui l’archétype.

La popularité de ces plates-formes ne fait aucun doute. Selon le baromètre Alexa [2], Facebook est, juste après Google, le deuxième site Internet le plus visité au monde ; YouTube se classe à la troisième position, Wikipédia à la sixième, tandis que MySpace et Twitter se rangent respectivement à la douzième et treizième place. Le principe déclaré du web 2.0 – son présupposé participatif –, la gratuité des droits d’accès des utilisateurs, la fonction d’échange de l’information qu’il se donne, les notions de partage et de convivialité qui y sont constamment mises en avant, donnent à penser qu’il s’agit là de l’expression achevée de l’idéal de diffusion et de mise à disposition des savoirs qui animait l’Internet des origines.

Pourtant, au sein de la galaxie dite du web 2.0, seul Wikipédia est une structure à but non lucratif [3]. Les autres plates-formes sont tout sauf des organisations philanthropiques. Leur « business » se fonde sur un principe simple, efficace et peu coûteux : l’UGC (User Generated Content, ou « contenu généré par les utilisateurs »).

Les UGC : des « petites mains » aux grands portefeuilles

Avant l’avènement du web 2.0 et des réseaux sociaux, développer sur l’Internet un projet susceptible d’être référencé par Google et d’attirer les annonceurs impliquait que chaque site fût en mesure de générer quasi quotidiennement énormément de contenus (textes, images ou vidéos). Une telle activité était coûteuse et demandait beaucoup de temps ; les grandes sociétés de l’Internet n’hésitaient donc pas à faire appel à une kyrielle de « stagiaires », qu’elles chargeaient de rédiger des argumentaires, de réaliser des reportages, etc. C’est dans ce contexte que le « miracle » des « contenus générés par les utilisateurs » a pu s’imposer comme une évidence. En effet, pourquoi une compagnie débourserait-elle de telles sommes pour la préparation de ces nombreux documents, alors que la plupart des internautes sont prêts à effectuer le travail gratuitement, pour peu qu’ils aient le sentiment de « participer » à un projet collectif, de faire partie d’une « communauté » ? Olivier Mathiot, vice-président de PriceMinister, l’affirmait d’ailleurs sans ambages, lors du Forum emarketing 2009 : « Le web 2.0, c’est faire travailler les utilisateurs à notre place » [4].

Le contenu généré par les utilisateurs a une réelle valeur marchande, le plus souvent ignorée des internautes qui participent à améliorer les fiches de présentation des livres sur Amazon, proposent leurs critiques de films sur Allociné, commentent et notent restaurants, cafés, concerts et spectacles sur Cityvox, etc. Ce faisant, ils permettent aux grandes sociétés de faire des économies substantielles, tels les fournisseurs d’accès Internet qui sont de plus en plus nombreux à proposer sur leur site des espaces communautaires, réservés aux abonnés, où ceux-ci peuvent s’entraider sans recourir aux techniciens de la marque.

L’exemple de MySpace est très éclairant à ce titre. En 2005, lorsque Rupert Murdoch rachète ce champion des UGC, son ambition est claire : « monétiser » son audience, qui connaissait à l’époque une croissance fulgurante [5]. Un accord fut bientôt signé avec Google, qui faisait du moteur de recherche le partenaire publicitaire exclusif de MySpace. Google versa en échange à News Corp, la société de Murdoch, plus de 900 millions de dollars sur quatre ans. « D’un seul coup, se réjouit aussitôt Peter Chemin, président et directeur des opérations de News Corp, nous couvrons les deux tiers de nos investissements Internet. Nous bénéficions d’une prime de 70 % sur les investissements de MySpace et nous pouvons maintenant jouer avec l’argent du ménage » [6]. Au sein de MySpace, personne ne travaille sur les contenus. La plus-value du site Internet, qui jouit toujours d’une très forte audience, synonyme de recettes publicitaires, tient uniquement aux nombreuses pages personnelles alimentées par les internautes. Au-delà de discours convenus des philosophes ou des sociologues du Net sur l’« intelligence collective » mise en branle par les réseaux, le web 2.0 est donc devenu une immense machine à récolter de l’information pour les grandes sociétés de l’Internet, tout en créant un trafic suffisamment dense pour justifier la mise en œuvre de campagnes de publicité à une échelle encore jamais atteinte. Les résultats sont saisissants : la société Doctissimo édition, qui gérait, avant son rachat par Lagardère, le site Internet Doctissimo.fr, présente, dans son bilan 2007, un bénéfice net de près de cinq millions d’euros, pour un chiffre d’affaires de plus de huit millions d’euros, le tout avec seulement treize employés... Une rentabilité extraordinaire, rendue possible par l’absence presque totale d’investissement humain, puisque la quasi-totalité des « contenus » du site, qui autorisent un référencement exceptionnel sur Google et un trafic Internet considérable, sont produits par les utilisateurs eux-mêmes.

L’entretien de l’illusion participative

Dans le web estampillé « 2.0 », les internautes ont l’illusion de participer à des projets collectifs et désintéressés, alors qu’ils sont en réalité les « petites mains » bénévoles de quelques grandes firmes que leurs productions enrichissent. L’illusion est d’ailleurs savamment entretenue par les sociétés elles-mêmes. Le site Internet français Cityvox, qui appartient désormais au groupe Orange et dont le slogan est « partager la vie au quotidien », se définit ainsi comme une plate-forme dédiée à la facilitation des échanges entre internautes, nécessairement éclairés et acteurs premiers du développement culturel et économique de la vie locale :

« Quelle est la légitimité d’une rédaction, aussi talentueuse soit-elle, pour attribuer de bonnes ou de mauvaises notes aux acteurs de la ville ? Comment peut-on juger un restaurant en y passant rapidement, au mieux une fois par an ? Comment se faire une idée d’un spectacle ou d’un film avec la critique d’un seul reporter ? Pour toutes ces raisons, Cityvox considère que les internautes sont les plus compétents pour donner leurs avis. Notre rôle est de rendre possibles leurs contributions, en référençant les lieux, les événements ou l’actualité locale. Mais les commentaires subjectifs sont beaucoup plus riches lorsqu’ils émanent de dizaines d’internautes » [7].

Les utilisateurs et contributeurs de Cityvox formeraient donc en quelque sorte une communauté, où chaque membre serait intéressé à faire profiter les autres membres de son expérience personnelle de la ville et des loisirs qu’elle peut offrir. De là à laisser entendre que le site lui-même serait moins celui de ses fondateurs ou de ceux qu’il rémunère que celui des internautes qui le nourrissent de leurs « posts » et y viennent chercher l’information, il n’y a qu’un pas. Cityvox le franchit allègrement, n’hésitant pas, dans un paragraphe intitulé « Développer l’audience pour disposer des moyens de financer la croissance », à suggérer que les contributeurs, pourtant bénévoles, seront les premiers bénéficiaires de la rentabilité économique de « leur » site Internet :

« Aujourd’hui, une quarantaine de salariés travaillent pour développer Cityvox : informatique, éditorial, commercial... les tâches sont nombreuses ! Pour financer tout cela, notre modèle est clair : faire la plus forte audience possible afin de vendre plus de publicité et de disposer de ressources plus importantes pour traiter de nouvelles villes et améliorer sans cesse notre couverture des villes existantes. En faisant découvrir Cityvox à vos amis, en suggérant votre événement ou votre établissement, vous contribuez à développer votre site » [8].

La publicité n’est d’ailleurs pas la seule rente que l’augmentation des « contenus générés par les utilisateurs » assure à des projets comme Cityvox. Il faut tâtonner un peu sur les différents sites que regroupe ce dernier pour découvrir une « Charte du membre » dont l’un des paragraphes stipule que Cityvox SAS se réserve le droit :

« de publier, sans rétribution de quelque nature que ce soit, tout ou partie de vos avis, comme s’ils faisaient partie du domaine public, sur son site mais également sur n’importe quel support connu à ce jour ou non connu encore, incluant notamment la possibilité de les utiliser commercialement ou de les publier sur des sites partenaires » [9].

Non seulement les contributions « librement » apportées par les internautes participent à la croissance de Cityvox et de ses sites partenaires via la publicité, mais encore le groupe s’autorise « éventuellement » à les revendre à d’autres sociétés. Une possibilité déjà largement exploitée : depuis 2007, Google Maps peut en effet puiser dans la base d’« avis des cityreporters » de Cityvox, grâce à un accord signé entre les deux sociétés et dont les termes n’ont jamais été dévoilés. Google Maps a ainsi pu considérablement enrichir sa propre base de données de commentaires d’internautes sur les restaurants, les bars et autres commerces des grandes villes françaises cartographiées par ses soins.

Allociné, autre exemple, aujourd’hui l’un des sites européens de référence, en ce qui concerne le cinéma, s’est transformé au cours des deux dernières années en média participatif, incitant les internautes à partager leurs connaissances cinématographiques. Les conditions d’utilisation du site Internet Allociné ne laissent cependant planer aucun doute sur l’ambition de la manœuvre. En effet,

« en donnant son avis dans l’une quelconque des rubriques du site AlloCiné, l’utilisateur cède expressément et gracieusement à AlloCiné tous droits de propriété intellectuelle y afférant et notamment le droit de reproduction, de représentation, d’adaptation, sur tout support et en tout format connus ou inconnus à ce jour, pour le monde entier et pour la durée légale de protection des droits d’auteur » [10].

Sous couvert de « participer » à un projet de partage des connaissances dans le domaine du cinéma, les internautes « participent » en réalité, là aussi, à l’immense succès commercial d’une structure toute entière tendue vers la captation de leurs contributions bénévoles. Un vaste marché de dupes qui permet à la société mère d’Allociné, Productions du Téléphone, société inscrite au Registre du commerce de Paris, de présenter, année après année, une rentabilité tout à fait exceptionnelle [11].

Il n’est pas jusqu’à l’industrie de la pornographie qui n’ait compris l’intérêt de « l’approche web 2.0 ». Dans le sillage des grands sites Internet tels que YouTube ou Dailymotion, de grands projets Internet de partage de vidéos pornographiques sont nés dès 2006. PornTube, Pornhub, YouPorn font partie des sites les plus visités au monde. Selon le classement Alexa, Pornhub détient le 50e rang, et même le 36e si on ne considère que le marché américain. Ces plates-formes en ligne permettent à chacun de publier ses vidéos pornographiques, ou les extraits de films pornographiques qu’il a aimés. Le succès est immense, et le retour sur investissement considérable, les coûts de production des films proposés étant nuls dès lors que ce sont les internautes eux-mêmes qui les réalisent et y tiennent – parfois à leur insu – les rôles principaux. Ces structures n’ont besoin pour fonctionner que de solides architectures d’hébergement gérées par des ingénieurs système.

Une « gratuité » financée par la publicité

Le phénomène du web 2.0 et la médiatisation des réseaux sont liés, de manière indissoluble, à la montée en puissance de la publicité sur Internet. Depuis 2004, les investissements publicitaires sur la toile connaissent une progression constante dans le monde entier. Au point que l’Internet est désormais, dans la plupart des pays, le troisième support de publicité, derrière la presse et la télévision. Le marché mondial de la publicité y aurait ainsi atteint 44 milliards de dollars en 2008 [12]. C’est même le seul secteur où la publicité connaît aujourd’hui une croissance soutenue, à deux chiffres, alors que, partout ailleurs, depuis 2008 et l’entrée en récession de nombreux pays industriels, ce marché est en chute libre [13]. Les investissements publicitaires continuent donc d’affluer massivement sur le réseau et permettent d’entretenir l’illusion de la gratuité de l’Internet. Il n’est pas nécessaire de payer pour ouvrir un compte sur Facebook, pour bénéficier d’une messagerie Yahoo! ou pour publier une vidéo sur Dailymotion. Le coût de ces projets, souvent colossal, est pris en charge par la publicité et la revente des contenus générés par les utilisateurs à des sociétés tierces, qui génèrent à leur tour de formidables plus-values.

Derrière les discours lénifiants des acteurs du web 2.0 – qui ne visent qu’à inciter l’internaute à produire toujours plus d’informations – se livre en réalité une bataille fratricide entre les majors de l’Internet, dont l’enjeu est de s’emparer des nombreuses bases de données enrichies par les internautes afin de les « monétiser » par la publicité ou la revente des « profils ». Au passage, les grandes sociétés impliquées dans cette guerre commerciale contribuent par leurs discours à opposer frontalement les informations recueillies par les internautes, et celles issues du travail des professionnels comme les journalistes. Les premières, parées de toutes les vertus, notamment du point de vue démocratique, permettraient, dès lors qu’il n’existe pas de « filtre » mis en place par une rédaction de journalistes, de couvrir quasi exhaustivement les pratiques sociales, culturelles, politiques, etc., des individus. En même temps que s’instaure une nouvelle illusion, celle d’une société de la transparence totale, où chaque individu serait un « informateur » potentiel – et, plus sournoisement, un acteur de la surveillance de tous pour tous, dont les effets seraient démultipliés par la technologie –, tous ceux dont l’activité était – du moins en théorie – de créer une « valeur ajoutée » en matière de production de l’information et de savoir (journalistes et organes qui les emploient, critiques professionnels, écrivains, etc.), sont confrontés à une concurrence de plus en plus difficile à soutenir.

La presse écrite d’information générale, en quête perpétuelle depuis plusieurs années d’un modèle économique viable, est bien sûr particulièrement concernée par ce problème. Déjà menacée par l’apparition des journaux gratuits au début des années 2000, concurrencée par le développement des sites d’information en ligne, oscillant constamment entre différentes formules pour ses propres sites Internet, du tout payant à la gratuité totale, elle doit aujourd’hui faire face au développement en son sein de la D’ailleurs, les grandes rédactions de la presse internationale ont d’autres motifs de se sentir utilisées et pillées par les grands acteurs de l’Internet. Ainsi, par exemple, lorsque Google instaure, avec Google News (Google Actualité pour la presse francophone depuis 2009), une page unique sur laquelle figure un panorama quotidien de l’actualité, triée par thèmes, telle qu’elle est traitée par les grands médias présents sur le Net. Selon une disposition datant de la fin de l’année 2009, Google peut en effet placer sur cette page des liens publicitaires et se créer ainsi une source de revenus à partir de contenus générés par d’autres organes de presse. Les grands journaux du monde entier qui fournissent la matière première de cette information ne tirent en revanche aucun bénéfice de ces « emprunts ». Il est à la fois piquant et significatif de constater que le magnat de la presse, Rupert Murdoch, l’un des capitaines d’industrie les plus agressifs de sa génération, propriétaire de plus de 175 journaux dans le monde entier, en appelle aujourd’hui à une révolte organisée contre Google, qu’il accuse de « cleptomanie » et traite de « parasite ». Tout récemment encore, il expliquait au Guardian de Londres :

« Les gens qui piochent un peu partout et disparaissent avec leur butin – qui volent nos reportages, j’affirme qu’ils volent nos reportages –, ils se servent sans se poser de question. C’est Google, c’est Microsoft, c’est Ask.com, tout un tas de gens... Ils ne devraient pas s’en tirer comme ça, gratuitement, tout le temps, et je pense que nous nous sommes assoupis » [14].

Rupert Murdoch, avec d’autres, s’est effectivement assoupi. Le vieux tsar des médias n’a pas compris le « nouvel état du capitalisme » qui se déploie sur l’Internet à l’heure du web 2.0, celui de l’accumulation et de la diffusion des richesses immatérielles produites par l’ensemble de la communauté humaine, au profit de quelques grands prédateurs dont Google est aujourd’hui le modèle. La notion de gratuité est désormais un leitmotiv commercial sur Internet. Détournant à leur profit l’idéal du « libre » (free, en anglais, signifie à la fois « libre » et « gratuit » [15]) qui a permis l’essor de l’Internet grand public – à travers, notamment, l’invention collaborative de logiciels accessibles au plus grand nombre ou la création de plates-formes participatives de diffusion du savoir –, quelques grandes sociétés se sont emparées de ce vaste réseau et y ont imposé des logiques marchandes plébiscitées par les consommateurs et, partant, très difficiles à attaquer.

« Free ! Entrez dans l’économie du gratuit », proclame en guise de titre le récent et très remarqué ouvrage de Chris Anderson, rédacteur en chef charismatique de la revue américaine Wired' $$Chris Anderson, Free ! Entrez dans l’économie du gratuit, Paris, Pearson, 2009 (Free! The Future of a Radical Price'', New York, Hyperion, juin 2009, pour l’édition originale).$$'. Le livre explique avec enthousiasme comment la logique de la « gratuité » – des rasoirs Gillette aux messageries Google et Yahoo! – a pénétré l’ensemble de la sphère économique, depuis l’avènement du web 2.0. Or, cette gratuité n’est évidemment qu’apparente, et si Chris Anderson emploie tout son talent à mettre en lumière le rôle des progrès technologiques dans la baisse tendancielle des coûts de stockage et de bande passante sur l’Internet, désormais proche de zéro – ce qui permet à Yahoo! ou Google de fournir aux détenteurs de comptes de messagerie de vastes espaces de stockage –, s’il estime, en outre, que le financement de la gratuité par la publicité est un modèle à suivre, il ne dit rien en revanche des conditions de production de ce qui est ainsi mis « gratuitement » et massivement à disposition.

Or, on le sait depuis Marx, la production industrielle de biens et de services suppose l’expropriation et la paupérisation des forces productives. Phénomènes décuplés par le rapprochement et la mise en réseau, via l’Internet, des marchands et des consommateurs. Produire et distribuer gratuitement ou tout au moins à bas coûts implique ainsi, à l’ère de l’Internet, une mise en concurrence féroce d’entreprises ou de particuliers pressés de vendre leurs biens (les places de marché), l’exploitation de salariés sous-payés et interchangeables (les manutentionnaires des entrepôts du e-commerce, les téléphonistes des services clientèle délocalisés) et la captation de contenus librement mis en ligne par les utilisateurs (le web 2.0). Le tout étant rendu pratiquement invisible pour la plupart des internautes, ignorants ou indifférents aux réalités complexes situées au-delà de leur écran et que s’emploie à recouvrir un discours habile sur les valeurs fondatrices de l’Internet. Néanmoins, un petit nombre d’utilisateurs de l’Internet restent attachés à ces valeurs et persistent à les mettre en pratique, en dépit des attaques dont ils sont très souvent l’objet sous le vocable de « pirates ».

Notes

[1] http://oreilly.com/web2/archive/what-is-web-20.html.

[2] Alexa est une société qui appartient à Amazon. Le classement des sites Internet les plus vi- sités qu’elle organise est actualisé chaque jour. Avec le classement Nielsen/NetRatings, dont la méthodologie est différente, le classement Alexa est une source assez fiable concernant le trafic sur les sites Internet.

[3] Wikipédia est financé par les dons des internautes et de certaines entreprises privées. Cette source de revenu semble actuellement suffire à assurer la viabilité à moyen terme de la fondation qui gère le projet.

[4] http://www.marketing-professionnel.fr/outil-marketing/communautes-ugc-user-genera- ted-content.html.

[5] Au moment de son rachat, MySpace rassemblait « seulement » 47 millions d’utilisateurs, mais enregistrait un million de nouveaux inscrits par semaine. La montée en puissance de Facebook s’est généralement effectuée au détriment de MySpace. En 2009, le réseau social contrôlé par Rupert Murdoch comptait 100 millions d’utilisateurs, contre 130 millions pour Facebook (http://www.zdnet.fr/actualites/internet/0,39020774,39700422,00.htm).

[6] Cf. Financial Times, 7 août 2006 (http://www.ft.com/cms/s/2/17e8e67e-2660-11db- afa1-0000779e2340.html). Pour une analyse critique du phénomène MySpace, du point de vue de l’un de ses utilisateurs, voir le long billet publié sur le blog l’Excroissance et intitulé : « Pourquoi je quitte MySpace et pourquoi vous devriez en faire autant » (http:// lexcroissance.hautetfort.com/archive/2007/12/09/pourquoi-je-quitte-myspace-et-pour- quoi-vous-devriez-en-faire.html).

[7] http://www.cityvox.net/category/cityvox/strategie-cityvox/.

[8] Idem (c’est nous qui soulignons).

[9] http://www.webcity.fr/charte/membres (c’est nous qui soulignons).

[10] Conditions générales d’utilisation du site Allociné (http://www.allocine.fr/service/conditions.html).

[11] Productions du Téléphone, la société qui détient Allocine.com, a présenté en 2008 un bénéfice net de 2,75 millions d’euros pour un chiffre d’affaires de 15 millions d’euros, soit une rentabilité nette qui approche les 20 %. Des résultats à faire pâlir d’envie la plupart des investisseurs, dus surtout à l’absence de charges liées aux salaires. La plupart des 66 salariés d’Allociné – ce qui est extrêmement peu au regard du chiffre d’affaires – s’occupent du marketing ou du développement de l’architecture technique.

[12] Cf. Le Monde, 31 août 2008.

[13] « Au premier trimestre 2009, nous subissons une baisse à deux chiffres dans tous les pays du monde sur tous médias, sauf sur Internet », expliquait Didier Quillot, président de Lagardère Active, aux Échos, en mars 2009.

[14] The Guardian, 9 novembre 2009 (http://www.guardian.co.uk/media/2009/nov/09/ murdoch-google).

[15] Ambiguïté sémantique qui transparaît jusque dans la description, en apparence très proche, que Google et Wikipédia proposent de leur mission. « Google a pour mission d’organiser les informations à l’échelle mondiale dans le but de les rendre accessibles et utiles à tous. (...) Aujourd’hui, le moteur de recherche Google (...) se présente comme un service gratuit et facile à utiliser permettant d’obtenir des résultats pertinents en une fraction de seconde », lit-on sur la page de présentation de la société. Pour Jimmy Wales, le fondateur de Wikipédia, il s’agissait de créer « un monde où chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines. » Wikipédia, fondation à but non lucratif, ne poursuivant donc pas d’ambition commerciale parle ainsi de « libre accès », tandis que Google, société de droit américain cotée en Bourse, insiste pour sa part sur la notion de « service gratuit ».

Google Chrome, un navigateur qui vous veut du bien

En septembre 2008, Google publie la première version de son navigateur Internet, Google Chrome. Très attendu du point de vue technique, ce navigateur contient un Cluf (contrat de licence d’utilisateur final), auquel l’internaute doit souscrire lors du premier lancement du navigateur. Ce contrat stipule que l’utilisateur cède à Google, sur l’ensemble des contenus publiés ou affichés sur le navigateur, « un droit irrévocable, perpétuel, à l’échelle planétaire, gratuitement, qui peut être revendu à des sociétés tierces » [1].

En d’autres termes, Google devient de plein droit le propriétaire de tous les contenus publiés sur Chrome : billets de blog, vidéos, messages de forum, etc. Un véritable hold-up qui provoque immédiatement la colère de très nombreux blogueurs américains, puis européens, la presse spécialisée s’en faisant ensuite largement l’écho.

Google ne s’attendait sans doute pas à une telle réaction. Devant l’ampleur prise par l’affaire et sa médiatisation, la firme annonce, dès le 5 septembre 2008, une nouvelle version de son Cluf : chaque internaute pourrait désormais conserver l’intégralité de ses droits sur les contenus publiés grâce au navigateur. Ce revirement ne doit pas faire oublier la tentative initiale. D’autres clauses liées à l’utilisation de Google Chrome sont toujours sujettes à polémique, notamment celle qui concerne la collecte de données prévue par le navigateur sur les sites visités par l’internaute et les termes utilisés dans ses recherches.

À tel point que les autorités allemandes, particulièrement sensibles aux enjeux de respect de la vie privée, recommandent la plus grande prudence dans l’utilisation de Google Chrome. Matthias Gärtner, porte-parole de l’autorité allemande de Sûreté des techniques d’information (BSI), juge même que, « pour des raisons de sécurité, l’accumulation de données par une société pose problème » et que, de ce point de vue, la taille des bases de données Google est « effrayante » [2]. Par la suite, de nombreux développeurs mettront au point des logiciels destinés à court-circuiter ces fonctionnalités de collecte des données de Google Chrome.

Notes

[1] Paragraphe 11 de la première version de la licence d’utilisateur final de Google Chrome. Voir également : http://www.pcworld.com/businesscenter/article/150637/google_ amends_chrome_license_agreement_after_objections.html.

[2] Cf. Berliner Zeitung, 6 novembre 2008 (http://www.berlinonline.de/berliner-zeitung/ archiv/.bin/dump.fcgi/2008/0906/wirtschaft/0024/index.html).

Louis Pouzin et le réseau des Cyclades

Même si le projet était confidentiel, certains ingénieurs français liés au milieu des télécommunications et de l’informatique avaient entendu parler d’Arpanet au tout début des années 1970. Dès 1969, certains d’entre eux s’étaient rendus aux États-Unis pour y rencontrer le professeur Kleinrock, à l’université de Californie. À leur retour, des discussions s’étaient engagées au sein de la Délégation à l’informatique – créée en 1966 et rattachée directement au Premier ministre –, pour étudier l’éventualité d’instaurer un réseau maillé, synonyme de « réseau distribué ». Louis Pouzin, à qui ce projet fut confié, se souvient de cette période avec émotion :

« Une chose est sûre : ces années ont été parmi les plus grisantes de ma carrière, une période vraiment euphorique. En octobre 1971, la Délégation à l’informatique – créée dans le cadre du Plan calcul – m’a demandé de concevoir le premier réseau informatique partagé français à l’image d’Arpanet, le réseau de l’agence américaine pour la défense que la délégation venait de découvrir. Elle se proposait de m’embaucher et de me confier un budget considérable pour un projet de recherche sur quatre ans. Arpanet était un réseau partagé – concept très innovant pour l’époque – qui devait permettre à plusieurs utilisateurs d’exploiter des ordinateurs simultanément. J’avais travaillé sur ce sujet au MIT dans les années 1960 pour développer le CTSS (Compatible Time Sharing System), l’un des premiers systèmes d’exploitation en temps partagé. Sans hésiter, j’ai quitté mon emploi chez Simca-Chrysler et je me suis installé sur le site de l’INRIA, à Rocquencourt. J’ai recruté une équipe d’emblée atypique associant chercheurs et ingénieurs. Au plus fort de l’activité, nous devions être environ 70, partie à l’INRIA, partie sur d’autres sites. Nous travaillions avec passion, au besoin la nuit et les week-ends, et fin 1973, nous avons fait une première démonstration de réseau – baptisé Cyclades – devant les ministres de l’Industrie et des PTT. Cyclades comportait alors un ordinateur à l’INRIA, un à la CII (Compagnie internationale pour l’informatique) et un à Grenoble ! Deux ans plus tard, le réseau connectait 25 ordinateurs en France, à Londres et Rome, comme prévu, dans les délais et le budget. » [1]

Malgré le succès rencontré, le projet Cyclades fut abandonné six ans plus tard, en 1978. Il semble que la puissante administration des Postes et Télécommunications françaises (PTT), ait joué un rôle majeur dans cette décision, le projet menaçant potentiellement son monopole. Après son élection en 1974, Valéry Giscard d’Estaing avait d’ailleurs supprimé la Délégation à l’informatique, principal soutien du projet Cyclades, pour la remplacer par un autre organisme qui faisait un intense lobbying pour les ordinateurs Bull – Cyclades utilisaient alors les machines d’une marque concurrente. Avec le recul, l’expérience des Cyclades apparaît comme un rendez-vous manqué avec l’histoire de l’Internet. La France et certains pays européens qui étaient associés au projet dans les années 1970 sont en effet passés à côté d’un rôle déterminant dans la construction du réseau. Et on ne connaîtrait peut- être pas aujourd’hui les difficultés posées par le fait que l’Icann, organisme chargé de délivrer les noms de domaine, ait été placé jusqu’en 2009 sous la tutelle du ministère américain du Commerce.

Notes

[1] Extrait de la revue Code Sources de l’INRIA, mars 2007.

samedi, mai 22 2010

Les îles en réseau et la survie du rêve fondateur

« Au XVIIIe siècle, les pirates et les corsaires créèrent un “réseau d’information” à l’échelle du globe : bien que primitif et conçu essentiellement pour le commerce, ce réseau fonctionna toutefois admirablement. Il était constellé d’îles et de caches lointaines où les bateaux pouvaient s’approvisionner en eau et nourriture et échanger leur butin contre des produits de luxe ou de première nécessité. Certaines de ces îles abritaient des “communautés intentionnelles”, des microsociétés vivant délibérément hors la loi et bien déterminées à le rester, ne fût-ce que pour une vie brève, mais joyeuse. Il y a quelques années, j’ai examiné pas mal de documents secondai- res sur la piraterie, dans l’espoir de trouver une étude sur ces enclaves – mais il semble qu’aucun historien ne les ait trouvées dignes d’être étudiées (William Burroughs et l’anarchiste britannique Larry Law en font mention – mais aucune étude systématique n’a jamais été réalisée). J’en revins donc aux sources premières et élaborai ma propre théorie. Cet essai en expose certains aspects. J’appelle ces colonies des “utopies pirates”.(...) Récemment Bruce Sterling, un des chefs de file de la littérature cyberpunk, a publié un roman situé dans un futur proche. Il est fondé sur l’hypothèse que le déclin des systèmes politiques générera une prolifération décentralisée de modes de vie expérimentaux : méga-entreprises aux mains des ouvriers, enclaves indépendantes spécialisées dans le piratage de données, enclaves socio-démocrates vertes, enclaves zéro-travail, zones anarchistes libérées, etc. L’économie de l’information qui supporte cette diversité est appelée le Réseau ; les enclaves sont les Iles en Réseau (et c’est aussi le titre du livre en anglais : Islands in the Net). Les Assassins du Moyen Âge fondèrent un “État” qui consistait en un réseau de vallées de montagnes isolées et de châteaux séparés par des milliers de kilomètres. Cet État était stratégiquement imprenable, alimenté par les informations de ses agents secrets, en guerre avec tous les gouvernements, et son seul objectif était la connaissance. La technologie moderne et ses satellites espions donnent à ce genre d’autonomie le goût d’un rêve romantique. Finies les îles pirates ! Dans l’avenir, cette même technologie – libérée de tout contrôle politique – rendrait possible tout un monde de zones autonomes. Mais pour le moment ce concept reste de la science-fiction – de la spéculation pure. ... Je crois qu’en extrapolant à partir d’histoires d’“îles en réseau”, futures et passées, nous pourrions mettre en évidence le fait qu’un certain type d’“enclave libre” est non seulement possible à notre époque, mais qu’il existe déjà. Toutes mes recherches et mes spéculations se sont cristallisées autour du concept de “zone autonome temporaire” (en abrégé Taz) » [1].

What.cd, Waffles.fm ou Dimeadozen.org pour la musique, Learnbits.org, Elbitz.net ou Bitme.org pour les livres, et bien d’autres encore pour les dvd ou les bandes dessinées, tous ces sites – la liste est loin d’être exhaustive – présentent, entre eux et avec les îles en réseau d’Hakim Bey, de nombreux points communs. Tout comme les « zones autonomes temporaires », l’accès à ces sites Internet est réservé, et il faut généralement une invitation, un « parrainage » pour accéder aux contenus qui y sont référencés. Ils rassemblent en général entre 5 000 et 100 000 utilisateurs, qui doivent obéir à certaines règles très strictes, sous peine de « bannissement », expression qui n’est pas sans rappeler les pratiques des communautés caribéennes de pirates, au XVIIIe siècle [2]. Les membres de ces groupes se renouvellent assez peu, et seulement par affinités électives, lorsque certains membres sont exclus. Mais surtout, ces sites Internet et les communautés qui les animent sont mus par un idéal sans concession de partage des connaissances et des œuvres autour desquelles ils se sont constitués.

Des chemins de traverse : pour une autre logique des échanges culturels

L’un des premiers devoirs, au sein de ces Taz, est en effet de « partager » ce que l’on télécharge ou ce que l’on met à disposition, de maintenir un ratio supérieur à un dans le rapport entre la réception et l’émission de données. En d’autres termes, il est nécessaire de diffuser plus de contenus, qu’il s’agisse de dvd, de livres numérisés ou de cd, qu’on n’en télécharge. Cette règle permet d’assurer la disponibilité sur la longue durée des fichiers téléchargés. Waffles. fm et What.cd recensent chacun près de 200 000 sources de téléchargement. Il s’agit la plupart du temps d’œuvres complètes, qui sont aussitôt disponibles chez des dizaines de membres. Par ailleurs, à l’intérieur de chacune de ces « îles en réseau », les internautes échangent des informations et mènent des discussions, souvent très pointues, sur les œuvres mises à disposition.

Il y a quelques années à peine, le piratage des œuvres sur l’Internet était avant tout un marché de l’offre. Les internautes, par pur réflexe « consumériste », se « servaient », en fonction de ce qu’ils parvenaient à trouver sur Napster ou d’autres sites. Sous l’influence de ces petits groupes, le phénomène tend à s’inverser. Les membres de ces communautés effectuent des « demandes » précises, portant souvent sur des documents rares ou indisponibles dans le commerce – tel album historique de Bob Dylan, tel livre de référence en mathématiques, tel film d’auteur, etc. –, auxquelles d’autres membres s’efforcent de répondre.

L’une des caractéristiques majeures de ces îles en réseau est donc de dessiner des itinéraires culturels différents, de constituer de nouvelles logiques d’appropriation du savoir, d’ouvrir la voie à d’autres débats d’idées que ceux imposés par les médias de masse. La rareté est ici objet de toute l’attention, non seulement pour elle- même, mais comme point d’appui pour la formation d’univers de références « alternatifs », de contre-cultures, auxquels chacun peut emprunter et contribuer à sa guise. La généralisation du prêt en bibliothèque – non seulement en France, mais aussi dans l’ensemble des pays occidentaux – a joué un rôle majeur dans le développement de ces échanges, puisqu’elle permet aux emprunteurs de trouver des sources pour « ripper » cd et dvd, de scanner des livres entiers ou des partitions de musique, pour les mettre à disposition des autres membres du groupe. La littérature imprimée disponible – au format pdf – sur ces réseaux représente une masse de documents considérable. Les livres issus des catalogues de maisons d’édition de référence du monde anglo-saxon spécialisées en sciences humaines – Springer, Oxford University Press, Cambridge University Press, etc. – ou consacrées aux ouvrages techniques – O’Reilly, Apress, Packt Publishing – y occupent une place prépondérante et sont d’ailleurs historiquement les premiers à avoir été piratés. Mais l’univers des « comics » américains est également à l’honneur au sein de ces réseaux, où circulent sous forme numérisée les numéros « collector » et les éditions rares de ce genre caractéristique de la contre-culture américaine [3]. C’est aussi le cas des partitions de musique classique, dont certaines étaient longtemps restées introuvables ou difficiles d’accès, jusqu’au travail d’exhumation et de mise à disposition effectué par les pirates de l’Internet. À titre d’exemple, il est aujourd’hui possible de télécharger en quelques heures l’ensemble des partitions de Jean-Philippe Rameau, ou une grande partie de celles de Jean-Sébastien Bach, qu’il était auparavant très difficile de se procurer auprès des bibliothèques ou des éditeurs de partitions.

Ce ne sont là que quelques exemples, mais qui témoignent de la diversité et de la vitalité de ces équipes de pirates, qui entreprennent de numériser et de mettre à disposition des pans entiers de la culture occidentale sur ces îles en réseau. De sorte qu’il peut être tentant, comme certains le font, de considérer que ces « pirates » ont pour vocation et pour activité principales de contourner les législations nationales en vigueur sur le droit d’auteur, afin de détourner à leur usage exclusif l’activité des structures d’édition et de production, dont elles menaceraient la pérennité économique. Une telle affirmation mérite cependant d’être nuancée.

On aurait tort, en effet, de réduire les pirates des îles en réseau à de purs activistes dédiés à la destruction des économies de la culture. Certes, les membres de ces groupes apprécient les œuvres qu’ils piratent en fonction de critères qui tiennent peu compte de leur valeur « commerciale ». Ils agissent le plus souvent en amateurs éclairés, soucieux de réunir le meilleur de la production intellectuelle et artistique dans un domaine donné, à l’image de ces communautés qui mettent à la disposition de leurs membres des collections entières consacrées à l’étude de l’Égypte antique ou à la littérature turque contemporaine – des stocks de données d’ailleurs extrêmement conséquents, puisqu’il n’est pas rare aujourd’hui de trouver, prêts à télécharger, des ensembles de fichiers atteignant la dizaine de gigaoctets. Il faut cependant remarquer que la matière privilégiée mise en ligne sur ces sites est constituée d’éléments non disponibles commercialement, soit parce qu’ils sont épuisés, soit même parce qu’ils n’ont jamais été mis à disposition du grand public (cours et conférences universitaires, concerts ou morceaux de musique inédits, etc.).

Il faut toutefois reconnaître que la quasi-exhaustivité de ces « collections » et l’efficacité des démarches que les pirates effectuent pour les constituer tiennent étroitement à leur indifférence à l’égard des législations nationales sur les droits d’auteurs : n’ayant pas de demandes à effectuer aux ayants droit, ils n’ont pas à essuyer de refus de leur part, contrainte que doivent en revanche affronter les bibliothèques nationales lorsqu’elles entreprennent la numérisation de leur fonds. Les pirates ne se heurtent pas non plus à la question des « œuvres orphelines », ces œuvres dont il faut rechercher les ayants droit potentiels avant toute mise à disposition – commerciale ou non – du public. Le problème est, ici, tout simplement évacué. À l’exception de certaines communautés liées à la bande dessinée – où l’on rencontre fréquemment des messages du type : « Si vous avez aimé cet auteur, allez acheter ses œuvres » –, la plupart des forums associés aux îles en réseau ne débattent quasiment jamais de la question du copyright ou du code de la propriété intellectuelle. On n’y trouve pas non plus de tentative de justification, même grossière, du piratage massif. Toute référence au droit d’auteur y est généralement absente, comme si cette notion pourtant vieille de trois siècles n’avait jamais existé. Ainsi, au contraire des « partis pirates » européens qui mettent au centre de leurs préoccupations la réforme de ces législations, afin de légaliser l’ensemble des téléchargements sur les réseaux P2P, les Taz de l’Internet n’accordent aucune attention aux problèmes des industries de diffusion d’œuvres. En revanche, on peut noter une certaine sensibilité aux enjeux économiques liés à la création, qu’elle soit phonographique, audiovisuelle ou textuelle, dans le refus catégorique de toute pratique visant à « tirer un revenu du travail d’artistes sans que ceux-ci ne soient correctement dédommagés » [4].

Les « menottes » numériques (ou DRM) et le recours à la loi

Face à de tels comportements, les industriels de la musique et du cinéma avaient adopté, il y a quelques années, un parti pris coercitif en développant un système de verrous numériques, censés empêcher la diffusion des contenus téléchargés légalement. Le terme même de DRM était sujet à caution : en effet, « gestion des droits numériques » (traduction française de Digital Rights Management) impliquait la concession de « droits » aux internautes, alors qu’il s’agissait en fait, purement et simplement, de les en priver. Les DRM constituaient en effet de véritables « menottes » numériques, puisqu’ils interdisaient l’échange, entre deux ordinateurs, de fichiers de musique numérisés, alors que, paradoxalement, le prêt de cd entre amis était parfaitement légal [5]. La Free Software Foundation de Richard Stallman proposa d’ailleurs de parler plutôt de Digital Restrictions Management (gestion des restrictions numériques).

La protection des œuvres via les DRM fut un échec total. L’impopularité de ces verrous fut massive. Les frustrations qu’ils générèrent et leur complexité intrinsèque ouvrirent la porte aux tentatives de piratage. Et devant l’ingéniosité des hackers, friands de nouveaux défis et dont beaucoup partageaient les idéaux libertaires, les DRM constituaient des bien fragiles protections. Depuis une dizaine d’années, plusieurs générations de verrous numériques se sont succédé ; aucune d’entre elles, qu’elle fût conçue par les ingénieurs de Microsoft, d’Adobe ou d’Apple, ne résista plus de quelques mois aux talents combinés d’un ou plusieurs hackers, qui s’empressèrent chaque fois de mettre leur formule à la disposition des internautes.

Les majors du disque justifiaient le recours à de tels dispositifs coercitifs par la nécessité d’enrayer la crise profonde où leur secteur se trouvait plongé, crise due selon eux au développement des pratiques de téléchargement massif des œuvres sous droit. La réalité est cependant plus complexe. Sans nier l’existence d’une crise majeure dans l’industrie musicale, rien n’indique de manière certaine que le commerce des œuvres de l’esprit soit irrévocablement menacé par la pratique du piratage sur l’Internet. Les très nombreux rapports commandés sur cette question depuis une dizaine d’années sont contradictoires. Si, pour certains, le lien entre le téléchargement et le déclin des ventes de cd ne fait aucun doute, d’autres indiquent au contraire que le piratage constitue pour certaines œuvres un véritable outil de visibilité, induisant par là même une hausse de la courbe de leurs ventes. C’est le cas notamment pour une étude récente commandée par le gouvernement hollandais et remise début janvier 2009 à son ministre de l’Économie [6].

Le phénomène est donc extrêmement complexe et les données collectées contradictoires, aussi convient-il d’appréhender les discours des uns et des autres avec une certaine prudence. Si l’on acceptait, par exemple, sans réserve le point de vue des analystes les plus alarmistes, on ne comprendrait guère la survie et même la prospérité d’une structure éditoriale comme O’Reilly, éditeur de référence dans le monde anglo-saxon pour les livres informatiques. Piraté massivement, puisqu’il est possible de se procurer en quelques heures l’intégralité de son catalogue via BitTorrent – soit plus d’un millier de titres –, Tim O’Reilly ne se plaint pas, au contraire. Le fondateur de la maison d’édition et co-inventeur de la célèbre formule « web 2.0 » estime que la piraterie, loin d’être un problème, constitue même une chance pour des artistes qui, sans elle, n’auraient aucune visibilité :

« La piraterie est une sorte d’impôt progressif, qui réduit peut-être de quelques points le pourcentage des ventes d’artistes célèbres (et je dis “peut-être”, parce que même ce point n’est pas démontré), mais induit en contrepartie d’immenses bénéfices pour le nombre beaucoup plus élevé de ceux qui tireront avantage de cette publicité. Nos systèmes actuels de diffusion et de distribution des livres, de la musique et des films faussent lourdement la concurrence entre les « nantis » et les « démunis ». Une petite quantité de produits très en vue héritent de la plus grosse partie des budgets promotionnels et sont largement distribués ; la majorité est tributaire, selon l’expression du personnage de Tennessee Williams, Blanche DuBois, « de la gentillesse des étrangers » (the kindness of strangers). L’abaissement des coûts d’accès à la distribution et la disponibilité durable de catalogues entiers plutôt que des seules œuvres les plus populaires sont une bonne chose pour les artistes, puisqu’ils leur permettent d’asseoir leur réputation et leur visibilité, de concert avec les entrepreneurs des nouveaux médias qui sont aussi les éditeurs et les distributeurs de demain » [7].

Ainsi, pour Tim O’Reilly, « le manque de reconnaissance est une menace bien plus grande pour les auteurs et les artistes que le piratage ». L’éditeur français Michel Valensi, responsable des éditions de l’Éclat, défend depuis maintenant plus de dix ans une position similaire [8]. C’est d’ailleurs ce que tend à confirmer le succès croissant des creative commons, ces œuvres placées sous licence libre et largement diffusées sur le Net, qui ne semblent pas faire obstacle, bien au contraire, à leur exploitation commerciale tout en ouvrant de nouvelles pistes à l’expérimentation culturelle grâce à leur réappropriation par les internautes [9].

Depuis l’échec des tentatives de verrouillage des données numérisées, les grandes compagnies de l’industrie musicale explorent aujourd’hui de nouvelles voies, notamment la mise en vente de fichiers musicaux libérés de DRM [10].

Dans le même temps, la majorité des États, au niveau mondial, a renoncé, devant l’ampleur du phénomène, à légiférer sur les réseaux peer-to-peer. Dans ces conditions, la loi Hadopi, mise en en France, constitue une exception curieuse. Non seulement sa légitimité est sujette à caution, mais, comme cela a été maintes fois constaté depuis, elle est largement inapplicable.

La législation Hadopi crée une nouvelle instance, la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet, chargée de lutter contre le partage des œuvres sous droit d’auteur. Cette Haute Autorité a également pour mission d’expérimenter un « filtrage » des contenus sur Internet, en accord avec les fournisseurs d’accès, ce qui constitue clairement une violation des libertés individuelles [11]. Par ailleurs, la loi Hadopi crée un véritable appel d’air en direction des sociétés qui fournissent des solutions de téléchargement direct (ou DirectDownload), pour de nombreuses œuvres encore sous droit. Des plates-formes telles que Megaupload, RapidShare, Yousendit permettent en effet de récupérer des œuvres protégées, sans être identifiées par les dispositifs techniques de surveillance mis en œuvre dans le cadre de la loi Hadopi. De cette façon, le dispositif de surveillance créé, outre son inefficacité, constitue une véritable aubaine pour des sociétés susceptibles d’enregistrer un accroissement significatif de leurs abonnements payants.

Quoi qu’il en soit, les questions liées au respect du droit d’auteur ne doivent pas faire oublier que les îles en réseau rassemblées sur le réseau BitTorrent représentent à l’heure actuelle la seule véritable tentative d’organiser la pérennité du savoir numérique face à la prolifération des formes de la culture jetable assurée par les grandes firmes commerciales.

Les réseaux pirates et la conservation du savoir

L’univers des îles en réseau est une réalité complexe, diffuse et variable, mais non sans une forte cohérence interne. Il arrive parfois que telle ou telle île disparaisse, à l’image des zones autonomes temporaire dont parle Hakim Bey. Cela n’affecte pas pour autant le stock de connaissances qu’elle a constitué, le travail effectué par un groupe qui se dissout étant repris et redistribué par les autres. À l’image de TextBookTorrents.com, contraint sous la pression des maisons d’édition américaines de fermer en octobre 2008, après avoir permis pendant plusieurs années de partager des milliers de livres dans le domaine des sciences humaines, mais dont les fichiers, rassemblés dans de nouvelles collections, peuvent être téléchargés sur de nombreux autres sites [12]. Aussi, les collections élaborées sur les sites privés de partage sont-elles perpétuellement en cours de réorganisation, les membres de la communauté se comportant en véritables bibliothécaires, qui trient, hiérarchisent et construisent des systèmes de classement très élaborés.

Ce n’est d’ailleurs pas le seul point sur lequel l’activité des pirates peut être comparée à celle des conservateurs de bibliothèque. L’une des tâches essentielles du conservateur est de prendre « toute mesure de surveillance, de protection, de reproduction et de communication propre à préserver l’intégrité du document » [13]. Or, les pirates, par l’usage qu’ils font des formats ouverts et donc plus pérennes [14], se révèlent particulièrement conscients de la fragilité des supports numériques et des risques qu’ils font peser sur la conservation des données. L’absence de fiabilité et les problèmes de conservation des documents numériques sont en effet très importants. Ils tiennent essentiellement à deux raisons.

La première est liée à l’extrême hétérogénéité des formats, souvent propriétaires, qui sont utilisés pour l’enregistrement et la mise en forme de ces données. Les éditeurs de logiciels propriétaires utilisés pour la mise en page de livres, par exemple, qu’il s’agisse de Quark ou d’Adobe, n’organisent aucune compatibilité entre leurs familles de produits, ou encore entre les différentes versions de leurs logiciels, mises au point au cours des ans (notion de compatibilité ascendante). La plupart des éditeurs, compte tenu des technologies propriétaires employées pour réaliser les maquettes de leurs livres, sont donc obligés de recommencer le travail de maquettage, parfois à peine quelques années après l’établissement des premières versions [15].

La seconde raison tient à la nature même des supports. Ces derniers, qu’ils soient optiques (cd-rom, dvd), ou magnétiques tels que les disques durs, demeurent fragiles et se dégradent assez rapidement, parfois en l’espace de trois ou quatre ans. Pour remédier à ces problèmes, il n’existe, en l’état des connaissances techniques, qu’une solution : dupliquer les données sur de très grands ensembles de stockage. On comprend donc que se soit développé un véritable marché du stockage au cours des dernières années, une telle contrainte entraînant pour les bibliothèques des coûts extraordinairement élevés. Les équipes de Gallica ou de la British Library le savent bien, qui doivent continuellement développer des « stratégies » de duplication des données et lancer des appels d’offres auprès de sociétés privées, afin d’acquérir un nombre chaque jour plus important de pétaoctets [16] de stockage dupliqués à l’identique dans différents lieux3. Or, ce que des grandes bibliothèques patrimoniales peuvent envisager, en termes d’efforts financiers, pour assurer la pérennité de leurs fonds – et encore, sans la moindre garantie de succès à long terme –, peu de structures peuvent se le permettre.

Nous mettons actuellement en œuvre des politiques de numérisation massive du savoir, sans avoir la moindre idée des délais pendant lesquels ce patrimoine restera disponible. Ce risque est d’autant plus grand que, désormais, la production intellectuelle et artistique tend à privilégier dès le départ les formes et les supports numérisés (photographies, films, documents audio, « manuscrits » d’auteurs et copies d’éditeurs, etc.). La perspective de ce qu’on pourrait, avec un soupçon de dérision, appeler la « page blanche », c’est-à-dire la perte irrémédiable des connaissances accumulées depuis des millénaires, est donc bien réelle. À plus forte raison si l’on ajoute à la question de la dégradation des supports celle des risques systémiques qui pèsent sur un réseau fortement intégré et rendu opérationnel par un nombre extrêmement réduit d’acteurs en situation de quasi-monopole.

L’Internet est en effet une configuration où la moindre erreur peut avoir une cascade de conséquences affectant l’ensemble du système. Google nous en a donné récemment un merveilleux exemple. Le 30 janvier 2009, à la suite d’une erreur humaine dans la manipulation d’un fichier chez l’une des sociétés qui travaille avec Google – une manipulation parfaitement anodine puisqu’il s’agissait de l’inscription d’un caractère dit « joker » dans un fichier texte [17] –, la totalité des sites Internet répertoriés dans les pages de résultats du moteur de recherche ont été marqués comme « potentiellement dangereux » et « pouvant endommager votre ordinateur » et leur accès interdit, partout dans le monde, et ce pendant une heure. Ce parfait exemple d’« effet papillon » (une modification mineure déclenche un ensemble de variations majeures aux résultats imprévisibles) nous rappelle que l’Internet et les réseaux informatiques sont des entités très vulnérables et d’une fiabilité plus que douteuse à moyen ou long terme.

Dans ce contexte, la seule solution réaliste pour organiser la pérennité des données numérisées est la dissémination des fichiers.

Or, les « groupes de pirates », en organisant l’échange permanent des contenus qu’ils élaborent et en s’efforçant de permettre un accès aussi large et aussi durable que possible à ces fichiers, jouent d’ores et déjà un rôle majeur en ce domaine. Leur propension à archiver et à enregistrer leurs collections dans des formats ouverts, et à les diffuser sur des dizaines de milliers d’ordinateur distants les uns des autres accroît en effet considérablement les chances de conservation à long terme des savoirs humains. Ce n’est donc pas le moindre paradoxe de constater que les « pirates », qui ignorent et souvent bafouent les législations sur le droit d’auteur et le copyright, sont aussi potentiellement les meilleurs agents de la conservation des productions de l’esprit sous leur forme numérique. Et il n’est pas absurde d’imaginer qu’un jour ou l'autre, auteurs, éditeurs et producteurs s’adresseront aux pirates des îles en réseau pour avoir – gratuitement – accès à la dernière copie existante de l’œuvre à laquelle ils avaient donné naissance.

Le terme de « pirate », infamant dans l’esprit des tenants de la marchandisation généralisée qui le réservent à tous ceux qui menacent leur monopole commercial sur les œuvres de l’esprit, renvoie à une toute autre réalité pour nombre d’usagers de l’Internet. La propension des pirates informatiques, les premiers « hackers », à s’attaquer aux codes sources des logiciels, fussent-ils « propriétaires », fut notamment à l’origine du développement de systèmes d’exploitation ouverts et accessibles à tous, dont l’usage tend aujourd’hui à se propager, y compris dans les institutions économiques et politiques. C’est en s’inspirant de leurs travaux – et de leur philosophie du « libre » (free) – qu’ont été mis au point les vastes réseaux peer-to-peer, dont le succès colossal a contribué à porter sur la place publique – les « partis pirates » de l’Europe du Nord n’en sont qu’une illustration – le nécessaire débat sur la propriété et les conditions de diffusion des produits culturels et autres biens immatériels. Quant aux « pirates des îles en réseau », ils portent aujourd’hui au plus haut degré cet esprit d’indépendance et de liberté en contribuant à la mise en commun et à la construction Certes ces groupes attachés à la notion polysémique de free n’en ont pas tous la même définition. Ainsi l’opposition est-elle très nette entre, d’un côté, ceux qui, tout en mettant l’accent sur son sens de « gratuité », n’en spéculent pas moins sur les formidables revenus publicitaires générés par l’explosion du trafic sur leur plates- formes de téléchargement, et, de l’autre, ces « zones autonomes temporaires » de l’Internet, plus discrètes et plus regardantes sur les pratiques de leurs membres, qui parleront plutôt d’accès « libre » tout en restant résolument hostiles à toute forme d’exploitation commerciale des fichiers qu’ils mettent à leur disposition. Opposition sur les moyens qui confine même à la contradiction sur les fins, puisque les uns tendent à se spécialiser dans la diffusion de la culture de masse – ce dont témoigne leur financement par les industries de la pornographie et du jeu en ligne –, tandis que les autres se montrent très attachés à la construction de savoirs personnels, ouvrant la voie, à travers l’intensité des échanges et des discussions entre membres, à l’élaboration de véritables contre- cultures.

Reste que contre certains discours du renoncement à cet objet technologique mal identifié qu’est l’Internet – discours qui préconisent de s’en tenir à distance plutôt que de risquer de prendre part à l’entreprise de dissolution du sujet au profit d’un consumérisme nihiliste dont il serait uniquement le théâtre – il semble bien que celui-ci puisse encore constituer un espace de liberté et d’innovations, et pas seulement sur le plan technique.

Un tel espace peut, il est vrai, paraître résiduel voire inaudible, tant les forces contraires sont nombreuses et puissantes. Si, à partir des années 1950, des chercheurs et des informaticiens s’étaient engagés dans l’aventure de l’Internet (le nom n’existait pas encore) dans le souci de faciliter entre eux les échanges et de concourir ainsi au progrès scientifique, si certains de ces pionniers avaient même songé que ce nouvel outil présiderait peut-être à l’avènement d’une sorte de conscience universelle, à l’essor d’une humanité rénovée par la mise en commun des connaissances [18]1, l’ouverture du réseau au grand public et les immenses perspectives de profit que cette nouvelle situation offrait aux entreprises de l’informatique, d’abord, et bientôt aux grandes sociétés commerciales, sont venues tout bouleverser. En quelques années, les échanges marchands et le marketing publicitaire ont pris le pas sur la liberté des échanges et la publicité des connaissances [19].

Nouveau terrain de jeu d’un capitalisme sauvage, l’Internet relègue aujourd’hui à la portion congrue voire à la quasi-clandestinité les espaces où continuent de s’exprimer des utopies participatives et indifférentes aux formes commerciales de rétribution de leurs activités. Les membres de ces communautés et les internautes, de plus en plus nombreux, qui souhaiteraient y prendre part doivent désormais faire face aux efforts conjugués des entreprises privées et des pouvoirs publics (discours de criminalisation du « piratage », tentatives de verrouillage de l’accès aux œuvres – les DRM – et velléité de mettre en œuvre, comme avec la loi Hadopi, des législations de contrôle) pour entraver leurs efforts. Pourtant, la complexité et la dissémination du réseau font de l’Internet un espace où se déploient de multiples formes d’expression qui restent difficiles, voire impossibles à contrôler totalement. Nombre de pratiques fondées sur le partage des savoirs et des expériences individuelles et sur l’enrichissement culturel par « accrétion » [20] – qui ont donné lieu à des dispositifs de type législatifs efficaces comme la General Public Licence ou les creative commons – s’y déploient à l’abri des regards et, à l’image de la société « réelle », dans des configurations extrêmement souples et mouvantes, insaisissables. Pourquoi de telles formes d’organisation collective de l’innovation ne finiraient-elles pas, comme le fit en son temps et dans le secteur du textile la Grande Fabrique lyonnaise face à l’hégémonie londonienne [21], par offrir des contre-modèles aux formes actuellement dominantes (basées sur la concurrence en économie, sur l’« expertise » politique et les décisions de l’État en matière sociale) de définition des modalités du vivre ensemble ?

Notes

[1] Taz, op. cit., p. 7-9.

[2] Contrairement à une opinion répandue, les pirates, réunis en libre association d’individus, obéissaient à un ensemble de règles très strictes, imposées à l’origine par l’exiguïté de l’espace disponible sur les navires. Pour les questions relatives à la piraterie à l’époque moderne, le livre de référence reste celui de Marcus Rediker, traduit en France sous le titre : Pirates de tous les pays. L’âge d’or de la piraterie atlantique (1716-1726), Paris, Libertalia, 2008.

[3] Voir par exemple : Mila Bongco, Reading Comics : Language, Culture and the Concept of the Superhero in Comic Books, New York, Garland, 2000.

[4] Règlement du site Dimeadozen en matière de revente de données piratées : « La règle de Dime en matière de commerce de données piratées (bootleg) est celle de la tolérance-zéro. Tirer un revenu du travail d’artistes sans que ceux-ci ne soient correctement dédommagés est non-éthique et impardonnable. Les utilisateurs perdent tout accès au tracker s’ils se révèlent impliqués, engagés, ou associés au commerce de données piratées, que leurs offres puissent ou non être reliées à des torrents de Dime. Tous les dons qu’ils auraient versés à Dime sont confisqués » (cf. http://wiki.dimeadozen.org/index.php/DimeTOS:Bootleg_Sellers).

[5] Comme le note Florent Latrive, « L’exception pour “copie privée” est l’une des exceptions fondamentales du droit d’auteur. (...) Nombre de juristes estiment aussi que télécharger une œuvre protégée par le droit d’auteur sur un site illégal s’inscrit dans ce champ. C’est bien la mise à disposition de l’œuvre qui est interdite, pas la copie » (Du bon usage de la piraterie, op. cit., p. 39).

[6] Voir le rapport intitulé « Economische en culturele gevolgen van file sharing voor mu- ziek, film en games » (http://www.ez.nl/dsresource?objectid=161961&type=PDF), dont il n’existe malheureusement pas de version française.

[7] Sur le piratage de son catalogue, voir les propos de Tim O’Reilly (http://openp2p.com/ lpt/a/3015).

[8] Voir par exemple son « Petit traité plié en dix », sur http://www.lyber-eclat.net/lyber/ lybertxt.html.

[9] Cf. Florent Latrive, Du bon usage de la piraterie, op. cit., p. 89-93. Le label musical Magnatune s’attache ainsi à concilier libre accès et revenus en proposant de la musique copiable et diffusable librement et en vendant en parallèle des disques dont la qualité d’enregistrement est supérieure. Des auteurs de science fiction, comme Cory Doctorow, proposent leurs livres en téléchargement gratuit tout en mettant en vente des exemplaires papier, le tout avec un succès considérable.

[10] À cet égard, il est surprenant voire paradoxal, qu’à l’heure où l’industrie musicale renonce massivement à l’emploi de DRM, certains groupes d’édition lancent des plates-formes de ventes de livres numériques « verrouillés », telles que Numilog, filiale d’Hachette, pour le monde francophone. On peut douter que l’industrie du livre réussisse là où les « majors » du disque, qui disposaient de moyens économiques autrement importants, échouèrent pen- dant près de dix ans.

[11] Voir la discussion du texte à l’Assemblée le 4 mai 2009. La dimension liberticide de la loi est largement documentée et explicitée sur le site PcInpact (http://www.pcinpact.com/actu/ news/50687-filtrage-experimentation-hadopi-contenu-source.htm).

[12] Cf. notamment « In Win for Publishers, “TextbookTorrents” Piracy Site Shuts Down for Good », The Chronicle of Higher Education, 14 octobre 2008 (http://chronicle.com/ blogPost/In-Win-for-Publishers/4309).

[13] Charte des bibliothèques adoptée le 7 novembre 1991 par le Conseil supérieur des bi- bliothèques.

[14] Les formats ouverts sont synonymes de pérennité, dans la mesure où il est possible d’exa- miner la manière dont ils ont été produits, et donc de récupérer très facilement les données sources à partir desquelles ils ont été élaborés. L’emploi de formats propriétaires pour l’édi- tion phonographique ou les livres se révèle catastrophique, puisqu’il est souvent impossible de rééditer un document dans un format propriétaire quelques années seulement après sa création puisque les données qui ont servi de sources (les pistes audio, par exemple, lorsqu’il s’agit d’un enregistrement sonore), ne peuvent pas être récupérées.

[15] Quelle différence, de ce point de vue, avec les méthodes employées par bien des éditeurs scientifiques ou techniques, notamment anglo-saxons, qui s’appuient, au moment de com- poser leurs livres, sur des standards ouverts et cohérents tels que LaTex, ce qui leur permet de reprendre leurs épreuves plus de vingt ans après, sans aucun souci.

[16] Ces vastes data centers, ensembles fermés, dont l’accès est sécurisé, rassemblent généralement plus de 10 000 serveurs.

[17] Un caractère « joker » fait partie de l’ensemble dit des « expressions régulières », un corpus d’expressions qui permettent d’effectuer très rapidement des manipulations sur de vastes ensembles de fichiers ou de répertoires.

[18] Répondant en cela aux projets visionnaires plus anciens d’« encyclopédie mondiale », comme celui de l’écrivain de science fiction H.G. Wells, dont un essai de 1937 propose de « rassembler toute la richesse mentale éparpillée et inopérante de notre monde en une sorte de compréhension commune, susceptible d’agir sur notre vie politique, sociale et économi- que » (texte publié dans Books, n° 12, mars-avril 2010).

[19] Ce qui ne signifie pas pour autant que l’utopie d’une conscience universelle fondée sur la technologie informatique soit complètement abandonnée. Ariel Kyrou montre que l’imaginaire et la pratique même de Google reposent sur cette vision offrant pour l’avenir deux faces opposées : une face noire, « le cauchemar d’une transparence totale, livrée par chaque être humain à son avatar de base de données, à son agent personnel d’information sachant tout de lui comme de l’humanité entière via la mère de tous les API : l’IA Google. À l’inverse, cette vision aurait une face blanche, qui ressemblerait à la conscience artificielle et néanmoins universelle de la Terre, déesse Gaia de l’ère numérique telle que rêvée par Teilhard de Chardin et Marshall McLuhan, et dont chaque puce ou chaque capteur serait l’un des neurones... » (cf. Ariel Kyrou, « La mutation androïde de Google : radiographie d’un imaginaire en actes », Multitudes 36, été 2009.

[20] Ce terme, emprunté à l’histoire naturelle, désigne un « procédé de croissance par addition extérieure » (voir le dictionnaire Trésors de la langue française informatisé : http://atilf.atilf.fr/dendien/scripts/tlfiv5/advanced.exe?8;s=2139102180;|http://atilf.atilf.fr/dendien/scripts/tlfiv5/advanced.exe?8;s=2139102180;]). Il entend caractériser ici les logiques collaboratives et en constante évolution qui président à l’élaboration de projets collectifs et libres à destination de la communauté (logiciel libre, wikis, etc.).

[21] Cf. Dominique Foray et Lilian Hilaire Perez, « The economics of open technology: collective organization and individual claims in the “fabrique lyonnaise” during the old regime », dans Cristiano Antonelli, Dominique Foray, Bronwyn H. Hall, W. Edward Stein- mueller éd., Frontiers in the economics of innovation and new technology. Essays in honor of Paul A. David, Cheltenham, 2005, p. 239-254.

L'ouverture au grand public et au marché

Le texte présenté ci-dessous est extrait de la première partie du livre Rêveurs, marchands et pirates, intitulée L'invention de l'Internet : un rêve de partage des connaissances.

Lire la suite...

La réalisation technique d'une utopie

« Une information, si elle peut être utile à la science, doit être continuellement approfondie, elle doit être stockée et, par-dessus tout, elle doit être consultée. »

Vannevar Bush

En octobre 2009, les principaux médias anglo-saxons fêtaient le quarantième anniversaire de la naissance de l’Internet. Pour eux, la date de référence était le 29 octobre 1969. Ce jour-là, le professeur Leonard Kleinrock et deux de ses étudiants de l’UCLA (University of California, Los Angeles) parvenaient à transmettre un court message – en réalité, simplement deux lettres – entre deux ordinateurs situés l’un sur le campus de l’Université de Californie, l’autre à l’Institut de recherche de Stanford, à environ 500 kilomètres de là [1]. Pour beaucoup d’historiens et de médias anglo-saxons [2], il s’agit là de l’expérience fondatrice de l’Internet.

La réalité est beaucoup plus complexe, et le choix d’une date en particulier, pour ce qui concerne l’invention de l’Internet comme d’ailleurs pour tout travail historiographique portant sur la genèse d’un phénomène particulier, relève forcément de l’arbitraire. Le vaste réseau informatique que nous appelons l’Internet repose sur un ensemble de technologies dont l’élaboration s’est étalée sur plus de trente ans, des années 1960 au début des années 1990, et est le résultat combiné des travaux de multiples acteurs. Durant ces trente années, en effet, le socle technique de l’Internet s’est développé peu à peu sous l’impulsion d’individus ou de groupes dont les ambitions différaient beaucoup selon qu’il s’agissait d’universitaires, de militaires, ou encore de chercheurs financés par des entreprises privées, le plus souvent sous contrat avec le ministère de la Défense américain. Pour autant, ces « inventeurs » de l’Internet avaient tous hérité d’un idéal plus ancien : celui de mise en partage du savoir par l’édification de « réseaux » capables de faire progresser à grands pas sinon la conscience humaine du moins la connaissance scientifique.

Nombre d’hommes et de femmes, au cours de ces décennies, se sont ainsi engagés dans des projets visant à rendre plus aisés le classement et l’accès aux créations de l’intellect humain. Ce fut le cas aux États-Unis, surtout, à travers les travaux menés dans le cadre du projet Arpanet, mais aussi en France et en Suisse, au sein notamment du Centre européen pour la recherche nucléaire (CERN), à qui l’on doit notamment la mise au point de l’hypertexte. La compétition fait rage aujourd’hui entre ces précurseurs, chacun cherchant à mettre en avant sa propre contribution à l’ensemble de l’édifice. Il importe pourtant de rappeler, comme le fit en 2001 le scientifique américain Paul Baran, lui-même considéré par beaucoup comme un de ses « pères fondateurs », que l’« Internet est en réalité le fruit du travail d’un bon millier de personnes. Et quand on prend toutes les versions des contributions individuelles, on constate qu’elles s’emboîtent toutes parfaitement » pour aboutir au résultat que l’on connaît aujourd’hui [3].

Le rêve des origines : une préhistoire de l’Internet

Ainsi, avant d’être même en mesure d’imaginer la technologie qui leur permettrait de réaliser leurs ambitions, quelques chercheurs avaient en quelque sorte « conçu » l’Internet à travers des expériences de pensée, dont les comptes rendus écrits apparaissent aujourd’hui comme des textes fondateurs. En 1945, soit près d’un demi-siècle avant qu’elle ne devienne réalité, Vannevar Bush [4] préfigure la notion d’hypertexte dans un article aujourd’hui célèbre paru en juillet 1945 dans le magazine The Atlantic et intitulé « As We May Think ». Bush y décrit un dispositif qu’il baptise le memex, « à l’intérieur duquel un individu stocke tous ses livres, ses archives, sa correspondance, et qui est mécanisé de manière à en permettre la consultation avec une extrême rapidité et une parfaite souplesse. C’est une extension intime de sa mémoire ». L’auteur explique ensuite les fonctions d’enregistrement (par le procédé de la « photographie à sec ») et de consultation par indexation des données du memex, avant de préciser : « Cela implique cependant de franchir incontinent une étape supplémentaire vers un mode d’indexation associatif, dont l’idée fondamentale est qu’il permettrait de faire en sorte qu’à volonté, n’importe quel document occasionne la sélection immédiate et automatique d’un autre document. Là est la caractéristique essentielle du memex. C’est le procédé de liaison de deux documents distincts qui est le point le plus important » [5].

Or, lorsqu’il avance cette idée – à l’époque révolutionnaire –, le problème que s’efforce de résoudre Vannevar Bush n’est pas simplement technique. Son objectif est en réalité beaucoup plus ambitieux. Constatant les progrès fulgurants accomplis par la science au cours des dernières décennies, et notamment pendant les cinq années de la Seconde Guerre mondiale, il y trouve à la fois un motif d’inquiétude et une source d’espoir :

« La somme des expériences humaines s’étend à une vitesse prodigieuse, et les moyens dont nous disposons pour atteindre, à travers le labyrinthe qui en résulte, l’élément qui nous intéresse sur le moment sont les mêmes que ceux dont nous nous servions du temps de la navigation à voiles. (…) Le monde a atteint l’âge des dispositifs complexes extrêmement fiables et abordables ; et quelque chose est voué à en sortir. Une information, si elle peut être utile à la science, doit être continuellement approfondie, elle doit être stockée et, par-dessus tout, elle doit être consultée » [6].

Face au développement exponentiel de la recherche scientifique, mais aussi grâce aux perspectives que celle-ci ouvre, notamment dans le domaine de ce qu’on n’appelle pas encore l’informatique, le propos de Vannevar Bush est donc de permettre une meilleure exploitation des connaissances, en organisant les conditions de leur pérennité et de leur accessibilité.

Ce projet, d’autres pionniers de l’Internet après lui se le sont appropriés. L’ingénieur américain Douglas Engelbart est l’un d’entre eux. Connu dans l’histoire de l’informatique pour ses recherches sur les interfaces homme-machine – qui l’ont conduit à inventer la souris –, Engelbart a lu en 1945 le texte de Vannevar Bush, « As We May Think ». Dans les années 1950 et 1960, il mène à l’université de Stanford une série de travaux sur la résolution de systèmes complexes et il se donne, ni plus ni moins, pour tâche – comme l’indique le titre d’un rapport qu’il produit en 1962 – « d’augmenter les capacités de l’Intellect humain » :

« La population humaine et le produit brut de son activité s’accroissent à un rythme considérable, mais la complexité des problèmes auxquels elle est confrontée augmentent encore plus vite, et l’urgence à trouver des solutions est proportionnelle au rythme accru de cette activité et de son caractère de plus en plus global. L’augmentation de l’intelligence humaine (…) garantirait la continuité d’une société éclairée, à condition de pouvoir en proposer une approche raisonnable et des bénéfices plausibles » [7].

Ce rapport vaudra d’ailleurs à Engelbart d’obtenir une subvention de l’Advanced Research Projects Agency pour la poursuite de ses recherches, ce qui lui permettra notamment de développer l’hypertexte. Le terme même d’hypertexte, pour désigner les liens qui doivent permettre de circuler au sein d’un vaste ensemble de données, est d’ailleurs introduit par un jeune étudiant en sociologie d’Harvard, Ted Nelson, au milieu des années 1960. Vingt ans après les réflexions de Vannevar Bush, Nelson imagine un projet de très grande ampleur, le projet Xanadu, dont l’objectif serait de permettre à chacun de stocker des données et de les mettre à la disposition de tous et partout en quelques instants. L’entreprise, trop ambitieuse, achoppera et sera supplantée par le fameux HTML, mais ses présupposés traduisent bien l’idéal qui sous-tendait les travaux des premiers informaticiens. À mesure que les recherches sur la proto-histoire de l’Internet progressent, de nouveaux noms s’imposent, qui étaient jusque-là totalement tombés dans l’oubli. Il y a quelques années, le regard s’est porté sur la ville de Mons, en Belgique, où Paul Otlet imagina, en 1934, un réseau global de « télescopes électriques ». L’ambition d’Otlet était là encore de rendre la totalité du savoir accessible à l’humanité, son projet visant à ce que « n’importe qui, depuis son fauteuil, puisse contempler l’ensemble de la création » en recherchant et consultant des millions de documents, d’images, de dossiers audio et vidéo interconnectés. Pour Otlet, les gens se serviraient de ce dispositif (que l’historien et fondateur de la revue Wire, Kevin Kelly, qualifie de « version steampunk de l’hypertexte ») pour s’envoyer des messages, partager des fichiers et même se réunir sur des sortes de réseaux sociaux en ligne [8].

On pourrait sans doute remonter encore le temps et trouver ailleurs des expressions de ce vieux rêve de mise commun des formes du savoir humain. Rêve mystique d’une unité des consciences qui régirait le monde, comme dans le concept de noosphère proposé par PierreTeilharddeChardin,ou,plussimplement,soucideconserver et de rendre accessibles les acquis toujours plus nombreux de la recherche scientifique comme pour Paul Otlet ou Vannevar Bush et leurs épigones, il reste que ces projets, ce n’est sans doute pas un hasard, ont pris leur essor au lendemain de la Seconde Guerre mondiale et, dans un contexte où la recherche scientifique dans son ensemble – en physique, en biologie, dans les communications, etc. – avait connu des bouleversements considérables. L’armée était donc la première à avoir connaissance des travaux des premiers informaticiens. L’article de Vannevar Bush date de 1945 et commence par faire état des « contributions » de la recherche scientifique à l’effort de guerre ; et Douglas Engelbart adresse pour sa part son rapport sur « l’augmentation des capacités de l’intellect » au « Bureau de recherche scientifique de l’armée de l’air ».

De fait, les technologies liées à l’Internet sont nées de travaux de recherche effectués, pour la plupart, après la guerre et surtout dans les années 1970, au sein d’universités ou de structures de recherche liées au complexe militaro-industriel américain – telles que la Rand Corporation ou les Laboratoires Lincoln. À partir de la fin des années 1960, les fonds liés à ces recherches proviennent essentiellement du ministère de la Défense américain, dans le cadre du projet Arpanet.

De l’Arpanet à l’Internet : la tutelle militaire

L’Arpanet [9] est généralement considéré comme l’ancêtre direct de l’Internet. Lancé discrètement en 1967, le réseau Arpanet est le premier réseau organisé autour du concept maintenant généralisé de « transfert de paquets ». L’introduction de cette technologie fut décisive, puisqu’elle permettait de décomposer une information à transmettre entre deux points du réseau – deux ordinateurs par exemple – en « paquets » de petite taille, qui pouvaient suivre des itinéraires différents, avant d’être « recomposés » à l’arrivée.

Le 5 décembre 1969, les quatre premiers nœuds du réseau Arpanet sont mis en place. Ils relient le laboratoire de Leonard Kleinrock à l’université de Californie, le centre de recherche de l’université de Stanford où travaille Douglas Engelbart, l’université de Californie à Santa Barbara et l’université d’Utah. Pendant deux décennies, le réseau Arpanet réunit donc aux États-Unis des machines situées dans des sites militaires et des universités. Ce rapprochement entre les militaires et les chercheurs avait été initié durant la Seconde Guerre mondiale par Vannevar Bush, premier directeur du Bureau de la recherche scientifique et du développement (Office of Scientific Research and Development – OSRD). Dès le départ, l’OSRD avait été pensé comme un organisme devant apporter aux militaires le concours du monde scientifique, afin d’accélérer l’issue de la Seconde Guerre mondiale [10].

Dans le contexte international de l’après-guerre, et notamment de la guerre froide, les projets scientifiques et militaires étaient liés de manière inextricable, tant aux États-Unis que dans la plupart des pays du bloc soviétique. Au vu des circonstances historiques, il était donc naturel que le réseau Arpanet fût développé par des scientifiques sur des fonds militaires. Ce développement était en partie lié à la volonté des militaires américains de mettre en place un réseau distribué, capable de maintenir les communications entre les centres opérationnels militaires du pays en cas de guerre nucléaire. Le ministère de la Défense américain était intéressé par les recherches menées sur les communications par « paquets », qui permettaient de mettre en place un réseau de ce genre, moins vulnérable en cas de bombardement atomique. Contrairement à ce qui se passe dans les réseaux simplement décentralisés, les communications en réseau distribué peuvent emprunter différents chemins pour atteindre leur but. On parle alors de « maillage » en toile d’araignée. Pour autant, considérer les recherches liées aux réseaux distribués, dans les années 1960, comme une nécessité dictée par les militaires dans le contexte de la guerre froide est particulièrement réducteur. De même qu’il est exagéré de dire que le réseau Arpanet, l’ancêtre de l’Internet, a été seulement conçu à des fins militaires et stratégiques. Historiquement, seule la Rand Corporation, avec la figure emblématique de Paul Baran, exprima sa volonté de concevoir un réseau distribué capable de résister à des attaques atomiques. À la fin de la Seconde Guerre mondiale, la Rand Corporation, organisme encore actif de nos jours, est créée pour développer des études et des propositions dans le domaine de la recherche militaire et favoriser une plus grande synergie entre les scientifiques et l’armée [11]. Ailleurs, l’ensemble des chercheurs mobilisés au sein des universités travaillent sur la notion de réseau décentralisé dans le souci principal d’économiser les ressources alors très limitées des ordinateurs – dont le coût est extraordinairement élevé –, tout en permettant l’échange d’informations entre chercheurs. C’est en effet, là encore, la possibilité de faire circuler librement, grâce à un réseau distribué, les fruits de la recherche scientifique qui est la motivation principale des ces pionniers. Comme l’affirme Lawrence Roberts, qui joua un rôle essentiel au sein de l’Arpanet, en 1968 :

« De la même manière que les systèmes informatiques en temps partagé ont permis à des groupes de centaines d’utilisateurs de partager des ressources matérielles et logicielles entre eux, des réseaux reliant des douzaines de tels systèmes permettront le partage des ressources entre des milliers d’individus »”[12].

Tout au long de son développement, l’Arpanet donne naissance à nombre de technologies aujourd’hui étroitement associées à l’Internet. C’est notamment le cas du courrier électronique ou e-mail, qui est mis au point en 1971, au sein de la société BBN[13], où l’ingénieur Ray Tomlinson conçoit le premier programme permettant d’envoyer et de recevoir des messages électroniques. C’est d’ailleurs Tomlinson lui-même qui opte pour l’emploi de l’arobase (@) afin de séparer le nom de l’utilisateur du nom de l’ordinateur ou du nom de domaine. Il s’agit là d’un choix purement pragmatique, puisque ce symbole, qui n’entrait dans l’orthographe d’aucun nom propre, était l’un des rares qui pouvait être utilisé librement. Dès l’année suivante, l’e-mail est adopté massivement par des milliers de militaires et d’universitaires ; deux ans plus tard, les messages électroniques représentent plus des trois quarts du trafic de l’Arpanet.

Une autre avancée majeure, intervenue dans les années 1970, est l’élaboration des protocoles TCP/IP, dont l’immense avantage était de permettre à des machines différentes de communiquer entre elles, grâce à des standards communs. En effet, les protocoles utilisés jusque-là pour la communication par paquets étaient d’usage limité, dans la mesure où ils variaient d’un type de machine à l’autre. L’intervention de Vinton Cerf, de l’Université de Stanford, et de Robert Kahn, alors ingénieur chez BBN, permet la mise au point, en 1974, d’une suite de protocoles facilitant la communication entre machines. Aujourd’hui encore, l’Internet fonctionne sur les standards TCP/IP[14].

La première utilisation du terme « Internet » remonte d’ailleurs à cette période, puisqu’on le retrouve, au mois de décembre 1974, dans un document rédigé par Vinton Cerf, Yogen Dalal et Carl Sunshine[15]. Le mot qualifie alors un réseau purement scientifique et militaire, regroupant quelques milliers de personnes, alors que le système de l’hypertexte n’existe pas encore. Il faut encore attendre près de quinze ans avant que cette invention décisive ne germe dans l’esprit d’une équipe de chercheurs du CERN.

Le CERN et la mise au point de l’hypertexte

À la fin des années 1980, Tim Berners-Lee et ses collègues présentent en effet à leur hiérarchie un projet de recherche qui aboutira à la mise au point du fameux « www ». Comme toujours l’enjeu est de favoriser la communication et le partage des connaissances entre chercheurs. Dans son document préliminaire, qui date de 1989, Tim Berners-Lee écrit :

« Le CERN est une organisation merveilleuse. Il fait participer des milliers de personnes, beaucoup d’entre elles sont très créatives, et toutes travaillent à des buts communs. Bien qu’elles fassent partie d’une structure hiérarchique, elles ne sont pas contraintes dans leurs manières de communiquer entre elles, de partager l’information, l’équipement et les logiciels entre les différents groupes. (…) Le problème, cependant, est l’extrême mobilité de ces personnes. Dès lors que la durée moyenne du séjour est deux ans, l’information se perd constamment. Avant que les nouveaux venus puissent commencer à se faire une idée de la façon dont les choses fonctionnent, un certain temps d’adaptation – le leur et celui des autres agents – est nécessaire. Les détails techniques de projets antérieurs se perdent parfois définitivement, ou ne sont réunis qu’au prix d’un minutieux travail d’enquête effectué dans l’urgence. Souvent, l’information a bien été enregistrée, elle reste simplement introuvable. Si une expérience conduite au CERN n’était qu’un projet statique et sans suite, toute l’information pourrait être compilée dans un gros livre. Mais dans les faits, le CERN est en constante évolution, que cela découle de l’émergence de nouvelles idées ou de nouvelles technologies, ou de la nécessité de surmonter des difficultés techniques imprévues. Lorsqu’un changement s’avère nécessaire, il n’affecte normalement qu’une petite partie de l’organisation. Une raison locale incite à modifier une partie de l’expérience. À ce stade, il faut chercher à identifier les autres domaines ou les autres agents qui seront affectés par ce changement. Il devient alors difficile de tenir à jour un tel livre, et sa structure doit être constamment révisée » [16].

Suit une série de propositions pour améliorer la circulation des informations au sein du CERN, notamment par la mise en place d’hypertextes, de liens entre des documents situés à des endroits différents, pour créer une navigation de nœud à nœud, par simple clic. Cette expérience, devenue pour la plupart d’entre nous d’une extrême banalité, est à l’époque révolutionnaire. L’année suivante, en 1990, Tim Berners-Lee est rejoint sur ce projet par Robert Cailliau, l’un des rares ingénieurs de l’époque du CERN à en percevoir les enjeux.

Pour naviguer de liens en liens, entre les différentes ressources auxquelles renvoient ces derniers, les ingénieurs du CERN mettent au point un autre outil promis à un bel avenir : le navigateur. Le premier navigateur a pour nom de baptême « www », avant d’être renommé Nexus. À partir de 1993, des navigateurs plus évolués font leur apparition : Mosaïc tout d’abord, suivi par Netscape Communicator l’année suivante, puis par Internet Explorer dans sa toute première mouture, en 1995. La même année, des opérateurs de téléphonie, comme AT&T aux États-Unis, commencent à proposer des « forfaits » permettant aux abonnés, via leur ligne téléphonique, de se connecter à un réseau dont l’accès était, jusque- là, restreint.

Tim Berners-Lee, quant à lui, quitte le CERN en 1994 pour fonder le W3C (World Wide Web Consortium), organisation à but non lucratif, qui s’occupe d’établir et de promouvoir des normes pour l’Internet. Lucide, il refuse de se considérer comme « l’inventeur de l’Internet », rappelant que de nombreux travaux antérieurs aux siens avaient rendu possible l’expansion du système d’hypertextes :

« Non. Non. Non. Lorsque je m’occupais du www, la plupart des morceaux dont j’avais besoin existaient déjà. Vint Cerf et ceux avec qui il travaillait avaient créé les modèles IP (Internet Protocol), mais également TCP (Transmission Control Protocol). Paul Mockapetris et ses amis avaient créé le système des noms de domaine (DNS). Certains utilisaient déjà le TCP/IP et les DNS pour écrire des e-mails, ou d’autres trucs du même genre. C’est grâce à eux que je pouvais envoyer des e-mails à des gens susceptibles de m’aider à travailler sur la conception du www. Je n’ai pas non plus inventé le lien hypertexte. L’idée de pouvoir sauter d’un document à l’autre avait été imaginée par beaucoup de monde, parmi lesquels Vannevar Bush en 1945 et Ted Nelson (qui est en réalité l’inventeur du mot « hypertexte »). Bush l’a fait alors que les ordinateurs n’existaient pas encore. Ted songeait à un tel procédé, mais n’utilisait pas lui-même l’Internet. Doug Engelbart avait créé un système comparable au www dans les années 60, mais il ne tournait que sur un seul (gros) ordinateur, puisque l’Internet n’existait pas encore. De nombreux systèmes d’hypertextes avaient été créés qui ne fonctionnaient que sur un ordinateur ; ils étaient incapables de relier des ressources situées en différents points de la planète. Je n’ai eu qu’à prendre l’idée d’hypertexte, et à l’associer à celles de TCP et de DNS, et c’est comme ça qu’est né – ta-da ! – le World Wide Web » [17].

Il n’en reste pas moins que la mise au point de l’hypertexte et du navigateur est une étape déterminante. À partir de la fin des années 1980, ceux-ci vont contribuer à simplifier l’utilisation des vastes bases de données et conférer aux déplacements sur les réseaux informatiques la fluidité et le caractère intuitif que nous leur connaissons aujourd’hui. En ce sens, ils jouent un rôle décisif dans l’extension de ces réseaux et, in fine, dans le succès de l’ouverture de l’Internet au grand public.

Tout au long de la période précédente (de la fin des années 1960 jusqu’au milieu des années 1980), le réseau d’ordinateurs interconnectés s’était développé assez lentement. En 1971, dans le cadre de l’Arpanet, universités et sites militaires américains sont reliés entre eux par quinze machines, dans un réseau dont le débit correspond à celui des modems de la fin des années 1990 (56 kilobits par seconde). En 1983, plus de dix ans après, le réseau d’ordinateurs rassemble à peine cinq mille machines. Qui plus est, jusqu’au début des années 1980, l’utilisation du réseau Arpanet est réservée exclusivement aux universités américaines sous contrat avec le ministère de la Défense.

Ce n’est qu’en 1983 que le réseau est finalement scindé en deux, avec, d’un côté, le réseau militaire, qui prend le nom de Milnet, de l’autre, Arpa-Internet qui réunit les principales universités des États-Unis. L’une des raisons de cette séparation entre réseau civil et réseau dédié aux militaires est le besoin exprimé par ces derniers de disposer d’une architecture propre, qui leur permette de partager des informations classifiées, en dehors du monde civil. Des sous- réseaux sont d’ailleurs très rapidement créés par les militaires au sein même de Milnet, dans le souci de compartimenter la circulation des informations en fonction de leur degré de « sensibilité ». Il faut donc plus de trente ans pour que l’ensemble des technologies sur lesquelles repose désormais l’Internet soient mises au point par des équipes venues d’horizons très divers. Au milieu des années 1990, soit moins de cinq ans après l’invention de l’hypertexte au sein du CERN, le grand public peut enfin se connecter au réseau. Il va s’approprier ces nouveaux outils à une vitesse extraordinaire et donner en quelques années une toute nouvelle orientation au projet initial.



Rêveurs, marchands et pirates. Joël Faucilhon.

Notes

[1] Le but de l’expérience était de taper le mot « login » – « identifiant » en français. Selon le témoignage de Leonard Kleinrock, c’est au moment de taper la troisième lettre, le G, que l’ensemble du système s’est effondré.

[2] Pour ne citer qu’un seul exemple, cf. l’article de cnn.com du 29.10.2009 : « Web Pio- neer Recalls “Birth of the Internet” » (http://www.cnn.com/2009/TECH/10/29/kleinrock. internet/index.html).

[3] Cf. Katie Hafner, « A Paternity Dispute Divides Net Pioneers », New York Times, 8 novembre 2001.

[4] Vannevar Bush (1890-1974), ingénieur américain, conseiller scientifique du président Roosevelt. Il fut le directeur du Bureau de la recherche scientifique et du développement américain (OSRD) pendant la Seconde Guerre mondiale, dont la mission était de coordonner les efforts de la communauté scientifique à des fins militaires. À ce titre, il fut, notamment, l’un des principaux artisans du Projet Manhattan de recherches sur la bombe A.

[5] Extrait de « As We May Think » dans la version française partielle établie par Paul Mathias sous le titre « L’avenir de la pensée », pour son livre Qu’est-ce que l’Internet ? (Vrin, 2009). La version originale de l’article de Vannevar Bush est toujours disponible en ligne à l’adresse suivante : http://www.theatlantic.com/magazine/archive/1969/12/as-we-may- think/3881/.

[6] Vannevar Bush, « As We May Think », art. cit. (c’est nous qui traduisons).

[7] Douglas C. Engelbart, « Augmenting human intellect : a conceptual framework », rapport écrit pour le Director of Information Sciences, Air Force Office of Scientific Research, Washington 25, DC, octobre 1962 (http://dougengelbart.org/pubs/augment-3906.html).

[8] Voir l’article du New York Times du 17 juin 2008, intitulé « The Web Time Forgot » (http:// www.nytimes.com/2008/06/17/science/17mund.html?pagewanted=1&_r=1&ref=science) et le documentaire de Françoise Levie, L’homme qui voulait classer le monde, Memento Pro- ductions, 2002. On peut aussi voir en ligne la biographie documentaire du même Otlet, réalisée en 1998 par Alle Kennis van de Wereld (http://www.archive.org/details/paulot- let/).

[9] Arpanet est l’acronyme de Advanced Research Projects Agency Network.

[10] Voir le dossier consacré aux pionniers de l’Internet et la notice de V. Bush sur ibiblio.org (http://www.ibiblio.org/pioneers/bush.html).

[11] Rand est l’acronyme de Research and Development (Recherche et Développement). Toujours active, la Rand Corporation est perçue, en raison de la personnalité des membres, comme proche des milieux les plus conservateurs des États-Unis. Elle a en effet compté dans ses rangs des gens comme Frank Carlucci (ancien président du groupe Carlyle), ou encore Condoleeza Rice et Donald Rumsfeld, tous deux secrétaires d’État dans l’adminis- tration du président G.W. Bush.

[12] Larry Roberts, ARPA Program Plan 723, 3 juin 1968

[13] La société BBN (Bolt, Beranek and Newman), toujours en activité, est fondée en 1948 par deux professeurs du MIT, Richard Bolt et Leo Beranek. À partir de 1969, et dans le cadre de contrats passés avec le ministère de la Défense américain suite à des appels à candidature, BBN joue un rôle majeur dans la mise au point de l’architecture de l’Arpanet (http://www.bbn.com/about/timeline/arpanet). BBN est, aujourd’hui encore, une société majeure du complexe militaro-industriel américain.

[14] Vinton Cerf s’est à l’époque largement inspiré des travaux de l’ingénieur français Louis Pouzin, qui avait mis en place en France un réseau entre différents sites universitaires, bap- tisé Cyclades : « Avec le réseau Cyclades, nous avons été les premiers à appliquer intégra- lement le principe des datagrammes. (…) Vinton Cerf et Robert Kahn s’en sont emparés pour concevoir le futur protocole de communication de l’Internet, le désormais fameux TCP/IP. Ils l’ont défini en s’inspirant de nos solutions, en particulier de la notion d’in- dépendance de paquets. Preuve que ce concept bouleversait considérablement les esprits, les Américains mettront tout de même dix ans à l’imposer dans Arpanet, dont découlera ensuite naturellement le réseau Internet, avec le succès que l’on connaît. » (http://intersti- ces.info/jcms/c_16645/louis-pouzin-la-tete-dans-les-reseaux). Sur le réseau des Cyclades, et plus généralement sur l’histoire de l’Arpanet, voir la thèse de Valérie Schafer : « Des réseaux et des hommes. Les réseaux à commutation de paquets. Un enjeu pour le monde des télécommunications et de l’informatique françaises (des années 1960 au début des années 1980) », sous la direction du professeur Pascal Griset, soutenue en 2007. Sur Louis Pouzin et le réseau Cyclades, voir encadré p. 33.

[15] Vinton Cerf, Yogen Dalal et Carl Sunshine, « Specification of Internet Transmission Control Program », décembre 1974 (cf. http://tools.ietf.org/html/rfc675)

[16] Pour la version anglaise de la proposition de Tim Berners-Lee, voir http://www.w3.org/ History/1989/proposal.html.

[17] Tim Berners-Lee, Answers for young people, http://www.w3.org/People/Berners-Lee/ Kids.

- page 2 de 3 -