De omni re scibili, et quibusdam aliis

Mot-clé - Rêveurs

Fil des billets - Fil des commentaires

vendredi, juin 18 2010

Free Software vs Open Source

Les concepts de « logiciels libres » (Free Software) et de « logiciels à sources ouvertes » (Open Source), souvent utilisés de manière interchangeable dans les médias, ne recouvrent pourtant pas la même réalité et ne peuvent donc pas être utilisés l’un pour l’autre.

D’un côté, l’expression « logiciel libre » – défendue par Richard Stallman et la fondation GNU – renvoie à une conception philosophique du développement logiciel et met l’accent sur les implications sociales et politiques du mouvement, au niveau de la société dans son ensemble. Le terme Free signifie surtout, dans ce contexte, « libre », la gratuité n’étant que l’une des conséquences de la liberté.

Les « logiciels à sources ouvertes » sont quant à eux promus depuis 1998 par l’Open Source Initiative (OSI), qui met surtout l’accent sur l’efficacité économique et technique du modèle des « sources ouvertes ».

Selon l’OSI, l’expression « open source » permet de lever toute ambiguïté sur la notion de gratuité, équivoque selon eux dans l’emploi du terme Free Software. Surtout, l’OSI a pu, en mettant l’accent sur l’idée d’efficacité économique, rallier à sa cause de grandes sociétés cotées en Bourse, telles que Red Hat ou IBM qui se sont engagées dans l’ouverture des codes sources de leurs logiciels.

Mais le succès rencontré par l’Open Source auprès des professionnels s’est traduit par l’affaiblissement du message politique, toujours porté par la Free Software Foundation, comme l’expliquent les biographes de Richard Stallman :

« Le message des promoteurs de l’Open Source était simple : tout ce dont vous avez besoin pour vendre le concept de logiciel libre, c’est de le rendre intéressant pour les entreprises. De leur point de vue, Stallman et le mouvement pour le logiciel libre étaient en lutte contre le marché, tandis qu’eux cherchaient à l’exploiter. Plutôt que de jouer les cancres bannis du lycée, ils préféraient jouer la carte de la popularité, accroissant leur pouvoir par la même occasion. Si ces méthodes servaient la cause de l’Open Source, les idéaux du logiciel libre étaient perdants. Tout ce qui avait été fait pour « répandre le bon tuyau » avait occulté la composante du message de départ la plus importante : la liberté comme enjeu éthique »

Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Framabook/Eyrolles, 2010, p. 244.

dimanche, mai 23 2010

Prologue du livre « Rêveurs, marchands et pirates »

Tout commence par un rêve. Le rêve d’une « société ouverte », pour reprendre la belle expression du philosophe Karl Popper[1]. L’Internet en devait être le pilier, en permettant aux uns et aux autres d’échanger en toute liberté. Connaissances, savoir et culture seraient à la disposition de tous et entreraient en résonnance.

De nombreux philosophes ou chercheurs avaient imaginé la situation, avant même que la technique soit en mesure de répondre à cet idéal. Marshall McLuhan, anticipant de quelques décennies l’invention de l’Internet, avait même forgé une expression propre à définir cet état : « le village mondial ». « De toutes parts, écrivait-il en 1962, nous parvient l’information à vitesse accélérée, à vitesse électronique. On dirait que nous faisons tous partie (…) d’un petit village mondial »[2]. Le philosophe chrétien Pierre Teilhard de Chardin avait d’ailleurs lui-même préfiguré la pensée de Marshall McLuhan, en empruntant à Vladimir Ivanovitch Vernadski le concept de « noosphère ». Teilhard de Chardin définissait celle-ci comme une couche de faible épaisseur entourant la Terre et englobant l’ensemble des consciences humaines, comme une immense sphère de la pensée destinée à recouvrir l’humanité[3].

Les pionniers de l’Internet ambitionnèrent d’accomplir ce rêve : approcher un état de « conscience globale », créer des liens entre les hommes, diffuser le savoir et la connaissance, par-delà la distance qui les sépare. Et leur ambition serait aujourd’hui devenue une réalité, pour les deux milliards d’individus qui utilisent régulièrement le réseau Internet. Pourtant, l’idée d’une libération de l’homme par la technologie commençait déjà, à l’époque, à être sérieusement battue en brèche. Les travaux d’un Herbert Marcuse ou d’un Jacques Ellul, par exemple, suggéraient dès les années 1950-1960 que la technique et les valeurs qui lui sont associées pouvaient bel et bien être porteuses de régressions, sur tous les plans – social, culturel, politique, économique et écologique[4]. L’Internet ne semble pas avoir échappé à cette règle, et ses caractéristiques propres (immédiateté des échanges, fluidité de l’accès à l’information, mise en réseau des individus, agrégation des contenus, etc.), qui auraient dû être des atouts pour la transmission de la connaissance et l’avènement d’une conscience universelle, sont devenues autant d’armes au service de l’hégémonie marchande. L’Internet, tel qu’il fut conçu à l’origine paraît n’être plus aujourd’hui qu’un vieux mythe.

À l’heure du web 2.0, l’utilisation du concept d’« ouvert » qui désignait à l’origine des projets collaboratifs, libres d’accès et susceptibles d’être modifiés par tous les utilisateurs – les fameux « logiciels libres » – y est désormais massive, alors même que la plupart des « projets » se prévalant de ce qualificatif sont conçus par des sociétés qui ont au contraire vocation à exercer un droit de propriété sur les contenus et à monétiser leur diffusion. Le terme est même repris désormais par des institutions soucieuses de redorer leur image (voir par exemple l’Open Government Initiative de la Maison blanche aux États-Unis, censée garantir l’idéal démocratique) et peu à peu vidé de son sens. L’Internet est ainsi devenu, en quelques années, un média de masse servant avant tout les intérêts de quelques grandes firmes qui y trouvent des leviers de rentabilité rarement atteints au niveau de l’économie physique (Google, Amazon, les fournisseur d’accès Internet, les « marketplaces », pour n’en citer que quelques-unes). Avec, pour corollaire, de très nombreuses interrogations liées au modèle social de ces sociétés, basé principalement sur l’association d’un petit nombre d’ingénieurs et de cadres intéressés aux bénéfices à une masse de travailleurs précaires, dont une bonne partie sont délocalisés en Chine, à Madagascar ou en Afrique du Nord. Avec également pour conséquence un effort d’appropriation des savoirs, des « biens communs », par ces mêmes acteurs[5], à travers la captation des contenus générés par les utilisateurs du web, qui alimentent leurs plates-formes en ligne, véritables aspirateurs publicitaires. Mais de tout cela, nous n’entendons guère parler. De temps à autre, une coupure de presse nous apprend que la terreur règne dans les entrepôts d’Amazon Grande-Bretagne pour tenir les cadences infernales imposées par le succès foudroyant de la vente en ligne ; ou encore que Google, grâce aux dispositions découvertes au détour d’un paragraphe de son « Contrat de licence utilisateur final », se propose de devenir propriétaire de l’ensemble des informations enregistrées par son navigateur Google Chrome. Mais qui y accorde la moindre attention ? Certes pas les internautes qui ignorent, pour la plupart, les réalités complexes que leur voile l’écran.

Les enjeux liés à l’Internet, lorsque les grands médias s’en font l’écho, sont avant tout de nature financière. On y parle de la capitalisation de Google, du chiffre d’affaires généré en fin d’année par Amazon, ou encore de la valorisation Facebook. Toutes ces informations appellent généralement des discours laudateurs, compte tenu des bénéfices records atteints par ces sociétés et de la jeunesse de leurs dirigeants. L’attention devrait pourtant se porter ailleurs : sur le modèle de société qui nous est proposé par l’Internet et les grand groupes qui polarisent le réseau, sur les problèmes liés à l’articulation public/ privé sur le réseau mondial, sur le fossé numérique qui sépare les pays du Nord de ceux du Sud, ou encore sur la nécessité de préserver les « biens communs », notamment le patrimoine écrit ou visuel de l’humanité, des appétits des grandes firmes. Les véritables enjeux sont là. Sur certains de ces points, des livres souvent très complets ont été écrits ces dix dernières années, porteurs de nombreux débats publics. Beaucoup d’entre eux évoquent pour les déplorer les disparités géographiques de l’accès à l’Internet. De nombreux sociologues et chercheurs en sciences de l’information travaillent sur la notion de la rareté et de la diffusion de l’information. En revanche, peu s’intéressent à la genèse de ce média, aux enjeux qui ont présidé à sa création, aux conséquences économiques et sociales de son ouverture au grand public. Si beaucoup de personnes se défient de l’Internet en général, de la marchandisation des échanges qu’il encourage, de ses atteintes à la vie privée, de l’absence de médiateurs identifiés et de la masse d’informations non vérifiées qui y circule, de l’individualisme et des formes de désocialisation qu’il suscite, bien rares sont les travaux qui s’emparent de ces questions et envisagent la possibilité même d’un contre-modèle.

Or, la dimension de mise en commun des savoirs et l’idée que celle-ci peut nous ouvrir des perspectives en matière culturelle, sociale et même politique n’ont pas complètement déserté l’Internet. Elles se sont déplacées et, pour ainsi dire, réfugiées, au sein des communautés privées de « pirates ». Des îlots dédiés à la conservation du savoir et fondés sur la construction de références communes survivent ça et là, groupes fermés, difficiles à « pénétrer », mais qui accueillent au total plusieurs millions d’internautes de par le monde. Ces « îlots pirates », qu’il faut distinguer des grands sites publics de peer-to-peer, dont l’exceptionnelle rentabilité repose notamment sur des liens étroits avec l’industrie du sexe ou du jeu, se financent par le don, qui leur permet d’assurer la pérennité de leur structure. Ils s’articulent autour de cette idée, fondatrice de l’Internet, que le partage des connaissances et le foisonnement des échanges qu’il entraîne sont, en soi, des richesses et des facteurs d’innovations collectives. Ils contribuent ainsi à l’existence de formes de contre-culture, ancrées dans les concepts au fort potentiel subversif que sont le « libre » et le « participatif ».

L’ambition de ce livre, qui ne prétend donc pas à l’exhaustivité, est de proposer un portrait critique et général de l’Internet, des origines à nos jours, tout en projetant un peu de lumière sur quelques-uns des angles morts de la réflexion sur le « réseau des réseaux ». S’il parvient à fournir au lecteur – dont on prendra le pari qu’il est aussi, à l’occasion, un internaute – quelques clés pour appréhender la « toile » et exercer son discernement lorsqu’il évolue dans ses méandres, alors il aura atteint son objectif.

Notes

[1] Cf. Karl Popper, La société ouverte et ses ennemis (The Open Society and its Enemies ̧ 1945), Paris, Seuil, 1979, 2 tomes.

[2] La Galaxie Gutenberg, la genèse de l’homme typographique, (The Gutenberg Galaxy : The Making of Typographic Man, University of Toronto Press, 1962), Paris, Gallimard, collec- tion « Idées » 1977, 2 tomes.

[3] Teilhard de Chardin parle « d’un reploiement définitif et global de la masse pensante à l’intérieur d’un hémisphère supérieur, où elle ne saurait plus aller que se contractant et se concentrant sous l’effet du temps » (Sur le concept de noosphère chez Pierre Teilhard de Chardin, voir La place de l’homme dans la nature, in Œuvres complètes, tome VIII, Paris, Seuil, 1963).

[4] Voir par exemple Jacques Ellul, La technique ou l’enjeu du siècle, Paris, Armand Colin, 1954 et Herbert Marcuse, La Fin de l’utopie, Paris, Seuil, 1968.

[5] Voir à ce propos le livre brillant de Philippe Aigrain, Cause Commune, l’information entre bien commun et propriété, Paris, Fayard, 2005.

Louis Pouzin et le réseau des Cyclades

Même si le projet était confidentiel, certains ingénieurs français liés au milieu des télécommunications et de l’informatique avaient entendu parler d’Arpanet au tout début des années 1970. Dès 1969, certains d’entre eux s’étaient rendus aux États-Unis pour y rencontrer le professeur Kleinrock, à l’université de Californie. À leur retour, des discussions s’étaient engagées au sein de la Délégation à l’informatique – créée en 1966 et rattachée directement au Premier ministre –, pour étudier l’éventualité d’instaurer un réseau maillé, synonyme de « réseau distribué ». Louis Pouzin, à qui ce projet fut confié, se souvient de cette période avec émotion :

« Une chose est sûre : ces années ont été parmi les plus grisantes de ma carrière, une période vraiment euphorique. En octobre 1971, la Délégation à l’informatique – créée dans le cadre du Plan calcul – m’a demandé de concevoir le premier réseau informatique partagé français à l’image d’Arpanet, le réseau de l’agence américaine pour la défense que la délégation venait de découvrir. Elle se proposait de m’embaucher et de me confier un budget considérable pour un projet de recherche sur quatre ans. Arpanet était un réseau partagé – concept très innovant pour l’époque – qui devait permettre à plusieurs utilisateurs d’exploiter des ordinateurs simultanément. J’avais travaillé sur ce sujet au MIT dans les années 1960 pour développer le CTSS (Compatible Time Sharing System), l’un des premiers systèmes d’exploitation en temps partagé. Sans hésiter, j’ai quitté mon emploi chez Simca-Chrysler et je me suis installé sur le site de l’INRIA, à Rocquencourt. J’ai recruté une équipe d’emblée atypique associant chercheurs et ingénieurs. Au plus fort de l’activité, nous devions être environ 70, partie à l’INRIA, partie sur d’autres sites. Nous travaillions avec passion, au besoin la nuit et les week-ends, et fin 1973, nous avons fait une première démonstration de réseau – baptisé Cyclades – devant les ministres de l’Industrie et des PTT. Cyclades comportait alors un ordinateur à l’INRIA, un à la CII (Compagnie internationale pour l’informatique) et un à Grenoble ! Deux ans plus tard, le réseau connectait 25 ordinateurs en France, à Londres et Rome, comme prévu, dans les délais et le budget. » [1]

Malgré le succès rencontré, le projet Cyclades fut abandonné six ans plus tard, en 1978. Il semble que la puissante administration des Postes et Télécommunications françaises (PTT), ait joué un rôle majeur dans cette décision, le projet menaçant potentiellement son monopole. Après son élection en 1974, Valéry Giscard d’Estaing avait d’ailleurs supprimé la Délégation à l’informatique, principal soutien du projet Cyclades, pour la remplacer par un autre organisme qui faisait un intense lobbying pour les ordinateurs Bull – Cyclades utilisaient alors les machines d’une marque concurrente. Avec le recul, l’expérience des Cyclades apparaît comme un rendez-vous manqué avec l’histoire de l’Internet. La France et certains pays européens qui étaient associés au projet dans les années 1970 sont en effet passés à côté d’un rôle déterminant dans la construction du réseau. Et on ne connaîtrait peut- être pas aujourd’hui les difficultés posées par le fait que l’Icann, organisme chargé de délivrer les noms de domaine, ait été placé jusqu’en 2009 sous la tutelle du ministère américain du Commerce.

Notes

[1] Extrait de la revue Code Sources de l’INRIA, mars 2007.

samedi, mai 22 2010

Les îles en réseau et la survie du rêve fondateur

« Au XVIIIe siècle, les pirates et les corsaires créèrent un “réseau d’information” à l’échelle du globe : bien que primitif et conçu essentiellement pour le commerce, ce réseau fonctionna toutefois admirablement. Il était constellé d’îles et de caches lointaines où les bateaux pouvaient s’approvisionner en eau et nourriture et échanger leur butin contre des produits de luxe ou de première nécessité. Certaines de ces îles abritaient des “communautés intentionnelles”, des microsociétés vivant délibérément hors la loi et bien déterminées à le rester, ne fût-ce que pour une vie brève, mais joyeuse. Il y a quelques années, j’ai examiné pas mal de documents secondai- res sur la piraterie, dans l’espoir de trouver une étude sur ces enclaves – mais il semble qu’aucun historien ne les ait trouvées dignes d’être étudiées (William Burroughs et l’anarchiste britannique Larry Law en font mention – mais aucune étude systématique n’a jamais été réalisée). J’en revins donc aux sources premières et élaborai ma propre théorie. Cet essai en expose certains aspects. J’appelle ces colonies des “utopies pirates”.(...) Récemment Bruce Sterling, un des chefs de file de la littérature cyberpunk, a publié un roman situé dans un futur proche. Il est fondé sur l’hypothèse que le déclin des systèmes politiques générera une prolifération décentralisée de modes de vie expérimentaux : méga-entreprises aux mains des ouvriers, enclaves indépendantes spécialisées dans le piratage de données, enclaves socio-démocrates vertes, enclaves zéro-travail, zones anarchistes libérées, etc. L’économie de l’information qui supporte cette diversité est appelée le Réseau ; les enclaves sont les Iles en Réseau (et c’est aussi le titre du livre en anglais : Islands in the Net). Les Assassins du Moyen Âge fondèrent un “État” qui consistait en un réseau de vallées de montagnes isolées et de châteaux séparés par des milliers de kilomètres. Cet État était stratégiquement imprenable, alimenté par les informations de ses agents secrets, en guerre avec tous les gouvernements, et son seul objectif était la connaissance. La technologie moderne et ses satellites espions donnent à ce genre d’autonomie le goût d’un rêve romantique. Finies les îles pirates ! Dans l’avenir, cette même technologie – libérée de tout contrôle politique – rendrait possible tout un monde de zones autonomes. Mais pour le moment ce concept reste de la science-fiction – de la spéculation pure. ... Je crois qu’en extrapolant à partir d’histoires d’“îles en réseau”, futures et passées, nous pourrions mettre en évidence le fait qu’un certain type d’“enclave libre” est non seulement possible à notre époque, mais qu’il existe déjà. Toutes mes recherches et mes spéculations se sont cristallisées autour du concept de “zone autonome temporaire” (en abrégé Taz) » [1].

What.cd, Waffles.fm ou Dimeadozen.org pour la musique, Learnbits.org, Elbitz.net ou Bitme.org pour les livres, et bien d’autres encore pour les dvd ou les bandes dessinées, tous ces sites – la liste est loin d’être exhaustive – présentent, entre eux et avec les îles en réseau d’Hakim Bey, de nombreux points communs. Tout comme les « zones autonomes temporaires », l’accès à ces sites Internet est réservé, et il faut généralement une invitation, un « parrainage » pour accéder aux contenus qui y sont référencés. Ils rassemblent en général entre 5 000 et 100 000 utilisateurs, qui doivent obéir à certaines règles très strictes, sous peine de « bannissement », expression qui n’est pas sans rappeler les pratiques des communautés caribéennes de pirates, au XVIIIe siècle [2]. Les membres de ces groupes se renouvellent assez peu, et seulement par affinités électives, lorsque certains membres sont exclus. Mais surtout, ces sites Internet et les communautés qui les animent sont mus par un idéal sans concession de partage des connaissances et des œuvres autour desquelles ils se sont constitués.

Des chemins de traverse : pour une autre logique des échanges culturels

L’un des premiers devoirs, au sein de ces Taz, est en effet de « partager » ce que l’on télécharge ou ce que l’on met à disposition, de maintenir un ratio supérieur à un dans le rapport entre la réception et l’émission de données. En d’autres termes, il est nécessaire de diffuser plus de contenus, qu’il s’agisse de dvd, de livres numérisés ou de cd, qu’on n’en télécharge. Cette règle permet d’assurer la disponibilité sur la longue durée des fichiers téléchargés. Waffles. fm et What.cd recensent chacun près de 200 000 sources de téléchargement. Il s’agit la plupart du temps d’œuvres complètes, qui sont aussitôt disponibles chez des dizaines de membres. Par ailleurs, à l’intérieur de chacune de ces « îles en réseau », les internautes échangent des informations et mènent des discussions, souvent très pointues, sur les œuvres mises à disposition.

Il y a quelques années à peine, le piratage des œuvres sur l’Internet était avant tout un marché de l’offre. Les internautes, par pur réflexe « consumériste », se « servaient », en fonction de ce qu’ils parvenaient à trouver sur Napster ou d’autres sites. Sous l’influence de ces petits groupes, le phénomène tend à s’inverser. Les membres de ces communautés effectuent des « demandes » précises, portant souvent sur des documents rares ou indisponibles dans le commerce – tel album historique de Bob Dylan, tel livre de référence en mathématiques, tel film d’auteur, etc. –, auxquelles d’autres membres s’efforcent de répondre.

L’une des caractéristiques majeures de ces îles en réseau est donc de dessiner des itinéraires culturels différents, de constituer de nouvelles logiques d’appropriation du savoir, d’ouvrir la voie à d’autres débats d’idées que ceux imposés par les médias de masse. La rareté est ici objet de toute l’attention, non seulement pour elle- même, mais comme point d’appui pour la formation d’univers de références « alternatifs », de contre-cultures, auxquels chacun peut emprunter et contribuer à sa guise. La généralisation du prêt en bibliothèque – non seulement en France, mais aussi dans l’ensemble des pays occidentaux – a joué un rôle majeur dans le développement de ces échanges, puisqu’elle permet aux emprunteurs de trouver des sources pour « ripper » cd et dvd, de scanner des livres entiers ou des partitions de musique, pour les mettre à disposition des autres membres du groupe. La littérature imprimée disponible – au format pdf – sur ces réseaux représente une masse de documents considérable. Les livres issus des catalogues de maisons d’édition de référence du monde anglo-saxon spécialisées en sciences humaines – Springer, Oxford University Press, Cambridge University Press, etc. – ou consacrées aux ouvrages techniques – O’Reilly, Apress, Packt Publishing – y occupent une place prépondérante et sont d’ailleurs historiquement les premiers à avoir été piratés. Mais l’univers des « comics » américains est également à l’honneur au sein de ces réseaux, où circulent sous forme numérisée les numéros « collector » et les éditions rares de ce genre caractéristique de la contre-culture américaine [3]. C’est aussi le cas des partitions de musique classique, dont certaines étaient longtemps restées introuvables ou difficiles d’accès, jusqu’au travail d’exhumation et de mise à disposition effectué par les pirates de l’Internet. À titre d’exemple, il est aujourd’hui possible de télécharger en quelques heures l’ensemble des partitions de Jean-Philippe Rameau, ou une grande partie de celles de Jean-Sébastien Bach, qu’il était auparavant très difficile de se procurer auprès des bibliothèques ou des éditeurs de partitions.

Ce ne sont là que quelques exemples, mais qui témoignent de la diversité et de la vitalité de ces équipes de pirates, qui entreprennent de numériser et de mettre à disposition des pans entiers de la culture occidentale sur ces îles en réseau. De sorte qu’il peut être tentant, comme certains le font, de considérer que ces « pirates » ont pour vocation et pour activité principales de contourner les législations nationales en vigueur sur le droit d’auteur, afin de détourner à leur usage exclusif l’activité des structures d’édition et de production, dont elles menaceraient la pérennité économique. Une telle affirmation mérite cependant d’être nuancée.

On aurait tort, en effet, de réduire les pirates des îles en réseau à de purs activistes dédiés à la destruction des économies de la culture. Certes, les membres de ces groupes apprécient les œuvres qu’ils piratent en fonction de critères qui tiennent peu compte de leur valeur « commerciale ». Ils agissent le plus souvent en amateurs éclairés, soucieux de réunir le meilleur de la production intellectuelle et artistique dans un domaine donné, à l’image de ces communautés qui mettent à la disposition de leurs membres des collections entières consacrées à l’étude de l’Égypte antique ou à la littérature turque contemporaine – des stocks de données d’ailleurs extrêmement conséquents, puisqu’il n’est pas rare aujourd’hui de trouver, prêts à télécharger, des ensembles de fichiers atteignant la dizaine de gigaoctets. Il faut cependant remarquer que la matière privilégiée mise en ligne sur ces sites est constituée d’éléments non disponibles commercialement, soit parce qu’ils sont épuisés, soit même parce qu’ils n’ont jamais été mis à disposition du grand public (cours et conférences universitaires, concerts ou morceaux de musique inédits, etc.).

Il faut toutefois reconnaître que la quasi-exhaustivité de ces « collections » et l’efficacité des démarches que les pirates effectuent pour les constituer tiennent étroitement à leur indifférence à l’égard des législations nationales sur les droits d’auteurs : n’ayant pas de demandes à effectuer aux ayants droit, ils n’ont pas à essuyer de refus de leur part, contrainte que doivent en revanche affronter les bibliothèques nationales lorsqu’elles entreprennent la numérisation de leur fonds. Les pirates ne se heurtent pas non plus à la question des « œuvres orphelines », ces œuvres dont il faut rechercher les ayants droit potentiels avant toute mise à disposition – commerciale ou non – du public. Le problème est, ici, tout simplement évacué. À l’exception de certaines communautés liées à la bande dessinée – où l’on rencontre fréquemment des messages du type : « Si vous avez aimé cet auteur, allez acheter ses œuvres » –, la plupart des forums associés aux îles en réseau ne débattent quasiment jamais de la question du copyright ou du code de la propriété intellectuelle. On n’y trouve pas non plus de tentative de justification, même grossière, du piratage massif. Toute référence au droit d’auteur y est généralement absente, comme si cette notion pourtant vieille de trois siècles n’avait jamais existé. Ainsi, au contraire des « partis pirates » européens qui mettent au centre de leurs préoccupations la réforme de ces législations, afin de légaliser l’ensemble des téléchargements sur les réseaux P2P, les Taz de l’Internet n’accordent aucune attention aux problèmes des industries de diffusion d’œuvres. En revanche, on peut noter une certaine sensibilité aux enjeux économiques liés à la création, qu’elle soit phonographique, audiovisuelle ou textuelle, dans le refus catégorique de toute pratique visant à « tirer un revenu du travail d’artistes sans que ceux-ci ne soient correctement dédommagés » [4].

Les « menottes » numériques (ou DRM) et le recours à la loi

Face à de tels comportements, les industriels de la musique et du cinéma avaient adopté, il y a quelques années, un parti pris coercitif en développant un système de verrous numériques, censés empêcher la diffusion des contenus téléchargés légalement. Le terme même de DRM était sujet à caution : en effet, « gestion des droits numériques » (traduction française de Digital Rights Management) impliquait la concession de « droits » aux internautes, alors qu’il s’agissait en fait, purement et simplement, de les en priver. Les DRM constituaient en effet de véritables « menottes » numériques, puisqu’ils interdisaient l’échange, entre deux ordinateurs, de fichiers de musique numérisés, alors que, paradoxalement, le prêt de cd entre amis était parfaitement légal [5]. La Free Software Foundation de Richard Stallman proposa d’ailleurs de parler plutôt de Digital Restrictions Management (gestion des restrictions numériques).

La protection des œuvres via les DRM fut un échec total. L’impopularité de ces verrous fut massive. Les frustrations qu’ils générèrent et leur complexité intrinsèque ouvrirent la porte aux tentatives de piratage. Et devant l’ingéniosité des hackers, friands de nouveaux défis et dont beaucoup partageaient les idéaux libertaires, les DRM constituaient des bien fragiles protections. Depuis une dizaine d’années, plusieurs générations de verrous numériques se sont succédé ; aucune d’entre elles, qu’elle fût conçue par les ingénieurs de Microsoft, d’Adobe ou d’Apple, ne résista plus de quelques mois aux talents combinés d’un ou plusieurs hackers, qui s’empressèrent chaque fois de mettre leur formule à la disposition des internautes.

Les majors du disque justifiaient le recours à de tels dispositifs coercitifs par la nécessité d’enrayer la crise profonde où leur secteur se trouvait plongé, crise due selon eux au développement des pratiques de téléchargement massif des œuvres sous droit. La réalité est cependant plus complexe. Sans nier l’existence d’une crise majeure dans l’industrie musicale, rien n’indique de manière certaine que le commerce des œuvres de l’esprit soit irrévocablement menacé par la pratique du piratage sur l’Internet. Les très nombreux rapports commandés sur cette question depuis une dizaine d’années sont contradictoires. Si, pour certains, le lien entre le téléchargement et le déclin des ventes de cd ne fait aucun doute, d’autres indiquent au contraire que le piratage constitue pour certaines œuvres un véritable outil de visibilité, induisant par là même une hausse de la courbe de leurs ventes. C’est le cas notamment pour une étude récente commandée par le gouvernement hollandais et remise début janvier 2009 à son ministre de l’Économie [6].

Le phénomène est donc extrêmement complexe et les données collectées contradictoires, aussi convient-il d’appréhender les discours des uns et des autres avec une certaine prudence. Si l’on acceptait, par exemple, sans réserve le point de vue des analystes les plus alarmistes, on ne comprendrait guère la survie et même la prospérité d’une structure éditoriale comme O’Reilly, éditeur de référence dans le monde anglo-saxon pour les livres informatiques. Piraté massivement, puisqu’il est possible de se procurer en quelques heures l’intégralité de son catalogue via BitTorrent – soit plus d’un millier de titres –, Tim O’Reilly ne se plaint pas, au contraire. Le fondateur de la maison d’édition et co-inventeur de la célèbre formule « web 2.0 » estime que la piraterie, loin d’être un problème, constitue même une chance pour des artistes qui, sans elle, n’auraient aucune visibilité :

« La piraterie est une sorte d’impôt progressif, qui réduit peut-être de quelques points le pourcentage des ventes d’artistes célèbres (et je dis “peut-être”, parce que même ce point n’est pas démontré), mais induit en contrepartie d’immenses bénéfices pour le nombre beaucoup plus élevé de ceux qui tireront avantage de cette publicité. Nos systèmes actuels de diffusion et de distribution des livres, de la musique et des films faussent lourdement la concurrence entre les « nantis » et les « démunis ». Une petite quantité de produits très en vue héritent de la plus grosse partie des budgets promotionnels et sont largement distribués ; la majorité est tributaire, selon l’expression du personnage de Tennessee Williams, Blanche DuBois, « de la gentillesse des étrangers » (the kindness of strangers). L’abaissement des coûts d’accès à la distribution et la disponibilité durable de catalogues entiers plutôt que des seules œuvres les plus populaires sont une bonne chose pour les artistes, puisqu’ils leur permettent d’asseoir leur réputation et leur visibilité, de concert avec les entrepreneurs des nouveaux médias qui sont aussi les éditeurs et les distributeurs de demain » [7].

Ainsi, pour Tim O’Reilly, « le manque de reconnaissance est une menace bien plus grande pour les auteurs et les artistes que le piratage ». L’éditeur français Michel Valensi, responsable des éditions de l’Éclat, défend depuis maintenant plus de dix ans une position similaire [8]. C’est d’ailleurs ce que tend à confirmer le succès croissant des creative commons, ces œuvres placées sous licence libre et largement diffusées sur le Net, qui ne semblent pas faire obstacle, bien au contraire, à leur exploitation commerciale tout en ouvrant de nouvelles pistes à l’expérimentation culturelle grâce à leur réappropriation par les internautes [9].

Depuis l’échec des tentatives de verrouillage des données numérisées, les grandes compagnies de l’industrie musicale explorent aujourd’hui de nouvelles voies, notamment la mise en vente de fichiers musicaux libérés de DRM [10].

Dans le même temps, la majorité des États, au niveau mondial, a renoncé, devant l’ampleur du phénomène, à légiférer sur les réseaux peer-to-peer. Dans ces conditions, la loi Hadopi, mise en en France, constitue une exception curieuse. Non seulement sa légitimité est sujette à caution, mais, comme cela a été maintes fois constaté depuis, elle est largement inapplicable.

La législation Hadopi crée une nouvelle instance, la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet, chargée de lutter contre le partage des œuvres sous droit d’auteur. Cette Haute Autorité a également pour mission d’expérimenter un « filtrage » des contenus sur Internet, en accord avec les fournisseurs d’accès, ce qui constitue clairement une violation des libertés individuelles [11]. Par ailleurs, la loi Hadopi crée un véritable appel d’air en direction des sociétés qui fournissent des solutions de téléchargement direct (ou DirectDownload), pour de nombreuses œuvres encore sous droit. Des plates-formes telles que Megaupload, RapidShare, Yousendit permettent en effet de récupérer des œuvres protégées, sans être identifiées par les dispositifs techniques de surveillance mis en œuvre dans le cadre de la loi Hadopi. De cette façon, le dispositif de surveillance créé, outre son inefficacité, constitue une véritable aubaine pour des sociétés susceptibles d’enregistrer un accroissement significatif de leurs abonnements payants.

Quoi qu’il en soit, les questions liées au respect du droit d’auteur ne doivent pas faire oublier que les îles en réseau rassemblées sur le réseau BitTorrent représentent à l’heure actuelle la seule véritable tentative d’organiser la pérennité du savoir numérique face à la prolifération des formes de la culture jetable assurée par les grandes firmes commerciales.

Les réseaux pirates et la conservation du savoir

L’univers des îles en réseau est une réalité complexe, diffuse et variable, mais non sans une forte cohérence interne. Il arrive parfois que telle ou telle île disparaisse, à l’image des zones autonomes temporaire dont parle Hakim Bey. Cela n’affecte pas pour autant le stock de connaissances qu’elle a constitué, le travail effectué par un groupe qui se dissout étant repris et redistribué par les autres. À l’image de TextBookTorrents.com, contraint sous la pression des maisons d’édition américaines de fermer en octobre 2008, après avoir permis pendant plusieurs années de partager des milliers de livres dans le domaine des sciences humaines, mais dont les fichiers, rassemblés dans de nouvelles collections, peuvent être téléchargés sur de nombreux autres sites [12]. Aussi, les collections élaborées sur les sites privés de partage sont-elles perpétuellement en cours de réorganisation, les membres de la communauté se comportant en véritables bibliothécaires, qui trient, hiérarchisent et construisent des systèmes de classement très élaborés.

Ce n’est d’ailleurs pas le seul point sur lequel l’activité des pirates peut être comparée à celle des conservateurs de bibliothèque. L’une des tâches essentielles du conservateur est de prendre « toute mesure de surveillance, de protection, de reproduction et de communication propre à préserver l’intégrité du document » [13]. Or, les pirates, par l’usage qu’ils font des formats ouverts et donc plus pérennes [14], se révèlent particulièrement conscients de la fragilité des supports numériques et des risques qu’ils font peser sur la conservation des données. L’absence de fiabilité et les problèmes de conservation des documents numériques sont en effet très importants. Ils tiennent essentiellement à deux raisons.

La première est liée à l’extrême hétérogénéité des formats, souvent propriétaires, qui sont utilisés pour l’enregistrement et la mise en forme de ces données. Les éditeurs de logiciels propriétaires utilisés pour la mise en page de livres, par exemple, qu’il s’agisse de Quark ou d’Adobe, n’organisent aucune compatibilité entre leurs familles de produits, ou encore entre les différentes versions de leurs logiciels, mises au point au cours des ans (notion de compatibilité ascendante). La plupart des éditeurs, compte tenu des technologies propriétaires employées pour réaliser les maquettes de leurs livres, sont donc obligés de recommencer le travail de maquettage, parfois à peine quelques années après l’établissement des premières versions [15].

La seconde raison tient à la nature même des supports. Ces derniers, qu’ils soient optiques (cd-rom, dvd), ou magnétiques tels que les disques durs, demeurent fragiles et se dégradent assez rapidement, parfois en l’espace de trois ou quatre ans. Pour remédier à ces problèmes, il n’existe, en l’état des connaissances techniques, qu’une solution : dupliquer les données sur de très grands ensembles de stockage. On comprend donc que se soit développé un véritable marché du stockage au cours des dernières années, une telle contrainte entraînant pour les bibliothèques des coûts extraordinairement élevés. Les équipes de Gallica ou de la British Library le savent bien, qui doivent continuellement développer des « stratégies » de duplication des données et lancer des appels d’offres auprès de sociétés privées, afin d’acquérir un nombre chaque jour plus important de pétaoctets [16] de stockage dupliqués à l’identique dans différents lieux3. Or, ce que des grandes bibliothèques patrimoniales peuvent envisager, en termes d’efforts financiers, pour assurer la pérennité de leurs fonds – et encore, sans la moindre garantie de succès à long terme –, peu de structures peuvent se le permettre.

Nous mettons actuellement en œuvre des politiques de numérisation massive du savoir, sans avoir la moindre idée des délais pendant lesquels ce patrimoine restera disponible. Ce risque est d’autant plus grand que, désormais, la production intellectuelle et artistique tend à privilégier dès le départ les formes et les supports numérisés (photographies, films, documents audio, « manuscrits » d’auteurs et copies d’éditeurs, etc.). La perspective de ce qu’on pourrait, avec un soupçon de dérision, appeler la « page blanche », c’est-à-dire la perte irrémédiable des connaissances accumulées depuis des millénaires, est donc bien réelle. À plus forte raison si l’on ajoute à la question de la dégradation des supports celle des risques systémiques qui pèsent sur un réseau fortement intégré et rendu opérationnel par un nombre extrêmement réduit d’acteurs en situation de quasi-monopole.

L’Internet est en effet une configuration où la moindre erreur peut avoir une cascade de conséquences affectant l’ensemble du système. Google nous en a donné récemment un merveilleux exemple. Le 30 janvier 2009, à la suite d’une erreur humaine dans la manipulation d’un fichier chez l’une des sociétés qui travaille avec Google – une manipulation parfaitement anodine puisqu’il s’agissait de l’inscription d’un caractère dit « joker » dans un fichier texte [17] –, la totalité des sites Internet répertoriés dans les pages de résultats du moteur de recherche ont été marqués comme « potentiellement dangereux » et « pouvant endommager votre ordinateur » et leur accès interdit, partout dans le monde, et ce pendant une heure. Ce parfait exemple d’« effet papillon » (une modification mineure déclenche un ensemble de variations majeures aux résultats imprévisibles) nous rappelle que l’Internet et les réseaux informatiques sont des entités très vulnérables et d’une fiabilité plus que douteuse à moyen ou long terme.

Dans ce contexte, la seule solution réaliste pour organiser la pérennité des données numérisées est la dissémination des fichiers.

Or, les « groupes de pirates », en organisant l’échange permanent des contenus qu’ils élaborent et en s’efforçant de permettre un accès aussi large et aussi durable que possible à ces fichiers, jouent d’ores et déjà un rôle majeur en ce domaine. Leur propension à archiver et à enregistrer leurs collections dans des formats ouverts, et à les diffuser sur des dizaines de milliers d’ordinateur distants les uns des autres accroît en effet considérablement les chances de conservation à long terme des savoirs humains. Ce n’est donc pas le moindre paradoxe de constater que les « pirates », qui ignorent et souvent bafouent les législations sur le droit d’auteur et le copyright, sont aussi potentiellement les meilleurs agents de la conservation des productions de l’esprit sous leur forme numérique. Et il n’est pas absurde d’imaginer qu’un jour ou l'autre, auteurs, éditeurs et producteurs s’adresseront aux pirates des îles en réseau pour avoir – gratuitement – accès à la dernière copie existante de l’œuvre à laquelle ils avaient donné naissance.

Le terme de « pirate », infamant dans l’esprit des tenants de la marchandisation généralisée qui le réservent à tous ceux qui menacent leur monopole commercial sur les œuvres de l’esprit, renvoie à une toute autre réalité pour nombre d’usagers de l’Internet. La propension des pirates informatiques, les premiers « hackers », à s’attaquer aux codes sources des logiciels, fussent-ils « propriétaires », fut notamment à l’origine du développement de systèmes d’exploitation ouverts et accessibles à tous, dont l’usage tend aujourd’hui à se propager, y compris dans les institutions économiques et politiques. C’est en s’inspirant de leurs travaux – et de leur philosophie du « libre » (free) – qu’ont été mis au point les vastes réseaux peer-to-peer, dont le succès colossal a contribué à porter sur la place publique – les « partis pirates » de l’Europe du Nord n’en sont qu’une illustration – le nécessaire débat sur la propriété et les conditions de diffusion des produits culturels et autres biens immatériels. Quant aux « pirates des îles en réseau », ils portent aujourd’hui au plus haut degré cet esprit d’indépendance et de liberté en contribuant à la mise en commun et à la construction Certes ces groupes attachés à la notion polysémique de free n’en ont pas tous la même définition. Ainsi l’opposition est-elle très nette entre, d’un côté, ceux qui, tout en mettant l’accent sur son sens de « gratuité », n’en spéculent pas moins sur les formidables revenus publicitaires générés par l’explosion du trafic sur leur plates- formes de téléchargement, et, de l’autre, ces « zones autonomes temporaires » de l’Internet, plus discrètes et plus regardantes sur les pratiques de leurs membres, qui parleront plutôt d’accès « libre » tout en restant résolument hostiles à toute forme d’exploitation commerciale des fichiers qu’ils mettent à leur disposition. Opposition sur les moyens qui confine même à la contradiction sur les fins, puisque les uns tendent à se spécialiser dans la diffusion de la culture de masse – ce dont témoigne leur financement par les industries de la pornographie et du jeu en ligne –, tandis que les autres se montrent très attachés à la construction de savoirs personnels, ouvrant la voie, à travers l’intensité des échanges et des discussions entre membres, à l’élaboration de véritables contre- cultures.

Reste que contre certains discours du renoncement à cet objet technologique mal identifié qu’est l’Internet – discours qui préconisent de s’en tenir à distance plutôt que de risquer de prendre part à l’entreprise de dissolution du sujet au profit d’un consumérisme nihiliste dont il serait uniquement le théâtre – il semble bien que celui-ci puisse encore constituer un espace de liberté et d’innovations, et pas seulement sur le plan technique.

Un tel espace peut, il est vrai, paraître résiduel voire inaudible, tant les forces contraires sont nombreuses et puissantes. Si, à partir des années 1950, des chercheurs et des informaticiens s’étaient engagés dans l’aventure de l’Internet (le nom n’existait pas encore) dans le souci de faciliter entre eux les échanges et de concourir ainsi au progrès scientifique, si certains de ces pionniers avaient même songé que ce nouvel outil présiderait peut-être à l’avènement d’une sorte de conscience universelle, à l’essor d’une humanité rénovée par la mise en commun des connaissances [18]1, l’ouverture du réseau au grand public et les immenses perspectives de profit que cette nouvelle situation offrait aux entreprises de l’informatique, d’abord, et bientôt aux grandes sociétés commerciales, sont venues tout bouleverser. En quelques années, les échanges marchands et le marketing publicitaire ont pris le pas sur la liberté des échanges et la publicité des connaissances [19].

Nouveau terrain de jeu d’un capitalisme sauvage, l’Internet relègue aujourd’hui à la portion congrue voire à la quasi-clandestinité les espaces où continuent de s’exprimer des utopies participatives et indifférentes aux formes commerciales de rétribution de leurs activités. Les membres de ces communautés et les internautes, de plus en plus nombreux, qui souhaiteraient y prendre part doivent désormais faire face aux efforts conjugués des entreprises privées et des pouvoirs publics (discours de criminalisation du « piratage », tentatives de verrouillage de l’accès aux œuvres – les DRM – et velléité de mettre en œuvre, comme avec la loi Hadopi, des législations de contrôle) pour entraver leurs efforts. Pourtant, la complexité et la dissémination du réseau font de l’Internet un espace où se déploient de multiples formes d’expression qui restent difficiles, voire impossibles à contrôler totalement. Nombre de pratiques fondées sur le partage des savoirs et des expériences individuelles et sur l’enrichissement culturel par « accrétion » [20] – qui ont donné lieu à des dispositifs de type législatifs efficaces comme la General Public Licence ou les creative commons – s’y déploient à l’abri des regards et, à l’image de la société « réelle », dans des configurations extrêmement souples et mouvantes, insaisissables. Pourquoi de telles formes d’organisation collective de l’innovation ne finiraient-elles pas, comme le fit en son temps et dans le secteur du textile la Grande Fabrique lyonnaise face à l’hégémonie londonienne [21], par offrir des contre-modèles aux formes actuellement dominantes (basées sur la concurrence en économie, sur l’« expertise » politique et les décisions de l’État en matière sociale) de définition des modalités du vivre ensemble ?

Notes

[1] Taz, op. cit., p. 7-9.

[2] Contrairement à une opinion répandue, les pirates, réunis en libre association d’individus, obéissaient à un ensemble de règles très strictes, imposées à l’origine par l’exiguïté de l’espace disponible sur les navires. Pour les questions relatives à la piraterie à l’époque moderne, le livre de référence reste celui de Marcus Rediker, traduit en France sous le titre : Pirates de tous les pays. L’âge d’or de la piraterie atlantique (1716-1726), Paris, Libertalia, 2008.

[3] Voir par exemple : Mila Bongco, Reading Comics : Language, Culture and the Concept of the Superhero in Comic Books, New York, Garland, 2000.

[4] Règlement du site Dimeadozen en matière de revente de données piratées : « La règle de Dime en matière de commerce de données piratées (bootleg) est celle de la tolérance-zéro. Tirer un revenu du travail d’artistes sans que ceux-ci ne soient correctement dédommagés est non-éthique et impardonnable. Les utilisateurs perdent tout accès au tracker s’ils se révèlent impliqués, engagés, ou associés au commerce de données piratées, que leurs offres puissent ou non être reliées à des torrents de Dime. Tous les dons qu’ils auraient versés à Dime sont confisqués » (cf. http://wiki.dimeadozen.org/index.php/DimeTOS:Bootleg_Sellers).

[5] Comme le note Florent Latrive, « L’exception pour “copie privée” est l’une des exceptions fondamentales du droit d’auteur. (...) Nombre de juristes estiment aussi que télécharger une œuvre protégée par le droit d’auteur sur un site illégal s’inscrit dans ce champ. C’est bien la mise à disposition de l’œuvre qui est interdite, pas la copie » (Du bon usage de la piraterie, op. cit., p. 39).

[6] Voir le rapport intitulé « Economische en culturele gevolgen van file sharing voor mu- ziek, film en games » (http://www.ez.nl/dsresource?objectid=161961&type=PDF), dont il n’existe malheureusement pas de version française.

[7] Sur le piratage de son catalogue, voir les propos de Tim O’Reilly (http://openp2p.com/ lpt/a/3015).

[8] Voir par exemple son « Petit traité plié en dix », sur http://www.lyber-eclat.net/lyber/ lybertxt.html.

[9] Cf. Florent Latrive, Du bon usage de la piraterie, op. cit., p. 89-93. Le label musical Magnatune s’attache ainsi à concilier libre accès et revenus en proposant de la musique copiable et diffusable librement et en vendant en parallèle des disques dont la qualité d’enregistrement est supérieure. Des auteurs de science fiction, comme Cory Doctorow, proposent leurs livres en téléchargement gratuit tout en mettant en vente des exemplaires papier, le tout avec un succès considérable.

[10] À cet égard, il est surprenant voire paradoxal, qu’à l’heure où l’industrie musicale renonce massivement à l’emploi de DRM, certains groupes d’édition lancent des plates-formes de ventes de livres numériques « verrouillés », telles que Numilog, filiale d’Hachette, pour le monde francophone. On peut douter que l’industrie du livre réussisse là où les « majors » du disque, qui disposaient de moyens économiques autrement importants, échouèrent pen- dant près de dix ans.

[11] Voir la discussion du texte à l’Assemblée le 4 mai 2009. La dimension liberticide de la loi est largement documentée et explicitée sur le site PcInpact (http://www.pcinpact.com/actu/ news/50687-filtrage-experimentation-hadopi-contenu-source.htm).

[12] Cf. notamment « In Win for Publishers, “TextbookTorrents” Piracy Site Shuts Down for Good », The Chronicle of Higher Education, 14 octobre 2008 (http://chronicle.com/ blogPost/In-Win-for-Publishers/4309).

[13] Charte des bibliothèques adoptée le 7 novembre 1991 par le Conseil supérieur des bi- bliothèques.

[14] Les formats ouverts sont synonymes de pérennité, dans la mesure où il est possible d’exa- miner la manière dont ils ont été produits, et donc de récupérer très facilement les données sources à partir desquelles ils ont été élaborés. L’emploi de formats propriétaires pour l’édi- tion phonographique ou les livres se révèle catastrophique, puisqu’il est souvent impossible de rééditer un document dans un format propriétaire quelques années seulement après sa création puisque les données qui ont servi de sources (les pistes audio, par exemple, lorsqu’il s’agit d’un enregistrement sonore), ne peuvent pas être récupérées.

[15] Quelle différence, de ce point de vue, avec les méthodes employées par bien des éditeurs scientifiques ou techniques, notamment anglo-saxons, qui s’appuient, au moment de com- poser leurs livres, sur des standards ouverts et cohérents tels que LaTex, ce qui leur permet de reprendre leurs épreuves plus de vingt ans après, sans aucun souci.

[16] Ces vastes data centers, ensembles fermés, dont l’accès est sécurisé, rassemblent généralement plus de 10 000 serveurs.

[17] Un caractère « joker » fait partie de l’ensemble dit des « expressions régulières », un corpus d’expressions qui permettent d’effectuer très rapidement des manipulations sur de vastes ensembles de fichiers ou de répertoires.

[18] Répondant en cela aux projets visionnaires plus anciens d’« encyclopédie mondiale », comme celui de l’écrivain de science fiction H.G. Wells, dont un essai de 1937 propose de « rassembler toute la richesse mentale éparpillée et inopérante de notre monde en une sorte de compréhension commune, susceptible d’agir sur notre vie politique, sociale et économi- que » (texte publié dans Books, n° 12, mars-avril 2010).

[19] Ce qui ne signifie pas pour autant que l’utopie d’une conscience universelle fondée sur la technologie informatique soit complètement abandonnée. Ariel Kyrou montre que l’imaginaire et la pratique même de Google reposent sur cette vision offrant pour l’avenir deux faces opposées : une face noire, « le cauchemar d’une transparence totale, livrée par chaque être humain à son avatar de base de données, à son agent personnel d’information sachant tout de lui comme de l’humanité entière via la mère de tous les API : l’IA Google. À l’inverse, cette vision aurait une face blanche, qui ressemblerait à la conscience artificielle et néanmoins universelle de la Terre, déesse Gaia de l’ère numérique telle que rêvée par Teilhard de Chardin et Marshall McLuhan, et dont chaque puce ou chaque capteur serait l’un des neurones... » (cf. Ariel Kyrou, « La mutation androïde de Google : radiographie d’un imaginaire en actes », Multitudes 36, été 2009.

[20] Ce terme, emprunté à l’histoire naturelle, désigne un « procédé de croissance par addition extérieure » (voir le dictionnaire Trésors de la langue française informatisé : http://atilf.atilf.fr/dendien/scripts/tlfiv5/advanced.exe?8;s=2139102180;|http://atilf.atilf.fr/dendien/scripts/tlfiv5/advanced.exe?8;s=2139102180;]). Il entend caractériser ici les logiques collaboratives et en constante évolution qui président à l’élaboration de projets collectifs et libres à destination de la communauté (logiciel libre, wikis, etc.).

[21] Cf. Dominique Foray et Lilian Hilaire Perez, « The economics of open technology: collective organization and individual claims in the “fabrique lyonnaise” during the old regime », dans Cristiano Antonelli, Dominique Foray, Bronwyn H. Hall, W. Edward Stein- mueller éd., Frontiers in the economics of innovation and new technology. Essays in honor of Paul A. David, Cheltenham, 2005, p. 239-254.

La réalisation technique d'une utopie

« Une information, si elle peut être utile à la science, doit être continuellement approfondie, elle doit être stockée et, par-dessus tout, elle doit être consultée. »

Vannevar Bush

En octobre 2009, les principaux médias anglo-saxons fêtaient le quarantième anniversaire de la naissance de l’Internet. Pour eux, la date de référence était le 29 octobre 1969. Ce jour-là, le professeur Leonard Kleinrock et deux de ses étudiants de l’UCLA (University of California, Los Angeles) parvenaient à transmettre un court message – en réalité, simplement deux lettres – entre deux ordinateurs situés l’un sur le campus de l’Université de Californie, l’autre à l’Institut de recherche de Stanford, à environ 500 kilomètres de là [1]. Pour beaucoup d’historiens et de médias anglo-saxons [2], il s’agit là de l’expérience fondatrice de l’Internet.

La réalité est beaucoup plus complexe, et le choix d’une date en particulier, pour ce qui concerne l’invention de l’Internet comme d’ailleurs pour tout travail historiographique portant sur la genèse d’un phénomène particulier, relève forcément de l’arbitraire. Le vaste réseau informatique que nous appelons l’Internet repose sur un ensemble de technologies dont l’élaboration s’est étalée sur plus de trente ans, des années 1960 au début des années 1990, et est le résultat combiné des travaux de multiples acteurs. Durant ces trente années, en effet, le socle technique de l’Internet s’est développé peu à peu sous l’impulsion d’individus ou de groupes dont les ambitions différaient beaucoup selon qu’il s’agissait d’universitaires, de militaires, ou encore de chercheurs financés par des entreprises privées, le plus souvent sous contrat avec le ministère de la Défense américain. Pour autant, ces « inventeurs » de l’Internet avaient tous hérité d’un idéal plus ancien : celui de mise en partage du savoir par l’édification de « réseaux » capables de faire progresser à grands pas sinon la conscience humaine du moins la connaissance scientifique.

Nombre d’hommes et de femmes, au cours de ces décennies, se sont ainsi engagés dans des projets visant à rendre plus aisés le classement et l’accès aux créations de l’intellect humain. Ce fut le cas aux États-Unis, surtout, à travers les travaux menés dans le cadre du projet Arpanet, mais aussi en France et en Suisse, au sein notamment du Centre européen pour la recherche nucléaire (CERN), à qui l’on doit notamment la mise au point de l’hypertexte. La compétition fait rage aujourd’hui entre ces précurseurs, chacun cherchant à mettre en avant sa propre contribution à l’ensemble de l’édifice. Il importe pourtant de rappeler, comme le fit en 2001 le scientifique américain Paul Baran, lui-même considéré par beaucoup comme un de ses « pères fondateurs », que l’« Internet est en réalité le fruit du travail d’un bon millier de personnes. Et quand on prend toutes les versions des contributions individuelles, on constate qu’elles s’emboîtent toutes parfaitement » pour aboutir au résultat que l’on connaît aujourd’hui [3].

Le rêve des origines : une préhistoire de l’Internet

Ainsi, avant d’être même en mesure d’imaginer la technologie qui leur permettrait de réaliser leurs ambitions, quelques chercheurs avaient en quelque sorte « conçu » l’Internet à travers des expériences de pensée, dont les comptes rendus écrits apparaissent aujourd’hui comme des textes fondateurs. En 1945, soit près d’un demi-siècle avant qu’elle ne devienne réalité, Vannevar Bush [4] préfigure la notion d’hypertexte dans un article aujourd’hui célèbre paru en juillet 1945 dans le magazine The Atlantic et intitulé « As We May Think ». Bush y décrit un dispositif qu’il baptise le memex, « à l’intérieur duquel un individu stocke tous ses livres, ses archives, sa correspondance, et qui est mécanisé de manière à en permettre la consultation avec une extrême rapidité et une parfaite souplesse. C’est une extension intime de sa mémoire ». L’auteur explique ensuite les fonctions d’enregistrement (par le procédé de la « photographie à sec ») et de consultation par indexation des données du memex, avant de préciser : « Cela implique cependant de franchir incontinent une étape supplémentaire vers un mode d’indexation associatif, dont l’idée fondamentale est qu’il permettrait de faire en sorte qu’à volonté, n’importe quel document occasionne la sélection immédiate et automatique d’un autre document. Là est la caractéristique essentielle du memex. C’est le procédé de liaison de deux documents distincts qui est le point le plus important » [5].

Or, lorsqu’il avance cette idée – à l’époque révolutionnaire –, le problème que s’efforce de résoudre Vannevar Bush n’est pas simplement technique. Son objectif est en réalité beaucoup plus ambitieux. Constatant les progrès fulgurants accomplis par la science au cours des dernières décennies, et notamment pendant les cinq années de la Seconde Guerre mondiale, il y trouve à la fois un motif d’inquiétude et une source d’espoir :

« La somme des expériences humaines s’étend à une vitesse prodigieuse, et les moyens dont nous disposons pour atteindre, à travers le labyrinthe qui en résulte, l’élément qui nous intéresse sur le moment sont les mêmes que ceux dont nous nous servions du temps de la navigation à voiles. (…) Le monde a atteint l’âge des dispositifs complexes extrêmement fiables et abordables ; et quelque chose est voué à en sortir. Une information, si elle peut être utile à la science, doit être continuellement approfondie, elle doit être stockée et, par-dessus tout, elle doit être consultée » [6].

Face au développement exponentiel de la recherche scientifique, mais aussi grâce aux perspectives que celle-ci ouvre, notamment dans le domaine de ce qu’on n’appelle pas encore l’informatique, le propos de Vannevar Bush est donc de permettre une meilleure exploitation des connaissances, en organisant les conditions de leur pérennité et de leur accessibilité.

Ce projet, d’autres pionniers de l’Internet après lui se le sont appropriés. L’ingénieur américain Douglas Engelbart est l’un d’entre eux. Connu dans l’histoire de l’informatique pour ses recherches sur les interfaces homme-machine – qui l’ont conduit à inventer la souris –, Engelbart a lu en 1945 le texte de Vannevar Bush, « As We May Think ». Dans les années 1950 et 1960, il mène à l’université de Stanford une série de travaux sur la résolution de systèmes complexes et il se donne, ni plus ni moins, pour tâche – comme l’indique le titre d’un rapport qu’il produit en 1962 – « d’augmenter les capacités de l’Intellect humain » :

« La population humaine et le produit brut de son activité s’accroissent à un rythme considérable, mais la complexité des problèmes auxquels elle est confrontée augmentent encore plus vite, et l’urgence à trouver des solutions est proportionnelle au rythme accru de cette activité et de son caractère de plus en plus global. L’augmentation de l’intelligence humaine (…) garantirait la continuité d’une société éclairée, à condition de pouvoir en proposer une approche raisonnable et des bénéfices plausibles » [7].

Ce rapport vaudra d’ailleurs à Engelbart d’obtenir une subvention de l’Advanced Research Projects Agency pour la poursuite de ses recherches, ce qui lui permettra notamment de développer l’hypertexte. Le terme même d’hypertexte, pour désigner les liens qui doivent permettre de circuler au sein d’un vaste ensemble de données, est d’ailleurs introduit par un jeune étudiant en sociologie d’Harvard, Ted Nelson, au milieu des années 1960. Vingt ans après les réflexions de Vannevar Bush, Nelson imagine un projet de très grande ampleur, le projet Xanadu, dont l’objectif serait de permettre à chacun de stocker des données et de les mettre à la disposition de tous et partout en quelques instants. L’entreprise, trop ambitieuse, achoppera et sera supplantée par le fameux HTML, mais ses présupposés traduisent bien l’idéal qui sous-tendait les travaux des premiers informaticiens. À mesure que les recherches sur la proto-histoire de l’Internet progressent, de nouveaux noms s’imposent, qui étaient jusque-là totalement tombés dans l’oubli. Il y a quelques années, le regard s’est porté sur la ville de Mons, en Belgique, où Paul Otlet imagina, en 1934, un réseau global de « télescopes électriques ». L’ambition d’Otlet était là encore de rendre la totalité du savoir accessible à l’humanité, son projet visant à ce que « n’importe qui, depuis son fauteuil, puisse contempler l’ensemble de la création » en recherchant et consultant des millions de documents, d’images, de dossiers audio et vidéo interconnectés. Pour Otlet, les gens se serviraient de ce dispositif (que l’historien et fondateur de la revue Wire, Kevin Kelly, qualifie de « version steampunk de l’hypertexte ») pour s’envoyer des messages, partager des fichiers et même se réunir sur des sortes de réseaux sociaux en ligne [8].

On pourrait sans doute remonter encore le temps et trouver ailleurs des expressions de ce vieux rêve de mise commun des formes du savoir humain. Rêve mystique d’une unité des consciences qui régirait le monde, comme dans le concept de noosphère proposé par PierreTeilharddeChardin,ou,plussimplement,soucideconserver et de rendre accessibles les acquis toujours plus nombreux de la recherche scientifique comme pour Paul Otlet ou Vannevar Bush et leurs épigones, il reste que ces projets, ce n’est sans doute pas un hasard, ont pris leur essor au lendemain de la Seconde Guerre mondiale et, dans un contexte où la recherche scientifique dans son ensemble – en physique, en biologie, dans les communications, etc. – avait connu des bouleversements considérables. L’armée était donc la première à avoir connaissance des travaux des premiers informaticiens. L’article de Vannevar Bush date de 1945 et commence par faire état des « contributions » de la recherche scientifique à l’effort de guerre ; et Douglas Engelbart adresse pour sa part son rapport sur « l’augmentation des capacités de l’intellect » au « Bureau de recherche scientifique de l’armée de l’air ».

De fait, les technologies liées à l’Internet sont nées de travaux de recherche effectués, pour la plupart, après la guerre et surtout dans les années 1970, au sein d’universités ou de structures de recherche liées au complexe militaro-industriel américain – telles que la Rand Corporation ou les Laboratoires Lincoln. À partir de la fin des années 1960, les fonds liés à ces recherches proviennent essentiellement du ministère de la Défense américain, dans le cadre du projet Arpanet.

De l’Arpanet à l’Internet : la tutelle militaire

L’Arpanet [9] est généralement considéré comme l’ancêtre direct de l’Internet. Lancé discrètement en 1967, le réseau Arpanet est le premier réseau organisé autour du concept maintenant généralisé de « transfert de paquets ». L’introduction de cette technologie fut décisive, puisqu’elle permettait de décomposer une information à transmettre entre deux points du réseau – deux ordinateurs par exemple – en « paquets » de petite taille, qui pouvaient suivre des itinéraires différents, avant d’être « recomposés » à l’arrivée.

Le 5 décembre 1969, les quatre premiers nœuds du réseau Arpanet sont mis en place. Ils relient le laboratoire de Leonard Kleinrock à l’université de Californie, le centre de recherche de l’université de Stanford où travaille Douglas Engelbart, l’université de Californie à Santa Barbara et l’université d’Utah. Pendant deux décennies, le réseau Arpanet réunit donc aux États-Unis des machines situées dans des sites militaires et des universités. Ce rapprochement entre les militaires et les chercheurs avait été initié durant la Seconde Guerre mondiale par Vannevar Bush, premier directeur du Bureau de la recherche scientifique et du développement (Office of Scientific Research and Development – OSRD). Dès le départ, l’OSRD avait été pensé comme un organisme devant apporter aux militaires le concours du monde scientifique, afin d’accélérer l’issue de la Seconde Guerre mondiale [10].

Dans le contexte international de l’après-guerre, et notamment de la guerre froide, les projets scientifiques et militaires étaient liés de manière inextricable, tant aux États-Unis que dans la plupart des pays du bloc soviétique. Au vu des circonstances historiques, il était donc naturel que le réseau Arpanet fût développé par des scientifiques sur des fonds militaires. Ce développement était en partie lié à la volonté des militaires américains de mettre en place un réseau distribué, capable de maintenir les communications entre les centres opérationnels militaires du pays en cas de guerre nucléaire. Le ministère de la Défense américain était intéressé par les recherches menées sur les communications par « paquets », qui permettaient de mettre en place un réseau de ce genre, moins vulnérable en cas de bombardement atomique. Contrairement à ce qui se passe dans les réseaux simplement décentralisés, les communications en réseau distribué peuvent emprunter différents chemins pour atteindre leur but. On parle alors de « maillage » en toile d’araignée. Pour autant, considérer les recherches liées aux réseaux distribués, dans les années 1960, comme une nécessité dictée par les militaires dans le contexte de la guerre froide est particulièrement réducteur. De même qu’il est exagéré de dire que le réseau Arpanet, l’ancêtre de l’Internet, a été seulement conçu à des fins militaires et stratégiques. Historiquement, seule la Rand Corporation, avec la figure emblématique de Paul Baran, exprima sa volonté de concevoir un réseau distribué capable de résister à des attaques atomiques. À la fin de la Seconde Guerre mondiale, la Rand Corporation, organisme encore actif de nos jours, est créée pour développer des études et des propositions dans le domaine de la recherche militaire et favoriser une plus grande synergie entre les scientifiques et l’armée [11]. Ailleurs, l’ensemble des chercheurs mobilisés au sein des universités travaillent sur la notion de réseau décentralisé dans le souci principal d’économiser les ressources alors très limitées des ordinateurs – dont le coût est extraordinairement élevé –, tout en permettant l’échange d’informations entre chercheurs. C’est en effet, là encore, la possibilité de faire circuler librement, grâce à un réseau distribué, les fruits de la recherche scientifique qui est la motivation principale des ces pionniers. Comme l’affirme Lawrence Roberts, qui joua un rôle essentiel au sein de l’Arpanet, en 1968 :

« De la même manière que les systèmes informatiques en temps partagé ont permis à des groupes de centaines d’utilisateurs de partager des ressources matérielles et logicielles entre eux, des réseaux reliant des douzaines de tels systèmes permettront le partage des ressources entre des milliers d’individus »”[12].

Tout au long de son développement, l’Arpanet donne naissance à nombre de technologies aujourd’hui étroitement associées à l’Internet. C’est notamment le cas du courrier électronique ou e-mail, qui est mis au point en 1971, au sein de la société BBN[13], où l’ingénieur Ray Tomlinson conçoit le premier programme permettant d’envoyer et de recevoir des messages électroniques. C’est d’ailleurs Tomlinson lui-même qui opte pour l’emploi de l’arobase (@) afin de séparer le nom de l’utilisateur du nom de l’ordinateur ou du nom de domaine. Il s’agit là d’un choix purement pragmatique, puisque ce symbole, qui n’entrait dans l’orthographe d’aucun nom propre, était l’un des rares qui pouvait être utilisé librement. Dès l’année suivante, l’e-mail est adopté massivement par des milliers de militaires et d’universitaires ; deux ans plus tard, les messages électroniques représentent plus des trois quarts du trafic de l’Arpanet.

Une autre avancée majeure, intervenue dans les années 1970, est l’élaboration des protocoles TCP/IP, dont l’immense avantage était de permettre à des machines différentes de communiquer entre elles, grâce à des standards communs. En effet, les protocoles utilisés jusque-là pour la communication par paquets étaient d’usage limité, dans la mesure où ils variaient d’un type de machine à l’autre. L’intervention de Vinton Cerf, de l’Université de Stanford, et de Robert Kahn, alors ingénieur chez BBN, permet la mise au point, en 1974, d’une suite de protocoles facilitant la communication entre machines. Aujourd’hui encore, l’Internet fonctionne sur les standards TCP/IP[14].

La première utilisation du terme « Internet » remonte d’ailleurs à cette période, puisqu’on le retrouve, au mois de décembre 1974, dans un document rédigé par Vinton Cerf, Yogen Dalal et Carl Sunshine[15]. Le mot qualifie alors un réseau purement scientifique et militaire, regroupant quelques milliers de personnes, alors que le système de l’hypertexte n’existe pas encore. Il faut encore attendre près de quinze ans avant que cette invention décisive ne germe dans l’esprit d’une équipe de chercheurs du CERN.

Le CERN et la mise au point de l’hypertexte

À la fin des années 1980, Tim Berners-Lee et ses collègues présentent en effet à leur hiérarchie un projet de recherche qui aboutira à la mise au point du fameux « www ». Comme toujours l’enjeu est de favoriser la communication et le partage des connaissances entre chercheurs. Dans son document préliminaire, qui date de 1989, Tim Berners-Lee écrit :

« Le CERN est une organisation merveilleuse. Il fait participer des milliers de personnes, beaucoup d’entre elles sont très créatives, et toutes travaillent à des buts communs. Bien qu’elles fassent partie d’une structure hiérarchique, elles ne sont pas contraintes dans leurs manières de communiquer entre elles, de partager l’information, l’équipement et les logiciels entre les différents groupes. (…) Le problème, cependant, est l’extrême mobilité de ces personnes. Dès lors que la durée moyenne du séjour est deux ans, l’information se perd constamment. Avant que les nouveaux venus puissent commencer à se faire une idée de la façon dont les choses fonctionnent, un certain temps d’adaptation – le leur et celui des autres agents – est nécessaire. Les détails techniques de projets antérieurs se perdent parfois définitivement, ou ne sont réunis qu’au prix d’un minutieux travail d’enquête effectué dans l’urgence. Souvent, l’information a bien été enregistrée, elle reste simplement introuvable. Si une expérience conduite au CERN n’était qu’un projet statique et sans suite, toute l’information pourrait être compilée dans un gros livre. Mais dans les faits, le CERN est en constante évolution, que cela découle de l’émergence de nouvelles idées ou de nouvelles technologies, ou de la nécessité de surmonter des difficultés techniques imprévues. Lorsqu’un changement s’avère nécessaire, il n’affecte normalement qu’une petite partie de l’organisation. Une raison locale incite à modifier une partie de l’expérience. À ce stade, il faut chercher à identifier les autres domaines ou les autres agents qui seront affectés par ce changement. Il devient alors difficile de tenir à jour un tel livre, et sa structure doit être constamment révisée » [16].

Suit une série de propositions pour améliorer la circulation des informations au sein du CERN, notamment par la mise en place d’hypertextes, de liens entre des documents situés à des endroits différents, pour créer une navigation de nœud à nœud, par simple clic. Cette expérience, devenue pour la plupart d’entre nous d’une extrême banalité, est à l’époque révolutionnaire. L’année suivante, en 1990, Tim Berners-Lee est rejoint sur ce projet par Robert Cailliau, l’un des rares ingénieurs de l’époque du CERN à en percevoir les enjeux.

Pour naviguer de liens en liens, entre les différentes ressources auxquelles renvoient ces derniers, les ingénieurs du CERN mettent au point un autre outil promis à un bel avenir : le navigateur. Le premier navigateur a pour nom de baptême « www », avant d’être renommé Nexus. À partir de 1993, des navigateurs plus évolués font leur apparition : Mosaïc tout d’abord, suivi par Netscape Communicator l’année suivante, puis par Internet Explorer dans sa toute première mouture, en 1995. La même année, des opérateurs de téléphonie, comme AT&T aux États-Unis, commencent à proposer des « forfaits » permettant aux abonnés, via leur ligne téléphonique, de se connecter à un réseau dont l’accès était, jusque- là, restreint.

Tim Berners-Lee, quant à lui, quitte le CERN en 1994 pour fonder le W3C (World Wide Web Consortium), organisation à but non lucratif, qui s’occupe d’établir et de promouvoir des normes pour l’Internet. Lucide, il refuse de se considérer comme « l’inventeur de l’Internet », rappelant que de nombreux travaux antérieurs aux siens avaient rendu possible l’expansion du système d’hypertextes :

« Non. Non. Non. Lorsque je m’occupais du www, la plupart des morceaux dont j’avais besoin existaient déjà. Vint Cerf et ceux avec qui il travaillait avaient créé les modèles IP (Internet Protocol), mais également TCP (Transmission Control Protocol). Paul Mockapetris et ses amis avaient créé le système des noms de domaine (DNS). Certains utilisaient déjà le TCP/IP et les DNS pour écrire des e-mails, ou d’autres trucs du même genre. C’est grâce à eux que je pouvais envoyer des e-mails à des gens susceptibles de m’aider à travailler sur la conception du www. Je n’ai pas non plus inventé le lien hypertexte. L’idée de pouvoir sauter d’un document à l’autre avait été imaginée par beaucoup de monde, parmi lesquels Vannevar Bush en 1945 et Ted Nelson (qui est en réalité l’inventeur du mot « hypertexte »). Bush l’a fait alors que les ordinateurs n’existaient pas encore. Ted songeait à un tel procédé, mais n’utilisait pas lui-même l’Internet. Doug Engelbart avait créé un système comparable au www dans les années 60, mais il ne tournait que sur un seul (gros) ordinateur, puisque l’Internet n’existait pas encore. De nombreux systèmes d’hypertextes avaient été créés qui ne fonctionnaient que sur un ordinateur ; ils étaient incapables de relier des ressources situées en différents points de la planète. Je n’ai eu qu’à prendre l’idée d’hypertexte, et à l’associer à celles de TCP et de DNS, et c’est comme ça qu’est né – ta-da ! – le World Wide Web » [17].

Il n’en reste pas moins que la mise au point de l’hypertexte et du navigateur est une étape déterminante. À partir de la fin des années 1980, ceux-ci vont contribuer à simplifier l’utilisation des vastes bases de données et conférer aux déplacements sur les réseaux informatiques la fluidité et le caractère intuitif que nous leur connaissons aujourd’hui. En ce sens, ils jouent un rôle décisif dans l’extension de ces réseaux et, in fine, dans le succès de l’ouverture de l’Internet au grand public.

Tout au long de la période précédente (de la fin des années 1960 jusqu’au milieu des années 1980), le réseau d’ordinateurs interconnectés s’était développé assez lentement. En 1971, dans le cadre de l’Arpanet, universités et sites militaires américains sont reliés entre eux par quinze machines, dans un réseau dont le débit correspond à celui des modems de la fin des années 1990 (56 kilobits par seconde). En 1983, plus de dix ans après, le réseau d’ordinateurs rassemble à peine cinq mille machines. Qui plus est, jusqu’au début des années 1980, l’utilisation du réseau Arpanet est réservée exclusivement aux universités américaines sous contrat avec le ministère de la Défense.

Ce n’est qu’en 1983 que le réseau est finalement scindé en deux, avec, d’un côté, le réseau militaire, qui prend le nom de Milnet, de l’autre, Arpa-Internet qui réunit les principales universités des États-Unis. L’une des raisons de cette séparation entre réseau civil et réseau dédié aux militaires est le besoin exprimé par ces derniers de disposer d’une architecture propre, qui leur permette de partager des informations classifiées, en dehors du monde civil. Des sous- réseaux sont d’ailleurs très rapidement créés par les militaires au sein même de Milnet, dans le souci de compartimenter la circulation des informations en fonction de leur degré de « sensibilité ». Il faut donc plus de trente ans pour que l’ensemble des technologies sur lesquelles repose désormais l’Internet soient mises au point par des équipes venues d’horizons très divers. Au milieu des années 1990, soit moins de cinq ans après l’invention de l’hypertexte au sein du CERN, le grand public peut enfin se connecter au réseau. Il va s’approprier ces nouveaux outils à une vitesse extraordinaire et donner en quelques années une toute nouvelle orientation au projet initial.



Rêveurs, marchands et pirates. Joël Faucilhon.

Notes

[1] Le but de l’expérience était de taper le mot « login » – « identifiant » en français. Selon le témoignage de Leonard Kleinrock, c’est au moment de taper la troisième lettre, le G, que l’ensemble du système s’est effondré.

[2] Pour ne citer qu’un seul exemple, cf. l’article de cnn.com du 29.10.2009 : « Web Pio- neer Recalls “Birth of the Internet” » (http://www.cnn.com/2009/TECH/10/29/kleinrock. internet/index.html).

[3] Cf. Katie Hafner, « A Paternity Dispute Divides Net Pioneers », New York Times, 8 novembre 2001.

[4] Vannevar Bush (1890-1974), ingénieur américain, conseiller scientifique du président Roosevelt. Il fut le directeur du Bureau de la recherche scientifique et du développement américain (OSRD) pendant la Seconde Guerre mondiale, dont la mission était de coordonner les efforts de la communauté scientifique à des fins militaires. À ce titre, il fut, notamment, l’un des principaux artisans du Projet Manhattan de recherches sur la bombe A.

[5] Extrait de « As We May Think » dans la version française partielle établie par Paul Mathias sous le titre « L’avenir de la pensée », pour son livre Qu’est-ce que l’Internet ? (Vrin, 2009). La version originale de l’article de Vannevar Bush est toujours disponible en ligne à l’adresse suivante : http://www.theatlantic.com/magazine/archive/1969/12/as-we-may- think/3881/.

[6] Vannevar Bush, « As We May Think », art. cit. (c’est nous qui traduisons).

[7] Douglas C. Engelbart, « Augmenting human intellect : a conceptual framework », rapport écrit pour le Director of Information Sciences, Air Force Office of Scientific Research, Washington 25, DC, octobre 1962 (http://dougengelbart.org/pubs/augment-3906.html).

[8] Voir l’article du New York Times du 17 juin 2008, intitulé « The Web Time Forgot » (http:// www.nytimes.com/2008/06/17/science/17mund.html?pagewanted=1&_r=1&ref=science) et le documentaire de Françoise Levie, L’homme qui voulait classer le monde, Memento Pro- ductions, 2002. On peut aussi voir en ligne la biographie documentaire du même Otlet, réalisée en 1998 par Alle Kennis van de Wereld (http://www.archive.org/details/paulot- let/).

[9] Arpanet est l’acronyme de Advanced Research Projects Agency Network.

[10] Voir le dossier consacré aux pionniers de l’Internet et la notice de V. Bush sur ibiblio.org (http://www.ibiblio.org/pioneers/bush.html).

[11] Rand est l’acronyme de Research and Development (Recherche et Développement). Toujours active, la Rand Corporation est perçue, en raison de la personnalité des membres, comme proche des milieux les plus conservateurs des États-Unis. Elle a en effet compté dans ses rangs des gens comme Frank Carlucci (ancien président du groupe Carlyle), ou encore Condoleeza Rice et Donald Rumsfeld, tous deux secrétaires d’État dans l’adminis- tration du président G.W. Bush.

[12] Larry Roberts, ARPA Program Plan 723, 3 juin 1968

[13] La société BBN (Bolt, Beranek and Newman), toujours en activité, est fondée en 1948 par deux professeurs du MIT, Richard Bolt et Leo Beranek. À partir de 1969, et dans le cadre de contrats passés avec le ministère de la Défense américain suite à des appels à candidature, BBN joue un rôle majeur dans la mise au point de l’architecture de l’Arpanet (http://www.bbn.com/about/timeline/arpanet). BBN est, aujourd’hui encore, une société majeure du complexe militaro-industriel américain.

[14] Vinton Cerf s’est à l’époque largement inspiré des travaux de l’ingénieur français Louis Pouzin, qui avait mis en place en France un réseau entre différents sites universitaires, bap- tisé Cyclades : « Avec le réseau Cyclades, nous avons été les premiers à appliquer intégra- lement le principe des datagrammes. (…) Vinton Cerf et Robert Kahn s’en sont emparés pour concevoir le futur protocole de communication de l’Internet, le désormais fameux TCP/IP. Ils l’ont défini en s’inspirant de nos solutions, en particulier de la notion d’in- dépendance de paquets. Preuve que ce concept bouleversait considérablement les esprits, les Américains mettront tout de même dix ans à l’imposer dans Arpanet, dont découlera ensuite naturellement le réseau Internet, avec le succès que l’on connaît. » (http://intersti- ces.info/jcms/c_16645/louis-pouzin-la-tete-dans-les-reseaux). Sur le réseau des Cyclades, et plus généralement sur l’histoire de l’Arpanet, voir la thèse de Valérie Schafer : « Des réseaux et des hommes. Les réseaux à commutation de paquets. Un enjeu pour le monde des télécommunications et de l’informatique françaises (des années 1960 au début des années 1980) », sous la direction du professeur Pascal Griset, soutenue en 2007. Sur Louis Pouzin et le réseau Cyclades, voir encadré p. 33.

[15] Vinton Cerf, Yogen Dalal et Carl Sunshine, « Specification of Internet Transmission Control Program », décembre 1974 (cf. http://tools.ietf.org/html/rfc675)

[16] Pour la version anglaise de la proposition de Tim Berners-Lee, voir http://www.w3.org/ History/1989/proposal.html.

[17] Tim Berners-Lee, Answers for young people, http://www.w3.org/People/Berners-Lee/ Kids.