Pratiques de l’édition numérique , Collection Parcours numériques

Chapitre 2

D’Internet au web

Alain Mille
Version augmentée au : 11 mars 2014

La naissance d’Internet, puis du web, a sans doute été le phénomène ayant déterminé le plus fort changement dans les modèles de production et de circulation des contenus. Ce ne sont pas tant les « nouvelles technologies » en général, mais le réseau en lui-même qui a bouleversé notre rapport à la connaissance. À ce propos, il est bon de rappeler qu’Internet et web ne sont pas synonymes — et ne sont par ailleurs pas nés au même moment. Internet est le réseau physique qui permet l’échange des données entre plusieurs ordinateurs et le web, l’ensemble des documents formatés en HTML accessibles avec un navigateur via le protocole HTTP. Ce chapitre raconte l’histoire allant des premières idées de réseau dans les années 1950 à la création d’Internet dans les années 1970, jusqu’à l’apparition du web et à son impressionnant développement à partir de la moitié des années 1990. Connaître cette histoire et ces étapes est fondamental pour comprendre les raisons des changements majeurs qui touchent aujourd’hui le monde de l’édition.

1950-1965 : faux départ

Les militaires américains réalisent dans les années 1950-1960, au plus fort de la guerre froide, que le système de communication de leurs forces armées, très hiérarchique par nature, est particulièrement fragile dans le cas d’un conflit nucléaire [réf1]. La notion de réseau maillé avec des nœuds d’interconnexion naît à cette époque pour fournir la robustesse nécessaire au système de communication qui serait utilisé en cas de déflagration nucléaire. Paul Baran de RAND Corporation, sorte de think tank de l’époque, pose les principes d’un réseau centrifuge parsemé de nœuds d’interconnexion, avec des messages transitant sans avoir de route définitivement attribuée, mais seulement des indications du from et du to dans les champs du message. La route peut alors être redéfinie dynamiquement à chaque nœud si la route optimale précédemment calculée n’est plus disponible, de manière à chercher par tous les moyens à router le message vers un autre nœud à même de le faire progresser vers sa destination : routage dit de la « patate chaude [déf1] ». Ce système, même avec des composantes bon marché à chaque nœud, est particulièrement simple et robuste, ce qui va être démontré formellement par un doctorant du Massachusetts Institute of Technology (MIT) [réf2], Leonard Klein­rock. Donald Davies le met en œuvre en 1965 au National Physics Laboratory [réf3].

Malgré l’intérêt porté par les militaires, et les démonstrations faites, la multinationale américaine de télécommunications AT&T [réf4] refuse de développer le réseau tel qu’il est décrit. En effet, ses dirigeants le considèrent comme une sorte d’auto-concurrence fatale pour leur business. Le projet de Baran est évalué à 60 millions de dollars de l’époque, alors que le système qu’il peut remplacer coûte 2 milliards de dollars par an. En 1966, le projet est remisé sur les étagères.

1962-1968 : ARPAnet

Une autre structure va être au centre du développement d’Internet : l’ARPA (Advanced Research Projects Agency [réf5]). En 1962, J.C.R. Licklider y est embauché pour s’intéresser d’une part au contrôle-commande et d’autre part aux sciences du comportement [1]. À partir de cette impulsion, l’orientation vers des systèmes informatiques interactifs, collaboratifs, ne cesse de se développer au sein de l’ARPA : Ivan Sutherland, après le développement du SketchPad [réf6] au MIT, Robert Taylor issu de la NASA (time sharing), puis Lawrence Roberts qui, pour mettre en relation les chercheurs et partager non seulement les processeurs mais aussi tous leurs résultats, développe le premier réseau de communication numérique. En octobre 1965, l’ordinateur Lincoln Labs TX-2/ANS/Q-32 communique avec le SDC’s Q32 de Thomas Marill qui a développé le réseau. C’est ce réseau qui, plus tard, en 1968, prendra le nom d’ARPAnet [réf7]. Le réseau développé à l’ARPA est dans sa technologie et ses principes très proche de ce qui a été proposé par Baran à la RAND Corporation, et mis au placard par AT&T. Lawrence Roberts aurait toutefois indiqué qu’il n’était pas au courant des travaux de Baran jusqu’à octobre 1967 [réf8].

C’est une petite société, BBN (Bolt, Beranek and Newman [réf9]), qui gagne le concours lancé par l’ARPA pour réaliser un réseau informatique de partage de ressources (resource ­sharing computer network). Le chef de projet, Frank Heart, a choisi son équipe et sa méthode de travail : « Get the very, very best people and in small numbers, so they can all know what they’re all doing. » IBM [réf10], dans le même temps, déclare qu’un tel système ne peut pas être développé sans un très gros budget. En 1969, le réseau fonctionne et deux machines communiquent ; en 1971, il y a 15 nœuds. En 1972, le réseau est lancé à la conférence ICCC (International Computer Commu­nication Conference [réf11]) à Washington, et les 60 terminaux connectés permettent aux conférenciers de réaliser que ce type de réseau fonctionne réellement.

1969-1978 : Internet

Mais si le réseau ARPAnet est bien une réalité, il manque une pièce logicielle maîtresse pour que l’on puisse considérer qu’Internet est né. Il faut décrire les protocoles de communication, ce qui est fait en 1969 par un groupe d’étudiants relativement informel. Peu sûrs de leur légitimité et cherchant à discuter leurs idées pour édicter les protocoles, ils proposent des Request For Comments (RFC [déf2]). Il s’agit pour Steve Crocker et ses amis de laisser ouvertes au maximum les possibilités de participation des pairs pour améliorer le protocole. Cette ouverture fait une grande partie du succès de la dynamique extraordinaire qui s’ensuit. Le premier résultat concret de ce travail est la création du NCP (Network Control Protocol) [déf3], mais pas encore d’Internet. C’est par l’interconnexion d’un réseau filaire classique ARPAnet et d’un autre réseau hertzien de même nature (paquets) que la première communication par interconnexion de réseau est réalisée par le Stanford Research Institute [réf12]. La nécessité d’interconnecter ARPAnet avec les réseaux hertziens (PRNET) et les réseaux satellites (SATNET) pousse dans le sens d’Internet. Il est à noter que les travaux des chercheurs impliqués en France dans le projet Cyclades [réf13] ont inspiré l’ensemble de ces travaux. En effet, Cyclades propose déjà à l’époque trois couches réseau : la couche transmission, la couche transport et la couche application. En mai 1974, Vint Cerf et Robert Kahn publient ce qui devient le protocole TCP (Transport Control Protocol [déf4]). C’est après plusieurs révisions de TCP que le protocole IP (Internetworking Protocol [déf5] ) est proposé par Vint Cerf, Jon Postel et Danny Cohen en janvier 1978.

Fin des années 1970 et début des années 1980 : démocratisation des ordinateurs personnels

Il est donc démontré que ce type de réseau peut couvrir le monde, car il permet d’interconnecter les réseaux filaires, hertziens et satellites de manière robuste et économique. Cela peut s’appliquer au téléphone, naturellement, mais, encore une fois, l’industrie téléphonique se lance dans une version centripète (protocole X.25 [déf6]) de la transmission de paquets, issue des travaux du CCITT (Consultative Committee on International Telegraphy and Telephony [réf14]) pour lesquels les choses doivent être contrôlées de bout en bout, sans reprendre à leur compte les notions de distribution et de diversité des réseaux. Le protocole X.25 garantit un fonctionnement de haute qualité quelle que soit la configuration, mais c’est une propriété finalement assez rarement nécessaire et le caractère centralisé et fermé de l’approche bloque le développement de cette technologie.

Ce choix des opérateurs de téléphonie n’est abandonné qu’en 2011 mais, malgré le faible soutien des professionnels des réseaux, Internet se développe de manière tout à fait impressionnante.

Qu’est-ce qui explique ce développement ? De la même façon que l’idée du réseau distribué s’est imposée à l’ARPA pour la mise en connexion des utilisateurs, c’est le surgissement soudain des ordinateurs personnels qui fait sortir l’usage d’Internet des universités et centres de recherche pour l’ouvrir à tous les secteurs d’activité de la société. Après quelques réalisations visionnaires, mais avec un succès limité, il faut attendre Ken Olsen et Harlan Anderson qui créent la Digital Equipment Corporation (DEC [réf15]) avec le PDP1 [réf16], sans doute le premier ordinateur interactif jamais conçu. Suivi du PDP8 [réf17] et d’autres mini-ordinateurs, il scelle la fin du traitement par lot. Si les interfaces sont textuelles, on assiste très vite au développement d’interfaces graphiques, intuitives et, dès 1968, Engelbart peut faire sa célèbre démonstration [réf18] sur l’usage de la souris. Si les idées et même certaines réalisations sont déjà là, il s’agit de systèmes confidentiels qui ne peuvent pas facilement se décliner en masse. L’apparition des microprocesseurs va changer la donne avec l’application de l’invention des circuits intégrés à la réalisation de calculateurs sur une surface très réduite. L’Intel 4004 [réf19] est d’abord considéré comme un simple circuit logique peu évolué par les sociétés informatiques. Mais, en janvier 1975, la revue Popular Electronics [réf20] annonce le Altair 8800 [réf21], conçu autour du Intel 4004 : « The era of personal computing in every home… has arrived. » Le succès dépasse largement les attentes des concepteurs, même si l’usage de ces ordinateurs portables est difficile et laborieux. Les micro­processeurs se succèdent (Motorola, Texas Instrument, Intel, etc.) avec des capacités de calcul et de mémoire qui augmentent significativement, créant les conditions nécessaires d’une offre massive d’ordinateurs personnels, mais pas encore les conditions suffisantes à l’émergence d’un phénomène mondial. Un club nommé le Homebrew Com­puter Club [réf22] rassemble dans les années 1970 un mélange étonnant de militants de l’informatique de Berkeley et d’amateurs d’électronique. Les groupes hippies considèrent l’ordinateur comme un outil de réalisation personnelle et appellent dès 1972 à créer la Compagnie informatique du peuple (People’s Computer Company [réf23]). C’est dans cet état d’esprit que Steve Wozniak introduit le premier Apple I [réf24] au Homebrew Computer Club, et c’est avec l’Apple II [réf25], en 1977, que la notion d’ordinateur personnel, installé par la personne à partir d’éléments très simples à assembler, s’impose. Ce qui explique ce succès, c’est qu’Apple met à disposition un manuel de référence [réf26] qui détaille l’ensemble du code source et les schémas électriques et électroniques. Chacun peut alors développer librement de nouveaux logiciels et de nouveaux périphériques. Visicalc [réf27] (1979) marque un tournant en fournissant à l’utilisateur non informaticien la possibilité de concevoir des traitements, de réaliser des calculs : la feuille de calcul est née. Cette fois, le marché s’impose vraiment et même IBM s’en aperçoit. En août 1981, IBM vend son premier PC, appelé le 5150 [réf28]. L’entrée d’IBM sur le marché se fait dans la précipitation, ce qui entraîne l’abandon du processus standard de développement au profit d’un développement par une petite équipe, et l’ensemble logiciel et matériel est ouvert, à l’image de ce qui a été fait par Apple. IBM conclut un accord avec une petite société, Micro­soft [réf29], qui est chargée de fournir un système d’exploitation au PC, avec la possibilité de vendre son système aux concurrents d’IBM. L’idée d’IBM est de permettre à ses utilisateurs d’installer facilement ce qui est développé par d’autres sur ses propres machines, mais c’est aussi la possibilité pour d’autres de cloner rapidement et efficacement sa propre machine avec des logiciels attractifs. Le phénomène des ordinateurs personnels, intégrant ensuite un nombre étonnant d’innovations, d’interactions, de design, de logiciels, etc. fournit les conditions alors suffisantes pour qu’Internet devienne le support d’interconnexion d’un nombre toujours plus grand d’utilisateurs d’ordinateurs personnels.

1975 : The Well, le premier réseau social

Les conditions de la massification de l’usage de l’informatique se renforcent, mais encore faut-il que les utilisateurs puissent accéder à Internet depuis leur domicile, par leur liaison téléphonique.

Les conditions d’utilisation du téléphone sont particulièrement réglementées, au point qu’il n’est pas autorisé de modifier une quelconque partie d’un récepteur téléphonique aussi bien aux États-Unis qu’en Europe. Ce n’est qu’à partir de 1975 qu’il est autorisé de mettre sur la ligne téléphonique d’autres terminaux que ceux livrés par l’opérateur. Ward Christensen (Bulletin Board Systems [réf30]) invente la notion de modem et propose le xmodem [déf7] pour les PC en 1977. Un hacker (terme qui faisait alors référence à des amateurs experts), Tom Jennings, développe Fidonet [réf31] permettant avec un modem très simple de mettre en communication des ordinateurs personnels entre eux (courriel et listes de discussions).

The Well [réf32] utilise alors ces outils pour rassembler une communauté très dynamique autour d’une liste de diffusion. Il s’agit là du tout premier réseau social.

ARPAnet et la DARPA (Defense Advanced Research Projects Agency) [réf33] connaissent ces développements, mais restent concentrés sur l’interconnexion d’ordinateurs puissants de leurs réseaux. D’autres réseaux de spécialistes se développent d’ailleurs sur ce protocole (MILNET, DECNET, MEFENET, CSNET, BITNET [réf34], etc.), alors que la téléphonie tolère les modems, mais ne s’intéresse toujours pas à la commutation de paquets.

1984 : le réseau des réseaux

Quand la NSF (National Science Foundation) [réf35] décide d’interconnecter ses principaux réseaux régionaux par une dorsale (backbone [déf8]) commune, en 1984, c’est véritablement Internet qui est élevé au niveau des grands réseaux scientifiques, diffusant TCP/IP sur les grosses machines comme sur les ordinateurs personnels connectés à ces réseaux. NFSNET [réf36] se développe très rapidement avec plus de 160 000 machines connectées en 1989. En février 1990, ARPAnet est délié de ses liens avec les militaires et les connexions d’ordinateurs à NFSNET se mettent à croître de manière exponentielle : 500 000 en 1991, 1 million en octobre 1992, 2 millions en octobre 1993, etc. Dans le même temps, les nouvelles applications de recherche d’information comme Gopher, Veronica et Archie [réf37] sont déployées et génèrent un trafic plus important que le courriel, ce qui préfigure le développement massif du web.

1979-2009 : une histoire des structures de gestion de l’Internet

Le développement de ce réseau de réseaux s’accompagne d’une mise en place originale de méthodes de gestion d’une structure toujours marquée par ses racines ouvertes et, d’un certain point de vue, libertaires. Vint Cerf avait créé l’Internet Configuration Control Board (ICCB [réf38]) en 1979, transformé par Barry Leiner en Internet Activities Board (IAB [réf39]) en 1983, réorganisé en 1989 entre l’Internet Engineering Task Force (IETF [réf40]) et l’Internet Research Task Force (IRTF [réf41]). En 1992, l’Internet Society (IS [réf42]) est créée pour chapeauter l’IAC et l’IETF. Malgré la complexité des structures, le principe initial des Requests For Comments est gardé, avec cette idée du chantier sans fin. La question de l’attribution des noms de domaine (Domain Name System - DNS [déf9]) est créée ad hoc, alors que le principe d’un système de nommage de domaine est imaginé la même année. En 1992, anticipant l’ouverture d’Internet, la NSF sélectionne la compagnie Network Solu­tions [réf44] pour mettre à disposition les services d’assignation des noms de domaine et des adresses IP associées, en relation étroite avec l’IANA. Cette société a le monopole durant toute la durée de son contrat avec la NSF, jusqu’en 1998. Dès 1996, toutefois, l’International Ad Hoc Committee (IAHC [réf45]) propose une nouvelle approche pour d’une part réserver des domaines de haut niveau aux gouvernements et d’autre part mettre en place des règles d’arbitrage pour éviter les conflits de nom. L‘IAHC est agréée par les comités publics compétents, et ses conclusions reprises pour créer une société à but non lucratif, l’Internet Corporation for Assigned Names and Numbers (ICANN [réf46]) : « it shall operate for the benefit of the Internet community as a whole ». En 2009, après plusieurs controverses mondiales, l’ICANN cesse d’être uniquement contrôlé par les États-Unis, mais est piloté par une gestion intergouvernementale (Govern­mental Advisory Committee [réf47]).

1990 : le web

C’est au CERN (Organisation européenne pour la recherche nucléaire [réf48]) que se conçoit une sorte de « clé de voûte » parachevant l’environnement numérique qui est en train de s’étendre sur l’ensemble du globe par l’interconnexion des réseaux et par la mise en relation d’ordinateurs personnels de plus en plus nombreux. Les utilisateurs avides de pouvoir les utiliser comme dispositifs d’écriture-lecture collectifs et collaboratifs avec l’information circulante comme principe restent des amateurs surpassant les difficultés techniques pour y parvenir.

Dans les années 1980-1990, le CERN possède de très nom­breux ordinateurs incompatibles entre eux, exploités par des chercheurs du monde entier. Tim Berners-Lee y développe d’abord, dans les années 1980 un logiciel, Enquire [réf49], ressemblant à une sorte de wiki (documents reliés par des hyperliens bidirectionnels) permettant d’expliciter les relations entre les personnes, les programmes et les systèmes qui se croisent au CERN. Cette idée rappelle naturellement celle de Vannevar Bush (1945) qui avait imaginé un mécanisme d’hypercartes (Memex [vidéo1]), et Tim Berners-Lee s’appuie explicitement sur les contributions de Ted Nelson et Douglas Engelbart. Ted Nelson est en effet l’inventeur de la notion d’hypertexte [2]. Toutefois, Enquire ne permet de mettre en relation des documents par liens bidirectionnels qu’entre des documents appartenant à un même espace de gestion de fichiers, et souvent en pratique sur le même ordinateur. Pour aller au-delà, et mettre en relation des composantes (pas seulement documentaires) de différents environnements hétérogènes, il faut disposer d’un système de nommage universel des composantes à mettre en relation, à tisser ensemble sur la même toile. Tim Berners-Lee propose le principe d’une identification universelle : URI (Universal Resource Identifier) [déf10]. L’idée du World Wide Web [déf11] est née. Dès octobre 1990, d’après cette idée, Tim Berners-Lee crée le langage HTML (HyperText Markup Language) [déf12] basé sur le langage documentaire SGML (Standard Generalized Markup Language) [déf13] existant et, en décembre 1990, il propose un premier navigateur pour voir les documents produits sur le web. Ce travail ne reçoit pas tout de suite de validation formelle par la hiérarchie du CERN et se développe lentement jusqu’à ce que Robert Cailliau rejoigne l’équipe de Tim Berners-Lee pour développer un navigateur rudimentaire qui peut fonc­tionner sur n’importe quel système (et pas seulement sur NEXT [réf50], la machine de développement de Tim Berners-Lee), y compris sur les vieux télétypes [réf51]. Le web devient visible sur toutes les machines connectées du CERN. Tim Berners-Lee et Robert Cailliau persuadent les autorités du CERN de mettre le répertoire téléphonique du CERN sur le web, attirant ainsi les 10 000 personnes associées au CERN.

Les années 1990 : l’emballement

Rapidement, et parce que tout est ouvert et documenté, d’autres navigateurs sont développés avec, cette fois, des possibilités d’interaction de plus en plus sophistiquées et en particulier la possibilité du clic de souris : Perry Pei Wei (1992) développe le navigateur www [réf52] pour Unix [réf53] (déterminant pour la communauté scientifique), puis Erwise [réf54], Midas (Unix), Samba (Mac), etc. apparaissent, sans jamais vraiment encore s’imposer. Marc Andreessen et Eric Bina du National Centre for Supercomputing Applications (NCSA [réf55]) développent un nouveau navigateur en adoptant un mode coopératif de développement, bien dans l’esprit du chantier sans fin : Mosaic [réf56] est disponible en février 1993. En 1994, Andreessen quitte le NCSA pour créer Netscape [réf57] avec James Clark. En août 1995, Netscape entre en Bourse avec un gros succès. Cette entrée en Bourse sonne le début d’un mouvement d’intérêt très important par le secteur économique. Le web devient le support d’innombrables initiatives pour proposer des services, en particulier dans le domaine du e-commerce. Les « .com » deviennent vite la coqueluche des investisseurs. Le Nasdaq voit passer son index de 1 291 en 1996 à 4 000 en décembre 1999, avec des valeurs parfois multipliées par 100 ou 200 en une seule journée après leur introduction. En 2000, la bulle Internet [réf58] éclate, entraînant des faillites en chaîne, mais aussi de sévères restructurations dans les grands groupes qui ont surinvesti dans le domaine et, pour l’essentiel, les entreprises du secteur des télécommunications.

Depuis 1994 : l’histoire en construction

De la même façon que les structures de gestion d’Internet se sont constituées de manière informelle et en dehors des structures de normalisation internationales, Tim Berners-Lee propose de monter un consortium ouvert pour gérer l’évolution du chantier sans fin du web : le World Wide Web Consortium (W3C [réf59]) naît en 1994 et assure toujours la promotion de l’interopérabilité et la standardisation des technologies web.

Chaque année, depuis 1994, la conférence mondiale du web [réf60] rassemble plus de 1 000 acteurs internationaux pour partager et faire avancer ce chantier.

L’histoire de l’open source [déf14] se tisse dans la même trame que celle de l’histoire du web. Ce principe d’ouverture est à l’évidence la clé de la réussite et du formidable développement d’Internet puis du web qui en est le service principal et dominant depuis 1995.

Les terminaux du web se multiplient et se diversifient avec des opérateurs téléphoniques qui cette fois investissent massivement le domaine avec une offre systématique de l’accès web, le téléphone devenant parfois une fonction accessoire du terminal. L’effet est immédiat sur le taux de connexion des usagers du monde entier, y compris dans les pays très peu pourvus technologiquement et pour lesquels le téléphone mobile est un équipement essentiel dans leurs activités.

Les chiffres clés d’Internet [réf61] sont disponibles en permanence sur le web et, en 2013, ce sont 32 % des habitants du monde qui sont aussi des internautes. Internet et le web, son principal service, deviennent des biens communs à l’échelle mondiale.

Si le web 1.0 [réf62], celui des documents, a été et est toujours un immense succès, il ne correspond toutefois pas à la vision qu’était celle de Tim Berners-Lee à la création du web. Tim Berners-Lee a d’emblée tenté de persuader les développeurs de navigateurs qu’il était important que ces navigateurs ne soient pas seulement des lecteurs d’information, mais aussi des éditeurs d’information. Les notions de lecture-écriture sont indissociables pour assurer la circulation de l’information bilatérale, mettant en évidence l’importance de l’inter­action dans le développement de l’environnement numérique partagé que constitue le web.

Ce n’est qu’à partir de 2003 que ces notions deviennent majeures et que Dale Dougherty propose de nommer web 2.0 [réf63] cette nouvelle phase. L’information et l’activité tendent à se fondre dans le chantier sans fin du web, ce qui pose naturellement la question du statut du document numérique à l’ère du web.

Les utilisateurs s’emparent en effet du web pour y écrire autant que pour y lire. Les réseaux sociaux se développent à l’échelle mondiale (YouTube et Facebook dépassent le milliard d’utilisateurs actifs) et les écrits des utilisateurs deviennent des données pour les logiciels du web et rentrent dans la liste des Big Data [déf15] convoitées par un marché qui y voit une activité économique potentielle croissante.

Les écritures collaboratives émergent et démontrent des propriétés de confiance et de qualité qui confirment bien les principes d’ouverture qui ont toujours présidé au succès du développement de l’Internet et du web. Par exemple, Wikipédia en français compte 1 571 551 contributeurs, dont 5 000 très actifs [réf64]. Plus de 2,4 millions d’articles Wikipédia en français sont consultés chaque jour.

Progressivement, les espaces d’activités collectives se développent sur le web, s’ouvrant à des publics de plus en plus variés et offrant des fonctionnements privés, semi-privés ou publics. Ils rassemblent dans le navigateur des services complémentaires pour la gestion de l’activité collective privée ou professionnelle. Si ces services ne relèvent pas du web, ils s’y expriment et leurs usages y constituent autant d’écritures collectives et individuelles. Parmi ces espaces d’activités collectives, il faut noter l’importance des jeux comme World of Warcraft [réf65], qui compte 8 millions de joueurs, avec une tendance à intégrer de manière de plus en plus importante les joueurs dans la conception et le renouvellement des jeux. Toutes les activités exploitent de manière plus ou moins directe les possibilités ouvertes par un accès web sur Internet, depuis les activités culturelles (avec un énorme développement dans le domaine de la musique, de la vidéo en particulier), de services, industrielles, touristi­ques, agricoles, éducatives, sociales, artistiques, militantes, politiques, sécuritaires, etc.

C’est toutefois la possibilité de trouver l’information qui déclenche l’immense succès du web comme conteneur d’information mondial. Dès 1995, Sergueï Brin et Larry Page proposent une autre méthode que l’indexation traditionnelle (Altavista [réf66], Yahoo ! [réf67], etc.) thématisée et hiérarchisée, mais s’intéressent à l’indexation inverse, en partant des références aux pages et des termes des contenus comme autant d’index potentiels. Google [réf68] était né. C’est donc une spirale de réussite qui se met en place entre les fournisseurs de contenus accessibles désormais sans effort et les fournisseurs de moteurs de recherche d’information. Les métiers des uns et des autres se rejoignent.

Au-delà de l’écriture explicite (texte) par les utilisateurs, ce sont donc toutes leurs interactions qui deviennent autant d’écritures rejoignant les données utilisables par les logiciels du web. Ces écritures sont le plus souvent nommées traces [3] dans la littérature, car elles posent la question de leur observation (enregistrement des actions des utilisateurs) et celle de leur interprétation pour des actions diverses (recommandation, personnalisation, sécurité, identification, etc.). La question du statut de ces traces est posée du point de vue de la vie privée, de leur propriété, de l’éthique de leur utilisation, de leur diffusion, de leur pérennité, de leur gestion, etc.

Le web reste par essence un chantier sans fin dont les dynamiques actuelles s’articulent autour de l’introduction d’écritures possédant une sémantique formelle, c’est-à-dire permettant des calculs interprétatifs explicites plutôt que des calculs implicites encapsulés dans les logiciels traitant les données issues des écritures des utilisateurs. Cette idée d’un web sémantique [réf69] – auquel seront dédiés les chapitres 4 et 8 de ce manuel – est activement développée par une communauté de chercheurs [réf70] et d’entreprises innovantes.

Dans le même esprit, sur une initiative du W3C et avec l’esprit initial du web, le web des données, ou données liées (linked data [déf16]), se propose d’écrire dans le web l’information issue de données produites par ailleurs, avec un processus éditorial semi-automatisé. Les données des institutions, les données du monde deviennent, à leur tour, des lieux de lecture-écriture en s’inscrivant dans le web.

Documents, données, connaissances, activités sont tissés pour créer un environnement numérique évoluant maintenant de manière contributive et ouverte. Ce caractère contributif et ouvert a été et reste manifestement la condition sine qua non du développement de ce chantier sans fin.

Mille Alain (2014). “D’Internet au web”, in Les Presses de l’Université de Montréal (édité par), Pratiques de l’édition numérique, collection « Parcours Numériques », Montréal, p. 7-11, ISBN: 978-2-7606-3202-8 (http://www.parcoursnumeriques-pum.ca/d-internet-au-web), RIS, BibTeX.


Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d’Utilisation Commerciale 4.0 International. Merci de citer l'auteur et la source.

Réalisé avec SPIP pour la Collection Parcours Numériques aux éditions PUM par Owell.co

SOMMAIRE NOTES & NOTES ADDITIONNELLES

[réf1Pour en savoir plus sur le conflit nucléaire.

[déf1Le routage dit de la « patate chaude », concept introduit par Paul Baran, consiste à router un paquet destiné à un réseau externe vers l’interconnexion la plus proche, évitant ainsi la traversée de sa propre dorsale. En savoir plus.

[réf2Le Massachusetts Institute of Technology (MIT) est une institution de recherche et une université américaine, spécialisée dans les domaines de la science et de la technologie. Voir le site.

[réf3Établi à Teddington depuis 1900, le National Physics Laboratory effectue des recherches sur les mesures, la physique et la science des matériaux. Voir le site

[réf4Basé à Dallas, AT&T est le plus grand fournisseur de services téléphoniques locaux et longue distance, de services sans fil et de xDSL des États-Unis. En savoir plus.

[réf5À l’origine du développement d’un grand nombre de technologies qui ont eu des conséquences importantes dans le monde informatique, l’ARPA (Advanced Research Projects Agency est une agence du département de la Défense des États-Unis qui est en charge de la recherche pour développer de nouvelles technologies destinées principalement à un usage militaire. En savoir plus.

[1J.C.R. Licklider, « Man-Computer Symbiosis », IRE Transactions on Human Factors in Electronics, vol. HFE-1, mars 1960, p. 4-11.

[réf6Précurseur de la modélisation 3D, de la simulation visuelle et de l’interface graphique, Ivan Sutherland écrit, en 1963, dans le cadre de sa thèse de doctorat au MIT, le tout premier programme (SketchPad) qui offre une interface graphique utilisant un moniteur et un crayon optique. En savoir plus. Voir la vidéo.

[réf7Lancé en 1969 et développé par l’ARPA (Advanced Research Projects Agency, ARPAnet est le premier réseau à transfert de paquets, qui deviendra la base du transfert de données sur Internet. En savoir plus.

[réf9Pionnière dans l’histoire de l’informatique (on lui doit notamment la mise en place du réseau ARPAnet), BBN (Bolt, Beranek and Newman) est une société américaine créée en 1948 au Massachusetts Institute of Technology (MIT). En savoir plus.

[réf10Née en 1911, IBM (International Business Machines Corporation) est une société américaine présente dans les domaines du matériel informatique, du logiciel et des services informatiques. En savoir plus.

[réf11Organisée par la société américaine BBN (Bolt, Beranek and Newman) en 1972, la conférence ICCC (International Computer Commu­nication Conference) est l’une des premières démonstrations publiques de la technologie de réseau informatique et du projet ARPAnet. En savoir plus.

[déf2Les Request For Comments (RFC) sont une série numérotée de documents officiels décrivant les aspects techniques d’Internet, ou de différents matériels informatiques (routeurs, serveur DHCP). En savoir plus.

[déf3En informatique, NCP (Network Control Protocol) est un protocole réseau intégré à Point-to-Point Protocol (PPP) qui est utilisé pour établir un lien direct entre deux nœuds de réseau. En savoir plus.

[réf12Le Stanford Research Institute est une entreprise américaine qui mène des recherches dans différents domaines scientifiques et technologiques. On lui doit notamment l’environnement graphique et la souris. En savoir plus.

[réf13Créé en 1971 mais abandonné en 1978, Cyclades était un projet expérimental français qui avait pour but de créer un réseau global de télécommunication utilisant la commutation de paquets. En savoir plus.

[déf4Protocole de transport fiable, en mode connecté, TCP (Transport Control Protocol) découpe le flux de données sur une connexion réseau en segments. Voir aussi le chapitre 8 - Les protocoles d’Internet et du web par Jean-Philippe Magué. Voir la vidéo.

[déf5Protocole de communication dans le réseau informatique, l’IP (Internetworking Protocol) permet un service d’adressage unique pour l’ensemble des terminaux connectés. Voir aussi le chapitre 8 - Les protocoles d’Internet et du web par Jean-Philippe Magué. En savoir plus.

[déf6Le protocole X.25 est un protocole de communication normalisé par commutation de paquets en mode PPP (Point-to-Point Protocol). Il intègre les trois couches du modèle OSI, la couche physique, la couche de liaison et la couche réseau. En savoir plus.

[réf15Fondée en 1957, la Digital Equipment Corporation (DEC) fut l’une des entreprises pionnières dans l’industrie informatique aux États-Unis. En savoir plus.

[réf16Construit en 1959, le PDP-1 est le premier ordinateur de l’entreprise Digital Equipment Corporation (DEC). Il est aujourd’hui célèbre, car c’est sur lui que les étudiants du Massachusetts Institute of Technology ont programmé un des premiers jeux vidéo : Spacewar. En savoir plus.

[réf17Lancée en mars 1965, le PDP-8 a été le premier mini-ordinateur de l’entreprise Digital Equipment Corporation (DEC). En savoir plus.

[réf19Mis au point en 1959, le 4004 d’Intel est le premier microprocesseur qui a été commercialisé. En savoir plus.

[réf20Publiée dès Octobre 1954 pour les amateurs et les expérimentateurs électroniques, la revue Popular Electronics fut la plus vendu des revues sur l’électronique au monde. Voir le site.

[réf21L’Altair 8800 est l’un des premiers micro-ordinateurs vendu aux particuliers en 1975. Il était basé sur le microprocesseur Intel 8080 et vendu en kit électronique.En savoir plus.

[réf22Le Homebrew Com­puter Club, club d’informatique de la Silicon Valley, réunissait, entre 1975 et 1986, des passionnés d’informatique dont, entre autres, Steve Jobs. En savoir plus.

[réf23Bulletin d’information au début des années 70, People’s Computer Company fut l’une des premières organisations à reconnaître le potentiel de Tiny BASIC dans le domaine naissant de l’informatique personnelle. En savoir plus.

[réf24Conçu par Steve Wozniak, Steve Jobs et Ronald Wayne, l’Apple I fut l’un des tout premiers micro-ordinateurs individuels. En savoir plus.

[réf25Conçu par Steve Wozniak et commercialisé en juin 1977 par Apple, l’Apple II, successeur de l’Apple I, est l’un des premiers ordinateurs personnels au monde fabriqué à grande échelle. En savoir plus. Voir aussi le chapitre 12-Les potentialités du texte numérique par Stefan Sinclair et Geoffrey Rockwell.

[réf26Pour voir le manuel de référence.

[réf27Développé par la compagnie Software Arts, puis distribué par Personal Software Inc. en 1979, Visicalc est le premier logiciel tableur pour ordinateur individuel. En savoir plus.

[réf28Pour en savoir plus sur le PC appelé le 5150.

[réf29Fondée dans les années 70 par Bill Gates et Paul Allen, Microsoft est une entreprise d’informatique et de micro-informatique spécialisée dans le développement et la vente de systèmes d’exploitation et de logiciels. En savoir plus.

[réf30Le Bulletin Board Systems est un serveur équipé d’un logiciel offrant les services d’échange de messages, de stockage et d’échange de fichiers, de jeux via un ou plusieurs modems reliés à des lignes téléphoniques. En savoir plus.

[déf7Développé par Ward Christensen, co-fondateur du CBBS (Computerized Bulletin Board System), Xmodem est un protocole de transfert de fichier et fut le plus populaire pour le réseau téléphonique commuté. En savoir plus.

[réf31Fondé en 1984 aux États-Unis par Tom Jennings, Fidonet est un réseau d’échange de messages à l’échelle mondiale. En savoir plus.

[réf32Pour en savoir plus sur The Well.

[réf34[En savoir plus sur les protocoles DECNETT, CSNET, BITNET.

[réf35La National Science Foundation (NSF) est une agence indépendante du gouvernement des États-Unis qui soutient financièrement la recherche scientifique fondamentale. En savoir plus.

[déf8Une dorsale (backbone) est un réseau informatique faisant partie des réseaux longue distance de plus haut débit d’Internet. La dorsale originale d’Internet était ARPANET. En savoir plus.

[réf36Pour en savoir plus sur le NFSNET.

[réf37Pour en savoir plus sur les applications Gopher, Veronica, Archie.

[réf38Pour en savoir plus sur l’Internet Configuration Control Board (ICCB).

[réf39Pour en savoir plus sur l’Internet Activities Board (IAB).

[réf40En savoir plus sur l’Internet Engineering Task Force (IETF.

[réf42En savoir plus sur l’Internet Society (IS.

[déf9Voir aussi le chapitre 8 - Les protocoles d’Internet et du web par Jean-Philippe Magué) a une histoire à rebondissements : dès 1983, une Internet Assigned Numbers Authority (IANA[[En savoir plus.

[réf44Pour en savoir plus sur la compagnie Network Solu­tions.

[réf48Situé en Suisse, le CERN (l’Organisation européenne pour la recherche nucléaire) est l’un des plus grands centre de physique des particules du monde. Voir aussi le chapitre 5 - Les enjeux du web sémantique par Yannick Maignien. En savoir plus.

[réf49Pour en savoir plus sur le logiciel Enquire.

[2Theodor H. Nelson, « Complex Information Processing : A File Structure for the Complex, the Changing and the Indeterminate », dans Proceedings of the 1965 20th national conference, New York, AMC, 1965, p. 84-100.

[déf10Un URI (Universal Resource Identifier) permet d’identifier une ressource sur un réseau. Voir aussi le chapitre 5 - Les enjeux du web sémantique par Yannick Maignien. En savoir plus.

[déf11Le World Wide Web (WWW), « toile (d’araignée) mondiale », est un système hypertexte public fonctionnant sur Internet. En savoir plus.

[réf50Fondée en 1985 par Steve Jobs, NEXT était une entreprise d’informatique qui a développé et produit une série d’ordinateurs destinés principalement à l’enseignement supérieur et aux entreprises. En savoir plus.

[réf51Pour en savoir plus sur les vieux télétypes.

[réf53Pour en savoir plus sur Unix.

[réf54Pour en savoir plus sur Erwise.

[réf55Situé sur le campus de l’Université de l’Illinois à Urbana-Champaign, le National Centre for Supercomputing Applications (NCSA) est un centre de recherche et d’exploitation des superordinateurs. En savoir plus.

[réf56Développé en 1992 au centre de recherches NCSA (National Center for Supercomputing Applications), NCSA Mosaic est le navigateur web qui a rendu le World Wide Web populaire. En savoir plus.

[réf57Pour en savoir plus sur Netscape.

[réf58En savoir plus sur le phénomène de la bulle Internet.

[réf59Vingt ans après, en 2014, le W3C poursuit ses objectifs et sa mission : « Web for all, web on everything » (« Web pour tous et partout »). En savoir plus.

[réf60Pour en savoir plus sur la conférence mondiale du web.

[déf14L’open source offre la possibilité aux utilisateurs d’accéder au code source et de créer des nouveaux travaux dérivés. L’expression open source a été suggérée par Christine Peterson du Foresight Institute afin de lever l’ambiguïté de l’expression free software. En savoir plus.

[réf62Le web 1.0 était un stade prématuré de l’évolution conceptuelle du World Wide Web. Il était surtout centré autour d’une approche top-down, c’est-à-dire que les utilisateurs pouvaient accéder aux pages web, mais ils ne pouvaient pas contribuer au contenu. En savoir plus. Voir aussi le chapitre 5 - Les enjeux du web sémantique par Yannick Maignien.

[réf63Le Web 2.0 fait référence à l’ensemble des techniques, des fonctionnalités et des usages du World Wide Web. Il est l’évolution du web originelle en une forme plus simple qui ne nécessite aucune connaissances techniques ni informatiques pour les utilisateurs. En savoir plus. Voir aussi le chapitre 5 - Les enjeux du web sémantique par Yannick Maignien.

[déf15L’expression Big Data est utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. En savoir plus.

[réf64En savoir plus sur les statistiques de Wikipédia.

[réf65Jeu vidéo de type MMORPG développé en 2004 par la société Blizzard Entertainment, World of Warcraft détient le Guinness World Record pour la plus grande popularité par un MMORPG. En 2012, Blizzard annonce le nombre de 9,6 millions d’abonnés à travers le monde, puis 7,7 millions en 2013. Voir le site.

[réf66Mis en ligne en 1995, Altavista fut le plus important moteur de recherche en ligne utilisé avant d’être détrôné par Google. En savoir plus.

[réf67Créé en 1994, Yahoo ! est une société américaine qui offre de nombreux services (gratuits et payants), dont un moteur de recherche et des boîtes à courrier électronique. En savoir plus.

[réf68Société fondée en 1998, Google est principalement connue pour son moteur de recherche mais également par quelques-uns de ses logiciels emblématiques, tels que Google Earth et Google Maps. En savoir plus.

[3Alain Mille, De la trace à la connaissance à l’ère du web, Numéro thématique Intellectica, no 59, 2013.

[réf69Mouvement mené par le W3C (Consortium World Wide Web), le web sémantique, expression inventée par Tim Berners-lee, vise à favoriser des méthodes communes pour échanger des données en liant et structurant l’information sur Internet par le biais des linked data. En savoir plus.

[déf16Initiative du W3C (Consortium World Wide Web), le linked data (Web des données en français) vise à favoriser la publication de données structurées sur le Web en les reliant entre elles pour former un réseau global d’informations. Voir aussi le chapitre 5 - Les enjeux du web sémantique par Yannick Maignien. En savoir plus.















CONTENUS ADDITIONNELS : 8 contenus
  • Alain Mille se présente pour la collection Parcours Numériques

  • L’histoire d’Internet au web : un chantier sans fin ! par Alain Mille

  • Alain Mille lit un extrait de son texte D’Internet au web

  • Bibliographie du Chapitre 2 - D’Internet au web du manuel Pratiques de l’édition numérique

  • L’histoire d’Internet par ses créateurs - National Media Museum

  • Une contre-histoire des Internets : un webdocumentaire d’Arte

  • Evolution Web 1.0, Web 2.0 to Web 3.0 par EPN Foundation

  • Analyse de texte du chapitre avec Voyant Tools







.