L'Internet et ses représentations
1Depuis le développement accéléré d’Internet, dans le courant des années 1980, la pensée contemporaine a du mal à saisir les aspects multiples de ce nouvel objet, qui, comme tous les instruments de communication – qui sont aussi des instruments de puissance – induit de multiples effets allant de la séduction fascinante à la crainte respectueuse, en passant par nombre de délires. D’où les limites, selon nous, d’un certain type de discours qui, sautant par-dessus une véritable étude de philosophie des techniques, oscillent entre l’envolée lyrique et les propos de Cassandre. Dans le texte qui suit, nous nous appuierons sur la réalité (actuelle) d’Internet pour dépasser ces opinions en vue de saisir ultérieurement quelques-unes des transformations dans lesquelles nous sommes pris avec le phénomène de l’interconnexion des réseaux.
Rappels
2Comme le rappelle opportunément Arnaud Dufour au début du livre qu’il consacre à cet inter-réseau, Internet est avant tout un réseau informatique, « le plus important réseau informatique mondial » [1]. Internet est donc, en ce sens, un réseau de réseaux.
3Mathématiquement parlant, il faut savoir qu’un réseau n’est pas seulement un graphe. Un graphe G(X, U) n’est qu’un ensemble de nœuds (X) reliés par un ensemble d’arêtes ou d’arcs orientés (U), auquel on peut associer différents caractères, eux-mêmes complexes : ainsi sa structure topologique (densité, connexité, cohésion, redondance, centralité, intermédiarité, etc. [2]), ou encore son aspect rhéologique (le mode de circulation des flux qui le caractérise). Le type de mathématique et les algorithmes associés à l’étude de ces différents aspects sont spécifiques. Ils peuvent relever notamment de la théorie des graphes et hypergraphes, de la théorie des matroïdes, ou encore de la programmation linéaire. Même lorsqu’elle résulte d’un tirage aléatoire, l’architecture d’un graphe, en principe, est fixée une fois pour toutes. Un réseau présente plus de souplesse car il suppose, en outre, qu’un certain type de fonctionnement (déterministe ou stochastique), régisse les liaisons de nœud à nœud. Selon le cas, les transitions internodales se font ou non, selon que certaines relations fonctionnelles sont ou ne sont pas satisfaites (par exemple, des fonctions à seuil, dans les « réseaux de Petri »). La notion de « réseau » est cependant très polysémique. Il arrive même que ce concept, quand il n’est pas purement et simplement confondu avec celui de graphe ou même d’arbre (voir les « réseaux de parenté » des ethnologues) puisse désigner une structure algébrique très particulière : c’est le cas en mathématiques où la notion de « réseau » est assez proche de celle de semi-groupe.
4L’idée d’un « réseau de réseaux » n’est donc pas triviale, et suppose une abstraction supplémentaire, l’idée d’une relation fonctionnelle elle-même définie sur des réseaux. En mathématiques, où la situation est la plus simple, on obtient des fonctions de réseau, comme l’a très bien montré Jean-Pierre Serre, dans des cas extrêmement particuliers, quand, par exemple, sur une base complexe, on a réussi à exprimer des formes modulaires par des séries d’Eisenstein qui convergent absolument [3]. Internet n’est évidemment pas un « réseau de réseaux » en ce sens, bien qu’on puisse – Berge et d’autres l’ont fait très tôt – appliquer le formalisme arithmétique aux flux et aux tensions. Dans l’acception informatique du terme, cependant, un réseau n’est, en première approximation, qu’un ensemble de matériels informatiques interconnectés. Comme on a coutume d’opposer les réseaux locaux (Local Area Networks ou LAN) aux réseaux à grande distance (Wide Area Networks ou WAN), mais que les réseaux à grande distance connectent en fait des réseaux locaux, c’est en ce sens, d’abord, qu’Internet est un réseau de réseaux à couverture mondiale. Les choses se compliquent pourtant tout de suite car un réseau comme Internet, en tant que réseau concret, et non simple représentation, intègre plusieurs composantes : matérielle, organisationnelle, logicielle et humaine. La composante matérielle comprend, comme pour tout graphe, des nœuds et des liens, mais ceux-ci prennent déjà des formes multiples : clients ou serveurs, câbles téléphoniques, fibres optiques, ondes radio, liaisons satellites, lignes sous-marines, lignes permanentes ou « dédiées », etc. De plus, l’organisation, très pyramidale, fait apparaître au moins quatre niveaux d’architecture : le niveau mondial, le niveau continental, celui du fournisseur d’accès, enfin, celui de l’utilisateur final. Au plan logiciel, la communication entre les machines suppose l’existence d’un langage commun de communication – le fameux tcp/ip (Transmission Control Protocol/Internet Protocol) –, c’est-à-dire en fait un ensemble de protocoles qui assurent l’interopérabilité entre ordinateurs hétérogènes reliés via le réseau et offrent ainsi un certain nombre de services : transfert et partages de fichiers, messagerie électronique, émulation de terminal, accès à l’information, impression, exécution de commandes à distance, gestion des administrateurs du réseau. Ces protocoles, qui sont apparus avant la définition d’un cadre normatif fonctionnel général des systèmes informatiques interconnectés (modèle osi ou iso à sept couches) sont structurés en trois blocs fonctionnels : application, transport et contrôle d’erreur (tcp), acheminement ou routage des paquets d’information en mode non connecté. L’un des caractères les plus étonnants du réseau est, en effet, que les messages, pour être acheminés plus facilement, sont fractionnés en paquets, les paquets d’un même message pouvant emprunter des routes diverses pour atteindre la même destination. Mais, comme les informaticiens le savent, la séquentialité des paquets n’est pas garantie par le protocole qui n’effectue pas non plus de contrôle de flux ni d’erreurs sur leur contenu. Des techniques d’adressage, dans lesquelles nous n’entrerons pas, se bornent à conditionner l’accès aux ressources du réseau. Aujourd’hui, la quasi-totalité des systèmes d’exploitation des ordinateurs admettent une implémentation des protocoles tcp/ip d’accès à Internet, preuve évidente que le réseau s’est imposé comme un fait mondial.
5Dans les composantes humaines du réseau, on peut distinguer plusieurs catégories de personnes : les gestionnaires du réseau (techniciens et ingénieurs capables de résoudre les problèmes matériels ou logiciels liés au réseau), les producteurs (fournisseurs de services et fournisseurs d’accès à Internet) et les utilisateurs de services (l’ensemble des utilisateurs du réseau). On doit savoir encore que le réseau Internet n’appartient à personne, bien que des organismes encadrent son évolution, notamment l’Internet Society et ses différents comités : Internet Architectural Board, Internet Assignet Number Authority, Internet Engineering Task Force, Intenet Research Task Force, etc.
6Il est de bon ton de se désoler qu’Internet soit une invention américaine – le journal Le Monde s’en faisait encore l’écho récemment [4] – au motif que la technique de transmission d’information à la base du réseau, c’est-à-dire la technique de « commutation par paquets » consistant à segmenter le message à transmettre en une série de « paquets » (ou « datagrammes ») avait été à l’étude en France dans les années soixante-dix, avec l’équipe de Louis Pouzin, inventeur du réseau « Cyclades ». Mais le premier réseau à commutation de paquets en mode non connecté est probablement un réseau britannique, le National Physical Laboratories, mis en place dès 1968 en Grande-Bretagne. En outre, Louis Pouzin reconnaît lui-même que les travaux français commencèrent au début des années soixante-dix, après qu’une délégation eut pris connaissance du projet américain Arpanet. Or c’est en 1969 que cette technologie fut livrée à l’arpa (Advanced Research Project Agency) du Département de la Défense américain, le modèle d’un réseau très décentralisé, à structure maillée, avec redondance des connexions et des ordinateurs ayant été étudié dès 1962 par Paul Baran, de la Rand Corporation, pour le compte de l’US Air Force. Les travaux français eussent-ils été mieux soutenus qu’on ne voit pas que la face des choses en eût été changée de fond en comble : vu la domination de la langue anglaise et l’internationalisation rapide du réseau, la majeure partie des développements techniques ultérieurs eussent été marqués, tout autant qu’aujourd’hui, par cette langue. Il est également assez comique d’entendre certains commentateurs s’effrayer de l’origine militaire du réseau, qui en a fait pourtant un outil totalement dépourvu de centre, car destiné à déjouer la paralysie toujours possible d’un point névralgique ou même sa destruction partielle. C’est précisément cette origine qui fait qu’en cas d’attaque d’un nœud majeur, les machines subsistantes peuvent être reconnectées entre elles grâce à l’utilisation de lignes redondantes en état de marche, de sorte que ce qui entendait protéger les intérêts militaires est précisément ce qui sert et protège aujourd’hui les communications dites « terroristes » [5]. Rien d’étonnant, en tout cas, que la première conférence internationale sur les « Communications informatiques » [6] ait vu Vinton Cerf prendre la tête de l’InterNetwork Working Group pour répondre au besoin de protocoles de communications communs et proposer une première ébauche de l’architecture future d’Internet – autrement dit, selon le vœu des militaires, un ensemble de réseaux autonomes interconnectés par des passerelles.
7Dès lors, tout va aller très vite : entre 1972 et 1974, les premières spécifications de protocoles Internet apparaissent ; puis, en 1979, l’arpa crée l’Internet Configuration Control Board, pour contrôler l’évolution du réseau. En 1983, le réseau voulu par arpa éclate bientôt en deux sous-réseaux : Milnet, qui restera militaire ; Arpanet qui constituera l’épine dorsale du réseau américain jusque dans les années 1990, date à laquelle il sera intégré au réseau du National Science Foundation. Enfin, en 1995, ce dernier sera remplacé par un ensemble de grands réseaux interconnectés (MCInet, Sprintnet, ANSnet, etc.). Parallèlement, on développe évidemment toute une série de protocoles pour fournir de plus en plus de services et unifier progressivement les communications entre machines. Le protocole uucp (Unix to Unix Copy) est créé en 1976 par Mike Lesk pour échanger des fichiers entre utilisateurs de machines Unix. Puis en 1977, l’Université du Wisconsin, qui ne faisait pas partie d’Arpanet, crée Theorynet, l’un des premiers grands réseaux uucp, qui fournit des services de messagerie électronique à une centaine de chercheurs en informatique. Ce réseau sera étendu en 1979 avec CSNet (Computer Science Research Network). C’est alors que Vinton Cerf propose l’idée d’une passerelle d’interconnexion entre CSnet et Arpanet. Nous sommes dans les années 1980, c’est vraiment le début d’Internet, immensément favorisé par une décision particulièrement remarquable de la direction d’arpa qui met gratuitement à disposition les spécifications des protocoles tcp/ip, lesquels assurent l’accès distant à la messagerie électronique. L’année 1983 voit alors la mise en œuvre du premier serveur de noms (qui préfigure les futurs dns (Domain Name Servers) utilisés sous tcp/ip. Enfin, dans les années 1990, les dns et le routage dynamique se généralisent. Le reste de l’histoire est surtout ce qu’on appelle un « phénomène de société » : l’engouement pour la communication à distance, les images, et le « surf » électronique. C’est malheureusement seulement ce qu’on retient.
Représentations et interprétations
8Nous vivons certainement une époque plus fertile en représentations de concepts qu’en concepts, et sûrement plus friande de spectacles que de faits. En ce sens, la réalité d’Internet s’est vite effacée derrière ses conséquences et ses effets : avec un tel réseau se développait une sorte de monde en miroir, un double allégé du réel, plein de données et d’images, qui semblait répliquer à grande échelle l’énigme de la relation corps-esprit. Qu’était cette réalité qu’on a tout de suite, sans bien réfléchir à la notion, qualifiée de « virtuelle » [7] ? Un esprit habitait-il ce super-réseau que d’aucuns considéraient déjà comme une sorte de super-cerveau (Francis Heylighen) ou de « cerveau planétaire » (Joël de Rosnay) à la manière du célèbre world brain de H.G. Wells ?
9L’idée séduisante du cerveau planétaire et de son esprit associé avait, il faut le reconnaître, des précurseurs en philosophie : Platon, dans la République, assimilait déjà la cité grecque à une âme collective, et, de Platon aux Stoïciens, le thème d’une « âme du monde » avait reçu de grands développements dans l’Antiquité tardive [8], dont on trouve encore des traces plus près de nous.
10Au xviie siècle, par exemple, Spinoza distinguait dans la nature des individus plus ou moins composés, la nature tout entière formant un immense individu auquel il associait une intelligence, le « mode infini immédiat de la pensée » ou « entendement infini de Dieu » [9]. Le plus remarquable est que ce philosophe voyait dans l’étendue, entre l’homme et la nature dans son ensemble, toute une série de corps de plus en plus complexes, auxquels correspondaient, dans la pensée, une série d’âmes collectives de plus en plus parfaites. Le Traité Politique concevait les sociétés civiles comme de telles réalités intermédiaires, notamment lorsqu’elles étaient dirigées « comme par une seule âme » (1, 2, 16). Et dans son livre majeur, l’Éthique, il n’hésitait pas à soutenir que « les hommes ne peuvent rien souhaiter qui vaille mieux pour la conservation de leur être que de s’accorder tous en toutes choses de façon que les âmes et les corps de tous composent en quelque sorte une seule âme et un seul corps » (iv, scolie de la proposition 18). L’idée d’une intégration de l’homme dans un « plus grand que lui » était donc en marche.
11Bien plus tard, au xxe siècle, face au développement du grand corps technologique visiblement disproportionné par rapport à l’homme, c’est tout naturellement que Bergson en vint à réclamer un « supplément d’âme » [10], pour rétablir l’équilibre. Et dans un contexte évolutionniste désormais incontournable, le P. Teilhard de Chardin, grand théologien de la réticularité, décrivait avec pathétique le futur religieux de l’humanité. À partir de ce « prodigieux événement biologique représenté par la découverte des ondes électro-magnétiques » [11], il annonçait une Terre qui, peu à peu, se couvrait d’une sorte de « membrane » ou de « nappe pensante » – une « noosphère » [12] objective – entrecroisant ses fibres « pour les renforcer en l’unité vivante d’un seul tissu » [13]. Bien plus : avec cette émergence d’une humanité mieux réticulée (il ne s’agissait encore, à l’époque, que d’une unification par les réseaux de transport et de transmission), il voyait se lever un véritable « esprit de la Terre » [14] qu’il espérait voir se soustraire au totalitarisme et converger vers une conscience complexe, et, pourquoi pas, susceptible d’être fécondée dans l’avenir par d’autres noosphères (des noosphères extra-terrestres s’il en existait), afin que s’établisse ainsi « une liaison psychique avec d’autres foyers de conscience à travers l’espace » [15].
12Ces textes qui ont sans doute influencé, consciemment ou non, nombre de théoriciens, de Joël de Rosnay à Pierre Lévy, en passant par Alvin Toffler, ont servi de première matrice philosophique à l’interprétation de l’événement que personne n’avait vraiment prévu mais qui semblait pourtant dessiné en filigrane dans notre culture depuis si longtemps : l’apparition d’Internet. Qu’on le veuille ou non, les idées de « révolution informationnelle » [16], de cybermonde [17], de cyberespace [18], d’« intelligence collective » [19], d’humanité « symbiotique » [20] ou, plus récemment encore, de « pronétariat » [21], se rattachent peu ou prou à cette tradition. Plus que toute autre, la « Légende des Anges » [22] de Michel Serres évoquait encore, à la fin des années 1990, cette perspective d’une évolution progressive vers un « milieu divin » réalisant le Plérôme (la communion de tous, la fameuse « liaison mystique » [23] de Teilhard). À la fois corporels et spirituels, les anciens médiateurs angéliques figuraient non seulement nos télégraphistes, facteurs, traducteurs, représentants et autres commentateurs mais aussi « les fibres optiques et ces intelligentes machines construites pour connecter les réseaux entre eux : brasseurs et routeurs » [24]. Pour Michel Serres, Internet était donc indissolublement tissé d’anges et d’intelligence, d’une intelligence non seulement associée au réseau total mais déjà présente en chacun de ces composants les plus modestes. La théorie de l’« intelligence collective » de Pierre Lévy, et celle d’un état final divin (le « point oméga » de Teilhard), associé à un développement exponentiel divergent de l’information dans un univers fini (que Frank Tippler [25] devait ultérieurement défendre), sont au bout de ces spéculations. Même des penseurs plus critiques comme Paul Virilio n’ont jamais remis en cause la thèse d’une immédiateté absolue de la communication.
Perspectives critiques
13Or, différentes questions peuvent cependant être posées à cette métaphysique de l’immédiateté communicationnelle, qui s’évade suffisamment loin des réalités pour qu’on cherche, de fait, à y revenir.
14a) Lorsqu’on rapporte, comme le fait Paul Virilio, la notion d’information à la vitesse de la lumière considérée comme vitesse absolue, ou vitesse-limite, pour marquer les dangers d’une immédiateté réticulaire éternisant un présent « dilaté à la mesure de l’espace-monde » [26], on oublie, semble-t-il, des faits élémentaires. Le premier est une conséquence de la théorie de la relativité restreinte : la cohabitation de l’invariant c et du principe galiléen de relativité des vitesses impose précisément, via les transformations de Lorentz, des effets relativistes qui interdisent l’existence d’une durée unique pour tous. Paul Virilio commet ici la même erreur que Bergson dans Durée et Simultanéité. En revanche, la théorie d’Einstein impose, avec l’« Ailleurs » extérieur au cône de Minkowski, un ensemble de points sans lien de causalité les uns avec les autres et qui sont effectivement hors temps, puisqu’ils participent du genre espace. Ce n’est donc pas la quasi-immédiateté de la vitesse de la lumière qui est problématique. Il reste que ces considérations physiques sont, de toute façon, sans objet quand on regarde non la vitesse théorique de transmission de signaux lumineux, mais le débit réel de transmission d’informations dans des canaux bruités et de capacité de toute manière limitée. Si l’on excepte le cas de réseaux locaux à fibre optique, où l’on peut utiliser 100 % du débit et où rien n’est bridé (on ne consomme pas de bande passante), et même en tenant compte des progrès de la technique adsl (postérieurs au livre de Paul Virilio), l’immédiateté reste toute relative, d’autant que les canaux par lesquels transitent les paquets de données sont loin d’être tous optimisés. Quand bien même on atteindrait une hypothétique capacité limite comprise comme un absolu analogue à la vitesse de la lumière (hypothèse que nous envisagions dans la deuxième partie de notre livre Cosmologie de l’Information), de vraisemblables effets relativistes interdiraient les conséquences envisagées par Paul Virilio. Il faut donc raison garder !
15b) C’est une évidence d’affirmer que l’humanité est désormais interconnectée. C’en est une autre de considérer qu’a été ainsi créé un nouveau « monde » ou un nouvel « espace », de quelque manière qu’on le baptise. Or en quel sens peut-on parler de cybermonde, de cyberespace, voire de cyber-espace-temps [27] à propos d’Internet ? La plupart de ces expressions, totalement métaphoriques, naissent d’une crainte : la mise à l’écart de la matière (et notamment des corps vivants) au profit d’une existence désormais purement informatique. Les internautes n’habiteraient plus vraiment le monde concret ni l’espace à trois dimensions, et encore moins le temps vécu qui semblaient constituer jusqu’ici le « réel commun » des vivants sur Terre, ils se projetteraient maintenant dans un univers abstrait, l’espace purement « virtuel » de leur ordinateur. Mais quel est cet « espace » et a-t-on raison de parler ici d’« espace » ?
16La notion d’espace, au départ unique, car associée à la géométrie euclidienne qui n’en connaissait qu’un (l’espace à trois dimensions), s’est pluralisée à partir de Riemann et Listing, et étendue à des espaces abstraits (et non nécessairement géométriques) à partir de Fréchet. En conséquence, comme le suggère Basarab Nicolescu, parler de cyber-espace imposerait théoriquement qu’on précise d’abord le nombre de dimensions de l’espace en question. Mais de quel espace s’agit-il ? L’espace perceptif de l’internaute ? L’espace de l’écran ? L’espace physico-mathématique condition de possibilité d’Internet en tant que tel ? L’espace « informationnel » en lequel, comme le faisait déjà Brillouin, on peut décomposer la formule de Shannon [28] ? Le moins qu’on puisse dire est que, lorsque la notion d’« espace » est utilisée sans précision, ce qu’on vise n’a pas beaucoup de pertinence et n’a pas de raison d’être un « objet ». Plus que tout, le mélange de niveaux qui voudrait recoller codage binaire, niveau quantique et espaces mathématiques (y compris les espaces de dimension de Hausdorff non-entière comme ceux associés aux fractales) nous semble aboutir à une monstruosité dont l’existence est improbable dans la mesure où la nature de l’espace postulé, le nombre de ses « dimensions » [29] et sa topologie échappent [30].
17c) La confusion atteint son comble quand le nouveau « cybermonde » est non seulement déclaré ubiquitaire et multidimensionnel mais aussi « intelligent ». Pierre Lévy, depuis plusieurs années, a tenté de promouvoir une telle philosophie optimiste. Au départ, il s’agissait de changer la monstruosité technologique dont on redoute les effets terrifiants : « fichage des personnes, traitements de données délocalisés, pouvoirs anonymes, empires techno financiers implacables, implosions sociales, effacements de mémoires, guerre des clones devenus fous parmi d’incontrôlables réactions en temps réel… » [31] – de changer cette monstruosité en une « intelligence collective » rassurante, pleine de culture, de beauté et d’esprit, dont le modèle serait plutôt le temple grec, la cathédrale gothique, le palais florentin, l’Encyclopédie de Diderot ou la Constitution des États-Unis (sic) [32]. Selon Pierre Lévy, l’homme a habité successivement quatre espaces : celui (immémorial) de la terre, celui (historique) des territoires, celui (temporel abstrait) des marchandises, et enfin celui (temporel subjectif) du savoir. Nous entrons dans ce dernier, où l’individu disposerait désormais d’une « identité quantique » et s’exprimerait essentiellement en distribuant des idéogrammes dynamiques dans une quantité indéfinie de mondes virtuels. Avec l’entrée dans ce nouveau monde, les routes changent, les instruments de navigation se modifient. On est ainsi passé des récits, portulans (cartes marines), algorithmes, aux systèmes de projection, aux statistiques et aux probabilités, enfin aux cinécartes. Les objets de connaissance se transforment : la terre, le territoire, l’objet marchand et maintenant les significations pures. Enfin on passe d’une épistémologie de la chair et du livre à une épistémologie de l’hypertexte et de la « cosmopédie ». Un point important de la thèse est le plaidoyer en faveur du maintien des quatre identités, Pierre Lévy estimant sagement que le monde informationnel ne doit pas nous dissimuler le sol où nous sommes nés. Certes. En conséquence, il existerait une hiérarchie d’espaces entre les bases physiques-numériques du nouveau monde et l’« espace anthropologique » qu’elles rendent possible – celui où nous échangeons des significations – et qui doit demeurer. Une question, cependant, mérite d’être soulevée : en quoi cette architecture intelligible quasiment plotinienne forme-t-elle une « intelligence collective » ? Dans des ouvrages plus récents comme Cyberculture [33] plus directement centrés sur Internet, Pierre Lévy insiste désormais sur l’aspect entièrement « rhizomatique » du world wide web « sans point de vue de Dieu, sans unification surplombante », le « cyberespace » étant du reste destiné à garder à jamais ce caractère foisonnant, ouvert, hétérogène et non totalisable. On est ainsi d’autant plus inquiet sur la chance que les nouveaux outils de navigation, y compris ceux concoctés par l’auteur et son équipe, aient la moindre chance de mettre un peu d’ordre dans cette vache multicolore : l’émergence du cyberespace, aux dires mêmes de Pierre Lévy, traduisant moins l’utopie que tout devient désormais accessible que le fait assez rédhibitoire que tout est désormais définitivement hors d’atteinte. Dans ces conditions, on se demande évidemment le bénéfice de l’opération et pourquoi tant de soins dépensés par les informaticiens pour, comme on l’a vu, adapter des protocoles. Mais la « world philosophy » [34], à la différence du postmodernisme dont elle semble proche, n’entend pas simplement chasser la totalité en gardant l’universel, elle annonce une véritable révolution cyberdémocratique où une politique mondiale bien réelle pourrait désormais dépendre des judicieuses pensées des « cybercitoyens ». On se gardera évidemment de demander ce qu’est une identité quantique et par quel mystère un système d’échange qui offre à la fois des encyclopédies, des messageries, des sites pornographiques, différentes figures du racisme, des photos d’ovnis, des espaces de vente, de la communication d’entreprises, toutes sortes de serveurs de prestation de service ; qui contient un nombre incalculable de non-sens avérés mais aussi des renseignements plus ou moins fiables et de niveaux divers allant de la pensée des druides à la théorie des cordes ; c’est-à-dire un système qui tient à la fois de l’annuaire téléphonique, de la bibliothèque, de la foire, du documentaire, de la propagande et de la pataphysique – pourrait bien manifester, sinon par lui-même, du moins avec le secours des internautes, des capacités cognitives, une pensée rationnelle et des intentions politiques claires au niveau mondial… Si quelque consensus devait, par malheur, émerger un jour de cette catastrophe généralisée, il y a des chances qu’il ait été formé selon les lois de la panique ou de la rumeur, qui relèvent davantage de la théorie du chaos déterministe ou des réseaux à seuil de percolation que de sages décisions dûment méditées dans le secret des alcôves. Dans un tel contexte, on peut alors se demander où sont les véritables – et non mythiques – nouveautés introduites par Internet.
Vers des analyses sérieuses
18Un modèle général (mathématique, physique, et même métaphysique) d’Internet, pour autant que cela ait un sens, reste, de fait, à construire et nous n’aurons pas ici la place, ni l’impudence de l’esquisser. Disons seulement que ce tryptique pourrait relever, selon nous, d’une philosophie des réseaux qui s’efforcerait de rendre compte des aspects contrastés de ce qu’on a pu appeler la « révolution numérique » [35]. Il n’est pas sûr, en effet, que celle-ci ait essentiellement consisté à nous faire entrer dans un super-cerveau, ni dans un monde intelligible enfin réalisé, ni même dans cet univers d’opérations entièrement réversibles qu’on présente ça et là [36] comme une nouveauté. Aux dires des chantres de la pensée réticulaire, dans les réseaux, plus d’orientation, de hiérarchie, ni de dénivellations, même multidimensionnelles, mais une immense algèbre commutative. C’est en tout cas ce qu’on veut faire croire avec l’idée plaisante d’une démocratie électronique [37]. Curieusement, cette situation qu’on dit nouvelle n’a rien de bien révolutionnaire. L’univers d’un réseau généralisé comme Internet, pris au plus près de son fonctionnement mathématico-physique, ressemble en fait à l’univers des nombres [38]. Nul besoin par conséquent d’évoquer ici les anges, les corps glorieux ou transfigurés, et leurs propriétés eschatologiques (subtilité, agilité, impassibilité, clarté). Internet est, du reste, à peu près le contraire : les pseudonymes derrière lesquels se dissimulent les internautes sont opaques. Il n’est évidemment qu’en apparence un monde où l’on ne connaîtrait ni ruine, ni vieillissement, ni mort. En réalité, l’abonnement n’est pas gratuit, le temps passe, et, loin des têtes de réseau, on s’épuise à se connecter ou à attendre des informations qui ne viennent pas toujours. Quant à la teneur des communications en code restreint, le moins qu’on puisse dire est qu’elle n’a pas grand-chose de très subtil. Au surplus, la vie en communauté, même virtuelle, c’est-à-dire la solitude organisée, a aussi, indépendamment de l’aspect financier, un coût bien réel et non exempt de conséquences pratiques. De sorte qu’en définitive, on peut même se demander, comme a pu le faire récemment Francis Fukuyama [39], si les hommes, désormais connectés à cet imaginaire collectif et bavard, ont encore envie de vivre ensemble et de prendre en charge les vraies contraintes de leur vie en commun.
Notes
-
[1]
A. Dufour, Internet, P.U.F, Paris, 1996, p.4.
-
[2]
Nous avons rappelé ces concepts tirés de l’analyse spatiale dans D. Parrochia, « Réseaux et interactions », in A. Gras, P. Musso, Politique, technologie, communications. Mélanges en hommage à Lucien Sfez, P.U.F., Paris, 2006.
-
[3]
J.-P. Serre, Cours d’arithmétique, P.U.F., Paris, 1971.
-
[4]
S. Foucart, « Louis Pouzin, l’homme qui n’a pas inventé Internet », Le Monde, 5 août 2006, p.11.
-
[5]
Ceci vérifie une nouvelle fois notre thèse de la neutralité des théories scientifiques et des inventions techniques vis-à-vis de leurs utilisations, qui peuvent être multiples, les problèmes fondamentaux, ramenés à leur aspect formel, prenant une remarquable universalité. Cf. D. Parrochia, « Graphes et politique : en marge de l’idéologie », in P. Musso, Réseaux et Sociétés, P.U.F., Paris, 2003, p.93-118.
-
[6]
À Washington, en 1972.
-
[7]
Notons que le terme, au départ leibnizien, est primitivement réapparu dans le contexte des vidéo-communications en 1968, quand Ivan Sutherland a construit le premier visiocasque. Sur ses différents sens, cf. G.-G. Granger, Le Probable, le possible, le virtuel, O. Jacob, Paris, 1995.
-
[8]
Cf. J. Moreau, L’Âme du monde de Platon aux Stoïciens, Les Belles Lettres, Paris, 1939.
-
[9]
Spinoza, Éthique V, prop. 40, Scolie. Une version en quelque sorte actualisée et généralisée du panthéisme spinoziste se retrouverait aujourd’hui chez John Leslie. Cf. J. Leslie, Infinite Minds, Oxford University Press, Oxford, 2001.
-
[10]
H. Bergson, Les Deux Sources de la morale et de la religion, P.U.F., Paris, 1948.
-
[11]
P. Teilhard de Chardin, Le Phénomène humain, Seuil, Paris, 1955, coll. Point, 1970, p.240.
-
[12]
Ibid., p.179.
-
[13]
Ibid., p.244. Nous avons également montré comment ces thèmes étaient déjà présents chez A. de Saint-Exupéry. Cf. D. Parrochia, L’Homme volant, épistémologie de l’aéronautique et philosophie de la navigation, Champ Vallon, Seyssel, 2002.
-
[14]
Ibid., p.245.
-
[15]
Ibid., p.288.
-
[16]
A. Toffler, Les Nouveaux Pouvoirs, tr. fr., Fayard, Paris, 1991 ; voir aussi : La Politique de la troisième vague, tr. fr., Fayard, Paris, 1995.
-
[17]
P. Virilio, Cybermonde, la politique du pire, Éditions Textuel, Paris, 1996.
-
[18]
Le mot, d’origine américaine, a été forgé par l’écrivain W. Gibson, dans un roman de science-fiction, pour désigner le monde des réseaux numériques. Cf. W. Gibson, Neummancien, tr. fr., La Découverte, Paris, 1984.
-
[19]
P. Lévy, L’Intelligence collective, pour une anthropologie du cyberespace, La Découverte, Paris, 1994.
-
[20]
J. de Rosnay, L’Homme symbiotique, Seuil, Paris, 1995.
-
[21]
J. de Rosnay, C. Revelli, La Révolte du pronetariat, Fayard, Paris, 2006.
-
[22]
M. Serres, La Légende des Anges, Flammarion, Paris, 1993, notamment p.30.
-
[23]
P. Teilhard de Chardin, Le Milieu Divin, Seuil, Paris, 1957, coll. Points, 1993, p.35.
-
[24]
Ibid., p.296.
-
[25]
F. Tippler, The Physics of Immortality, Anchor Books, Paperback, New York, 1995.
-
[26]
La notion d’« espace-monde », elle, est plutôt une construction des géographes de l’école de R. Brunet. Cf. O. Dollfus, L’Espace-monde, Economica, Paris, 1994.
-
[27]
B. Nicolescu, « Le cyber-espace-temps ou l’imaginaire visionnaire », in D. Parrochia, Penser les Réseaux, Champ Vallon, Seyssel, 2001.
-
[28]
Nous avons exploité cette possibilité dans notre livre Cosmologie de l’information, Hermès, Paris, 1994.
-
[29]
Il faudrait d’ailleurs préciser cette notion, la dimension « fractale » n’ayant rien à voir avec les dimensions géométriques habituelles.
-
[30]
B. Nicolescu pose, certes, à ce sujet, beaucoup de questions, mais n’y répond nullement. Et vu la façon dont le problème est posé, on peut douter qu’on arrive à lui trouver une solution.
-
[31]
P. Lévy, L’Intelligence collective, op. cit., p.118.
-
[32]
Ibid. Pour la constitution des États-Unis, Gödel, qui la jugeait contradictoire, doit se retourner dans sa tombe…
-
[33]
P. Lévy, Cyberculture, rapport au Conseil de l’Europe, O. Jacob, Paris, 1997 ; voir également Cyberdémocratie, O. Jacob, Paris, 2002.
-
[34]
Cf. P. Lévy, World Philosophy, O. Jacob, Paris, 2000.
-
[35]
Le thème a été rebattu ces dernières années. Voir, en particulier : N. Négroponte, L’Homme numérique, tr. fr., Laffont, Paris, 1995.
-
[36]
M. Guillaume, L’Empire des réseaux, Descartes & Compagnie, Paris, 1999, p.51 sq.
-
[37]
C. Huitéma, Et Dieu créa l’Internet, Eyrolles, Paris, 1995, p.67 sq.
-
[38]
La mécanique quantique, comme mécanique des matrices, relève au contraire d’une algèbre et même d’une géométrie non-commutative. Cf. A. Connes, Géométrie non-commutative, Dunod, Paris, 2005.
-
[39]
F. Fukuyama, Le Grand Bouleversement, la nature humaine et la reconstruction de l’ordre social, tr. fr., La Table ronde, Paris, 2003.