-

Les réseaux de l’internet : des artefacts bien (trop) vivants

15 Nov, 2007

Résumé

Article inédit faisant suite à une communication au colloque MEOTIC, à l’Institut de la Communication et des Médias (Université Stendhal), les 7 et 8 mars 2007.

Pour citer cet article, utiliser la référence suivante :

Bautier Roger, «Les réseaux de l’internet : des artefacts bien (trop) vivants», Les Enjeux de l’Information et de la Communication, n°08/2, , p. à , consulté le , [en ligne] URL : https://lesenjeux.univ-grenoble-alpes.fr/2007/supplement-a/04-les-reseaux-de-linternet-des-artefacts-bien-trop-vivants

Introduction

Que l’on étudie le réseau physique de l’internet ou bien les réseaux « virtuels » qui en sont issus – le web dans son ensemble, le sous-ensemble formant la blogosphère ou bien le réseau peer-to-peer -, on se trouve, de façon évidente, en face d’artefacts. Les interventions de tous les humains qui en ont façonné la structure paraissent la preuve de ce caractère artefactuel : quelquefois célèbres, comme Tim Berners-Lee (l’inventeur du web), ils sont le plus souvent anonymes, comme les internautes qui, jour après jour, fabriquent des pages web, établissent des liens avec d’autres pages, etc.

Cependant, au cours des dernières années, sont apparus de nombreux travaux, réalisés majoritairement par des physiciens, dont les résultats tendent, au contraire, à minorer nettement le caractère artefactuel des réseaux en question, au bénéfice d’une mise en avant de propriétés qui les rattachent aux structures connues en biologie. Plus précisément, il s’agit de travaux qui, loin de se cantonner dans le repérage des contraintes physiques s’exerçant sur les réseaux techniques, cherchent à fournir des modélisations de tous les réseaux. Ne se cantonnant pas non plus dans l’examen de leur aspect topologique, ils avancent des analyses conceptuelles et empiriques qui imposent un traitement des outils et des pratiques de communication en termes de systèmes complexes assimilables à ceux que constituent les systèmes vivants. Ils mettent alors en lumière les caractéristiques « auto-organisationnelles » des réseaux étudiés, en les considérant seulement comme soumis à des règles de développement relevant des sciences de la nature.

La transformation introduite ainsi implique donc le déplacement, le brouillage ou la suppression de la frontière entre ce qui est artefact et ce qui ne l’est pas : une manière de poser des questions épistémologiques, mais aussi des questions politiques qui en sont les corollaires.

Une approche topologique

Les réseaux qui viennent d’être évoqués relèvent d’une description topologique qui adopte aisément le cadre de la théorie des graphes. Un graphe, en effet, est un couple, qu’on appellera par exemple G, formé par deux ensembles d’éléments, qu’on appellera par exemple S et A, étant donné que les éléments de A sont des couples d’éléments (des arêtes si les couples ne sont pas ordonnés, des arcs s’ils le sont) qui appartiennent à S (les sommets ou nœuds). Pour un graphe très simple, on aura par exemple : G = {S, A}, S = {a, b, c, d}, A = {{a, b}, {a, c}, {a, d}, {c, d}}. On définit le degré (ou la valence) d’un sommet comme le nombre des arêtes qui lui sont incidentes et on parle de degré entrant ou de degré sortant quand le graphe est orienté.

Il est donc tout à fait légitime, par exemple, de considérer l’internet, en tant que réseau physique, comme un graphe. On assimile alors les machines à des sommets et les liaisons physiques entre les machines à des arêtes. Cependant, ce sont les considérations portant sur le world-wide web qui ont été les plus spectaculaires. A la fin des années quatre-vingt-dix, de nombreuses études ont mis l’accent sur la description du web, en le considérant comme un réseau constitué d’un ensemble de nœuds reliés par des liens hypertextuels. En effet, le développement du web a conduit à une structure énorme et complexe, qui est bien un vaste graphe orienté, dont les sommets sont des sites et dont les arcs sont les liens. Parmi les résultats les plus intéressants obtenus par les premières études, il apparaît ainsi que le diamètre (au sens topologique et non géométrique, c’est-à-dire le plus court chemin entre les nœuds les plus éloignés) du web soit assez petit (Albert, Jeong, Barabasi, 1999), ce qui fait penser qu’un agent intelligent, capable d’interpréter les liens et d’utiliser ceux qui sont pertinents, peut trouver rapidement l’information recherchée.

D’autres résultats portent plus spécifiquement sur la masse et la répartition des informations et sur la possibilité de les obtenir. Au niveau « macroscopique », le web semble se diviser en sous-ensembles aux relations complexes, dont l’un pourrait être considéré comme son « cœur », deux autres ayant des relations à sens unique avec ce « cœur », soit dans un sens, soit dans l’autre, un quatrième n’ayant pas de lien avec lui (Broder, Kumar, Maghoul et al., 2000), d’où une accessibilité des sites allant de la plus grande à la plus faible. Au niveau « microscopique », on constate qu’il est possible de repérer automatiquement deux types de pages : celles qui apparaissent comme les meilleures sources d’information, les documents de référence sur un sujet, et celles qui apparaissent comme des pages de liens, qui sont des pages pivots (ou pages rayonnantes) capables de fournir précisément un ensemble de liens vers les premières (Kleinberg, 1998 ; Chakrabarti, Dom, Gibson et al., 1999).

Une approche statistique

Complémentairement, les aspects statistiques de l’internet et du web ont été abordés très souvent. Pour ce qui concerne l’internet en tant que réseau physique, dès la fin des années quatre-vingt-dix, il a été possible de montrer (Faloutsos, 1999) que l’exploration du graphe correspondant faisait apparaître, aussi bien au niveau des routeurs de l’internet qu’au niveau des systèmes autonomes, des distributions dites « larges ». Cela signifie que, s’il existe bien de nombreux sommets à faible degré, il n’empêche que la probabilité de trouver des sommets à fort degré n’est pas négligeable et que, par conséquent, le degré moyen ne représente rien de spécifique.

A la fin des années quatre-vingt-dix également, de nombreux travaux ont mis l’accent sur les distributions statistiques concernant la structure du web en tant que réseau virtuel se présentant comme un ensemble de nœuds reliés par des liens hypertextuels. C’est ainsi que l’on a pu montrer que ce réseau était marqué aussi par des distributions « larges » (Barabasi, Albert, Jeong, 2000 ; Broder, Kumar, Maghoul et al., 2000). Ces travaux, confirmés souvent ensuite, ont souligné que, loin d’être constitué de nœuds dont la plupart auraient un nombre de liens proche d’une certaine moyenne (on aurait alors une représentation de la distribution en forme de cloche), le réseau du web est, au contraire, formé de nœuds dont certains, très nombreux, n’ont que très peu de liens voire aucun, alors que d’autres (des super-nœuds), en petit nombre, en ont beaucoup ou même énormément. D’où une représentation de la distribution qui est caractéristique d’une réseau connecté suivant une « loi de puissance » (Barabasi, 2002).

Le développement des blogs a fourni quelques exemples supplémentaires de ces distributions statistiques. Plus précisément, il s’est agi de vérifier que la blogosphère, quoique constituée de sites web un peu particuliers, est bien soumise à une « loi de puissance ». Alors même que les blogueurs ont pu avoir le sentiment d’appartenir à une organisation sociale marquée par la liberté et l’égalité, ce qui apparaît, c’est que tout le monde ne peut pas participer à toutes les discussions, que tout le monde ne peut pas être entendu, que certains blogs deviennent plus connectés que d’autres, etc. Cette constatation n’est pas renvoyée à une explication en termes de lassitude des pionniers ou d’apparition d’une nouvelle mentalité chez les nouveaux venus (qui seraient moins attachés au principe d’égalité). Elle est, de manière totalement différente, considérée comme ne faisant que relever les effets d’une contrainte incontournable : « La diversité alliée à la liberté de choix engendre l’inégalité et cette inégalité est d’autant plus extrême que la diversité est plus grande. » (Shirky, 2003). Les premières études de blogs qui les ont classés en fonction de leur nombre de liens entrants ont effectivement abouti à la mise en évidence d’une courbe caractéristique d’une « loi de puissance », et non d’une courbe en cloche (qui serait typique de blogs ayant tous à peu près, sauf cas extrêmes, le même nombre de liens entrants).

Les réseaux en général

Dès lors qu’ils avaient établi les grandes caractéristiques topologiques et statistiques qui viennent d’être rappelées, les travaux se sont orientés notamment vers l’évaluation plus précise des distributions. C’est ainsi que les recherches portant sur le web ont permis de montrer que la probabilité qu’un nœud ait k liens est inversement proportionnelle à kn et elles ont pu déterminer la valeur de l’exposant n pour les degrés entrants et les degrés sortants des pages web : n semble proche de 2,1 pour les premiers et varier entre 2,4 et 2,8 pour les seconds. Cependant, en fonction du contenu des pages, on a observé des variations assez importantes y compris sur les degrés entrants, variations pouvant faire passer n de 2,1 à 2,6 (Pennock, Flake, Lawrence, et al., 2002).

Mais, rapidement, ce ne sont plus seulement l’internet et le web qui ont servi de terrain d’étude aux physiciens ou à ceux qui ont exploité leurs travaux, mais également toutes sortes de réseaux. Ont été examinés ou réexaminés les réseaux sociaux tels qu’ils avaient déjà été étudiés généralement dans le cadre de la sociologie ou dans celui de la psychologie sociale (en particulier les réseaux d’individus travaillant ensemble), les réseaux techniques comme ceux de la distribution de l’énergie électrique et des lignes de transport aérien, les réseaux biologiques comme ceux des molécules interagissant à l’intérieur des cellules, les réseaux économiques comme ceux des entreprises, etc. Dans de nombreux cas (mais pas dans tous : par exemple, pas dans celui du réseau de distribution de l’énergie électrique aux Etats-Unis), on a pu constater des distributions en « loi de puissance », avec des valeurs de n souvent comprises entre 2 et 3. On a donc pu mettre en lumière, d’une part, que les réseaux de ce genre sont très nombreux et, d’autre part, qu’ils se différencient nettement des réseaux aléatoires. Il s’agit bien de réseaux « sans échelle typique » ou « sans échelle caractéristique » (expressions plus adéquates que « invariants d’échelle », quelquefois utilisée pour traduire « scale-free »), cette propriété étant liée à la présence de distributions statistiques dont on peut rendre compte par une « loi de puissance ».

Par ailleurs, tout aussi rapidement, un certain nombre de conséquences pratiques ont découlé de ces recherches, conséquences qui se sont révélées comparables d’un domaine à l’autre. Ce qui est ainsi apparu, c’est que les réseaux « sans échelle typique » sont, à la fois, robustes et vulnérables. Robustes, d’un côté, parce qu’ils ne sont pas fortement perturbés par une détérioration aléatoire de liens (dans ce cas, les nœuds détruits ne sont souvent que des nœuds à faible degré). Et vulnérables, d’un autre côté, parce qu’ils sont extrêmement sensibles à une détérioration capable d’affecter spécialement les nœuds à fort degré (dans ce cas, en effet, un très grand nombre de liens sont détruits).

Les modélisations

En fait, les réseaux comme le web ne sont ni totalement réguliers ni totalement aléatoires. Les réseaux réguliers sont caractérisés par une forte densité de connexions entre des nœuds proches et par des longueurs de chemins considérables (pour aller d’un nœud à un autre éloigné, il faut passer par de nombreux nœuds intermédiaires). Les réseaux aléatoires ont, au contraire, une faible densité de connexions entre des nœuds proches mais ont de faibles longueurs de chemins (le caractère aléatoire diminue la probabilité que des nœuds proches aient beaucoup de connexions, mais introduit plus de liens qui relient une partie du réseau à une autre partie). D’où l’idée d’élaborer un modèle qui part d’une structure de treillis (graphe très simple et très régulier) et qui introduit de l’aléatoire dans la structure (Watts, Strogatz, 1998).

L’introduction d’un nombre relativement petit de connexions aléatoires suffit à changer radicalement les caractéristiques d’un graphe : il en résulte ce que l’on appelle un réseau de type « petit monde » (« small world »). On observe, en effet, une chute de la moyenne des longueurs des chemins les plus courts engendrée par l’introduction de quelques arêtes « à longue portée », chaque court-circuit ayant un effet qui « contracte » la distance non seulement entre la paire de sommets qu’il relie, mais aussi entre les voisins immédiats, les voisins des voisins, etc. Par exemple, à l’égal de nombreux réseaux observables dans les systèmes biologiques ou bien fabriqués par les humains, le web apparaît comme ayant, lui aussi, une topologie de type « petit monde » (Adamic, 1999). Cette propriété a des implications concernant la manière dont les utilisateurs se servent du web et la facilité avec laquelle ils rassemblent l’information. De plus, la structure des liens fournit des indications sur les relations sous-jacentes entre les gens, leurs intérêts et les communautés existantes ou émergentes.

Les modèles de réseaux habituels ont pourtant deux défauts : premièrement, ils « démarrent » avec un nombre fixe de sommets, qui sont ensuite reliés aléatoirement, sans qu’il y ait modification du nombre initial de sommets ; deuxièmement, ils supposent que la probabilité que deux sommets soient reliés est à la fois aléatoire et uniforme. L’intérêt porté aux réseaux complexes tels que ceux qui sont issus du développement de l’internet a fait apparaître qu’il était judicieux de modéliser le fonctionnement de ces réseaux en supposant deux caractéristiques qui, appliquées au web (Barabasi, Albert, Jeong, 2000), se traduisent par une première hypothèse, selon laquelle le réseau de pages est en expansion continuelle, et par une seconde hypothèse, selon laquelle une nouvelle page inclura des liens vers des pages déjà existantes avec une probabilité proportionnelle au degré entrant de ces pages. Il s’agit de ce que l’on appelle un « attachement préférentiel », qui est la traduction d’une tendance à ce que « les riches deviennent toujours plus riches ».

Ce type de modélisation a suscité de nombreux correctifs, ainsi que de nombreuses propositions concurrentes au cours des dernières années (plus ou moins éloignées de la proposition initiale), qu’il s’agisse de son application à l’internet et au web ou, plus récemment, de son application aux réseaux de courrier électronique, de messagerie instantanée et de systèmes peer-to-peer. L’hypothèse même d’un « attachement préférentiel » a d’ailleurs été complétée par l’équipe qui en était l’auteur, afin de prendre, par exemple, en considération le fait que certaines pages web peuvent acquérir une « popularité » considérable très rapidement et détrôner des sites plus anciens. C’est pourquoi il a paru utile d’intégrer au modèle une caractérisation de chacun des nœuds par son aptitude à entrer en compétition avec les autres et à acquérir plus de liens qu’eux. On parle alors d’un « fitness model », qui permet de rendre compte d’une double possibilité (Bianconi, Barabasi, 2001) : il peut apparaître, en effet, certaines situations dans lesquelles les plus aptes deviennent seulement un peu plus riches et d’autres situations dans lesquelles le plus apte l’emporte complètement sur tous les autres, cette double possibilité étant modélisable par assimilation au phénomène de la condensation de Bose-Einstein, connu en physique des gaz ultrafroids.

Une macro-vie ?

Parallèlement à cet essor des travaux effectués par des spécialistes de la physique statistique, s’est développée une réflexion plus philosophique, qui n’en est pas issue directement, mais qui peut lui emprunter des éléments qui la confortent. Ainsi, Rosnay (1995) pense possible de visualiser l’avenir de l’humanité par la « métaphore du cybionte, macro-organisme planétaire en voie d’émergence ». Plus précisément, il estime que les systèmes de communication fondés sur l’utilisation des ordinateurs forment « l’ébauche du système nerveux et du cerveau du cybionte » et que le cybionte et l’écosphère sont liés dans un « partenariat symbiotique en co-évolution ». En conséquence, selon lui, on peut considérer que, si « hommes-neurones, autoroutes électroniques, ordinateurs et mégamémoires créent le cyberespace, nouvel environnement électronique de la pensée collective du cybionte », les connexions entre les hommes qui en sont constitutives, par le recours aux ordinateurs, mais aussi à des interfaces biotiques, conduisent à une « représentation consciente du fonctionnement « mental » du cybionte », c’est-à-dire à une « conscience globale réfléchie » dans ce qu’il appelle « l’introsphère ».

La même conception se retrouve dans un texte plus récent portant sur la société de l’information (Rosnay, 1999), qui se conclut sur une comparaison entre les organismes vivants évolués et les sociétés humaines, comparaison permettant de rappeler que « la société de l’information et les réseaux multimédias interactifs sont les embryons de ces systèmes nerveux planétaires qui pourraient permettre à l’humanité d’atteindre un nouveau stade de son évolution, des systèmes nerveux sans cerveau unique centralisé, à la différence de l’organisme ». Il s’agit là d’une perspective qui se rattache à celle adoptée par le Global Brain Group (auquel Rosnay appartient), groupe international associé au Principia Cybernetica Project, qui se donne comme objet d’étude « the emergence of a global brain out of the computer network, which would function as a nervous system for the human superorganism » (Heylighen, 2002).

Les travaux des membres du Global Brain Group sont liés à des recherches expérimentales portant sur la mise en place d’un dispositif censé entraîner l’auto-organisation d’un réseau hypertextuel (Heylighen, Bollen, 1996). Ce développement est bien envisagé comme une étape dans le passage à un plus haut niveau de complexité, comme le précise Heylighen (2000) : « Most recently, the technological revolution has produced a global communication network, which can be seen as a nervous system for this planetary being. As the computer network becomes more intelligent it starts to look more like a global brain or super-brain, with capabilities far surpassing those of individual people (…). This is part of an evolutionary transition to a higher level of complexity. » La contribution de Rosnay au Global Brain Workshop de Bruxelles en 2001 est, d’ailleurs, consacrée à cette perspective : « With 400 million users, 170 millions host computers, and an average of 50 links per site (bookmarks and email addresses), new properties will certainly emerge. What about with 2 billion users, 800 billion host computers, and 500 links per site ? With such a giant electronic cluster of interconnected brains ans machines, what will these properties look like ? Probably a new form of macrolife becoming progressively conscious of its own existence and self-maintenance. » (Rosnay, 2001).

Une conception darwinienne

Il s’agit, en fait, d’envisager le développement due l’internet et du web comme un processus qui s’apparenterait à l’évolution biologique selon Darwin et qui se caractériserait par une stabilisation sélective des sites et des liens au sein du web, stabilisation modélisable à partir des modèles de graphes aléatoires, de manière à rendre compte de l’émergence d’un méta-ordinateur à partir du chaos. Encore plus précisément, selon Rosnay (2006), l’internet « s’est développé comme un système darwinien, de manière buissonnante, comme la vie elle-même, à l’image de l’arbre de l’évolution du vivant ». D’où le rappel par cet auteur que les espèces vivantes subissent des agressions qui entraînent des mutations donnant naissance, de manière aléatoire, à de nouvelles espèces, que celles-ci s’adaptent ou non à l’environnement et que, si elles s’adaptent ou évoluent de manière adéquate, il se crée alors une « boucle de renforcement » pour celles qui ont réussi : « C’est, dit-il, le célèbre survival of the fittest (la survie des mieux adaptés) de Darwin ».

Ce principe est présenté comme valant aussi pour le développement de l’informatique et, complémentairement, pour celui de l’internet. En effet, parmi les nouveaux logiciels qui sont testés et modifiés par les utilisateurs, ne survivent que ceux qui ont réussi à s’adapter à leur environnement, suivant un processus engendrant plus de complexité : « Comme dans tout système darwinien, ce processus chaotique fait émerger des propriétés nouvelles favorisant la naissance d’organismes (ou de logiciels) plus organisés et conduisant à une complexité croissante. » Par ailleurs, l’internet se conformant à ce processus, il relève du « chaos déterministe », car l’évolution du réseau mondial apparaît comme peu planifiée et seulement déterminée par des décisions prises par des individus ou des petits groupes.

C’est justement cette stabilisation sélective qui est au centre des préoccupations des travaux qui portent particulièrement sur la modélisation, d’abord, du fonctionnement des réseaux issus du développement des moyens de communication depuis 1990, ensuite, de celui de tous les réseaux, quels qu’ils soient. À cet égard, Vespignani (2006) distingue bien deux grandes catégories de réseaux : ce qu’il appelle, d’une part, les « systèmes naturels » (systèmes biologiques, sociaux, écologiques…) et, d’autre part, les « systèmes infrastructurels » (systèmes physiques et systèmes virtuels). Mais il souligne aussi qu’il existe de nombreuses relations entre les deux catégories. D’une manière générale, cette distinction est estompée par la mise en lumière de ce qui fait la spécificité des réseaux complexes : ceux-ci manifestent des phénomènes d’auto-organisation, dont il s’agit justement de rendre compte. Fondamentalement, leur évolution est vue comme soumise aux effets radicaux d’une « loi de puissance » qui se manifeste par une domination de super-nœuds engendrée par leur croissance auto-organisée.

La référence à l’auto-organisation, fréquemment soulignée, montre que l’insistance sur l’universalité de la théorie des réseaux peut se prolonger en une analyse plus normative de leur évolution. Ainsi, lorsque l’on assimile des entreprises à des nœuds et des relations financières et économiques à des liens, il devient difficile non seulement d’envisager la remise en cause de la domination des entreprises en position de super-nœuds, mais encore d’accorder de la valeur à des approches économiques et politiques, puisque les phénomènes observés prennent le statut de conséquences du fonctionnement interne du réseau considéré. Les processus étudiés apparaissent d’ailleurs d’autant plus liés à l’émergence de ce que l’on peut appeler un « ordre » qu’ils sont susceptibles d’être modélisés en recourant, de manière généralisée, aux deux hypothèses rappelées plus haut : celle d’une expansion continuelle et celle d’un « attachement préférentiel ». Il en résulte quelquefois la tentation de supposer que ce fonctionnement est marqué par une sorte d’intelligence qui pourrait être d’origine divine (Buchanan, 2002). Il en résulte surtout la tendance à « naturaliser » les rapports de pouvoir et à écarter la question de la régulation, en promouvant une attitude ambiguë à l’égard de l’action, dont on ne sait pas très bien si elle peut avoir un sens ou non, quand il s’agit de contester des situations existantes ou d’intervenir sur des situations prévisibles.

Une science trans-disciplinaire

Il est, dès lors, compréhensible que les recherches sur les réseaux puissent aboutir à l’affirmation de la naissance d’une « science des réseaux » vraiment nouvelle. Il s’agit d’une science élaborée par des physiciens, étant donné que ceux-ci apparaissent comme parfaitement capables de traiter d’autres disciplines que la physique (Watts, 2003), à partir du moment où celle-ci est passée de l’étude de la matière à celle de toutes les formes d’organisation (Buchanan, 2002). Après une période marquée par une attitude réductionniste, on aurait donc enfin la possibilité de traiter convenablement de la complexité de manière trans-disciplinaire (Barabasi, 2002).

Cette revendication repose notamment sur le caractère universel qui est reconnu aux régularités qui sont censées gouverner l’évolution de l’ensemble des réseaux complexes entourant ou constituant les humains. En effet, ces régularités correspondraient à des lois, relativement simples mais extrêmement générales, qui feraient qu’un Martien visitant la Terre ne pourrait pas voir de différence (autre que de taille) entre un réseau social, le world-wide web et le réseau moléculaire des cellules. Il n’y a absolument rien de métaphorique dans cette conception : c’est d’ailleurs ce qui fait, à la fois, son intérêt et son danger. Son intérêt réside dans le fait qu’elle apporte des connaissances précieuses sur le fonctionnement des réseaux, alors que son danger est lié à la dissolution des sciences sociales dans les sciences de la nature qu’elle impose. En effet, si, au lieu de relever classiquement des sciences sociales, les deux premiers réseaux sont jugés comme relevant bien, comme le troisième, des sciences de la nature, ce n’est pas parce qu’ils pourraient, d’une certaine manière, être comparés au troisième, mais parce qu’ils n’en sont aucunement différents.

Réalisés souvent au sein d’équipes américaines, mais aussi par des chercheurs européens, les travaux concernés sont extrêmement nombreux. Les auteurs viennent principalement de la physique, même s’ils peuvent s’intéresser à l’ensemble des réseaux et s’ils s’avancent souvent sur des terrains qui sont ceux d’autres disciplines, aussi bien celles qui relèvent des sciences de la nature que celles qui relèvent des sciences humaines et sociales. Qu’elles soient relativement techniques (Albert, Barabasi, 2002 ; Pastor-Satorras, Vespignani, 2004 ; Boccaletti, Latora, Moreno, Chavez, Hwang, 2006), ou qu’elles soient plus vulgarisatrices (Barabasi, 2002 ; Watts, 2003), des présentations générales de ces travaux ont déjà été réalisées plusieurs fois et, au fil du temps, elles sont, bien évidemment, toujours plus riches en références.

Ces présentations générales peuvent être l’occasion de souligner l’importance d’une approche trans-disciplinaire de la complexité, avec pour guide, cependant, les résultats qui ont été fournis par la physique puis étendus à la biologie. On aurait ainsi la possibilité de surmonter, à la fois, les limites des études seulement théoriques issues des mathématiques et celles des études issues des sciences humaines et sociales, purement descriptives et portant sur des réseaux relativement restreints. D’où, sans doute, les remarques formulées par un physicien devenu sociologue (Watts, 2004), qui considère, d’une part, que la « nouvelle science des réseaux », par de nombreux aspects, reprend des travaux plus anciens en mathématiques, en économie et en sociologie ou bien redécouvre, de manière indépendante, certaines de leurs analyses, d’autre part, qu’il faut plutôt qu’elle soit guidée par les autres disciplines pour interpréter correctement ses découvertes empiriques ou théoriques.

Retour à l’internet

Quelle que soit l’option choisie à cet égard, ce qui fonde la revendication d’une « science des réseaux », c’est le caractère universel qui est reconnu aux régularités qui sont censées gouverner l’évolution de l’ensemble des réseaux complexes. En même temps, et sans qu’il y ait de contradiction, un réseau comme le web (et comme les autres réseaux virtuels liés à l’internet) reste une référence très importante. Il est clair, en effet, qu’il n’y a là aucune autorité globale qui gouvernerait la création des pages web et celle des liens hypertextuels et que, pourtant, le graphe qui s’y dessine n’a rien d’un réseau aléatoire, puisqu’il possède toutes les propriétés des réseaux faisant apparaître un ordre émergent, alors même qu’il résulte de l’interaction entre de multiples agents (humains et non humains).

Ce sont ces traits qui confèrent de la légitimité au traitement de l’organisation du contenu du web dans la perspective des systèmes complexes « adaptatifs » (Rupert, Rattrout, Hassas, 2006), perspective qui autorise la mise en rapport étroit des acquis de la physique et de la biologie. Plus spécialement, il s’agit alors d’élaborer et d’utiliser des agents particuliers qui sont de créatures artificielles auxquelles on peut attribuer un certain nombre des caractéristiques du comportement des insectes dits sociaux (comme les fourmis). Ces créatures artificielles procéderont à des classements progressifs en communiquant entre elles par un système de stigmergie faisant appel à une phéromone artificielle (de même qu’une fourmi suit une piste de phéromone déposée par les autres fourmis pour retrouver la nourriture initialement repérée et renforce cette piste en déposant plus de phéromone pour que d’autres fourmis puissent suivre la même piste).

Ce retour à l’étude des réseaux de l’internet n’empêche évidemment pas que leur évolution soit envisagée comme soumise aux effets radicaux d’une « loi de puissance » qui se manifeste par une domination de super-nœuds engendrée par leur croissance auto-organisée.  Elle n’est donc, de ce point de vue, que la traduction d’une propriété relevant de l’universalité. Barabasi (2005a, 2005b) souligne ainsi qu’il est effectivement surprenant que le web, l’internet et le réseau social lié à la communication par courrier électronique soient, comme le fonctionnement d’une cellule, régis par une « loi de puissance », mais qu’il faut se rendre à l’évidence : « The power law means that real networks are not as democratic as the random model suggests, but a few highly connected nodes, or hubs, hold together a large number of small nodes. » Pour lui, les actions réalisées au niveau microscopique peuvent être, d’une certaine façon, aléatoires, mais les caractéristiques globales résultantes seront néanmoins déterminées par des principes d’auto-organisation de ce type. Ce qui relativise, du même coup, la place de l’humain dans un réseau comme le web : « One thing is clear : while entirely of human design, the web appears to have more in common with a cell or an ecological system than with a meticulously designed Swiss watch. »

Cette formulation de l’organisation du web en termes politiques, d’un côté, et ce repérage de sa différence avec un objet maîtrisé, de l’autre, ne peuvent que faire réfléchir. Et pousser à réexaminer l’ensemble des travaux rencontrés, depuis les plus philosophiques jusqu’aux plus durement scientifiques, d’un point de vue qui n’est pas le leur, du moins explicitement. En effet, envisager une conscience unique ou un macro-organisme, faire référence à un système darwinien ou à un ordre émergent, parler d’auto-organisation peu démocratique et de non-contrôle d’une institution, est-ce que cela ne constitue pas, en fait, des manières différentes, mais peut-être comparables et convergentes, d’aborder des questions d’ordre politique sans jamais les traiter directement ?

Si l’on considère que les travaux auxquels il a été fait référence ici constituent, en même temps, comme on l’a vu, des remises en cause directes de la pertinence des sciences humaines et sociales, on mesure à quel point ils rendent nécessaire une réflexion renouvelée, à la fois, sur l’unité de la démarche scientifique, sur l’articulation des apports des différentes sciences et sur les implications politiques de ces apports.

Comprendre les positions et les motivations des acteurs en matière de régulation demande de présenter les lignes de forces concernant la société de l’information et la notion même de régulation.

Références bibliographiques

Adamic, Lada (1999), « The small world web », ECDL ’99 : Research and advanced technology for digital libraries.

Albert, Reka, Barabasi, Albert-Laszlo (2002), « Statistical mechanics of complex networks », Review of modern physics, 74(1).

Albert, Reka, Jeong, Hawoong, Barabasi, Albert-Laszlo (1999), « Diameter of the world-wide web », Nature, 401.

Barabasi, Albert-Laszlo (2002), Linked : the new science of networks, Cambridge : Perseus.

Barabasi, Albert-Laszlo (2005a), « Taming complexity », Nature physics, 1(2), 2005.

Barabasi, Albert-Laszlo (2005b), « Science of networks. From society to the web », in Nyiri, Kristof (ed.), A sense of place. The global and the local in mobile communication, Vienne : Passagen Verlag.

Barabasi, Albert-Laszlo (2000), Albert, Reka, Jeong, Hawoong, « Scale-free characteristics of random networks : the topology of the world wide web », Physica A, 281.

Bianconi, Ginestra, Barabasi, Albert-Laszlo (2001), « Bose-Einstein condensation in complex networks », Physical review letters, 86.

Boccaletti, Stefano, Latora, Vito, Moreno, Yamir, Chavez, Mario, Hwang, D-U. (2006), « Complex networks : structure and dynamics », Physics reports, 424 (4-5).

Broder, Andrei, Kumar, Ravi, Maghoul, Farzin, Raghavan, Prabhakar, Rajagopalan, Sridhar, Stata, Raymie, Tomkins, Andrew, Wiener, Janet (2000), « Graph structure in the web ». 9th International world wide web conference.

Buchanan, Mark (2002), Nexus : small worlds and the groundbreaking science of networks, New York : Norton.

Chakrabarti, Soumen, Dom, Byron, Gibson, David, Kleinberg, Jon, Kumar, Ravi, Raghavan, Prabhakar, Rajagopalan, Sridhar, Tomkins, Andrew (1999), « Hypersearching the web », Scientific American, 1.06.1999 ; trad. fr. : « Recherche intelligente sur l’Internet », Pour la science, 1.08.1999.

Faloutsos, Michalis, Faloutsos, Petros, Faloutsos, Christos (1999), « On power-law relationships of the internet topology », ACM-Sigcomm 99.

Heylighen, Francis (2000), « The social superorganism and its global brain », Principia Cybernetica Web.

Heylighen, Francis (2002), « The Global Brain Group », Principia Cybernetica Web.

Heylighen, Francis, Bollen, Johan (1996), « The world wide web as a super-brain : from metaphor to model », Cybernetics and systems 96.

Kleinberg, Jon (1998), « Authoritative sources in a hyperlinked environment », 9th ACM-SIAM Symposium on discrete algorithms.

Pastor-Satorras, Romualdo, Vespignani, Alessandro (2004), Evolution and structure of internet, Cambridge : Cambridge University Press ; trad. fr. (2004) : Internet : structure et évolution, Paris : Belin.

Pennock, David, Flake, Gary, Lawrence, Steve, Glover, Eric, Giles, Lee (2002), « Winners don’t take all : characterizing the competition for links on the web », Proceedings of the National Academy of Sciences, 99(8).

Rosnay, Joël de (1995), L’homme symbiotique, Paris : Seuil.

Rosnay, Joël de (1999), « La société de l’information au XXIe siècle : enjeux, promesses et défis », in Montbrial, Thierry de, Jacquet, Pierre (dir.), Ramsès 2000 : l’entrée dans le XXIe siècle, Paris : Dunod.

Rosnay, Joël de (2001), « Increase of complexity of Internet interfaces and the Darwinian process of selective stabilization of Internet nodes » (summary), First Global Brain Workshop : From intelligent networks to the global brain.

Rosnay, Joël de (2006), avec la collab. de Revelli, Carlo, La révolte des pronétaires, Paris : Fayard.

Rupert, Maya, Rattrout, Amjad, Hassa, Salima (2006), « Organisation du contenu du web selon la perspective des systèmes complexes adaptatifs », Conférence en recherche d’informations et applications.

Shirky, Clay (2003), « Power laws, weblogs, and inequality », Clay Shirky’s writings about the Internet.

Vespignani, Alessandro (2006), « Complex networks : ubiquity, importance and implications », in 2005 NAE Frontiers of engineering, Washington : The National Academies Press.

Watts, Duncan (2003), Six degrees : the science of a connected age, New York : Norton.

Watts, Duncan (2004), « The « new » science of networks », Annual review of sociology, 30.

Watts, Duncan, Strogatz, Steven (1998), « Collective dynamics of small-world networks », Nature, 393.

Auteur

Roger Bautier

.: Professeur à l’Université Paris 13, chercheur au LabSic