Le discours d’accueil prononcé par Alejandro Pisanty, Président de l’ISOC et ex Vice-président au Comite exécutif du directoire de l’ICANN, lors de l’inauguration du sommet At-Large de Mexico s’intitulait ‘From vision to Mission’
From Vision to Mission
Le sommet At-Large est une rencontre exceptionnelle. C’est la première fois que, dans le cadre des activités de l’ICANN, et d’une façon plus générale, des organisations provenant de multiples pays et représentant des utilisateurs individuels d’Internet rassemblés en des structures officielles, se réunissent pour discuter des intérêts des utilisateurs finaux et de la voie à suivre pour que l’ICANN soit plus réceptive à leurs besoins.
En soi, cet évènement invite à un bref rappel des évènements les plus intéressants:
1. Analyse des limites de la solution contenue dans le concept d’une gouvernance de l’Internet
In its present state, Internet Governance is a field both for study and debate, and for action
En son état actuel, la gouvernance de l’Internet est un terrain d’études, de débats et d’actions.
Le Forum pour la Gouvernance de l’Internet (Internet Governance Forum, IGF), organisé chaque année, depuis 2006, par les Nations Unies, est un des principaux lieux pour discuter de celle-ci. Cependant, les questions fondamentales suscitant le débat, en particulier celles provenant de travaux de recherche théoriques, se sont discutées au sein du milieu universitaire, des instituts de recherche scientifique, de symposiums et par le biais de certaines publications spécialisées.
Le débat sur la Gouvernance de l’Internet s’articule autour d’un certain nombre de thèmes principaux. La question la plus évoquée de nos jours porte sur le rôle à remplir par les différentes sphères de la société mondiale, souvent rassemblées en groupes d’intérêts. Le rôle des gouvernements et celui des organisations intergouvernementales suscitent beaucoup d’attention. La citation suivante nous permet de toucher au cœur du sujet:
Il y a peu, Le Pr. Lee Bylander a dirigé un symposium organisé à l’université d’Oslo. Pendant celui-ci, il a utilisé comme leitmotiv la question suivante: ‘‘Quand pouvons-nous raisonnablement nous attendre à disposer d’un organisme intergouvernemental qui se responsabiliserait, au plus haut niveau, de la gouvernance de l’Internet?’
A cette même conférence, mon discours m’a permis de répondre sur ce point: ‘raisonnablement? Jamais.’ En effet, je ne trouve aucun argument valable pour étayer ce courant de pensée raisonnable pour appuyer cette thèse en faveur d’un hypothétique organisme, unique et intergouvernemental, qui serait charge, au plus haut niveau, de gouverner l’Internet. La question rhétorique lancée par le Pr. Bylander a joué le rôle d’un catalyseur pour mon raisonnement sur cette possibilité.
En matière de gouvernance de l’Internet, on assiste de plus en plus à la formation, l’officialisation et l’acceptation de mécanismes et d’organismes qui, de façon explicite, s’efforcent à rassembler autour de la table de discussion un nombre croissant d’acteurs non gouvernementaux. Ces acteurs prennent de plus en plus de poids dans le débat : Ils proviennent du monde académique, de la communauté scientifique, du monde des affaires, et d’organisations représentant la société civile. L’’idee que ces personnes ont un rôle primordial à exercer est de plus en plus acceptée.
Les principes de gouvernance de l’Internet élaborés par le Sommet Mondial sur la Société de l'Information sont de plus en plus reconnus a l échelle planétaire et poussent de plus en plus les organisations concernées a rassembler de multiples groupes d’intérêts et a faciliter la participation effective de ceux-ci grâce a des procédures se voulant efficaces, transparentes et démocratiques.
La gouvernance de l’Internet est un travail en cours. Avant même qu’on en parle ouvertement, cette gouvernance s’opérait déjà pour remédier aux problèmes ponctuel dans une démarche heuristique. Actuellement, cette finalité reste prédominante et fondamentale.
Le premier cas de gouvernance de l’Internet, souvent cite, nous est donne par l’IETF (the Internet Engineering Task Force) dans son travail d’élaboration et d’adaptation des normes techniques l’établissement et l’évolution des normes techniques de l’Internet.
L’IETF commença par établir des procédures de base, telles que le procédé RFC ; afin de remédier aux problèmes qui se posaient en fixant des normes pour les technologies nécessaires en vue de permettre l’interfonctionnement des réseaux de communication électroniques de commutation par paquets au moment de leur interconnexion
Le problème, comme dans toute démarche heuristique, fut résolu dans un cadre contraignant. Certaines des limites résultaient d’un manque d’information des organisations officielles chargées, à cette époque, de développer ces normes, l’ISO et l’ITU, pour les organismes intergouvernementaux et l’IEE, pour le secteur privé. Beaucoup d’ingénieurs, de physiciens, de mathématiciens et autres personnes affectés à cette tâche étaient employés par un ensemble hétérogène d’organisations étatiques, académiques ou du monde des affaires (et aussi, de plus en plus, d’organisations de défense des droits civils). Les profils de poste de ces personnes n’incluaient pas le développement de réseaux basés sur le protocole IP et de plus, elles voulaient que les technologies se développent rapidement
L’IETF est donc devenu une entité à part. Les RFC devinrent un ensemble de documents permanents et d’autres à caractère provisoire. Les droits de propriété intellectuelle des RFC étaient gérés de façon à ce que les normes utilisées puissent être consultées de façon permanente et gratuite dans le monde entier. Un système base sur la méritocratie se mit en place s’installa avec un ensemble de procédures comme celles utilisées pour la fixation du ‘consensus approximatif et du code de fonctionnement (“rough consensus and runningcode“). Cela engendra une communauté démocratique et fortement égalitaire dont les valeurs se propagèrent à d’autres activités sur l’internet.
Bien que n’étant pas à strictement parler une structure pour la gouvernance de l’Internet, la création et le succès de la Société d’Internet (ISOC) s’expliquent par ce contexte tourné vers la recherche de solutions. L’ISOC fut instaurée pour doter l’IETF d’une organisation pour la gérer. Ceci permettrait à IETF de continuer ses activités, sans entraves, tout en conservant sa philosophie original tout en étant à même de poser certains actes basiques nécessaires au bon fonctionnement de toute organisation : la signature de contrats, la manipulation de fonds destinés aux réunions organisées par l’IETF et la gestion des propriétés intellectuelles de l’ITF ; parmi ces derniers figurent la protection contre la privatisation et la fixation de droits intellectuels sur les RFC.
Deux autres problèmes auxquels la création de l’ISOC devait répondre étaient, d’une part, le besoin de plus en plus ressenti de créer une association professionnelle pour représenter les personnes travaillant dans le secteur de l’Internet, secteur de plus en plus spécifique dans lequel beaucoup de gens se sentaient de moins en moins représentés par les organisations professionnelles auxquelles ils étaient jusqu’alors rattachés (IEE, ACM, APS, AMS, etc .) et d’autre part, le manque de conditions favorisant une accès aisé et libre à l’Internet dans de nombreux pays en voie de développement et même dans certaines régions des pays développés ou sous certains régimes de ces derniers.
Par la suite, l’introduction du système de noms de domaine (DNS) et d’allocation d’adresses numériques d’Internet (adresses IP) ainsi que l’enregistrement des paramètres de protocole comme les numéros de port et les tables numériques demandèrent un outil garantissant un certain niveau de coordination, lequel fut apporté par Jonathon Postel et appelé Internet Assigned Names Authority (IANA). La solution se fondait sur la coordination; les limites de cette celle-ci étaient déterminées par l’étendue de l’espace d’adressage, le volume d’adresses IP, la détermination suscitée par Postel, le soutien de l’Université du sud de la Californie et la prédominance dans le secteur de développement de l’Internet de personnes et d’organisations basées aux États-Unis.
La solution apportée par l’IANA fut suffisante durant plusieurs années. L’exploitation du DNS fut déléguée, sauf pour l’exploitation de la racine et celle des noms de domaine de premier niveau (TLD). Ces dernières se faisaient sur un mode générique. La venue des noms de domaines de premier niveau de code de pays (ccTLD) posa un problème supplémentaire à Postel et à l’IANA ; celui de la sélection de séquences de lettres pour les ccTLD et de la délégation d’autorité pour pouvoir les opérer. La communauté des internautes fut plus au moins satisfaite de la solution appliquée, laquelle consistait à sélectionner une série indépendante de séquences de caractères provenant de l’Organisation Internationale de Normalisation ISO 3166 qui l avait elle-même reçue de la Division de statistique de l'ONU. Postel devait alors évaluer les demandes des postulants pour les ccTLD et leur déléguer des autorités tout en gardant un registre avec les données des administrateurs de ccTLD.
De plus, l’exploitation du DNS fut confiée au secteur prive par le biais d un contrat passé avec Network Solutions, société privée qui se chargeait de l’administration de la racine et des extensions de premier niveau .com, .net and .org. La stabilité et la fiabilité du système entrainèrent un développement spectaculaire de l’Internet et, en particulier, une explosion des noms de domaine, laquelle suscita de nouveaux problèmes avec des contraintes spécifiques dans un espace sensiblement modifie.
Il existait des avis divergents sur les problème a traiter en priorité au milieux des années 90 :
le cybersquatting, le risque de se voir attaqué en justice par les Etats-Unis, lesquels se présenterait en demandeur, puisque Postel et IANA entretenaient des rapports contractuels avec ceux-ci, l impact sur les tarifs du monopole exercé par Network Soution et l’attente quant au niveau de qualité des services prestés accompagnants l’enregistrement des noms de domaine constituent les problèmes principaux détectés par les différentes parties prenantes de l’époque.
Pour ce qui relève du contrôle des tarifs pratiques par Network Solution, une solution consistant en la régularisation des tarifs ou une clause permettant de retirer le marché aurait pu être proposée bien que le contexte dominant de l’époque (pensée libérale, non-interventionniste de l’état sur les marchés) rendait cette approche peu faisable.
A partir de 1996, le gouvernement fédéral des États-Unis avait avancé une proposition pour d’une part, résoudre ces problèmes, laquelle, tenant compte des contraintes mentionnées dans le paragraphe précédent, prévoyait de déléguer l’administration du DNS au secteur privé (selon la définition américaine de la ‘privatisation’) en protégeant le gouvernement des poursuites judiciaires pour complicité de cybersquatting, et d’autre part, répondre aux préoccupations concernant le prix et la qualité des services fournis par Network Solutions en favorisant un marché de noms de domaine basé sur la concurrence. Le livre blanc dans lequel était présente au public cette proposition fut accueilli avec beaucoup d’hostilités par la communauté des internautes car il s agissait de transférer des fonctions jusque-là exercées par une université à une entité non universitaire et très probablement à orientation commerciale qui serait soumise a l’autorité des États Unis et située sur leur territoire.
La perspective heuristique que je présente ici peut expliquer cette réaction, le fait que la solution proposée n’était pas appropriée et la violation d’un interdit dont les directeurs d’universités aux États-Unis avaient sous-estimé l’importance pour une part, et d’autre part, l’intérêt, de plus en plus partagé par le monde entier, que l’Internet suscitait a cette époque. Vers le milieu des années 90, l’Internet était considère, surtout en Amérique du Nord, en Europe et dans certains pays d’Asie - comme le Japon et la Corée du Sud, comme un nouveau territoire d’une importance primordiale pour le commerce, l échange du savoir, les interactions sociales et le secteur tertiaire.
Les discussions qui suivirent et qui menèrent à l’élaboration du Livre blanc peuvent se comprendre comme un effort d’adaptation en vue de trouver une solution à pratiquement la même diversité de problèmes mais dans un nouveau contexte. En fait, l’intervention d’acteurs non ressortissants des États-Unis a engendré une solution complètement différente dans laquelle la participation de la communauté internationale dans les décisions a pris une grande importance. En échange, les États-Unis conservent une fonction capitale, celle jouée par l IANA.
Il est bien connu que la solution évoquée plus haut n’est autre que la création de l’ICANN et son accréditation. L’ICANN a bien opéré l’ouverture à la concurrence du marché des noms de domaine, en recourant à un marché à deux niveaux dans lequel les registraires se sont livrés une concurrence acharnée. Elle a lancé avec succès un certain nombre de gTLD, crée un mécanisme pour défendre les intérêts des détenteurs de noms de domaines confrontés a des violations manifestes des règles que les registraires sont tenus d’observer, bien renforcé la plateforme officielle pour la prise de décision des différents groupes d’intérêt. Tout cela, elle l’a fait en restant dans le cadre de sa mission et en devançant les principes convenus par le WSIS concernant la gouvernance de l’Internet. Elle a crée et géré un processus qui a permis aux victimes du cybersquatting d’obtenir rapidement réparation et a géré l introduction progressive de noms de domaines internationalises (IDNs) dans l exploitation du système de nommage a l échelle planétaire. Cette introduction d’IDNS s’est faite à un rythme qui allait de pair avec celui du développement technologique et de la mise à l essai des normes de l’IETF ainsi que de la disponibilité effective des technologies. Ces différentes activités, l’ICANN a su les mener a bien tout en veillant a la sécurité et a la stabilité du DNS, du système d’attribution d’adresses IP et de l’enregistrement fonctionnel par l’IANA des paramètres de protocole.
Il ne faut pas chercher loin pour recenser les nouveaux problèmes auxquels l’ICANN doit encore se confronter – tout d’abord l’ICANN, de par sa structure, offre de nombreux forums pour la détection de ces problèmes, le débat autour de ceux-ci et éventuellement l’avancée vers la solution à leur apporter. C’est pourquoi je ne m’étendrai pas sur ces nouveaux problèmes dans mon discours d’aujourd’hui
2 La fin de l’ère théorique
La gouvernance de l’Internet, en particulier, deux de ces grands domaines d’intérêt, ont fait couler beaucoup d’encre dans les milieux universitaires et susciter beaucoup d’écrits. Ce sont, d’une part l’ICANN, et d’autre part, le Sommet Mondial de la Société de l Information ainsi que les événements et débats qui s’en sont suivis et ses conséquences. Il est inutile de préciser que ces deux domaines sont parfois étroitement liés
Les écrits académique sur la Gouvernance de l’Internet qui traitent globalement de ce thème et de l’ICANN peu avant sa création sont évoqués par le livre de Kahin and Keller portant sur la coordination de l’Internet, ‘Coordinating the Internet’. Beaucoup de ces écrits, datant des années 90, concernent des questions juridiques - la plupart ont pour cadre de référence la législation des États-Unis, les procédures qui menèrent a la création de l’ICANN et la délégation par le gouvernement des États-Unis de certaines de ses fonctions. Une grosse partie de cette documentation continue à être citée en référence sans pour autant qu’elle soit soumise a une analyse critique un tant soit peu sérieuse, tandis que le milieu universitaire et les gens de la profession préfèrent l’ignorer quand ils la considèrent trop différente de leurs vues.
Un autre trait significatif de cette littérature est son caractère principalement descriptif. Des discussions menées par le grand public – par exemple, des forums en ligne – sur l’interprétation à donner aux événements et débats touchant a la gouvernance de l’Internet abordée de façon très abstraite, telles que la focalisation sur l’action collective, n’ont pas débouché sur des analyses théoriques complètes et largement partagées sur les prénommes émergents, et encore moins donné lieu a des prédictions vérifiables.
Une grosse partie de ces écrits théoriques et de ces interventions au cours de réunions est encore plus affaiblie par le manque de distance prise par les auteurs entre leur propre activisme et les positions défendues dans leurs publications et leurs discussions.
Une version anglaise du texte intégral de ce discours est disponible via le lien suivant : http://mex.icann.org/files/meetings/mexico2009/transcript-atlarge-summit-open-28feb09-en.txt
Le discours de clôture d’Evan Leibovitch intitulé:‘From Mission to Action’ (de la Mission a l’Action), quant à lui, se trouve disponible via: http://www.atlarge.icann.org/fr/announcements/announcement-05mar09-fr.htm