Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Quelles Régulations Pour L'Internet ?

View metadata, citation and similar papers at core.ac.uk brought to you by CORE provided by Repository of the University of Namur Institutional Repository - Research Portal Dépôt Institutionnel - Portail de la Recherche researchportal.unamur.be University of Namur RESEARCH OUTPUTS / RÉSULTATS DE RECHERCHE Quelles régulations pour l'Internet ? Berleur, Jacques; Poullet, Yves Published in: Gouvernance de la Société de l¿Information Author(s) - Auteur(s) : Publication date: 2002 Document Version Publication - Date de publication : le PDF dedate l'éditeur Link to publication Citation for pulished version (HARVARD): Berleur, J & Poullet, Y 2002, Quelles régulations pour l'Internet ? Dans Gouvernance de la Société de l¿Information. du CRID, Permanent link Cahiers - Permalien : Numéro 22, Académia Bruylant, Bruxelles, p. 133-151. Rights / License - Licence de droit d’auteur : General rights Copyright and moral rights for the publications made accessible in the public portal are retained by the authors and/or other copyright owners and it is a condition of accessing publications that users recognise and abide by the legal requirements associated with these rights. • Users may download and print one copy of any publication from the public portal for the purpose of private study or research. • You may not further distribute the material or use it for any profit-making activity or commercial gain • You may freely distribute the URL identifying the publication in the public portal ? Take down policy If you believe that this document breaches copyright please contact us providing details, and we will remove access to the work immediately and investigate your claim. Download date: 25. May. 2021 Moretus Plantin Bibliothèque Universitaire QUELLES RÉGULATI ON S POUR L’I N TERN ET ? Jacques BERLEUR Yves POULLET À en croire Vinton Cerf, un des pères de l’Internet et le fondateur de l’Internet Society (ISOC), “au moment où nous passons dans un siècle nouveau marqué par l’omniprésence de l’Internet, nous devons tout mettre en œuvre pour conserver le réseau sans restriction, sans entrave et nonréglementé” 222. Il n’est plus grand monde pour partager un avis aussi radical. Ainsi Philippe Quéau, Directeur de la Division Information et Informatique de l’UNESCO, nuance-t-il singulièrement un tel propos : “Les déséquilibres structurels de l’infrastructure mondiale d’Internet, les profondes inégalités de l’accès à l’information, les oligopoles transnationaux contrôlant l’infostructure planétaire sont autant de sujets de préoccupation pour le régulateur. Une nouvelle forme de régulation ou de ‘gouvernance’ mondiale doit être conçue, dans une perspective éthique mondiale, au service de l’équité et du développement humain”223. D’autres ont songé à une Lex Informatica de régulation technologique de l’Internet, sur le modèle de l’ancienne Lex Mercatoria 224. La question de la régulation de l’Internet est, sans nul doute, technique, politique et éthique. On ne peut plus dire aujourd’hui – si tant est qu’on ait jamais pu le dire – que l’on se trouve dépourvu de régulation parce que, notamment, l’Internet échapperait à la souveraineté territoriale. Il y a, sans doute, une remise en cause des cadres traditionnels de régulation, mais il reste à s’interroger sur leur exacte portée. Certains affirment la prévalence de la régulation technique et de l’autorégulation sur la réglementation publique traditionnelle. Notre propos est d’analyser ces trois sources de régulation et de proposer une lecture critique de leur prétention à être chacune la source unique de la régulation de l’Internet. 222 223 224 V. CERF, On the Internet, July/August 1999. Ph. QUÉAU, “Internet : vers une régulation mondiale”, Sommet mondial des régulateurs, Paris, 30 Novembre – 1er Décembre 1999, disponible en ligne à l’adresse http://www.unesco.org/webworld/news/991201_queau_csa.shtml. J. REIDENBERG, “Lex Informatica : The Formulation of Information Policy Rules through Technology”, 76 Texas L. Rev., 1998, pp. 553-584. 134 CAHIERS DU CRID – n° 22 1 . LES REGU LATI ON S TECH N I QUES Les régulations techniques sont bien présentes sur l’Internet. On en évoquera trois, autour de trois organisations : l’Internet Engineering Task Force (IETF) – et donc l’Internet Society (ISOC), le World Wide Web Consortium (W3C) et l’Internet Corporation for Assigned Names and Numbers (ICANN).225 A. L’Internet Engineering Task Force (IETF) L’IETF est une organisation qui remonte à 1986 et dont l’essentiel du travail est, encore aujourd’hui, d’assurer la promotion des standards et des normes qui assurent la pleine interopérabilité des réseaux. C’est une organisation indépendante, soutenue depuis toujours par l’ISOC, et qui a eu quelques déboires avec les organisations internationales de standardisation, telles l’Organisation Internationale de normalisation (ISO) et l’Union internationale des télécommunications (ITU), toutes deux agences de l’ONU. Les heurts eurent lieu notamment entre 1992 et 1994 au moment où l’ISO voulut remplacer le protocole TCP/IP (Transmission Control Protocol/Internet Protocol), élaboré dès les débuts du réseau ARPANET par le Département de la Défense des Etats-Unis (1969) et qui assure toujours l’interopérabilité actuelle des réseaux. L’ISO et l’ITU semblaient mal préparées à accepter de laisser fonctionner, sur des matières d’une telle importance, une institution peu organisée, fonctionnant à partir de la base et avec des modes de décision dits de consensus mais peu clarifiés. Depuis lors l’IETF semble avoir repris son chemin en relative tranquillité et conservé ses prérogatives normatives, tout en laissant entendre qu’une délégation officielle auprès des autres organismes de standardisation ne lui semblait pas être une solution adéquate 226. Les matières traitées par l’IETF sont très techniques ; on y traite entre autres actuellement de la version 6 en cours d’élaboration de l’Internet Protocol (IPv6), mais aussi de l’encodage et du transport, des modèles et de la sémantique des protocoles d’impression, etc. Toute question ayant trait au fonctionnement de l’Internet et nécessitant une normalisation, qu’il soit question de transport, de routage, de sécurité, de service aux utilisateurs, … passe par l’IETF. Sait-on que près de 70 propositions de standards ont été examinées au cours des deux dernières années et que 225 226 Voir, par exemple, “Regulating the Internet - The Consensus Machine”, The Economist, June 10th , 2000, pp. 99 et s. ; E. BROUSSEAU et N. CURIEN, “Economie d’Internet, économie du numérique”, in Economie de l’Internet, Revue Economique, Numéro hors série, vol. 52, octobre 2001. On the Internet, Spring/Summer 2001, pp. 13, 26. QUELLES RÉGULATIONS POUR L’INTERNET ? 135 depuis les débuts des réseaux (mars-avril 1969) jusqu’à ce jour (avril 2002) quelque 3275 Requests For Comments (RFC : voir infra) ont été rédigées 227 ? L’organisation reste assez complexe ; il faut dire qu’elle repose sur quelque 2000 volontaires regroupés par groupes de travail sur des sujets approuvés par un comité de direction, l’Internet Engineering Steering Group (IESG). On mentionnera aussi l’Internet Research Task Force (IRTF) qui organise ces groupes de recherche et l’Internet Architecture Board (IAB), un des comités nommés par l’IETF pour l’assister dans son management et jouer un rôle d’interface formel avec l’Internet Society, l’ISOC228. Le processus de standardisation ou de normalisation développé par l’IETF est relaté dans les Requests for comments (RFCs). Il ne s’agit guère d’appels à commentaires, comme le nom l’indique, mais de notes qui font état des échanges sur différents aspects de communication, sur les protocoles des réseaux, les programmes, les concepts sous-jacents ; elles incluent aussi les comptes-rendus de réunions, des opinions, et même quelques notes humoristiques. Plus fondamentalement, ces RFCs, toutes publiques sur le site de l’IETF, comportent tous les documents de spécification des protocoles de l’Internet. Dès 1969, ce travail a été scrupuleusement effectué par un seul homme, Jonathan Postel, figure légendaire de laquelle on dit parfois qu’il attribua tous les “noms de domaines” de l’Internet, et ce, jusqu’à sa mort en 1998. Aujourd’hui, on vient de le dire, on ne compte pas moins de 3275 RFCs et le travail de J. Postel est poursuivi notamment par celui qu’il avait formé, Joyce Reynolds. Mais, en fin de compte, qui compose l’IETF ? Comme nous l’avons dit, c’est une organisation de fait, indépendante, sans existence juridique ; elle est composée de fournisseurs de services sur l’Internet et d’utilisateurs de l’Internet, de vendeurs de logiciels et d’équipements, de chercheurs, d’opérateurs de réseaux, d’académiques et de toute personne intéressée. Des volontaires ou des personnes envoyées par leur organisation – et sans doute à leurs frais – et qui se réunissent régulièrement, parfois même jusqu’à trois fois une semaine par an. Cette communauté a fonctionné jusqu’à présent à la méthode du rough consensus (rude, fruste, parfois violent ?), plus qu’à la simple majorité, mais pas à l’unanimité, comme le notait récemment The Economist229. Qu’en sera-t-il à l’avenir ? Le même Economist évoquait les “bienveillants” qui ont créé les consensus, aux dépens, sans doute, de processus plus démocratiques où auraient pu être 227 228 229 Voir IETF, Request for Comments Index, http://www.ietf.org/iesg/1rfc_index.txt. L’ISOC vient de consacrer un numéro spécial de sa revue On the Internet à la question des standards – “The Standards Issue”, Spring/Summer 2001. “Regulating the Internet - The Consensus Machine”, précité. 136 CAHIERS DU CRID – n° 22 discutées les options plus sociétales des choix techniques. Sans doute s’agissait-il du charisme des pionniers, tels Vint Cerf et Jon Postel ! B. Le World Wide Web Consortium (W3C) Le W3C est, lui aussi, né du charisme d’une personne, Tim BernersLee. Il est l’homme qui a créé le premier serveur, le premier navigateur (browser), l’homme qui créa, en 1994, le World Wide Web. Le W3C fondé, la même année que le WWW, au Massachusetts Institute of Technology (Cambridge, USA), en coopération avec le CERN (Genève), est aussi un organe de régulation technique de la toile 230. Il a produit jusqu’à ce jour quelque 20 “Recommandations” (spécifications techniques) relatives à l’infrastructure du web, notamment dans les domaines de l’architecture de la toile (et de ses technologies sous-jacentes), du formatage des documents (formats et langages de présentation de l’information à l’utilisateur), des outils qui favorisent toute forme d’interaction, qui développent l’accessibilité pour tous, et de toute question à incidence sociale, légale ou de politique générale. C’est ainsi, par exemple, que le W3C transforme progressivement la toile initiale (HTML – la lingua franca du premier web –, URLs, HTTP, …) en une toile pour demain, bâtie sur les fondations solides fournies par l’XML (Extensible Markup Language). Comme le dit L. Lessig, des architectures techniques peuvent correspondre à des types de régulation (‘regulability’) différents 231. Tout le monde s’accorde aussi pour dire que la philosophie du W3C – l’ouverture et la décentralisation – a été incorporée dans les normes techniques du WWW au point qu’elles sont aujourd’hui définies comme ses caractéristiques. On notera aussi, parmi les propositions du W3C, la recommandation de la norme PICS (Platform for Internet Content Selection) pour le filtrage de contenus, notamment illicites ou préjudiciables, sur l’Internet 232. Le W3C compte 500 organisations membres, vendeurs de produits et services technologiques, fournisseurs de contenus, entreprises utilisatrices, 230 231 232 J.-F. ABRAMATIC, About the World Wide Web Consortium (W3C), disponible en ligne à l’adresse http://www.w3.org/Consortium. L. LESSIG, Code and Other Laws of Cyberspace, New York, Basic Books, 1999, p. 30. Les sites sur PICS ne manquent pas. Il y a, d’abord, le site officiel du W3C : Platform for Internet Content Selection, http://www.w3.org/PICS/ ; les travaux de L. FAITH CRANOR, P. RESNICK, et D. GALLO , A Catalog of Tools that Support Parent’s Ability to Choose Online Content Appropriate for their Children, disponible en ligne à l’adresse http://www.research.att.com/~lorrie/pubs/tech4kids/. Le site du groupe ‘Computer Professionals for Social Responsibility’ et sa page ‘Filtering FAQ’, notamment sur PICS, http://www.cpsr.org/filters/faq.html, etc. QUELLES RÉGULATIONS POUR L’INTERNET ? 137 laboratoires de recherche, organismes de normalisation, représentants gouvernementaux, … Tout qui signe le Membership Agreement peut devenir membre du W3C, mais un “full member” s’acquittera d’un droit d’inscription annuel de US$ 50000, tandis que l’ “affiliate member” n’en déboursera que 5000. C’est un organe ouvert, sans statut juridique, hébergé à tour de rôle dans l’une des trois institutions de recherches hôtes : l’INRIA (France), le Massachusetts Institute of Technology (USA) et la Keio University (Japon). C. L’Internet Corporation for Assigned Names and Numbers (ICANN) Dernier-né que nous évoquerons dans les organes de régulation technique de l’Internet : l’Internet Corporation for Assigned Names and Numbers (ICANN). L’enfantement, en 1998, n’est pas ici le fruit d’un charisme individuel, mais de l’idéologie libérale des techniciens et ingénieurs de l’Internet qui a amené le Département du commerce américain à se défaire de l’attribution des adresses TCP/IP et des noms de domaines. L’ICANN est l’organisation, qui, mondialement et de manière centralisée, gère le système d’adressage de la toile. Cette centralisation s’accommode d’un système de gestion qui peut différer selon les bureaux d’enregistrement où sont attribués les noms de domaine géographiques nationaux. Ceux et celles qui ont suivi la création de l’ICANN savent les enjeux qui sont progressivement apparus. On a mentionné l’ICANN comme un exemple de gouvernance de l’Internet – réduisant peut-être celui-ci à sa dimension technique – et d’autorégulation par un organisme privé sans but lucratif (non profit, private-sector corporation, dit le site). On a évoqué la capacité de l’ICANN d’effacer les adresses, mais sans doute est-ce plus précisément le présage d’un système nouveau de gouvernance et de régulation de l’Internet qui a été le véritable enjeu : un département fédéral américain se défaisait d’une de ses prérogatives pour la transmettre à une organisation faite de représentations privées et gouvernementales, à un niveau mondial. Mais au lendemain de la réunion de l’ICANN à Stockholm, au début juin 2001, quelques trouble-fêtes brisaient la belle unanimité. Les tablesrondes se succédaient au Congrès mondial de l’ISOC qui suivait cette réunion, où les critiques sur les procédures d’élection, notamment de l’ICANN at large, c’est-à-dire assurant la représentation des utilisateurs, fusaient de tous côtés : 9 sièges pour 400 millions d’internautes 233 ! Qui a voté ? Les utilisateurs ? Ceux qui sont affectés par les réseaux ? L’Internet, 233 Les règles d’élection de ‘l’ICANN at large’ se trouvent à l’adresse http://members .icann.org/rules.html. 138 CAHIERS DU CRID – n° 22 un espace public … de plus en plus sponsorisé et parrainé par des intérêts privés ! Etc. Ce qui amena Carl Bildt, ancien Premier Ministre suédois, chargé d’une mission par l’ICANN, à plaider pour une autre représentation que la démocratie représentative ! Bref, comme l’ont souligné nombre d’éditorialistes, l’ICANN at Large pourrait bien être restructuré … et l’ISOC serait pressentie. Outre les raisons de sa représentativité, l’ICANN est contesté dans son efficacité, mais à vrai dire, il s’agit d’une organisation ridiculement petite d’une dizaine de personnes, au budget annuel de US$ 4, 3 millions. Le 24 février 2002, le président, Stuart Lynn, lance son premier rapport annuel : “ICANN – The Case for Reform”, proposant un rééquilibrage privé-public et une plus grande participation du public, déclarant l’échec de la structure purement privée et proposant une nouvelle représentativité. C’est dire qu’on n’a pas encore atteint “le régime” de croisière 234. Quelques questions émergent de cette rapide description des régulations techniques. Quel est le degré de transparence et d’information claire sur des sujets aussi complexes ? Quel est l’enjeu, par exemple, du nouveau protocole IPv6 ? Il faut savoir, pour cela, que la version 4, en cours actuellement, a été développée pour supporter 4 milliards (4 109) d’adresses dont deux tiers sont aujourd’hui réservés à l’Amérique du Nord, soit à quelque 5% de la population mondiale. Le nouveau protocole devrait supporter 3,4 1038 adresses (340 milliards de milliards de milliards de milliards) et autoriser la convergence de toutes les technologies de communication (adresses IP actuelles, généralisation d’une téléphonie IP, d’annuaires électroniques, …). Des réticences commencent à se manifester, dans certains milieux d’affaires américains, notamment à cause du faible appui des fournisseurs de services et des administrateurs de réseaux, du coût du transfert et de la migration de l’IPv4 vers l’IPv6, etc. Bref, un nouveau Y2K s’annonce 235 ! Mais sous le caractère purement technique, il y a des problèmes de vie privée qui ne sont pas résolus et pour lesquels l’IETF semble faire aujourd’hui des propositions ; il y a aussi des décisions politiques sur des modes de vie du futur, notamment d’une informatique de plus en plus envahissante, prises en dehors des autorités nationales et internationales. Il n’y a au monde que 13 serveurs de routage : 10 aux 234 235 President’s Report : ICANN – The Case for Reform, 24 February 2002, http://www.icann.org/general/lynn-reform-proposal-24feb02.htm. Voir aussi toute la discussion en cours : Committee on ICANN Evolution and Reform Seeks Public Submissions, 27 March 2002 ; ICANN Board Accepts Contributions to Facilitate At-Large Organizing Efforts, 24 April 2002 ; Working Paper on ICANN Mission and Core Values, 6 May 2002, http://www.icann.org/committees/evol- reform /working-paper-mission-06may02.htm, … G. LAWTON, “Is IPv6 Finally Gaining Ground”, in Computer, IEEE Computer Society, August 2001, pp. 11-15. QUELLES RÉGULATIONS POUR L’INTERNET ? 139 USA, 2 en Europe (Londres et Stockholm) et 1 en Asie. Cet état de fait ne contrevient-il pas au caractère international de l’Internet ? Quelle est la légitimité d’organismes qui se sont attribué le droit de la régulation technique en dehors de toute supervision reconnue, étatique ou par des organismes publics internationaux ? Que se passera-t-il quand la Chine réclamera que les standards propres qu’elle a développés soient pris en considération par les organes de normalisation technique quasi strictement américains ? Etc. 2 . L’ AU TOREGU LATI ON A. Qu’est-ce que l’autorégulation ? Pierre Trudel définit l’autorégulation comme “le recours aux normes volontairement développées et acceptées par ceux qui prennent part à une activité” 236. Pour Pierre Van Ommeslaghe, c’est “une technique juridique selon laquelle des règles de droit ou de comportement sont créées par les personnes auxquelles ces règles sont destinées à s’appliquer, soit que ces personnes les élaborent elles-mêmes soit qu’elles soient représentées à cet effet” 237. Les documents dits d’autorégulation et les techniques utilisées par celle-ci foisonnent 238. Ils couvrent des domaines aussi divers que la gouvernance générale de l’Internet, la déontologie des sociétés d’informaticiens, les règles de conduite et de savoir-vivre des utilisateurs de réseaux, les codes de conduite des fournisseurs d’accès et de services, les règles de certification ou de labellisation de sites ; ils se sont particulièrement développés dans le secteur du commerce électronique en général, mais aussi dans des secteurs particuliers tels la santé, l’édition électronique, la vente de logiciels, le télémarketing, etc. Leur dénomination est diverse, elle aussi : charte, déclaration de droits, dix ou douze commandements, principes, codes d’éthique, de bonne conduite, de pratique, lignes directrices, standards, pratiques et usages, termes ou clauses contractuelles. Les engagements varient de l’un à l’autre et, comme on s’en doute à la lecture des dénominations énoncées, on y retrouvera sans doute des 236 237 238 P. TRUDEL, “Les effets juridiques de l’autoréglementation”, in Revue de droit de l’université de Sherbrooke, 1989, vol. 19, n° 2, p. 251. P. VAN OMMESLAGHE, “L’autorégulation. Rapport de synthèse”, in L’autorégulation, Bruxelles, Bruylant, 1995, pp. 233-274. On se référera à notre analyse d’ensemble en ouverture de ce Cahier. 140 CAHIERS DU CRID – n° 22 propositions relevant de la pure éthique et de la déontologie, mais aussi, et de plus en plus, de simples engagements de type essentiellement contractuel définissant les services offerts par les entreprises et leurs modalités. Le “click” de l’internaute équivaut alors à l’acceptation de ces sortes de ‘conditions générales contractuelles’. B. Deux “chartes” Deux exemples français intéressants nous paraissent marquer cette différence : d’une part, la proposition de Charte française de l’Internet, rédigée en 1997, à la suite de la mission d’A. Beaussant, confiée par le Ministre Fr. Fillon239 ; et d’autre part, la Charte d’édition électronique (Le Monde, Libération, ZDNet, La Tribune, Investir, Les Echos, L’Agefi, France), publiée en 2000240. La première, qui n’était qu’une proposition, n’a jamais été adoptée, pas plus d’ailleurs que la proposition déposée à l’époque par la France à l’OCDE dans la droite ligne de cette Charte. Il semblerait, en effet, que les associations appelées à former le “Conseil de l’Internet” prévu par la Charte ne sont jamais parvenues à se mettre d’accord. Les thèmes qu’elle évoquait et sur lesquels les signataires s’engageaient nous avaient paru intéressants à l’époque : protéger les nouveaux espaces d’expression et de liberté, dans le respect de chacun, et en particulier des enfants ; faire référence à la Charte sur son site ; mettre un lien au Conseil de l’Internet ; fournir une claire identification ; bannir tout contenu ou action manifestement contraire à l’ordre public et, principalement, la pédophilie, l’incitation à la haine raciale, la négation de crimes contre l’humanité, l’appel au meurtre, le proxénétisme et le trafic de stupéfiants, les atteintes à la sécurité nationale ; fournir aux parents des mécanismes de prévention contre le matériel sensible (ex. PICS, …) ; identifier les sites pornographiques et violents ; défendre les libertés et droits fondamentaux (liberté d’expression, droit à l’information, secret du courrier, protection de la vie privée, anonymat, …) ; protéger les droits de propriété intellectuelle (brevet, droit d’auteur, …) ; défendre le consommateur (notamment dans le commerce électronique) : information claire sur les produits, les prix, les conditions, le statut légal du vendeur, protection contre la publicité non sollicitée par courrier électronique, information honnête et loyale ; etc. On pourrait aussi comparer cette charte de l’Internet, dont nombre de clauses sont assez typiques de documents actuels des fournisseurs de services en Europe, aux “Pratiques et usages” de l’Association des 239 240 http://www.planete.net/code- internet/ site auquel on aura accès aujourd’hui via http://www.archive.org. http://www.liberation.fr/licence/charte.html. QUELLES RÉGULATIONS POUR L’INTERNET ? 141 Fournisseurs d’Accès et de Services Internet (AFA) française dont les termes nous paraissent en retrait par rapport aux propositions de la Charte de l’Internet 241. La Charte d’édition électronique, elle, réaffirme les règles habituelles de la profession et les règles éditoriales que l’éditeur de site s’engage à respecter scrupuleusement, mais rentre dans le détail du nombre de paragraphes que l’on peut reproduire sans être accusé de plagiat, définit ce que signifie la citation ‘courte’, précise les règles concernant la création de liens (autorisés sans condition si le lien ouvre une nouvelle fenêtre du navigateur), l’interdiction sauf autorisation préalable de reproduction par des moyens tels que le balayage (scanning), la copie numérique, … Cet exemple permet d’apprécier que le mot “Charte” peut avoir des sens différents et que l’autorégulation, d’un côté, tente de préciser les droits et devoirs réciproques des différents agents de l’Internet, tandis que, de l’autre, les aspects de la propriété intellectuelle en arrivent vite à définir l’autorégulation davantage dans une perspective d’autoprotection d’un secteur ou d’une entreprise contre des pratiques dommageables à leur encontre. C. Des documents relatifs au commerce électronique Sans entrer dans trop de détails, on ne peut manquer d’évoquer un des champs les plus importants du développement de l’autorégulation, le commerce électronique. En la matière, on se doit de citer les efforts déployés, d’une part, par l’Electronic Commerce Platform Nederland (ECP-NL) et le Global Business Dialogue on Electronic Commerce (GBDe) et, d’autre part, par la Commission européenne dans son programme eConfidence242. Ces trois initiatives partent du constat que, si le commerce électronique démarre difficilement, cela est dû essentiellement au manque de confiance dans les systèmes eux-mêmes et dans le manque de protection légale. L’ECP-NL en est à la quatrième version de ce qu’elle appelle un Model Code sur lequel pourrait se baser toute entreprise désireuse d’adhérer aux principes, et ainsi d’obtenir un “label de qualité”. Ce code, négocié avec les associations de consommateurs et des représentants d’entreprises sous l’égide du Ministère des Affaires économiques, souligne 241 242 http://www.afa- france.com. Voir : The Platform for the Electronic Business in the Netherlands disponible en ligne à l’adresse http://www.ecp.nl ; The Global Business Dialogue on Electronic Commerce disponible en ligne à l’adresse http://www.gbde.org et The eConfidence forum - A European Commission inititiative promoting information exchange and discussions about eConfidence, http://econfidence.jrc.it. 142 CAHIERS DU CRID – n° 22 la nécessité de prendre des engagements vis-à-vis de la fiabilité des informations, des systèmes et de l’organisation, vis-à-vis de la transparence dans la communication et vis-à-vis des droits à la vie privée, à la confidentialité des informations et aux droits de propriété intellectuelle. Il nous semble que ces dispositions de l’ECP-NL n’apportent pas grand-chose en complément à la loi et n’apportent pas de valeur ajoutée à son effectivité : tout en en indiquant la possibilité et en fournissant quelques exemples de mécanismes dans les notes d’explication, le document dit qu’il ne fournit aucun modèle de clause de mise en œuvre (enforcement). Les neuf thèmes à l’examen du GBDe portent sur l’authentification et la sécurité, la confiance des consommateurs, le contenu des communications commerciales, les infrastructures d’accès au marché, les droits de propriété intellectuelle, les juridictions, les responsabilités, la protection des données personnelles et les questions de taxation et de tarifs. Après son Sommet de 2000, ces thèmes ont été légèrement redéfinis : confiance du consommateur, convergence, sécurité, “ponts numériques” contre la “fracture numérique”, eGouvernement, paiement par Internet, droits de propriété intellectuelle, commerce et Organisation mondiale du commerce (OMC), et taxation. C’est devant le foisonnement d’initiatives de ce type et, peut-être aussi, devant la volonté des organisations qui les soutiennent (GBDe est une initiative d’une soixantaine de grands patrons d’entreprises du type AOL Time Warner, Fujitsu, Vivendi Universal, Accenture, Toshiba, Telekom Malaysia, Korea Telecom Freetel, Cisneros Group of Companies, Seagram, Eastman Kodak, Walt Disney, Hewlett Packard, IBM, MCI Worldcom, Alcatel, ABN AMRO Bank, DaimlerChrysler, etc.) que la Commission européenne tente, sans doute, de développer, dans son programme eConfidence des principes généraux applicables à toutes les étapes du commerce en ligne, des exigences spécifiques complémentaires, ensuite, non couvertes par les dispositions légales européennes, mais à situer dans l’ensemble du dispositif légal européen relatif au consommateur et au commerce électronique – il s’agit ici essentiellement d’une compilation des ‘meilleures pratiques’ à partir de codes rassemblés par le groupe de travail de la Commission – et, enfin, des principes destinés à guider les organes d’homologation (le groupe de base – ‘core group’ – présuppose que les codes seront soumis à homologation). L’eConfidence Forum nous paraît une initiative intéressante à suivre, tout en étant conscient que le travail d’élaboration actuel est fait par le groupe de base. Sans doute peut-on se réjouir de ce que le monde du commerce électronique se soucie d’un certain nombre de questions qui risqueraient bien sans cela de ne pas trouver de solution réglementaire dans un avenir proche. Le plus important, en la matière, nous semble être de savoir qui définit quoi et au nom de quoi. Il faut bien reconnaître que de telles QUELLES RÉGULATIONS POUR L’INTERNET ? 143 initiatives sont souvent nées dans le souci explicite de s’opposer aux ingérences gouvernementales. Les “sherpas” du GBDe appellent leur “Sommet” annuel le “Davos de l’eCommerce”. Soit, c’est leur droit. Mais on peut s’interroger sur l’absence de dialogue réel et de participation des personnes qui “prennent part aux activités” (nous rappelons ici la définition de Pierre Trudel) qui définissent le commerce électronique. On ne peut échapper à l’impression que beaucoup de codes actuels n’en sont guère, dans leur élaboration présente, qu’à l’énoncé de principes idéalisés qui, trop souvent, ne sont même pas accompagnés de sanctions ou de procédures d’examen en cas de litige. Nombre de questions nous traversent sans doute l’esprit. Elles étaient d’ailleurs les questions de notre Séminaire. Quelles formes, ou quelles techniques l’autorégulation recouvre-t-elle ? Des codes ? La labellisation, … ? Quelle est sa place dans le pluralisme juridique et l’ordre étatique ? Est-elle un complément de la loi, son substitut, son anticipation ? Vis-à-vis de l’ordre démocratique, quelle est sa légitimité, quelle représentativité offre-t-elle dans son élaboration ? Quels sont les “lieux de réception” ? Quels en sont les enjeux ? N’y a-t-il pas des matières qui devraient “échapper” à l’autorégulation au nom d’autres principes, par exemple éthiques ou démocratiques 243 ? Quelle protection des citoyens et de la démocratie est-on en droit d’attendre des régulateurs ? Quelle en est la force contraignante, quelles sont les sanctions prévues et les procédures de résolution des litiges ? N’y a-t-il pas lieu, en fin de compte, de définir un cadre juridique – selon les critères démocratiques habituels, mais cette fois à un niveau international – qui permette de développer des instruments d’autorégulation capables de réellement rendre confiance aux personnes, parce qu’elles y auraient été impliquées d’une manière ou d’une autre ? 243 Nous avons énoncé, dès 1995, la règle simple inspirée de la tradition déontologique kantienne : “dès que les intérêts de la majorité sont en jeu et que les personnes concernées risquent d’être rendues plus fragiles et vulnérables, une autorité doit intervenir qui maintienne ouvert l’horizon d’universalité propre à la dimension éthique.” Nous avons développé ce point de vue, à propos des débats plus particuliers autour du ‘Livre vert sur la protection des mineurs et de la dignité humaine dans les services audiovisuels et d’information’ (COM (96) 483, octobre 1996), la Communication de la Commission sur ‘Le contenu illégal et préjudiciable sur Internet’ (COM (96) 487 final, 16 octobre 1996) et la ‘Recommendation sur la protection des mineurs et de la dignité humaine dans les services audiovisuels et d’information’, (24 septembre 1998, J.O.C.E., n° L 270, 07.10.1998, pp. 48-55. Voir : J. BERLEUR, “Self- Regulation and Democracy : Choice and Limits?”, in S. FISCHER-HÜBNER, G. S. QUIRCHMAYR & L. YNGSTRÖM , (éds.), User Identification & Privacy Protection, Applications in Public Administration & Electronic Commerce, Dept of Computer and Systems Sciences, Stockholm University/Royal Institute of Technology, Report Series 99-007, 1999, ISBN 917153-909-3, pp. 1-19. 144 CAHIERS DU CRID – n° 22 Peut-être est-il encore trop tôt pour donner une réponse satisfaisante à ces questions, mais il faut sans doute les conserver en mémoire et les travailler. La synthèse de nos débats apporte un premier éclairage et dégage, en quelque sorte, un programme de travail. Les Etats, autant que les associations de consommateurs, devraient davantage être présents dans les milieux où de tels outils régulateurs se préparent. La chose nous paraît d’autant plus importante que l’on pouvait lire récemment, sur le site du GBDe, que le GBDe, l’International Chamber of Commerce (ICC) et le Business and Industry Advisory Committee (BIAC) auprès de l’OCDE signaient, le 13 décembre 2000, un accord sur les problèmes du commerce électronique : “Le GBDe, l’ICC et le BIAC s’engagent à favoriser leur coopération internationale dans tous les domaines de politique générale liés à l’Internet (on the full range of public policy issues arising from the Internet ; nous soulignons)”. Le concept de corégulation a été avancé lors du sommet des régulateurs de 1999, convoqué sous l’égide du Conseil Supérieur de l’Audiovisuel et de l’UNESCO. Michel Vivant, dans ses conclusions, lui préférait le terme de multirégulation ou de “régulation plurielle”. C’est ce mouvement que nous suivons ici. À vrai dire, la corégulation peut prendre différents sens selon que, comme l’ont souligné de nombreux commentateurs lors de la création du GBDe, il s’agirait ou non de réfréner l’intervention des pouvoirs publics (Associated Press) et de créer une sorte de ‘Parlement du Net’ (L’Express) ou, au contraire, de ‘constituer des instances de veille, de concertation, de conseil et de mobilisation’, comme disait Mme Falque-Pierrotin, aujourd’hui Présidente du Forum des Droits sur l’Internet. Le rôle de la loi nous permettra de préciser notre approche. D. Les régulations légales Parmi les régulateurs de l’Internet, certains auteurs ont, trop rapidement sans doute, enterré le législateur décrit comme trop lent, trop peu expert, trop national pour encadrer une réalité aussi mouvante, technique et globale que le cyberespace244. Mal leur en prit : en particulier l’Europe multiplie les directives en la matière et même, dans une matière où les Etats-Unis répugnent à légiférer, comme la protection des données, un organe aussi officiel que la Federal Trade Commission (FTC) a plaidé récemment pour une initiative législative en matière de protection de la vie 244 Ainsi, P. TRUDEL, “Le cyberespace, réseaux constituants et réseau de réseaux”, in Les autoroutes de l’information : enjeux et défis, Actes du colloque Jacques Cartier, Lyon, 1996, p. 137 ; L. LESSIG, précité. Sur ce débat, nos réflexions in Y. POULLET , “How to regulate the Internet : New paradigms for Internet Governance”, in I. WALDEN - J. HÖRNLE (éd.), E-Commerce Law and Practice in Europe, Woodehead, Cambridge, Section 1, Chapter 2. QUELLES RÉGULATIONS POUR L’INTERNET ? 145 privée sur l’Internet. 245 Comment expliquer ce phénomène ? Un seul mot, nous l’avons déjà dit : la confiance. Il est clair que les difficultés de plus en plus ressenties par le secteur du commerce électronique, par exemple, s’expliquent par l’absence de confiance des internautes tant en la sécurité du réseau et des transactions qui s’y nouent que dans la possibilité, en cas de litiges, de pouvoir clairement identifier le cadre légal de référence pour leur apporter une solution et exécuter les décisions prises246. Que la loi ait à cet égard une fonction rassurante, est indéniable. Elle crée un cadre de référence clair, soumet les acteurs à des prescrits qui garantiront la sécurité, la loyauté et la bonne fin des opérations. En outre, elle arme du bras de la force publique la réclamation de celui qui se sera risqué sur la toile. Sans doute, ses limites territoriales sont questionnées à l’heure de la globalité du réseau des réseaux, mais la construction d’espaces juridiques régionaux comme l’Union Européenne et les discussions de plus en plus nombreuses au sein d’organismes supranationaux officiels comme l’OCDE, l’OMPI, l’OMC, le Conseil de l’Europe, etc. permettent d’établir progressivement des consensus réglementaires adéquats247. Cela dit, il est peut-être utile de s’interroger sur les domaines d’intervention du législateur et d’étudier pour ces divers domaines la finalité poursuivie. Il s’agit, dit-on, de créer la confiance mais en quoi et en faveur de qui ? Nous limiterons notre analyse à une comparaison des interventions européennes et américaines. Le premier domaine d’intervention législative est indéniablement celui de la propriété intellectuelle et des droits dits voisins. Comme le notait déjà le rapport Bangemann, il s’agit de protéger les investissements consentis par ceux qui demain deviendront les prestataires de services de la société de l’information. Cette volonté politique de protéger l’investissement se traduit par des lois qui, bien souvent, négligent la prise en considération des équilibres inscrits au cœur des législations traditionnelles sur le droit d’auteur. Que reste-t-il des exceptions en matière de copie privée, de copie à des fins d’éducation, de recherche ou de 245 246 247 Cf. la déclaration (Statement) de la FTC en date du 25 Mai 2000 devant une commission sénatoriale : “Privacy Online : Fair Information Practices in the Electronic Marketplace”. Cette déclaration concluait à l’insuffisance des solutions autoréglementaires pourtant prônées par les associations sectorielles les plus importantes et le gouvernement lui- même. Voir : http://www.ftc.gov/os/2000/05 /testimonyprivacy.htm. Voir l’avis particulièrement instructif du Comité économique et social du Parlement Européen sur les ‘Incidences du commerce électronique sur le marché unique (OMU)’ du 2 mars 2000, J.O. , C 123/1, 25 avril 2001. Sur les activités de ces diverses instances, lire : P. TRUDEL, F. ABRAN, K. BENYECKHLEF et H. SOPHIE, Droit du Cyberespace, Montréal, Thémis, 1997. 146 CAHIERS DU CRID – n° 22 critique, etc. devenues simplement optionnelles selon la directive européenne récente de 2001 sur les droits d’auteur et les droits voisins 248 ? La loi protège, à l’instar des dispositions du Digital Millenium Copyright américain de 1998, les mesures techniques qui permettront de restreindre l’accès à l’information, même lorsque celle-ci n’est pas digne de protection légale … Au-delà, elles instituent, – c’est du moins ce que la directive européenne de 1996 sur les bases de données a décidé –, une protection des compilations de données même non protégées par le droit d’auteur en inventant un droit sui generis à la protection. 249 Protéger les investisseurs garantit la présence de contenus sur l’Internet. Reste à y développer les transactions, qu’il s’agisse de transactions entre professionnels (B to B) ou avec les consommateurs (B to C). Il s’agissait, pour ce faire, de rassurer quant à l’identité des partenaires à la transaction, d’authentifier les messages et d’en assurer la confidentialité. Les législations prises tant d’un côté de l’Atlantique que de l’autre en matière de signature électronique reconnaissant à ces dernières la valeur de signatures manuscrites et, au document électronique, la valeur d’écrit répondent à cette première préoccupation250. L’échec du commerce électronique B to C a amené l’Europe à répondre, par des initiatives législatives, aux inquiétudes de l’internaute. La directive sur le commerce électronique adoptée en juin 2000 avait deux buts : d’une part, obliger les Etats Membres à dépoussiérer leurs arsenaux législatifs en retirant toute disposition législative qui pourrait priver de validité ou d’efficacité les transactions électroniques (par exemple des règles de formalisme basées sur le document papier) – elle joue là un rôle de promotion du commerce 248 249 250 Directive du 9 avril 2001 sur les droits d’auteur et les droits voisins (J.O., 22 juin 2001). Sur la rupture de ces équilibres fondamentaux, lire en particulier, S. DUSOLLIER, “Les systèmes de gestion électronique du droit d’auteur et des droits voisins”, Auteurs & Media, 1998/4, p. 327 ; du même auteur, “Les protections techniques vues dans un contexte juridique plus large”, in Régimes complémentaires et concurrentiels au droit d’auteur, Congrès de l’ALAI 2001, New York, 13-17 juin 2001 (à paraître), disponible en ligne à l’adresse http://www.law.columbia.edu/conferences/2001/home_en.html. Directive du 11 mars 1996 sur la protection juridique des bases de données (J.O., 23 juin 1996). Pour une présentation approfondie de cette directive, lire A. STROWEL et J.-P. TRIAILLE, Le droit d’auteur, du logiciel au multimédia. Droit belge, droit européen, droit comparé, Cahiers du Crid, n° 11, Bruxelles, Story -Scientia, 1997, pp. 133 et s. Pour une présentation de ces initiatives européennes (cf. la directive du 13 décembre 1999 sur la protection juridique des signatures électroniques, J.O.C.E. 19 janv. 2000), américaines et internationales (cf. en particulier, les travaux de la United Nations Commission on International Trade Law [UNCITRAL]), lire E. A. CAPRIOLI , “Sécurité et confiance dans le commerce électronique : signature électronique et autorités de certification”, J.C.P., éd. G., avril 1998, n° 14, pp. 580 et s. QUELLES RÉGULATIONS POUR L’INTERNET ? 147 électronique ; d’autre part, prévoir des obligations nouvelles de transparence des prestataires de service et de découpage de la transaction en diverses étapes de manière à assurer le consentement complet et éclairé de l’internaute 251. La protection de l’investissement et des transactions sur l’Internet exige également la possibilité de détecter les agissements illicites sur l’Internet et de réprimer efficacement leurs auteurs. La mise en avant de délits de pédophilie sur l’Internet et autres agissements attentatoires à la dignité humaine, comme des messages xénophobes ou racistes, a amené rapidement les législateurs, avec l’appui de leurs opinions publiques, à définir largement la criminalité informatique (dans certains pays le seul fait d’accéder à un site, sans même intention frauduleuse, peut-être réprimé), à élargir de manière considérable les moyens d’investigation des autorités policières en leur donnant le droit de perquisitionner à partir des réseaux, en obligeant les prestataires privés (par exemple les fournisseurs d’accès) à stocker les données d’utilisation de leurs services et à coopérer avec ces autorités et, finalement, en promouvant une coopération policière internationale 252. Sous la pression américaine, le Conseil de l’Europe a adopté, en décembre 2000, une convention internationale sur la cybercriminalité qui traduit l’ensemble de ces tendances et permet une cybersurveillance efficace des agissements de chacun sur la toile 253. Dans ce domaine, ont peut-être été trop rapidement oubliés les principes de liberté d’expression et de protection de la vie privée, principes dont le même Conseil de l’Europe avait, dans sa convention fondatrice, réclamé la protection quasi absolue. Précisément, c’est à propos de ce dernier thème, la protection des libertés, que doit s’analyser l’intervention législative. La liberté d’expression est certes un des dogmes fondateurs de l’Internet. Certains disent même que l’autorégulation serait un compromis pour garder l’esprit de liberté de l’Internet. La question des abus de cette liberté (messages illicites ou dommageables) a été envisagée, en dehors de la question de la répression pénale de leurs auteurs, via un système d’exonération de 251 252 253 Directive du 8 juin 2000 sur certains aspects du commerce électronique dans le marché intérieur, J.O.C.E., 17 juillet 2000. Sur cette directive, lire le commentaire approfondi de M. ANTOINE et al., in E. MONTERO (sous dir. de), Le commerce électronique européen sur les rails ? Analyse et propositions de mise en œuvre de la directive sur le commerce électronique, Cahiers du CRID, n° 19, Bruxelles, Bruylant, 2001, 439 pages. On a parlé à leur égard de les transformer en véritables auxiliaires de justice. Conseil de l’Europe, Convention sur la cybercriminalité, n° 185, du 23 novembre 2001. Le texte est disponible en ligne à l’adresse http://conventions.coe.int/Treaty /FR/CadreListeTraites.htm . Sur ce problème de la criminalité informatique, lire D. MARTIN, La criminalité informatique, Paris, P.U.F., 1997. 148 CAHIERS DU CRID – n° 22 responsabilité des intermédiaires quant à la surveillance des informations auxquelles il donne accès254. Il s’agissait d’éviter toute mesure préventive que pourraient prendre ces intermédiaires qui, pour éviter d’être poursuivis, censureraient le contenu des informations auxquelles ils donnent accès. Pour le reste, on considère trop facilement que la liberté d’expression sur l’Internet est un donné vu les faibles coûts de la présence sur le réseau et l’accès potentiel global au contenu des sites. Des organisations comme l’UNESCO ont rappelé fréquemment qu’un tel accès n’était pas évident pour tous et qu’il y avait donc lieu d’encourager, non seulement le pluralisme, mais aussi la diversité culturelle et de provenance géographique des messages présents sur le réseau et ne point se contenter d’une application pure et simple des lois sur la concurrence255. Au-delà, plus encore les Etats-Unis que l’Europe ont défini une politique législative d’accès universel de tous aux infrastructures (droit à la signature électronique, droit à l’e-mail, …) mais également à certains contenus jugés essentiels dans la société de l’information256. Ce droit d’accès n’est-il pas en effet la condition de la participation de chacun à la société de l’information et dès lors de sa libre expression ? La question de la protection des données personnelles semble être celle qui divise le plus profondément les Etats-Unis et l’Europe. Même s’il faut bien constater que la sensibilité des internautes américains est bien plus grande que celle des européens, les Etats-Unis se refusent à toute initiative à ce sujet, là où l’Europe entend bien adapter à la hausse ses exigences réglementaires pour répondre aux défis posés par les technologies nouvelles. Ainsi, l’Europe a récemment adopté une directive 257 qui restreint l’utilisation des données de trafic et de localisation, 254 255 256 257 Il s’agit des fameux articles 14 et 15 de la directive européenne relative à certains aspects juridiques du commerce électronique et de leurs homologues américains présents dans le Digital Millenium Copyright Act du 18 nov. 1998 (sur ces dispositions, lire E. MONTERO, “La responsabilité des prestataires intermédiaires de l’Internet”, Ubiquité, juin 2000, n° 5, p. 114). Cf. à cet égard, les conclusions du 3ème Congrès InfoEthique (UNESCO, novembre 2000) ou les recommandations de la 31ème session de la Conférence générale de l’UNESCO relatives à la promotion et l’usage du multilinguisme et à l’accès universel (31C/25 du 27 juillet 2001). À cet égard, lire la thèse de C. DE TERWANGNE, La mission publique de l’Etat dans la Société de l’Information, Thèse à paraître, Bruxelles - Bruylant, 2002. Cf. également B. DU MARAIS, “La diffusion des données publiques”, in L’Internet et le droit, Actes du colloque de l’Université de Paris 1, 25 et 26 septembre 2000, Legipresse, 2001, pp. 313 et s. Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques, J.O.C.E., 31 juillet 2202, pp. 37-47. QUELLES RÉGULATIONS POUR L’INTERNET ? 149 soumet l’envoi d’e-mails à consentement et réserve à la Commission le droit de prendre des normes techniques pour combattre les technologies “privaticides” comme les cookies, les hyperliens invisibles, etc 258. L’exigence d’une protection adéquate à offrir par les pays tiers en cas de flux transfrontières a conduit l’Europe à obtenir des Etats-Unis l’adoption des “Safe Harbor Principles” (Principes de la sphère de sécurité), système d’autorégulation qui assure aux données personnelles européennes une certaine protection jugée par la Commission européenne comme adéquate259. On sait que la nouvelle administration américaine a tenté d’infléchir la décision de la Commission, mais sans succès jusqu’à ce jour. 3 . CON CLU SI ON La hiérarchie dans les domaines de protection qu’assure la loi est révélatrice des valeurs poursuivies par les sociétés où naissent ces lois. Aux auteurs américains qui prônent la non-nécessité des lois pour réguler le cyberespace, on rétorquera que les américains ont été les premiers à légiférer intensivement dans le domaine de la protection de la propriété intellectuelle et des nouvelles technologies et que seules certaines questions comme la protection de la vie privée ou des limites à la liberté d’expression restent actuellement assujetties à la seule autorégulation. L’approche légale européenne des autres modes de régulation mérite d’être soulignée. Si la réglementation technique et l’autorégulation sont promues, c’est sous contrôle – le mot est peut-être trop fort – des autorités publiques ou, en tout cas, dans le cadre de règles légales. Les récentes interventions européennes dans le domaine de la ‘gouvernance’ de l’Internet, et en particulier dans l’ICANN, ont bien manifesté cette tendance. Par divers documents, le Parlement européen et la Commission ont insisté sur la nécessité pour la Commission de jouer un rôle de leader dans le fonctionnement et les décisions de l’ICANN, la nécessité d’un meilleur équilibre régional dans ses organes de direction et surtout d’une reconnaissance du système des noms de domaines comme ressource publique, conforme aux droits de la propriété intellectuelle, de la concurrence et de la protection des données et représentatif de la diversité 258 259 Sur ces pratiques ‘privaticides’, lire J.-M. DINANT, “Les traitements invisibles sur Internet”, in E. MONTERO (sous dir. de), Droit des technologies de l’information Regards prospectifs, Cahiers du CRID, n° 16, Bruxelles, Bruylant, 1999, pp. 287 et s. Sur ce débat EU/US et le contenu des Safe Harbor Principles, lire Y. POULLET , “Les Safe Harbor Principles : Une protection adéquate ?”, disponible en ligne à l’adresse http://www.droit-technologie.org dans la rubrique Dossiers, 10.07.2000. 150 CAHIERS DU CRID – n° 22 culturelle et linguistique du monde. 260 La proposition de la Commission de pouvoir intervenir dans le domaine de la normalisation technique afin d’assurer le respect des principes de protection des données personnelles lors de l’utilisation d’Internet est également révélatrice de cette tendance. Il est clair que les autorités publiques ne peuvent rester absentes des débats techniques dans la mesure où les choix y opérés ont un impact important sur les droits et libertés des utilisateurs de ces technologies. Ensuite, à travers les textes des directives, c’est toute l’autorégulation qui est soumise à certaines conditions.261 On a déjà insisté sur l’importance de la participation de tous les acteurs intéressés que nombre de textes européens souligne. L’autorégulation loin d’être un substitut à la réglementation apparaît plutôt comme son complément, offrant une réelle valeur ajoutée. Ainsi se multiplient les systèmes d’homologation officielle plus ou moins volontaires mis en place pour donner un label “légal” aux initiatives autoréglementaires. Enfin, il faut insister sur la nécessité d’une autorégulation effective et, si celle-ci peut-être appliquée par des juges ou médiateurs privés, c’est dans le respect de certaines règles procédurales et moyennant certaines garanties en ce qui concerne les juges ou médiateurs. Que la loi ait un bel avenir, même dans le cyberespace, est hors de doute. Si, comme chacun se plaît à l’affirmer, les technologies de l’information gouvernent de plus en plus nos modes d’action, conditionnent la vie des entreprises et déterminent l’avenir de nos sociétés, il ne peut être question de laisser de tels choix à la discrétion des forces du marché ou de lobbies. Un tel constat indique la place et le rôle de l’Etat. Pour lui, il ne s’agit pas de tout réglementer mais de fixer, de manière claire et transparente, les principes et valeurs sociétaires qu’il entend voir respecter. Il s’agit surtout de mettre sur pied des lieux de dialogue et de veille où tous les acteurs intéressés pourront confronter leurs points de vue, analyser les solutions techniques et autoréglementaires et proposer des actions y compris, si nécessaire, législatives 262. Si la loi n’a en effet qu’un rôle subsidiaire, ce rôle est en même temps fondamental puisqu’il représente les consensus de base à partir desquels les autres instruments régulateurs 260 261 262 Sur cette politique européenne, lire R. DELMAS, “L’Internet et les chantiers législatifs européens”, précité. Sur la nécessité d’une corégulation en la matière, M. FROOMKIN, “Lessons learned from the WIPO domain name process”, in C. T MARSDEN (ed.), Regulating the Global Information Society, Routledge, London New York, 2000, pp. 210 et s. Cf. nos réflexions in Y. POULLET , “Les diverses techniques de réglementation d’Internet : l’autorégulation et le rôle du droit étatique”, Ubiquité, n° 5, juin 2000, pp. 55 et s. Sur cette nécessité d’un dialogue entre législateurs et, en particulier, organes de standardisation, lire J. REIDENBERG, “Governing Networks and Cyberspace Rule Making”, Emory Law Journal, n° 45, 1996, pp. 911 ff. QUELLES RÉGULATIONS POUR L’INTERNET ? 151 pourront se définir. Ces consensus de base, doivent-ils être cherchés au niveau international comme le voudrait la dimension globale d’Internet ? Nous ne le croyons pas. Même “citoyen de la toile”, l’internaute reste un citoyen attaché à ses valeurs et à sa culture locales 263. Sans doute, la réalité du cyberespace l’ouvre chaque jour davantage aux autres cultures et valeurs et dès lors plaide pour la recherche de consensus non plus locaux, ni nationaux, mais à l’échelon de régions ou mondiaux. Mais, si telle est la direction à suivre, cela ne doit pas être au prix d’une renonciation à des valeurs ni à la définition de plus petits communs dénominateurs ou de solutions imposées par le marché. 263 Nous devons cette réflexion à S. RODOTA , président du Groupe dit de l’article 29, composé des représentants des autorités de protection des données, qui défendit cette idée en conclusion du XXIIème colloque international des commissaires à la protection des données organisé par le Garante italien à Venise (septembre 2000).