Valhalla.fr
Sic Itur Ad Absurdum
20 Fév 2011 Numéro 45 - Semaine du 14 au 20 février 2011

L’actualité des nouvelles technologies est, cette semaine, très judiciaire. Hormis la saisine(pdf) du Conseil constitutionnel contre la loi LOPPSI2, elle est en effet dominée par plusieurs décisions de la Cour de cassation relatives à la responsabilité des intermédiaires.

LOPPSI 2

C’est l’article 4 de la LOPPSI2 qui continue de faire polémique. On sait que cet article permet le filtrage du réseau dans le cadre de la lutte contre la pédopornographie. Bien entendu la finalité, parfaitement légitime, n’est pas contestée. Ce sont les moyens (le filtrage), et leurs conséquences qui sont dénoncés.

D’aucuns craignent en effet que l’autorisation de censurer des sites pédopornographiques soit ensuite étendue à d’autres sites, comme les sites de partage illicite d’œuvres protégées par le droit d’auteur. Un tel filtrage existe en Australie, et il a servi à bloquer, notamment, des sites de jeu en ligne, des pages de Wikipédia ou de Wikileaks.

Ensuite, ce sont les effets «collatéraux» des mesures de filtrage qui sont dénoncés. Le filtrage basé sur des «listes noires» et reposant sur un blocage DNS ne ferait pas dans la dentelle et causerait, pour bloquer un site illicite, la censure de nombreux sites licites et légitimes. Aux États-Unis, par exemple, ce ne sont pas moins de 84000 sites qui ont été bloqués à tort par des mesures prises pour lutter contre la pédopornographie.

Cette situation a amené la Commission des libertés civiles du Parlement européen à rappeler que le filtrage devait répondre aux principes de nécessité et de proportionnalité, et que les titulaires de sites bloqués devaient être en mesure d’exercer un recours en justice contre la mesure de blocage.

LCEN

La Loi pour la Confiance dans l’Économie Numérique (LCEN) du 21 juin 2004, transposant la directive européenne «commerce électronique», prévoit à son article 6 un régime spécial de responsabilité pour les «intermédiaires» d’Internet, et plus particulièrement pour les «hébergeurs». Les hébergeurs permettent à des tiers de diffuser du contenu sur le réseau, sans opérer eux-mêmes de contrôle sur ce contenu. N’exerçant pas d’activité éditoriale, ils sont en principe exonérés de responsabilité pour la diffusion de contenus illicites et les dommages causés par cette diffusion. En revanche, ils engagent leur responsabilité lorsqu’ayant été notifiés de la diffusion d’un contenu manifestement illicite, ils n’ont rien fait pour la faire cesser. Leur faute ne réside donc pas dans un comportement actif (la diffusion du contenu, qui est le fait de l’éditeur ou de l’auteur), mais dans leur passivité (ils n’ont rien fait pour faire cesser la diffusion d’un contenu qu’ils savaient illicite).

Les avantages d’un tel système sont évidents pour qui est qualifié d’hébergeur : la garantie de pouvoir diffuser du contenu sans être tenu responsable civilement ou pénalement de son illicéité. Cela profite également à la liberté d’expression, puisque les hébergeurs n’ont pas à opérer de censure (contrôle a priori) des contenus diffusés. Ce n’est qu’a posteriori, après la diffusion, que l’hébergeur doit contrôler la licéité d’un contenu, si et seulement si celui-ci lui est dûment signalé (le formalisme est drastique) comme étant illicite.

On comprend donc qu’un grand nombre d’opérateurs du Web 2.0 aient tenté d’obtenir la qualification d’hébergeur. La définition de l’hébergeur a été élaborée au début des années 2000, à l’époque où le Web 2.0 ou «social» n’existait pas encore, en des termes technologiquement neutres. On se retrouve donc dans une situation où la loi, bien que n’ayant pas été prévue pour s’appliquer à ces nouveaux sujets, peut s’appliquer à eux grâce à sa formulation plutôt abstraite. La jurisprudence en la matière est très dense (on n’y reviendra pas ici), et l’on compte autant de décisions qui admettent que YouTube, Dailymotion, eBay, Facebook ou d’autres sites semblables sont des hébergeurs, que de décisions qui rejettent cette qualification. La question a été soulevée en France comme ailleurs, sans jamais être réellement tranchée.

Une nouvelle étape a cependant été franchie cette semaine, par la première chambre civile de la Cour de cassation, dans un arrêt du 17 février 2011 où elle qualifie Dailymotion d’hébergeur (voir aussi l’arrêt rendu dans l’affaire Fuzz). La Cour revient ainsi sur sa jurisprudence précédente, résultant de l’arrêt Tiscali du 10 janvier 2010. L’arrêt rendu entre temps par la CJCE n’y est sans doute pas pour rien.

La qualification d’hébergeur attribuée à Dailymotion constitue un sérieux obstacle pour les ayants droit lancés dans la lutte contre la contrefaçon. En effet, ces derniers ne pourront plus assigner directement en justice les sites communautaires ; ils devront d’abord contacter l’internaute à l’origine de la diffusion du contenu pour lui en demander le retrait (ou échouer à le contacter) puis, s’il refuse d’obtempérer, signaler l’illicéité de ce contenu à l’hébergeur et attendre qu’il le retire. Ce n’est que si l’hébergeur ne retire pas le contenu qu’ils pourront l’assigner en responsabilité.

On l’aura compris : les ayants droit veulent que les sites communautaires soient qualifiés d’éditeurs, pour que l’application du régime de responsabilité de droit commun les incite à filtrer a priori les contenus publiés par les internautes, tandis que les sites communautaires eux-mêmes soutiennent qu’ils agissent en tant qu’hébergeurs, de manière à être exonérés de responsabilité tout en profitant parfois (souvent, pour certains) de la diffusion de contenus illicites. Il y a donc une part de mauvaise foi dans les deux camps : les ayants droit tentent par tout moyen de censurer Internet, et les sites communautaires font semblant de croire que l’enjeu du contentieux est le régime de responsabilité des intermédiaires (en réalité, celui-ci n’est jamais contesté) alors qu’il réside en réalité dans leur qualification juridique. Autrement dit, il n’est pas contesté que les hébergeurs n’ont pas d’obligation de surveillance des contenus hébergés, il est contesté que les sites communautaires soient des hébergeurs (et l’on trouve la raison de cette contestation dans ce qui a été dit plus haut : la rédaction de la loi dans des termes technologiquement neutres, à une époque où le Web 2.0 n’existait pas).

C’est dans ce contexte qu’intervient un récent rapport sénatorial proposant une troisième voie, à mi-chemin entre hébergeur et éditeur. Les sénateurs constatent d’abord que les sites communautaires, contrairement aux hébergeurs traditionnels (ceux qui ne font qu’offrir des machines à la location), ont un intérêt économique direct à diffuser le contenu fourni par les internautes. Plus ce contenu est intéressant pour les internautes, plus il y aura de visites et plus les revenus issus de la publicité contextuelle augmenteront. Or, l’on sait que les contenus contrefaisants sont particulièrement attrayants… Cette constatation des sénateurs est parfaitement fondée. En revanche, leur proposition l’est moins, puisqu’elle réintroduit une obligation à la charge des sites communautaires «de mettre en place tous moyens propres à assurer une surveillance des contenus qu’ils hébergent». Cela revient à imposer la censure, alors qu’elle devrait être interdite et le sort des contenus déterminé a posteriori par leur licéité.

La question de la qualification des sites communautaires fera donc sans doute couler encore beaucoup d’encre…

• 1162 mots • #Internet #responsabilité #Facebook #LCEN #surveillance #Hadopi #LOPPSI #droit d'auteur #liberté d'expression #FAI #intermédiaires
13 Fév 2011 Numéro 44 - Semaine du 7 au 13 février 2011

Nous revenons cette semaine sur le vote de la loi LOPPSI 2 (1), l’affaire de la présence d’un commissaire du gouvernement à l’ARCEP (2), la taxation de l’iPad avec la redevance pour la copie privée (3), le filtrage du réseau et le rôle des intermédiaires (4).

LOPPSI 2

L’événement marquant dans l’actualité des nouvelles technologies, cette semaine, est le vote de la loi LOPPSI 2 (dont nous avions parlé à plusieurs reprises lors de son élaboration). Avant de parler à nouveau de la LOPPSI, rappelons 3 choses : 1) il s’agit d’une loi sécuritaire à portée générale, qui contient des dispositions relatives aux nouvelles technologies, sans toutefois se cantonner à ce domaine ; 2) le danger représenté par certaines dispositions n’est pour le moment que potentiel : tout dépendra de la mise en œuvre de la loi ; 3) il faudra donc attendre, pour pouvoir formuler des critiques concrètes, que les décrets d’application soient publiés et que la jurisprudence sur l’interprétation de la LOPPSI se forme. En outre, on précisera que le Conseil constitutionnel pourrait être saisi par l’opposition afin d’examiner la conformité de la LOPPSI à la constitution.

Ce rappel étant effectué, on peut signaler les 3 points les plus importants pour le droit des nouvelles technologies :

  • L'article 4 permet la mise hors ligne d'images pédopornographiques. La critique principale formulée à l'encontre de cet article est l'automaticité de la procédure (administrative) qui pourrait conduire, craignent les contempteurs de la LOPPSI, à une censure du réseau.
  • L'article 36 (ancien article 23) permet à la police, sur autorisation judiciaire, de mettre en œuvre des mesures d'espionnage informatique. L'une des mesures est l'installation d'un spyware/keylogger.
  • L'article 2 sanctionne l'usurpation d'identité en insérant un nouvel article dans le Code pénal, ainsi formulé : « Art. 226-4-1. – Le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération, est puni d’un an d’emprisonnement et de 15 000 € d’amende. » -- « Cette infraction est punie des mêmes peines lorsqu’elle est commise sur un réseau de communication au public en ligne. » La critique principale de cet article réside dans le risque d'atteinte à la liberté d'expression.

La LOPPSI contient bien d’autres dispositions relatives au droit des nouvelles technologies. On remarquera ainsi que, sans créer de nouveau dispositif, elle adapte plusieurs articles de loi aux nouvelles technologies. Par exemple, l’article 3 complète des dispositions pénales en ajoutant, après « en bande organisée », « ou sur un réseau de communication au public en ligne ».

ARCEP et commissaire du gouvernement

Dans un tout autre domaine, celui de la régulation des télécommunications, le gouvernement a décidé d’être représenté à l’ARCEP. Rappelons que l’ARCEP est une autorité de régulation des télécoms indépendante du pouvoir exécutif.

L’ARCEP, qui compte bien rester indépendante, s’oppose à la proposition du gouvernement. L’Union européenne rejoint l’ARCEP en désapprouvant la position du gouvernement. Le Sénat également, voit d’un mauvais œil cette ingérence de l’exécutif dans l’activité d’une autorité de régulation indépendante.

Redevance copie privée

Le prix de l’iPad devrait augmenter de 12 euro. L’augmentation est due à l’application de la taxe pour la copie privée qui a pour but de compenser le manque à gagner, pour les ayants droit, résultant de la copie privée d’œuvres protégées par le droit d’auteur (car si l’on copie une œuvre, on ne l’achète pas une deuxième fois).

Cette mesure est jugée absurde par de nombreux experts. En effet, elle porte uniquement sur les appareils sous Apple iOS et Google Android, à l’exclusion de ceux sous Linux et Windows.

Pourquoi cela est-il incohérent ? Deux raisons peuvent être invoquées. La première prête à sourire : Android est un système Linux ; il est donc contradictoire de taxer Android tout en exonérant Linux.

La deuxième est plus sérieuse. Commençons par nous demander pourquoi taxer les tablettes. Comme il a été dit plus haut, la redevance pour la copie privée a pour but de compenser le manque à gagner résultant de la copie privée. On taxe donc les tablettes parce qu’elles permettent de réaliser des copies privées d’œuvres soumises au droit d’auteur, tout comme les baladeurs MP3 ou les CD vierges (qui sont aussi taxés). Poursuivons en nous demandant si les tablettes iOS/Android sont différentes, à ce titre, des tablettes Windows/Linux. La réponse est affirmative : les tablettes iOS/Android (particulièrement les iPad), évoluent dans un écosystème plus fermé que les tablettes Windows/Linux, ce qui rend la copie privée plus difficile (notamment chez Apple, avec les DRM). On en conclut que les tablettes Windows/Linux ont plus de raisons encore que les tablettes iOS/Android d’être soumises à la taxe pour la copie privée.

Alors, pourquoi distinguer entre les tablettes iOS/Android et les tablettes Windows/Linux ? Il y a une raison théorique et une raison pratique.

La raison théorique est la suivante : les systèmes iOS/Android sont conçus spécifiquement pour les tablettes, qui se distinguent à ce titre des véritables «ordinateurs» ; en revanche, Windows et Linux sont des systèmes d’exploitation d’ordinateur. Or, iOS et Android partent du principe, dans leur conception, que les tablettes servent principalement à consulter du contenu. Windows et Linux ne partent pas de ce principe, et ne distinguent pas entre création et consultation de contenus. On peut donc en conclure (bien qu’en pratique une telle conclusion soit hautement contestable) que l’utilisateur d’iOS/Android fera des copies privées, alors que celui de Windows/Linux n’en fera pas nécessairement.

La raison pratique est moins légitime. Le premier fabricant français de tablettes (Archos) produit des tablettes sous Windows/Linux, et non sous iOS/Android. Il échappe donc à la taxation, contrairement à la majorité de ses concurrents qui sont des sociétés étrangères produisant des tablettes sous iOS/Android. Il s’agirait donc simplement d’une mesure protectionniste.

Propriété intellectuelle, neutralité du Net et filtrage

La Cour de cassation a rendu cette semaine un arrêt très attendu. Le problème était le suivant : les sites de partage illicite (direct download, streaming, liens bittorrent…) sont financés, en grande partie, par la publicité ; un des meilleurs moyens de les faire cesser étant de couper leur financement, les ayants droit se sont attaqué aux annonceurs. Les annonceurs font appel à une régie publicitaire qui, à son tour, achète des emplacements publicitaires sur les sites. La Cour relève que les annonceurs ne sont pas en contact direct avec ces sites, et qu’ils ne sont pas au courant du caractère illicite des informations qu’ils diffusent. Par conséquent, ils ne sont pas responsables.

Une autre affaire, actuellement pendante devant la CJUE, concerne la segmentation par pays des boutiques en ligne de musique ou de vidéos. Or, l’avocat général près la CJUE estime, dans ses conclusions, qu’une telle segmentation est contraire au principe de liberté de prestation de services consacrée par le traité instituant l’UE.

Plus inquiétant, le projet de loi COICA revient à l’ordre du jour au Congrès américain. Ce projet (donc nous avions déjà parlé à plusieurs reprises) a pour but d’impliquer les intermédiaires (les fournisseurs d’accès et les hébergeurs, principalement), les services de paiement en ligne et les régies publicitaires, dans la lutte contre la contrefaçon en ligne.

Sur le même thème du filtrage, une étude d’OpenDNS nous apprend que la censure touche principalement les sites pornographiques et Facebook (au vu des événements récents en Tunisie et en Égypte, on comprend pourquoi…). En France, le FAI Orange confirme à nouveau qu’il refuse le filtrage DPI (rappel : il s’agit d’analyser le contenu des communications sur le réseau, comme si La Poste ouvrait les enveloppes pour lire les lettres). Cette position courageuse risque de ne pas tenir, car il existe bel et bien une tendance générale, au niveau mondial, à transformer les intermédiaires techniques en «gendarmes de la toile»(en).

Aux États-Unis, l’association d’ayants droit MPAA a porté plainte contre l’hébergeur de fichiers Hotfile. La MPAA reproche à Hotfile d’avoir construit un modèle économique sur le partage de fichiers contrefaisants. Cela est en effet indéniable : si les hébergeurs comme Hotfile, Rapidshare et Megaupload ont tant de clients, c’est bien parce qu’ils hébergeur de la musique et des films. Peu de gens ont besoin de disposer d’un énorme espace de stockage pour partager leurs créations musicales ou leurs films de vacances. Les services d’hébergement et de téléchargement n’auraient pas connu un tel succès s’ils ne permettaient d’échanger que des fichiers licites. Pourtant, l’action de la MPAA va probablement échouer. En effet, d’une part, s’il est possible de prouver que tel ou tel fichier illicite est hébergé par tel ou tel service, il est quasiment impossible de prouver que ce service a fondé son modèle économique sur l’hébergement de fichiers illicites. D’autre part, les hébergeurs sont protégés, aux États-Unis comme en Europe, par un régime spécial qui les exonère de responsabilité à moins qu’ils aient refusé de mettre hors ligne un contenu manifestement illicite qui leur est dûment signalé.

En Espagne, la lutte contre le partage illicite de fichiers protégés par les droits d’auteur continue, avec la loi Sinde dont nous avions parlé en décembre dernier, et qui (es) revient aujourd’hui sur le devant de la scène. La loi devrait être votée prochainement et entrer en vigueur cet été.

• 1566 mots • #téléchargement #linux #LOPPSI #USA #Tunisie #Orange #COICA #Sinde #FAI #intermédiaires
6 Fév 2011 Numéro 43 - Semaine du 31 janvier au 6 février 2011

La coupure totale d’Internet en Égypte, dont nous parlions la semaine dernière, n’a pas duré. L’accès à commencé à être rétabli vers le milieu de la semaine. Pendant ce temps, Google proposait de «twitter» par téléphone, l’armée utilisait les SMS, et la Chine en profitait pour bannir le mot clé egypte des réseaux sociaux (ainsi que les lapins en colère). Au final, la coupure aurait coûté 65 millions d’euro selon l’OCDE.

L’actualité du P2P est également intéressante cette semaine. En France, le dossier eMule-Paradise est renvoyé à l’instruction, une partie de la procédure étant frappée de nullité. Rappelons qu’eMule-Paradise était un site de partage de liens pour le réseau eDonkey/eMule vers des fichiers contrefaisants (300 000 visiteurs par jour). Le procès du site devait servir d’exemple.

L’Hadopi évolue vers une plus grande automatisation, avec la transmission informatisée des dossiers au parquet. Le décret a été examiné par la CNIL, il devra l’être par le Conseil d’État. Dans le même temps, l’on se demande quelle est l’efficacité de la loi Hadopi : une guerre des sondages fait rage et l’on peine à savoir si la riposte graduée dissuade vraiment les internautes d’utiliser le P2P. La loi Hadopi est une nouvelle fois dénoncée comme étant archaïque, puisqu’elle ne vise que les réseaux P2P à l’exclusion des sites de téléchargement direct ou de streaming.

En tout cas, la loi Hadopi a un effet qui était prévisible, mais qui fut ignoré par le législateur : elle incite les internautes à chiffrer leurs échanges afin de mettre en échec la surveillance. Or, une fois les échanges chiffrés, toute surveillance devient plus difficile, qu’elle porte sur le téléchargement ou non. C’est pourquoi les services secrets voient le système Hadopi d’un mauvais oeil. La position de l’administration américaine est bien différente : leur priorité est de fermer les sites fournissant des liens vers les contenus illicites. La même idée a été avancée au Royaume-Uni, dans la loi Digital Economy Act dont l’adoption vient, une fois de plus, d’être retardée. L’industrie culturelle américaine, quant à elle, continue de faire feu de tout bois. Elle a inventé une procédure de «reverse class action»(en) par laquelle une plainte en justice pour téléchargement illicite vise un grand nombre de défendeurs.

Toujours concernant la propriété intellectuelle, une affaire de plagiat a opposé, cette semaine, Google et Microsoft. Google a accusé Microsoft, en début de semaine, de copier les résultats de son moteur de recherche pour les insérer dans Bing. Google a mis en place un «piège». Dans un premier temps, des requêtes totalement improbables (par exemple : «hiybbprqag»), qui ne renvoient normalement aucun résultat, ont été dotées de certains résultats choisis (bien entendu, sans aucun rapport avec la requête). Dans un deuxième temps, Google a demandé à ses employés de lancer ces requêtes sur son moteur de recherche depuis un ordinateur avec Windows et la barre Bing du navigateur Internet Explorer. Dans un troisième temps, ils se sont rendu compte que Bing avait repris certaines de ces requêtes, et qu’il fournissait les mêmes résultats improbables que Google. La barre Bing serait donc, en quelque sorte, un «cheval de Troie» permettant à Microsoft de connaître les requêtes émises par les internautes sur Google, et les résultats choisis par les internautes parmi ceux renvoyés par le moteur de recherche. En fin de semaine, après la réponse de Microsoft, c’est toutefois Google qui a pris la place du méchant dans l’affaire : il semblerait qu’il s’agisse d’une opération de dénigrement montée par Google à l’encontre de son concurrent le plus sérieux. Les algorithmes de recherche des deux moteurs étant secrets, il est difficile de savoir qui dit vrai.

Parlons ensuite d’une autre affaire, beaucoup plus inquiétante. Le site Rojadirecta.org diffusait en streaming et fournissait des liens vers des matchs sportifs à l’attention du public espagnol. Le site, bien que jugé licite en Espagne, était considéré par les autorités américaines comme étant contraire à la loi. Le département de la justice des États-Unis et l’Immigration and Customs Enforcement faute de pouvoir atteindre la société espagnole gérant le site ou son hébergeur, situé en dehors des USA, se sont attaqué au nom de domaine «.org» géré par une société américaine. Le nom de domaine a donc été désactivé, rendant le site inaccessible pour un temps. Par la suite, d’autres noms de domaine ont pris le relai, et le site a retrouvé sa visibilité sur le réseau. L’affaire pose deux questions importantes : 1) celle de la légitimité de l’action américaine, clairement extraterritoriale, face à un site jugé licite en Espagne ; 2) celle de l’efficacité de la mesure prise par les autorités américaines, sachant que d’autres domaines continuent de diriger vers le site incriminé.

Pour finir, mentionnons deux autres informations importantes cette semaine. D’abord, la sortie de Debian 6 «Squeeze» ce week-end. Ensuite, une nouvelle alerte concernant la pénurie d’adresse IPv4(en) qui semble, cette fois, être sérieuse(en).

• 838 mots • #Internet #téléchargement #P2P #propriété intellectuelle #Google #gouvernement #réseaux sociaux #piratage #surveillance #Hadopi #USA #Espagne #Égypte #Twitter #droit international #DNS
30 Jan 2011 Numéro 42 - Semaine du 24 au 30 janvier 2011

Il y a deux semaines, dans le numéro 40, nous parlions de la révolution tunisienne et du rôle des réseaux sociaux du Web 2.0 dans le mouvement populaire de protestation contre le régime de Ben Ali. Cette semaine, l’on en apprend un peu plus sur le filtrage mis en place par l’ancien pouvoir tunisien et sur les contremesures prises par les réseaux sociaux. Facebook a été particulièrement visé. Le gouvernement tunisien avait lancé, dès décembre, une attaque de type «man in the middle» contre le site. Le but d’une telle attaque est de se placer entre l’émetteur d’un message (l’internaute) et son destinataire (Facebook), afin d’intercepter ce message et de le rediriger vers un autre destinataire. Une telle attaque est possible, à l’échelle d’un pays, grâce au concours des intermédiaires locaux, comme les fournisseurs d’accès. La police tunisienne a donc tenté de rediriger les visiteurs de Facebook vers de fausses pages, afin d’obtenir leurs mots de passe. Facebook s’est récemment exprimé sur cette attaque(en). Le site a expliqué avoir réagi en sécurisant toutes ses connexions depuis la Tunisie par un passage forcé au protocole HTTPS. Après le «piratage» des comptes de Nicolas Sarkozy et de Marc Zuckerberg (le fondateur du site) ces derniers jours, Facebook a décidé de chiffrer systématiquement les connexions en utilisant le protocole HTTPS. Officiellement, la mesure vise à empêcher le «piratage» de comptes par l’interception des données de connexion transitant en clair sur les réseaux Wifi publics(en). Outre le chiffrement de la connexion, Facebook utilise désormais un système de contrôle «intelligent», capable de détecter des incohérences qui pourraient révéler que la sécurité d’un compte a été compromise ; par exemple, si un internaute se connecte depuis la France à 19h et depuis le Japon à 19h10, c’est très probablement que son compte a été «piraté» par un tiers.

Aujourd’hui, l’histoire se répète en Égypte. Le peuple égyptien manifeste contre le pouvoir d’Hosni Moubarak, comme le peuple tunisien a manifesté contre celui de Ben Ali ; le Web égyptien favorise la contestation, comme l’avait fait un peu plus tôt fait le Web tunisien. Mais la réponse du gouvernement égyptien diffère en large mesure de celle de l’ancien gouvernement tunisien. La police de Ben Ali filtrait le réseau, c’est-à-dire qu’elle censurait certains sites. Tel n’est pas le cas en Égypte, où la censure est considérée (à juste titre) contraire à la liberté d’expression, et interdite. Malheureusement, la réponse du pouvoir égyptien n’en est pas moins sordide, puisque le pouvoir en place a décidé, dans un premier temps, de s’en prendre directement aux internautes. Un blogueur civil a ainsi comparu, il y a quelque temps, devant une Cour martiale.

Dans un deuxième temps, le mercredi 26 janvier, le gouvernement Égyptien a décidé de réagir «à la tunisienne» (ou «à l’iranienne», au choix), en filtrant les réseaux sociaux Facebook et Twitter. Car ces sites ont tenu un rôle majeur dans l’organisation des manifestations contre le pouvoir en place. Bien sûr, le Web social n’est pas à l’origine de la révolte populaire (pas plus en Égypte qu’en Tunisie ou ailleurs), et il ne fait pas à lui seul une révolution. Ce sont les gens qui la font. Mais, précisément, les réseaux sociaux permettent de mobiliser et de coordonner les personnes dans le monde réel. L’effet mobilisateur est évident : il est difficile de se lever contre une dictature lorsqu’on est seul, mais cela devient plus aisé lorsqu’on sait que l’on n’est pas seul, que des milliers d’autres partagent les mêmes aspirations à la liberté. L’effet coordinateur est également facilement perceptible : les communications étant instantanées sur Internet, et l’information se propageant comme une trainée de poudre, des manifestations «spontanées» peuvent rapidement devenir très importantes.

Dans un troisième temps, le mouvement de protestation populaire s’intensifiant, le pouvoir égyptien a décidé de prendre une autre mesure, que l’on pourrait qualifier de drastique : le blocage de l’ensemble du réseau du pays. Cette mesure ne vise pas à censurer tel ou tel site (c’est le filtrage), mais à empêcher l’accès en bloc à tous les sites. Le jeudi 27 janvier 2011, l’Égypte a donc été «débranchée» du réseau Internet, comme l’illustre le graphique ci-dessous représentant l’évolution du trafic provenant des internautes égyptiens (source Harbor Networks, repris par Le Monde) :

[caption id=»attachment_245» align=»aligncenter» width=»540» caption=»Courbe de l'évolution du trafic Internet en provenance d'Égypte»]Courbe de l'évolution du trafic Internet en provenance d'Égypte[/caption]

C’est la première fois qu’un pays décide d’un blocage total d’Internet. Car le blocage ne porte pas que sur le Web (protocole HTTP/S), mais sur l’ensemble du réseau, c’est-à-dire également d’autres protocoles comme FTP (transfert de fichiers), SMTP/POP/IMAP (les e-mails), etc. Techniquement, le blocage égyptien repose sur la neutralisation des protocoles DNS et BGP. Il a un double effet : d’une part, les internautes égyptiens ne peuvent plus accéder à Internet (comprendre : aux sites locaux et étrangers) et, d’autre part, les internautes étrangers ne peuvent plus accéder aux sites égyptiens.

Comment cela est-il possible ? La réponse tient en quelques mots : grâce aux intermédiaires locaux, principalement les fournisseurs d’accès (FAI). Les FAI sont absolument indispensables dans l’accès au réseau, et ils sont nécessairement locaux. Ils constituent donc une cible de choix pour un gouvernement souhaitant établir une censure du réseau ou le bloquer comme c’est le cas en Égypte. C’est là l’une des principales failles du réseau : s’il est extrêmement difficile, voire impossible, de le contrôler en entier, il est en revanche facile de le bloquer au niveau local.

Le pouvoir égyptien a trouvé l’arme ultime contre Internet, face à laquelle même les hackers du groupe Anonymous se trouvent désemparés. On sait que ce groupe avait défendu le site Wikileaks en lançant des attaques par déni de service contre certains opérateurs participant à la croisade de l’administration américains contre le site de Julian Assange. Certains membres du groupe ont été arrêtés cette semaine, notamment en France, et risquent des peines de prison. Leur défense est d’ailleurs originale, puisqu’elle assimile attaque informatique à manifestation publique.

Mais revenons au blocage d’Internet, avec une nouvelle très inquiétante. Un sénateur indépendant américain remet en effet sur la table la fameuse proposition de loi contenant un «kill switch»(en) (Protecting Cyberspace as a National Asset Act of 2010). L’expression «kill switch» peut être traduite par le mot «interrupteur». Nul besoin d’en dire plus pour comprendre qu’il s’agit de permettre à l’administration américaine de «couper Internet», comme vient de le faire le gouvernement égyptien. La coupure pourrait être ordonnée par le Président en cas d’urgence et afin de préserver l’intégrité des infrastructures américaines. Cette loi était déjà dangereuse dans sa première version, mais elle l’est encore plus dans sa nouvelle rédaction qui exclut tout contrôle judiciaire de la mesure de coupure(en).

Quelles conclusions tirer de tout cela ?

1) D’abord, l’importance des intermédiaires techniques dans l’accès au réseau n’est plus à démontrer, et leur pouvoir sur les échanges ne fait aucun doute (interception, filtrage, blocage…). Il est donc absolument nécessaire d’assurer la neutralité du Net, c’est-à-dire l’absence de discrimination à raison du contenu des messages transitant sur le réseau, de leur provenance ou de leur destination, et du protocole qu’ils utilisent (Web, e-mail, chat, etc.). Cette idée-là n’est pas nouvelle.

2) Ensuite, la nécessité d’un contrôle judiciaire. L’idée n’est pas nouvelle non plus. On l’a vue en Tunisie et on le voit maintenant en Égypte, les mesures ordonnées unilatéralement et sans contrôle par le pouvoir exécutif sont rarement de nature à servir la démocratie. Elles tendent plutôt à renforcer ce pouvoir. C’est pourquoi il est nécessaire que les règles sur la neutralité du Net soient systématiquement sanctionnées par un contrôle judiciaire de légalité.

3) Enfin, une idée plutôt nouvelle que l’on peut tirer des événements actuels en Égypte : si le pouvoir exécutif peut faire la pluie et le beau temps sur le réseau national, allant même jusqu’à le bloquer totalement, il est nécessaire que sa neutralité soit garantie à l’échelle internationale. C’est une bonne chose que les législateurs nationaux adoptent des règles visant à garantir la neutralité du Net, mais des règles de source internationale, qui s’imposent aux États, semblent nécessaires au vu des derniers événements. Ces règles devraient pouvoir être sanctionnées par des juridictions internationales, car il est douteux que les juridictions nationales désavouent le pouvoir politique dans des pays qui connaissent la dictature.

Pour résumer : assurer la neutralité du Net par des règles de droit nationales et au besoin internationales, sanctionnées par les juridictions nationales et au besoin internationales.

• 1443 mots • #Internet #neutralité #blog #international #gouvernement #Facebook #filtrage #réseaux sociaux #piratage #sécurité #Wikileaks #censure #USA #Tunisie #liberté d'expression #infrastructure #Égypte #Twitter #Web 2.0 #droit international
23 Jan 2011 Numéro 41 - Semaine du 17 au 23 janvier 2011

Une nouvelle affaire domine cette semaine l’actualité technologique sur le Web. Elle a trait au principe de neutralité du Net, mais elle est d’un genre nouveau. Il s’agit d’une bataille à trois protagonistes, tous «intermédiaires» : Orange, Cogent et Megaupload.

Décrivons d’abord l’origine du contentieux. Megaupload est un site hébergeant des fichiers mis en ligne par les internautes, et permettant à d’autres internautes de télécharger ces fichiers. Les internautes peuvent télécharger gratuitement, à bas débit, ou payer un abonnement à Megaupload et bénéficier d’un débit maximal (c’est-à-dire théoriquement égal au débit maximal de leur connexion). Le problème est que les abonnés du fournisseur d’accès Orange ne bénéficient presque jamais du débit maximal de leur ligne lorsqu’il téléchargent des fichiers hébergés par Megaupload. Il est même fréquent que la vitesse de téléchargement ne change pas, que l’internaute utilise la formule gratuite ou la formule payante de Megaupload. Ce dernier a donc accusé le FAI français de brider le débit des échanges avec son site. Orange s’est défendu en impliquant le troisième protagoniste de notre histoire : Cogent. Cogent est un intermédiaire technique pur et dur, qui permet aux opérateurs d’utiliser les «tuyaux» (techniquement, en fibre optique ; v. la carte du réseau Cogent) et leur garantit une certaine bande passante. L’interaction des trois opérateurs est illustrée par le schéma suivant :

[caption id=»attachment_228» align=»aligncenter» width=»300» caption=»Répartition des rôles Orange/Cogent/Megaupload Cliquez pour agrandir»][/caption]

Lorsqu’un internaute télécharge un fichier hébergé par Megaupload, les trois opérateurs interviennent dans la détermination du débit :

  • Megaupload achète de la bande passante à Cogent. Le débit dépend donc 1) de la capacité d'émission de Megaupload ; 2) de la bande passante achetée par Megaupload à Cogent.
  • Cogent achemine les données. Le débit dépend donc de la bande passante qu'il utilise pour acheminer les données de Megaupload à Orange.
  • Les données originaires de Megaupload et acheminées par Cogent parviennent à Orange. Le débit dépend donc 1) de la bande passante allouée par Orange à la réception des données transmises par Cogent ; 2) de la bande passante allouée par Orange à la transmission de ces données à ses clients.

Il suffit qu’un des trois intervenants limite la bande passante pour que l’internaute constate une baisse du débit. Dans le cas de l’affaire Megaupload, la question qui se pose est celle de savoir lequel des trois opérateurs limite la bande passante. Et bien sûr, ils ne sont pas d’accord entre eux, chacun accusant l’autre.

C’est Megaupload qui a lancé l’offensive, dirigée contre Orange, en affichant sur son site un message à l’attention des clients du FAI :
<blockquote>Il est probable que votre fournisseur Internet restreigne intentionnellement votre accès à des parties importantes de l’Internet! Nos statistiques de réclamations indiquent que la plupart des utilisateurs qui ont ce problème ont accès à l’Internet via France Télécom, souvent sous la marque «Orange».

Si vous êtes concerné, veuillez appeler le service d’assistance téléphonique Orange au 3900 et dites-leur que vous ne pouvez vous connecter aux sites hébergés sur Cogent et TATA. Dites-leur également que vous envisagez de passer à un fournisseur Internet avec une excellente connectivité mondiale, tel que SFR ou Iliad (free.fr, Alice). Si vous êtes impatient et que vous avez besoin d’un bon service immédiatement, envisagez de changer votre fournisseur pour l’un d’entre eux, et assurez-vous de dire à Orange la raison de cette décision de résilier votre ligne!</i>

</blockquote>

La réponse du FAI français ne s’est pas fait attendre : Orange ne comprend pas pourquoi Megaupload a subitement décidé de faire parvenir aux internautes un tel message, d’autant que celui-ci a rapidement été retiré. Orange et Megaupload sont en contact permanent afin d’offrir le meilleur service possible. Toutefois, s’il est vrai que le débit est parfois assez lent, cela est dû, selon Orange, à l’affluence des internautes aux heures de pointe. Toujours selon Orange, le même problème existerait également chez d’autres FAI, peut être dans une moindre mesure du fait de leur nombre moins important de clients. Enfin, l’essentiel de l’argumentation d’Orange consiste à se défausser sur Megaupload qui devrait, selon le FAI français, mettre à niveau son infrastructure afin de fournir un service correct à tous ses clients. On perçoit dès lors plus aisément ce qui semble être, à ce stade, le cœur du problème : Orange ou Megaupload ou les deux opérateurs devraient réaliser des dépenses importantes pour améliorer leurs services, et aucun des deux ne veut payer.

C’est là une question importante qui se pose dans le cadre du débat sur la neutralité du net : qui doit payer ? Est-ce l’intermédiaire technique fournissant un accès à l’internaute qui doit permettre à celui-ci, en échange du paiement d’un abonnement, d’avoir accès à plein débit et sans aucune restriction à l’ensemble de la Toile ? Ou bien, est-ce l’opérateur fournissant du contenu aux internautes qui doit s’assurer que ce contenu parvient à ses destinataires dans de bonnes conditions ? Le site PCInpact rapporte le témoignage d’un opérateur anonyme : le fournisseur de bande passante de Megaupload ne ferait aucun effort pour assurer un bon transit des données des États-Unis et de Hong-Kong vers l’Europe, préférant laisser à Orange le soin d’aller chercher le contenu, en quelque sorte, là où il se trouve pour le ramener en Europe. La question «les bits sont-ils quérables ou portables ?» devra être tranchée dans le cadre du débat sur la neutralité du Net, car les deux positions sont a priori valables.

Suite de l’affaire, et intervention du troisième opérateur, Cogent. Celui-ci accuse à son tour Orange : l’opérateur français refuserait depuis des années d’augmenter la capacité de sa bande passante, jusqu’à provoquer intentionnellement ou par négligence une situation de congestion du réseau. Dès lors, on comprend mieux pourquoi MegaUpload a subitement décidé d’afficher le message cité plus haut aux abonnés Orange. Comme le révèle une interview du porte-parole de Megaupload dans Le Point, le but de ce message est de faire pression sur Orange afin d’aider Cogent dans ses négociations avec le FAI français. Cogent n’avait aucun moyen de pression sur Orange, car il ne pouvait atteindre directement ses clients. Megaupload, au contraire, peut les atteindre en leur faisant parvenir des messages.

En conséquence, Megaupload a décidé de mettre à nouveau le message en ligne. L’opérateur continue de soutenir que le problème vient d’Orange, qui refuse d’augmenter sa capacité de connexion à l’infrastructure Cogent (qui sert approximativement 17% d’Internet et plus d’un milliard d’internautes).

Pendant qu’Orange continue de pointer Cogent du doigt, ce dernier publie une réponse cinglante aux accusations du FAI français. Pour Cogent, le problème de débit vient non d’une négligence d’Orange mais d’un refus de négocier. Et ce refus trouverait une explication économique très simple : Orange revêt la double casquette d’intermédiaire technique et de fournisseur de contenu ; le FAI privilégierait donc les contenus qu’il fournit lui-même au détriment des contenus fournis par d’autres opérateurs. Selon Cogent, «France Telecom s’exprime volontiers publiquement sur la congestion des réseaux, mais force est de constater que lorsqu’il s’agit de fournir à ses clients des flux de données de plusieurs mégabits pour ses propres services (vidéo à la demande), cette prétendue congestion ne semble pas poser de problèmes…». On le voit, très clairement, le principe de neutralité du Net doit intégrer certaines règles du droit de la concurrence afin d’éviter pratiques déloyales et abus de position dominante.

L’affaire Orange/Cogent/Megaupload se fait de plus en plus importante (alors qu’elle n’est pourtant pas nouvelle). Aux trois intervenants initiaux, se rajouteront probablement d’autres opérateurs et régulateurs. Le PDG de Cogent appelle Google à le rejoindre dans la bataille contre Orange. Il indique en effet, dans une interview au Point, qu’Orange bride volontairement le débit avec Cogent afin de pousser les opérateurs à recourir aux services de sa filiale OpenTransit, concurrente direct de Cogent sur le marché international. Il s’agirait, selon lui, d’une sorte de «taxe» (illégale, car issue d’une pratique de concurrence déloyale) imposée par Orange aux fournisseurs de contenu : «Google, par exemple, paie la filiale de France Télécom, OpenTransit, pour que YouTube soit pleinement accessible aux abonnés d’Orange !».

Cette affaire, aussi obscure qu’elle soit (car l’on ne sait toujours pas qui dit vrai, dans tout cela), met en lumière certaines questions auxquelles le principe de neutralité du Net devra répondre :

  • Qui doit supporter le coût de l'acheminement des données : le destinataire ou l'émetteur ? Ce coût peut-il être partagé ?
  • Quelles règles doivent s'imposer à un fournisseur d'accès (intermédiaire technique) qui veut également fournir du contenu, afin qu'il ne soit pas en mesure d'exercer des pratiques déloyales à l'encontre de ses concurrents ?
  • Comment s'assurer qu'un fournisseur d'accès qui fournit également de la bande passante ne privilégie pas les sites qu'il sert au détriment de ceux servis par d'autres fournisseurs de bande passante ?
  • Comment garantir la "véritable" neutralité du transit, indépendamment de son émetteur (p.ex. Megaupload), de son destinataire (p. ex. le client d'Orange) et des intermédiaires qui disposent des "tuyaux" (p. ex. Cogent et OpenTransit) ?
  • Pourquoi l'ARCEP n'est-elle pas intervenue ? Comment devrait-elle intervenir ? De même, au niveau européen pour la Commission européenne (et notamment la "DG Comp" en charge des questions de concurrence). N'est-il pas nécessaire de s'entendre, au niveau mondial, pour régler ces questions ?
  • etc... (v. dans les semaines à venir, les suites de cette affaire)
• 1576 mots • #Internet #neutralité #téléchargement #Google #international #USA #Orange #Megaupload #Cogent #infrastructure #bande passante #économie #concurrence