Valhalla.fr

Sic Itur Ad Absurdum

6 Fév 2011

La coupure totale d’Internet en Égypte, dont nous parlions la semaine dernière, n’a pas duré. L’accès à commencé à être rétabli vers le milieu de la semaine. Pendant ce temps, Google proposait de «twitter» par téléphone, l’armée utilisait les SMS, et la Chine en profitait pour bannir le mot clé egypte des réseaux sociaux (ainsi que les lapins en colère). Au final, la coupure aurait coûté 65 millions d’euro selon l’OCDE.

L’actualité du P2P est également intéressante cette semaine. En France, le dossier eMule-Paradise est renvoyé à l’instruction, une partie de la procédure étant frappée de nullité. Rappelons qu’eMule-Paradise était un site de partage de liens pour le réseau eDonkey/eMule vers des fichiers contrefaisants (300 000 visiteurs par jour). Le procès du site devait servir d’exemple.

L’Hadopi évolue vers une plus grande automatisation, avec la transmission informatisée des dossiers au parquet. Le décret a été examiné par la CNIL, il devra l’être par le Conseil d’État. Dans le même temps, l’on se demande quelle est l’efficacité de la loi Hadopi : une guerre des sondages fait rage et l’on peine à savoir si la riposte graduée dissuade vraiment les internautes d’utiliser le P2P. La loi Hadopi est une nouvelle fois dénoncée comme étant archaïque, puisqu’elle ne vise que les réseaux P2P à l’exclusion des sites de téléchargement direct ou de streaming.

En tout cas, la loi Hadopi a un effet qui était prévisible, mais qui fut ignoré par le législateur : elle incite les internautes à chiffrer leurs échanges afin de mettre en échec la surveillance. Or, une fois les échanges chiffrés, toute surveillance devient plus difficile, qu’elle porte sur le téléchargement ou non. C’est pourquoi les services secrets voient le système Hadopi d’un mauvais oeil. La position de l’administration américaine est bien différente : leur priorité est de fermer les sites fournissant des liens vers les contenus illicites. La même idée a été avancée au Royaume-Uni, dans la loi Digital Economy Act dont l’adoption vient, une fois de plus, d’être retardée. L’industrie culturelle américaine, quant à elle, continue de faire feu de tout bois. Elle a inventé une procédure de «reverse class action»(en) par laquelle une plainte en justice pour téléchargement illicite vise un grand nombre de défendeurs.

Toujours concernant la propriété intellectuelle, une affaire de plagiat a opposé, cette semaine, Google et Microsoft. Google a accusé Microsoft, en début de semaine, de copier les résultats de son moteur de recherche pour les insérer dans Bing. Google a mis en place un «piège». Dans un premier temps, des requêtes totalement improbables (par exemple : «hiybbprqag»), qui ne renvoient normalement aucun résultat, ont été dotées de certains résultats choisis (bien entendu, sans aucun rapport avec la requête). Dans un deuxième temps, Google a demandé à ses employés de lancer ces requêtes sur son moteur de recherche depuis un ordinateur avec Windows et la barre Bing du navigateur Internet Explorer. Dans un troisième temps, ils se sont rendu compte que Bing avait repris certaines de ces requêtes, et qu’il fournissait les mêmes résultats improbables que Google. La barre Bing serait donc, en quelque sorte, un «cheval de Troie» permettant à Microsoft de connaître les requêtes émises par les internautes sur Google, et les résultats choisis par les internautes parmi ceux renvoyés par le moteur de recherche. En fin de semaine, après la réponse de Microsoft, c’est toutefois Google qui a pris la place du méchant dans l’affaire : il semblerait qu’il s’agisse d’une opération de dénigrement montée par Google à l’encontre de son concurrent le plus sérieux. Les algorithmes de recherche des deux moteurs étant secrets, il est difficile de savoir qui dit vrai.

Parlons ensuite d’une autre affaire, beaucoup plus inquiétante. Le site Rojadirecta.org diffusait en streaming et fournissait des liens vers des matchs sportifs à l’attention du public espagnol. Le site, bien que jugé licite en Espagne, était considéré par les autorités américaines comme étant contraire à la loi. Le département de la justice des États-Unis et l’Immigration and Customs Enforcement faute de pouvoir atteindre la société espagnole gérant le site ou son hébergeur, situé en dehors des USA, se sont attaqué au nom de domaine «.org» géré par une société américaine. Le nom de domaine a donc été désactivé, rendant le site inaccessible pour un temps. Par la suite, d’autres noms de domaine ont pris le relai, et le site a retrouvé sa visibilité sur le réseau. L’affaire pose deux questions importantes : 1) celle de la légitimité de l’action américaine, clairement extraterritoriale, face à un site jugé licite en Espagne ; 2) celle de l’efficacité de la mesure prise par les autorités américaines, sachant que d’autres domaines continuent de diriger vers le site incriminé.

Pour finir, mentionnons deux autres informations importantes cette semaine. D’abord, la sortie de Debian 6 «Squeeze» ce week-end. Ensuite, une nouvelle alerte concernant la pénurie d’adresse IPv4(en) qui semble, cette fois, être sérieuse(en).

• 838 mots • #Internet #téléchargement #P2P #propriété intellectuelle #Google #gouvernement #réseaux sociaux #piratage #surveillance #Hadopi #USA #Espagne #Égypte #Twitter #droit international #DNS
30 Jan 2011

Il y a deux semaines, dans le numéro 40, nous parlions de la révolution tunisienne et du rôle des réseaux sociaux du Web 2.0 dans le mouvement populaire de protestation contre le régime de Ben Ali. Cette semaine, l’on en apprend un peu plus sur le filtrage mis en place par l’ancien pouvoir tunisien et sur les contremesures prises par les réseaux sociaux. Facebook a été particulièrement visé. Le gouvernement tunisien avait lancé, dès décembre, une attaque de type «man in the middle» contre le site. Le but d’une telle attaque est de se placer entre l’émetteur d’un message (l’internaute) et son destinataire (Facebook), afin d’intercepter ce message et de le rediriger vers un autre destinataire. Une telle attaque est possible, à l’échelle d’un pays, grâce au concours des intermédiaires locaux, comme les fournisseurs d’accès. La police tunisienne a donc tenté de rediriger les visiteurs de Facebook vers de fausses pages, afin d’obtenir leurs mots de passe. Facebook s’est récemment exprimé sur cette attaque(en). Le site a expliqué avoir réagi en sécurisant toutes ses connexions depuis la Tunisie par un passage forcé au protocole HTTPS. Après le «piratage» des comptes de Nicolas Sarkozy et de Marc Zuckerberg (le fondateur du site) ces derniers jours, Facebook a décidé de chiffrer systématiquement les connexions en utilisant le protocole HTTPS. Officiellement, la mesure vise à empêcher le «piratage» de comptes par l’interception des données de connexion transitant en clair sur les réseaux Wifi publics(en). Outre le chiffrement de la connexion, Facebook utilise désormais un système de contrôle «intelligent», capable de détecter des incohérences qui pourraient révéler que la sécurité d’un compte a été compromise ; par exemple, si un internaute se connecte depuis la France à 19h et depuis le Japon à 19h10, c’est très probablement que son compte a été «piraté» par un tiers.

Aujourd’hui, l’histoire se répète en Égypte. Le peuple égyptien manifeste contre le pouvoir d’Hosni Moubarak, comme le peuple tunisien a manifesté contre celui de Ben Ali ; le Web égyptien favorise la contestation, comme l’avait fait un peu plus tôt fait le Web tunisien. Mais la réponse du gouvernement égyptien diffère en large mesure de celle de l’ancien gouvernement tunisien. La police de Ben Ali filtrait le réseau, c’est-à-dire qu’elle censurait certains sites. Tel n’est pas le cas en Égypte, où la censure est considérée (à juste titre) contraire à la liberté d’expression, et interdite. Malheureusement, la réponse du pouvoir égyptien n’en est pas moins sordide, puisque le pouvoir en place a décidé, dans un premier temps, de s’en prendre directement aux internautes. Un blogueur civil a ainsi comparu, il y a quelque temps, devant une Cour martiale.

Dans un deuxième temps, le mercredi 26 janvier, le gouvernement Égyptien a décidé de réagir «à la tunisienne» (ou «à l’iranienne», au choix), en filtrant les réseaux sociaux Facebook et Twitter. Car ces sites ont tenu un rôle majeur dans l’organisation des manifestations contre le pouvoir en place. Bien sûr, le Web social n’est pas à l’origine de la révolte populaire (pas plus en Égypte qu’en Tunisie ou ailleurs), et il ne fait pas à lui seul une révolution. Ce sont les gens qui la font. Mais, précisément, les réseaux sociaux permettent de mobiliser et de coordonner les personnes dans le monde réel. L’effet mobilisateur est évident : il est difficile de se lever contre une dictature lorsqu’on est seul, mais cela devient plus aisé lorsqu’on sait que l’on n’est pas seul, que des milliers d’autres partagent les mêmes aspirations à la liberté. L’effet coordinateur est également facilement perceptible : les communications étant instantanées sur Internet, et l’information se propageant comme une trainée de poudre, des manifestations «spontanées» peuvent rapidement devenir très importantes.

Dans un troisième temps, le mouvement de protestation populaire s’intensifiant, le pouvoir égyptien a décidé de prendre une autre mesure, que l’on pourrait qualifier de drastique : le blocage de l’ensemble du réseau du pays. Cette mesure ne vise pas à censurer tel ou tel site (c’est le filtrage), mais à empêcher l’accès en bloc à tous les sites. Le jeudi 27 janvier 2011, l’Égypte a donc été «débranchée» du réseau Internet, comme l’illustre le graphique ci-dessous représentant l’évolution du trafic provenant des internautes égyptiens (source Harbor Networks, repris par Le Monde) :

[caption id=»attachment_245» align=»aligncenter» width=»540» caption=»Courbe de l'évolution du trafic Internet en provenance d'Égypte»]Courbe de l'évolution du trafic Internet en provenance d'Égypte[/caption]

C’est la première fois qu’un pays décide d’un blocage total d’Internet. Car le blocage ne porte pas que sur le Web (protocole HTTP/S), mais sur l’ensemble du réseau, c’est-à-dire également d’autres protocoles comme FTP (transfert de fichiers), SMTP/POP/IMAP (les e-mails), etc. Techniquement, le blocage égyptien repose sur la neutralisation des protocoles DNS et BGP. Il a un double effet : d’une part, les internautes égyptiens ne peuvent plus accéder à Internet (comprendre : aux sites locaux et étrangers) et, d’autre part, les internautes étrangers ne peuvent plus accéder aux sites égyptiens.

Comment cela est-il possible ? La réponse tient en quelques mots : grâce aux intermédiaires locaux, principalement les fournisseurs d’accès (FAI). Les FAI sont absolument indispensables dans l’accès au réseau, et ils sont nécessairement locaux. Ils constituent donc une cible de choix pour un gouvernement souhaitant établir une censure du réseau ou le bloquer comme c’est le cas en Égypte. C’est là l’une des principales failles du réseau : s’il est extrêmement difficile, voire impossible, de le contrôler en entier, il est en revanche facile de le bloquer au niveau local.

Le pouvoir égyptien a trouvé l’arme ultime contre Internet, face à laquelle même les hackers du groupe Anonymous se trouvent désemparés. On sait que ce groupe avait défendu le site Wikileaks en lançant des attaques par déni de service contre certains opérateurs participant à la croisade de l’administration américains contre le site de Julian Assange. Certains membres du groupe ont été arrêtés cette semaine, notamment en France, et risquent des peines de prison. Leur défense est d’ailleurs originale, puisqu’elle assimile attaque informatique à manifestation publique.

Mais revenons au blocage d’Internet, avec une nouvelle très inquiétante. Un sénateur indépendant américain remet en effet sur la table la fameuse proposition de loi contenant un «kill switch»(en) (Protecting Cyberspace as a National Asset Act of 2010). L’expression «kill switch» peut être traduite par le mot «interrupteur». Nul besoin d’en dire plus pour comprendre qu’il s’agit de permettre à l’administration américaine de «couper Internet», comme vient de le faire le gouvernement égyptien. La coupure pourrait être ordonnée par le Président en cas d’urgence et afin de préserver l’intégrité des infrastructures américaines. Cette loi était déjà dangereuse dans sa première version, mais elle l’est encore plus dans sa nouvelle rédaction qui exclut tout contrôle judiciaire de la mesure de coupure(en).

Quelles conclusions tirer de tout cela ?

1) D’abord, l’importance des intermédiaires techniques dans l’accès au réseau n’est plus à démontrer, et leur pouvoir sur les échanges ne fait aucun doute (interception, filtrage, blocage…). Il est donc absolument nécessaire d’assurer la neutralité du Net, c’est-à-dire l’absence de discrimination à raison du contenu des messages transitant sur le réseau, de leur provenance ou de leur destination, et du protocole qu’ils utilisent (Web, e-mail, chat, etc.). Cette idée-là n’est pas nouvelle.

2) Ensuite, la nécessité d’un contrôle judiciaire. L’idée n’est pas nouvelle non plus. On l’a vue en Tunisie et on le voit maintenant en Égypte, les mesures ordonnées unilatéralement et sans contrôle par le pouvoir exécutif sont rarement de nature à servir la démocratie. Elles tendent plutôt à renforcer ce pouvoir. C’est pourquoi il est nécessaire que les règles sur la neutralité du Net soient systématiquement sanctionnées par un contrôle judiciaire de légalité.

3) Enfin, une idée plutôt nouvelle que l’on peut tirer des événements actuels en Égypte : si le pouvoir exécutif peut faire la pluie et le beau temps sur le réseau national, allant même jusqu’à le bloquer totalement, il est nécessaire que sa neutralité soit garantie à l’échelle internationale. C’est une bonne chose que les législateurs nationaux adoptent des règles visant à garantir la neutralité du Net, mais des règles de source internationale, qui s’imposent aux États, semblent nécessaires au vu des derniers événements. Ces règles devraient pouvoir être sanctionnées par des juridictions internationales, car il est douteux que les juridictions nationales désavouent le pouvoir politique dans des pays qui connaissent la dictature.

Pour résumer : assurer la neutralité du Net par des règles de droit nationales et au besoin internationales, sanctionnées par les juridictions nationales et au besoin internationales.

• 1443 mots • #Internet #neutralité #blog #international #gouvernement #Facebook #filtrage #réseaux sociaux #piratage #sécurité #Wikileaks #censure #USA #Tunisie #liberté d'expression #infrastructure #Égypte #Twitter #Web 2.0 #droit international
23 Jan 2011

Une nouvelle affaire domine cette semaine l’actualité technologique sur le Web. Elle a trait au principe de neutralité du Net, mais elle est d’un genre nouveau. Il s’agit d’une bataille à trois protagonistes, tous «intermédiaires» : Orange, Cogent et Megaupload.

Décrivons d’abord l’origine du contentieux. Megaupload est un site hébergeant des fichiers mis en ligne par les internautes, et permettant à d’autres internautes de télécharger ces fichiers. Les internautes peuvent télécharger gratuitement, à bas débit, ou payer un abonnement à Megaupload et bénéficier d’un débit maximal (c’est-à-dire théoriquement égal au débit maximal de leur connexion). Le problème est que les abonnés du fournisseur d’accès Orange ne bénéficient presque jamais du débit maximal de leur ligne lorsqu’il téléchargent des fichiers hébergés par Megaupload. Il est même fréquent que la vitesse de téléchargement ne change pas, que l’internaute utilise la formule gratuite ou la formule payante de Megaupload. Ce dernier a donc accusé le FAI français de brider le débit des échanges avec son site. Orange s’est défendu en impliquant le troisième protagoniste de notre histoire : Cogent. Cogent est un intermédiaire technique pur et dur, qui permet aux opérateurs d’utiliser les «tuyaux» (techniquement, en fibre optique ; v. la carte du réseau Cogent) et leur garantit une certaine bande passante. L’interaction des trois opérateurs est illustrée par le schéma suivant :

[caption id=»attachment_228» align=»aligncenter» width=»300» caption=»Répartition des rôles Orange/Cogent/Megaupload Cliquez pour agrandir»][/caption]

Lorsqu’un internaute télécharge un fichier hébergé par Megaupload, les trois opérateurs interviennent dans la détermination du débit :

  • Megaupload achète de la bande passante à Cogent. Le débit dépend donc 1) de la capacité d'émission de Megaupload ; 2) de la bande passante achetée par Megaupload à Cogent.
  • Cogent achemine les données. Le débit dépend donc de la bande passante qu'il utilise pour acheminer les données de Megaupload à Orange.
  • Les données originaires de Megaupload et acheminées par Cogent parviennent à Orange. Le débit dépend donc 1) de la bande passante allouée par Orange à la réception des données transmises par Cogent ; 2) de la bande passante allouée par Orange à la transmission de ces données à ses clients.

Il suffit qu’un des trois intervenants limite la bande passante pour que l’internaute constate une baisse du débit. Dans le cas de l’affaire Megaupload, la question qui se pose est celle de savoir lequel des trois opérateurs limite la bande passante. Et bien sûr, ils ne sont pas d’accord entre eux, chacun accusant l’autre.

C’est Megaupload qui a lancé l’offensive, dirigée contre Orange, en affichant sur son site un message à l’attention des clients du FAI :
<blockquote>Il est probable que votre fournisseur Internet restreigne intentionnellement votre accès à des parties importantes de l’Internet! Nos statistiques de réclamations indiquent que la plupart des utilisateurs qui ont ce problème ont accès à l’Internet via France Télécom, souvent sous la marque «Orange».

Si vous êtes concerné, veuillez appeler le service d’assistance téléphonique Orange au 3900 et dites-leur que vous ne pouvez vous connecter aux sites hébergés sur Cogent et TATA. Dites-leur également que vous envisagez de passer à un fournisseur Internet avec une excellente connectivité mondiale, tel que SFR ou Iliad (free.fr, Alice). Si vous êtes impatient et que vous avez besoin d’un bon service immédiatement, envisagez de changer votre fournisseur pour l’un d’entre eux, et assurez-vous de dire à Orange la raison de cette décision de résilier votre ligne!</i>

</blockquote>

La réponse du FAI français ne s’est pas fait attendre : Orange ne comprend pas pourquoi Megaupload a subitement décidé de faire parvenir aux internautes un tel message, d’autant que celui-ci a rapidement été retiré. Orange et Megaupload sont en contact permanent afin d’offrir le meilleur service possible. Toutefois, s’il est vrai que le débit est parfois assez lent, cela est dû, selon Orange, à l’affluence des internautes aux heures de pointe. Toujours selon Orange, le même problème existerait également chez d’autres FAI, peut être dans une moindre mesure du fait de leur nombre moins important de clients. Enfin, l’essentiel de l’argumentation d’Orange consiste à se défausser sur Megaupload qui devrait, selon le FAI français, mettre à niveau son infrastructure afin de fournir un service correct à tous ses clients. On perçoit dès lors plus aisément ce qui semble être, à ce stade, le cœur du problème : Orange ou Megaupload ou les deux opérateurs devraient réaliser des dépenses importantes pour améliorer leurs services, et aucun des deux ne veut payer.

C’est là une question importante qui se pose dans le cadre du débat sur la neutralité du net : qui doit payer ? Est-ce l’intermédiaire technique fournissant un accès à l’internaute qui doit permettre à celui-ci, en échange du paiement d’un abonnement, d’avoir accès à plein débit et sans aucune restriction à l’ensemble de la Toile ? Ou bien, est-ce l’opérateur fournissant du contenu aux internautes qui doit s’assurer que ce contenu parvient à ses destinataires dans de bonnes conditions ? Le site PCInpact rapporte le témoignage d’un opérateur anonyme : le fournisseur de bande passante de Megaupload ne ferait aucun effort pour assurer un bon transit des données des États-Unis et de Hong-Kong vers l’Europe, préférant laisser à Orange le soin d’aller chercher le contenu, en quelque sorte, là où il se trouve pour le ramener en Europe. La question «les bits sont-ils quérables ou portables ?» devra être tranchée dans le cadre du débat sur la neutralité du Net, car les deux positions sont a priori valables.

Suite de l’affaire, et intervention du troisième opérateur, Cogent. Celui-ci accuse à son tour Orange : l’opérateur français refuserait depuis des années d’augmenter la capacité de sa bande passante, jusqu’à provoquer intentionnellement ou par négligence une situation de congestion du réseau. Dès lors, on comprend mieux pourquoi MegaUpload a subitement décidé d’afficher le message cité plus haut aux abonnés Orange. Comme le révèle une interview du porte-parole de Megaupload dans Le Point, le but de ce message est de faire pression sur Orange afin d’aider Cogent dans ses négociations avec le FAI français. Cogent n’avait aucun moyen de pression sur Orange, car il ne pouvait atteindre directement ses clients. Megaupload, au contraire, peut les atteindre en leur faisant parvenir des messages.

En conséquence, Megaupload a décidé de mettre à nouveau le message en ligne. L’opérateur continue de soutenir que le problème vient d’Orange, qui refuse d’augmenter sa capacité de connexion à l’infrastructure Cogent (qui sert approximativement 17% d’Internet et plus d’un milliard d’internautes).

Pendant qu’Orange continue de pointer Cogent du doigt, ce dernier publie une réponse cinglante aux accusations du FAI français. Pour Cogent, le problème de débit vient non d’une négligence d’Orange mais d’un refus de négocier. Et ce refus trouverait une explication économique très simple : Orange revêt la double casquette d’intermédiaire technique et de fournisseur de contenu ; le FAI privilégierait donc les contenus qu’il fournit lui-même au détriment des contenus fournis par d’autres opérateurs. Selon Cogent, «France Telecom s’exprime volontiers publiquement sur la congestion des réseaux, mais force est de constater que lorsqu’il s’agit de fournir à ses clients des flux de données de plusieurs mégabits pour ses propres services (vidéo à la demande), cette prétendue congestion ne semble pas poser de problèmes…». On le voit, très clairement, le principe de neutralité du Net doit intégrer certaines règles du droit de la concurrence afin d’éviter pratiques déloyales et abus de position dominante.

L’affaire Orange/Cogent/Megaupload se fait de plus en plus importante (alors qu’elle n’est pourtant pas nouvelle). Aux trois intervenants initiaux, se rajouteront probablement d’autres opérateurs et régulateurs. Le PDG de Cogent appelle Google à le rejoindre dans la bataille contre Orange. Il indique en effet, dans une interview au Point, qu’Orange bride volontairement le débit avec Cogent afin de pousser les opérateurs à recourir aux services de sa filiale OpenTransit, concurrente direct de Cogent sur le marché international. Il s’agirait, selon lui, d’une sorte de «taxe» (illégale, car issue d’une pratique de concurrence déloyale) imposée par Orange aux fournisseurs de contenu : «Google, par exemple, paie la filiale de France Télécom, OpenTransit, pour que YouTube soit pleinement accessible aux abonnés d’Orange !».

Cette affaire, aussi obscure qu’elle soit (car l’on ne sait toujours pas qui dit vrai, dans tout cela), met en lumière certaines questions auxquelles le principe de neutralité du Net devra répondre :

  • Qui doit supporter le coût de l'acheminement des données : le destinataire ou l'émetteur ? Ce coût peut-il être partagé ?
  • Quelles règles doivent s'imposer à un fournisseur d'accès (intermédiaire technique) qui veut également fournir du contenu, afin qu'il ne soit pas en mesure d'exercer des pratiques déloyales à l'encontre de ses concurrents ?
  • Comment s'assurer qu'un fournisseur d'accès qui fournit également de la bande passante ne privilégie pas les sites qu'il sert au détriment de ceux servis par d'autres fournisseurs de bande passante ?
  • Comment garantir la "véritable" neutralité du transit, indépendamment de son émetteur (p.ex. Megaupload), de son destinataire (p. ex. le client d'Orange) et des intermédiaires qui disposent des "tuyaux" (p. ex. Cogent et OpenTransit) ?
  • Pourquoi l'ARCEP n'est-elle pas intervenue ? Comment devrait-elle intervenir ? De même, au niveau européen pour la Commission européenne (et notamment la "DG Comp" en charge des questions de concurrence). N'est-il pas nécessaire de s'entendre, au niveau mondial, pour régler ces questions ?
  • etc... (v. dans les semaines à venir, les suites de cette affaire)
• 1576 mots • #Internet #neutralité #téléchargement #Google #international #USA #Orange #Megaupload #Cogent #infrastructure #bande passante #économie #concurrence
19 Jan 2011

Le système de paquets Debian/Ubuntu est diablement efficace : les dépendances sont gérées automatiquement, il suffit d'une ligne dans la console, commençant par la fameuse commande "apt-get" pour installer ou supprimer un logiciel. Mais voilà : il y a parfois des problèmes qui, si petits soient-ils, parviennent à bloquer ladite commande. Tel est le cas du problème auquel cet article est dédié qui, d'après mes recherches, ne trouve aucun écho sur Google -- il doit donc être extrêmement rare ! • 1537 mots • #Informatique #Humour #Linux #Unix #Technique #Logiciels #Système
16 Jan 2011

Pour commencer avec la revue du Web de la semaine, présentons quelques chiffres, un phénomène, une conséquence, un enseignement.

Les chiffres. Le site Clubic présente quelques chiffres relatifs à l’évolution d’Internet en 2010, provenant d’une étude de Pingdom(en). En décembre 2010, on a ainsi compté 255 millions de sites Web, dont 21,4 millions ont été créés dans l’année, pour un total de 202 millions de noms de domaine, soit une augmentation de 7% par rapport à 2009 (88,8 millions en .com, 13,2 millions en .net, 8,6 millions en .org, 79,2 millions pour les TLD de pays comme .fr pour la France). En juin 2010, le nombre d’internautes dans le monde a été évalué à 1,97 milliard, ce qui constitue une augmentation de 14% par rapport à l’année précédente. Ces internautes sont répartis ainsi : 42% en Asie, 24,2% en Europe, 13,5% en Amérique du nord, 10,4% en Amérique du sud, 5,6% en Afrique, 3,2% du Proche Orient, 1,1% en Australie et Océanie. Le nombre de blogs est évalué à 152 millions (dont 6 millions de nouveaux blogs WordPress), le nombre de «tweets» à 25 milliards (v. le site Twitter), le nombre d’utilisateurs de Facebook à 600 millions (qui produisent chaque mois 30 milliards de fichiers !). Chaque jour, 2 milliards de vidéos sont visionnées sur YouTube, et ce sont 35 heures de vidéo qui sont mises en ligne sur le site chaque minute. Le site Flickr contient près de 5 milliards de photographies, et 3000 nouvelles photos sont mises en ligne chaque minute. Le nombre d’e-mails envoyés en 2010 est gigatesque : plus de 100 000 milliards… et près de 90% de spam !

Un phénomène. Il n’est pas pas nouveau : les technologies Web 2.0 permettent aux gens d’établir une communication permanente entre eux sur le Web, les réseaux sociaux permettent aux informations importantes de se diffuser rapidement et de faire le tour de la planète en quelques heures, les sites tels que YouTube ou Facebook permettent aux internautes de mettre en ligne du contenu multimédia qu’ils produisent eux-mêmes. Trois «ingrédients» sont essentiels dans la définition de ces nouveaux medias :

  • l'origine de l'information : elle est créée et diffusée par l'internaute, le citoyen, et non par un journaliste professionnel. En conséquence, elle est souvent perçue comme étant plus fiable car l'on fera plus facilement confiance à une information communiquée par un ami ou un membre de sa famille, que par un étranger. Mais plus que cela, on peut créer une nouvelle information à partir d'une information reçue, par exemple en répondant à un billet de blog ou en relayant un message Twitter ("re-tweet") ;
  • la multiplication des points d'accès à l'information : on ne la trouve plus seulement à telle page du numéro N du journal X, puisqu'elle est relayée par de nombreux internautes, comme on peut notamment le voir sur Twitter ou dans la blogosphère. Le phénomène de bouche-à-oreille virtuel est donc amplifié par la structure des réseaux sociaux qui interconnectent leurs membres. Comme chaque internaute peut enrichir l'information avec sa propre réaction, une certaine émulation peut se créer autour d'une information générant, par exemple, un sentiment d'indignation, et former un "buzz" ;
  • le délai pour y accéder : plus besoin d'aller acheter le journal ou d'allumer la télévision à 20h, l'information en provenance du Web 2.0 arrive directement sous les yeux de l'internaute, quelques secondes à peine après avoir été créée. Le Web 2.0 a donc toujours une longueur d'avance sur les médias traditionnels, concernant la diffusion d'informations brutes. Cela implique que les réactions des internautes se font souvent "à chaud". Leur intensité est donc accrue, et l'effet de "buzz" s'en trouve renforcé.

Une conséquence. Parmi d’autres éléments, le Web 2.0 a favorisé la chute du président tunisien Ben Ali. Sur Internet «les informations circulent, le Web met en contact des citoyens qui, jusque-là, restaient sur leur quant-à-soi» ; aussi, après quelques semaines de gronde, il est évident que «le ver [étant] dans le fruit, la contradiction éclate. D’un côté, les médias traditionnels, étroitement contrôlés [par le gouvernement]. De l’autre, les Tunisiens, privés d’espace public, qui pianottent sur les claviers de leur mobiles et de leurs ordinateurs.» Et soudainement, le pouvoir en place s’aperçoit que «la censure ne peut plus être ce qu’elle était en Tunisie. Internet a levé le huis clos où elle opérait dans l’impunité, les brèches qu’elle colmate se reforment ailleurs.» (Bertrand Le Gendre, Les cyberopposants assiègent Carthage, Le Monde 16/17 janvier 2011). Samir Aïta, le président du Cercle des économistes arabes, a décrit ce phénomène dans un interview à Liberation : «L’Internet est présent dans toutes ces villes. C’est là, dans des cybercafés, chez les uns et les autres, que les jeunes parviennent à s’ouvrir sur le monde. A communiquer avec des diasporas lointaines. A voir le monde autrement.» ; «Il est indéniable qu’à mesure que se développe l’utilisation de ces technologies se développe aussi une critique à l’égard des pouvoirs en place» et (…) «En face, le discours officiel ne parvient plus à masquer cette réalité tant décriée.»

Le pouvoir en place tente par tous moyens de censurer le réseau(en) : des sites Web sont bloqués, des comptes Facebook et des blogs piratés. Ces tentatives sont souvent vaines, l’information diffusée par un site censuré était rapidement reprise par de nombreux autres sites qui parviennent encore, pour un temps, à passer entre les mailles du filet gouvernemental. En revanche, le pouvoir parvient toujours à exercer une répression brutale lorsque l’auteur d’un blog ou le propriétaire d’un compte Facebook contenant des propos contestataires est identifié. L’information parvient à passer, certes, mais ceux qui la diffusent le paient parfois au prix de leur sang.

Un enseignement. On sait depuis l’Areopagitica de John Milton, depuis Stuart Mill, Kant, Voltaire, Popper et tant d’autres, depuis les révolutions américaine et française, depuis la rédactions des Pactes de protection des droits de l’Homme de l’ONU et de la Convention européenne de sauvegarde des droits de l’Homme, que la liberté d’expression est nécessaire à la démocratie, qu’elle est l’une des libertés les plus précieuses. On sait maintenant qu’Internet est, à notre époque, le principal outil permettant aux citoyens d’exercer leur droit à s’exprimer librement, de manière responsable mais sans censure ou répression. Internet n’a pas été la cause du bouleversement politique tunisien, mais il en a été le principal vecteur. Sans le «Web social», sans cette capacité des citoyens de communiquer entre eux rapidement, directement et librement, le président Ben Ali n’aurait probablement pas été déposé. Le premier enseignement est donc celui de l’importance d’Internet dans le débat démocratique.

Le second enseignement découle du premier : puisqu’Internet est si important pour l’ouverture du débat démocratique, puisqu’il est appelé à devenir indispensable s’il ne l’est pas déjà, il est nécessaire de le préserver. Cela signifie qu’il faut empêcher qu’il soit dénaturé, lutter pour qu’il conserve ses caractéristiques : un média citoyen, ouvert à tous, non censuré, et neutre quant à l’information qu’il véhicule.

Or, ce n’est pas ce chemin là qu’ont choisi nos dirigeants. On citera simplement, à titre d’exemple, la loi française «LOPPSI II» sur laquelle nous avons déjà tellement écrit qu’il est inutile d’y revenir. À l’échelle européenne, la Commission vient d’accepter le principe d’un filtrage des réseaux de P2P (qui, justement, se définissent par le caractère direct des échanges qu’entretiennent les internautes les uns avec les autres), sous contrôle judiciaire. De même, le filtrage du réseau est envisagé pour bloquer les sites pédopornographiques. Il n’y a rien à redire sur le principe d’un tel blocage. En revanche, on peut douter de son efficacité et craindre qu’il ait des «effets collatéraux» sur des sites licites, ou qu’il soit indûment étendu à des sites qui n’ont rien de pornographique. On peut également douter de la pertinence de la mesure de blocage, puisqu’elle empêche l’accès à l’information, sans pour autant la faire disparaître (celle-ci serait alors disponible en dehors de l’UE ou en passant par un serveur mandataire) et sans s’attaquer à la source du problème, les véritables pédophiles agissant dans le «monde réel». La loi Hadopi poursuit d’ailleurs le même objectif : intimider les internautes et réprimer le partage d’œuvres à titre gratuit et dans un but culturel, plutôt que de s’attaquer aux personnes qui tirent des revenus du «piratage» et parviennent à organiser un véritable modèle économique très lucratif grâce au travail d’autrui.

En conclusion, les événements de cette semaine en Tunisie soulignent une fois de plus l’importance du combat mené pour qu’Internet reste un moyen de communication libre.

• 1427 mots • #Internet #neutralité #P2P #blog #libre #gouvernement #Facebook #filtrage #réseaux sociaux #piratage #Hadopi #LOPPSI #censure #Tunisie #liberté d'expression
9 Jan 2011

Rien de bien nouveau en cette première semaine de l’année 2011. On retrouve les thèmes habituels, sans grand bouleversement.

Aux États-Unis, la FCC demande aux citoyens(en) qui ont des connaissances en programmation informatique de créer des logiciels permettant de détecter des atteintes au principe de neutralité du Net(en). Rappelons que la FCC avait proposé en décembre des règles destinées à garantir la neutralité du Net. Ces règles ont rapidement été jugées insuffisantes par les partisans d’un internet neutre (bien qu’elles fassent l’objet de quelques soutiens(en)), ou au contraire trop contraignantes par le parti républicain(en) qui prône une totale liberté des opérateurs dans la gestion de leur réseau.

Aux États-Unis encore, mais aussi en Europe et ailleurs, les réseaux sociaux en ligne continuent d’attirer un nombre toujours plus important d’internautes. Ainsi, ce ne sont pas moins de 750 millions de photos qui ont été publiées sur Facebook pour le Nouvel An ! Le site est tellement populaire outre-atlantique que même le parti républicain a décidé de l’intégrer dans sa stratégie de communication. En outre, Facebook connaîtrait un tel succès que sa valorisation boursière dépasserait les 50 milliards de dollars(es) et qu’il se classerait désormais au 3ème rang des sites les plus visités sur le Web, derrière Google et Microsoft. Par ailleurs, la SEC (l’autorité américaine de régulation des marchés financiers) envisagerait de modifier certaines règles suite à la levée de fonds de Facebook auprès de Goldman Sachs. Si Facebook prospère, il en va de même pour d’autres réseaux sociaux tels que linkedin qui envisage une entrée en bourse. De leur côté, Evernote (logiciel de prise de notes stockées dans le cloud) annonce 19.000 nouveaux utilisateurs chaque jour, et BitTorrent Inc. 100 millions d’utilisateurs de BitTorrent et µTorrent sur un mois.

Tout cela n’est pas sans poser quelques problèmes, notamment pour la protection de la vie privée et des données personnelles des internautes. Google Street View est ainsi de nouveau au centre de l’actualité : la Corée détiendrait des preuves de l’interception par Google de données transmises par Wifi. L’affaire est importante, car Google est l’un des principaux acteurs du Web social, déjà suspecté d’abus de position dominante par la Commission européenne, et son pouvoir devrait encore croître avec le succès grandissant que rencontre son navigateur Chrome (10% de parts de marché en 2010). Aussi, l’initiative de la CNIL de sensibiliser les collégiens et lycéens à la protection de leurs données est plus qu’opportune. Par ailleurs, le gouvernement envisagerait de permettre à la DGCCRF de constater les infractions à la législation sur la protection des données, et de transmettre ensuite le dossier à la CNIL.

L’actualité du droit de la propriété intellectuelle suit un chemin tracé d’avance : la loi Hadopi (dont il existe une cartographie de la controverse qu’elle suscite) dissuade les internautes de recourir aux réseaux P2P et, ce faisant, les incite à se replier sur les sites de téléchargement direct(es) ou sur les newsgroups binaires du réseau Usenet. Megaupload aurait ainsi progressé de 35% en un an, pour atteindre un total de 7,4 millions de visiteurs français en novembre 2010. D’où la question (cruciale) de la responsabilité des sites de téléchargement direct. Une Cour allemande a exonéré Rapidshare de responsabilité dans la contrefaçon d’un jeu vidéo : le site serait un hébergeur et, de ce fait, responsable uniquement en cas d’inaction après le signalement d’un contenu illicite. Ce qui est intéressant, dans cette décision, c’est que la Cour a rejeté les demandes d’Atari visant à imposer à Rapidshare de mettre en place un système de filtrage des fichiers hébergés. Pour la Cour, un filtrage fondé sur la comparaison des noms des fichiers avec une liste noire de mots-clés pourrait aboutir à censurer des contenus licites. Cela est d’autant plus intéressant que la Commission européenne étudie justement l’opportunité d’imposer un devoir de filtrage aux intermédiaires. Affaire à suivre (de près).

• 672 mots • #Internet #neutralité #téléchargement #P2P #propriété intellectuelle #responsabilité #Google #vie privée #données personnelles #gouvernement #Facebook #filtrage #réseaux sociaux #piratage #Hadopi #censure #FCC
2 Jan 2011

Bonne année 2011 à tous !

Cette semaine, nous proposons une rétrospective de l’année 2010, au travers des thèmes les plus importants abordés chaque semaine dans cette revue.

Neutralité du Net

  • La Cour d'Appel de Columbia rend sa décision dans l'affaire Comcast, qui interdit à la FCC d'imposer à un fournisseur d'accès des mesures de gestion et d'administration de son réseau (n°1, n°17).
  • En France, l'ARCEP commence à s'intéresser à la question de la neutralité du net (n°1, n°6).
  • La neutralité du net concerne également le contenu, et permet de protéger la liberté d'expression contre le filtrage, qui est une forme de censure (n°11, n°20).
  • Les opérateurs américains Google et Verizon font une proposition conjointe pour insérer le principe de neutralité du Net dans la législation américaine (n°18).
  • La FCC publie des règles pour garantir la neutralité du Net, qui ne semblent satisfaire personne. Elles seraient trop peu protectrices pour la neutralité du Net, selon les partisans du principe, ou au contraire trop contraignantes pour le parti républicain (n°37).

Vie privée et données personnelles

  • On parle, en France, de créer un "droit à l'oubli", permettant aux internautes d'obtenir le retrait des informations personnelles les concernant qui seraient librement accessibles sur le réseau (n°2, n°27).
  • Le réseau social Facebook connaît un succès grandissant en occident. Ses conditions d'utilisation ne cessent d'évoluer (n°4).
  • Google est dans la tourmente, certains l'accusent de ne pas protéger suffisamment la vie privée des utilisateurs (n°5, n°11). Dans l'oeil du cyclone, Street View (n°4, n°6, n°16, n°20).
  • La Commission européenne envisage de réviser la directive de 1995 sur la protection des données personnelles (n°33).

Liberté d’expression

  • Le site Wikileaks, qui a fait des révélations sur la guerre en Irak, dérange les autorités américaines. Il publie une archive de documents chiffrés, en guise d'assurance (n°17, n°18).
  • Certains parlent de faire un "internet civilisé". L'idée est dangereuse (n°24).
  • Wikileaks publie des câbles diplomatiques américains, avec le concours de plusieurs grands quotidiens. Les USA réagissent en essayant de censurer le site. C'est "l'affaire Wikileaks", dont on entendra parler pendant longtemps (n°34, n°35).

Surveillance et sécurité

  • Un projet de loi visant à lever l'anonymat des blogs crée une fronde contre lui (n°7, n°10).
  • La loi LOPPSI2 est discutée au Parlement. Le rôle du juge dans le filtrage d'Internet fait l'objet d'un intense débat (n°8, n°23, n°25, n°32).
  • La loi LOPPSI2 permet aux autorités d'installer des spywares sur les ordinateurs des internautes (n°32).
  • Google menace de quitter la Chine. L'opérateur s'accomode mal (en apparence ?) de la censure imposée par le gouvernement local (n°12, n°13).
  • L'ARJEL demande au juge d'ordonner le filtrage d'un site de paris en ligne non-autorisé (n°17).
  • Affaire Blackberry : plusieurs pays veulent pouvoir contrôler les échanges des utilisateurs du smartphone, qui sont chiffrés par le fabricant canadien RIM. La surveillance que les pouvoirs publics exercent sur les individus, pour des besoins de sécurité, se heurte à la protection de la vie privée et à la liberté d'expression (n°17, n°18).

Propriété intellectuelle

  • Le traité ACTA, visant à lutter au niveau mondial contre la contrefaçon, se négocie dans la plus grande opacité (n°1, n°13, n°14), mais des documents de travail passent les mailles du filet de la censure (n°21). L'Union Européenne réclame plus de transparence (n°2, n°4). Les négociations sont difficiles : l'UE et les USA s'opposent sur plusieurs points (n°14, n°25). Finalement, une version consolidée de l'accord est publiée en octobre (n°26, n°27).
  • La loi Hadopi fait l'objet de nombreuses critiques (n°2). La Haute autorité s'intéresse au filtrage DPI (n°8, n°21), mais rien n'est pour l'instant mis en place.
  • Le système de la riposte graduée est loin de faire l'unanimité dans le monde (n°30).
  • Les logiciels de sécurisation "Hadopi" font polémique. Celui d'Orange, considéré comme un malware, est rapidement retiré (n°10). Plus généralement, l'obligation de sécurisation de sa connexion au réseau reste très floue (n°16, n°22). Certains opérateurs tentent de résister au système Hadopi (n°27).
  • En 2010, la chasse aux adresses IP sur les réseaux P2P continue (n°29).
  • LimeWire, le client pour le réseau P2P Gnutella, perd son procès contre la RIAA aux États-Unis. Le service va fermer (n°5, n°31).
  • L'application de la taxe pour la copie privée aux tablettes (iPad, Archos...) fait l'objet d'une polémique : il est tentant pour la Commission de retenir une définition de la "tablette" qui favorise certains produits au détriment d'autres pourtant semblables (n°7).
  • Aux États-Unis, le contournement des DRM, sanctionné par la loi DMCA, n'est illicite que s'il a pour but de violer un droit de propriété intellectuelle (n°16).
  • Le Parlement européen adopte le rapport Gallo, qui préconise un renforcement des mesures répressives pour lutter contre les atteintes au droit d'auteur (n°24, n°25). On peut observer la même tendance répressive aux États-Unis, notamment avec la loi COICA (n°32).
  • La Cour de justice de l'Union européenne remet en cause la taxe pour la copie privée espagnole : elle ne devrait pas s'appliquer aux supports destinés aux professionnels qui ne réalisent pas de copie privée (n°28).
  • La loi espagnole contre le téléchargement illicite se heurte à de nombreuses difficultés. Les internautes avertis dénoncent une censure du réseau (n°36, n°37).

Web

  • La cotation boursière d'Apple dépasse celle de Microsoft. Dans le même temps, la plateforme Flash d'Adobe est exclue de l'AppStore (n°7).
  • Le journal en ligne Mediapart fait l'objet de vives critique de la part du pouvoir, pour avoir révélé des informations dans l'affaire Woerth-Bettencourt (n°13).
  • Le Conseil constitutionnel juge que l'attribution ou le retrait d'un nom de domaine ont des conséquences sur la liberté d'expression de son titulaire (n°26).

Responsabilité

  • La Cour de Justice de l'Union Européenne rend un arrêt important, le 23 mars 2010, en matière de responsabilité des intermédiaires. La Cour de cassation tranche les litiges pour lesquels elle avait interrogé le CJUE dans plusieurs arrêts du 13 juillet 2010 (n°15).
• 1041 mots • #