Valhalla.fr

Sic Itur Ad Absurdum

"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>"http://www.valhalla.fr"}" itemtype="https://schema.org/Person" />
9 Août 2010

Filemaker est un logiciel puissant, mais ancien et dont l'ergonomie a peu évolué. Depuis quelques années, des systèmes de "tags" ou mots-clés sont apparus dans la plupart des logiciels permettant de gérer des données. Filemaker n'offre aucun système de tags pour classer ses enregistrements, mais il permet d'implémenter un tel système soi-même. Cet article a pour but de décrire une des nombreuses manière de procéder pour y parvenir. • 1599 mots • #programmation #software #bases de données #Filemaker
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
8 Août 2010

Alors que Google annonce qu’elle estime à 130 millions le nombre de livres dans le monde, l’actualité technologique de cette semaine est dominée par la question du filtrage du Net. On en parle aux États-Unis et dans les pays du Golfe, à propos de l’affaire Blackberry, en Indonésie et en Australie, une fois de plus, et en France concernant les sites de paris en ligne. Il est aussi question, cette semaine, de la neutralité du Net, avec un prétendu accord entre Google et Verizon, de la protection de la vie privée, et de la liberté d’expression avec l’affaire Wikileaks qui continue de préoccuper l’armée américaine.

Filtrage : l’affaire Blackberry

L’Arabie Saoudite a annoncé en début de semaine(en) que les Blackberry, ces téléphones «intelligents» (smart phones) fabriqués par la société canadienne Research-In-Motion (RIM), qui ont amorcé le succès de l’internet mobile bien avant l’avènement de l’iPhone, seraient bloqués sur son territoire. Quel est le problème ? Comme les autres smartphones, les Blackberry permettent d’échanger des e-mails. Mais contrairement aux autres téléphones, les messages échangés avec les Blackberry sont chiffrés directement sur le terminal et transmis sous forme chiffrée aux serveurs de RIM (aux États-Unis et en Angleterre), où ils sont stockés. Le chiffre employé est très fort, et le décryptage (c’est-à-dire, le déchiffrement sans la clé de chiffrement) est hors de portée de la plupart des gouvernements.

RIM a construit sa réputation sur la sécurité et la confidentialité des données. La société perdrait rapidement cette réputation si elle laissait certains États peu démocratiques fouiner dans les données des utilisateurs, bien qu’il semblerait qu’elle ait déjà donné un accès limité à l’Inde. Les américains soutiennent cette position… jusqu’à un certain point. En effet, depuis le 11 septembre 2001, la lutte contre le terrorisme est une des priorités de la politique extérieure américaine. Or, les américains peuvent difficilement demander aux autres pays de communiquer des données personnelles de leurs citoyens (comme par exemple dans le cadre des accords PNR et SWIFT avec l’UE), au nom de la lutte contre le terrorisme, tout en protégeant la confidentialité des données stockés sur le territoire contre d’autres gouvernements. A cela s’ajoute un autre problème : quid de la confidentialité messages envoyés par les fonctionnaires américains ou internationaux dans ces pays qui veulent accéder aux données ? On comprend que la secrétaire d’État Clinton ait annoncé que les USA étaient prêts à discuter, avec des experts, sur certaines questions techniques, tout en reconnaissant la complexité de la situation.

Alors que d’autres pays rejoignent la fronde contre le chiffrement des données transmises par les Blackberry (les Émirats Arabes Unis, le Koweit, le Liban, l’Algérie, l’Indonésie, l’Inde(es)), l’Arabie Saoudite semble ne pas encore avoir mis en place de mesure de filtrage.

Dernière minute: un accord semble avoir été trouvé entre RIM et l’Arabie Saoudite, la société canadienne installera des datacenters en Arabie Saoudite afin de stocker sur place les données des utilisateurs de Blackberry du pays.

Filtrage du Web

L’Indonésie annonce qu’elle va filtrer le Web, principalement les sites pornographiques. Les FAI du pays sont placés dans une position délicate par cette décision, puisque c’est sur eux que repose le filtrage. Or, les techniques de filtrage, lorsqu’il se veut massif, ne sont pas très efficaces. Élaborer une «liste noire» de sites à filtrer est un long travail, qui doit constamment être renouvelé.

En Australie, à quelques semaines des élections législatives, l’opposition annonce qu’elle entend abandonner les projets de filtrage du Net de l’actuelle majorité si elle parvient au pouvoir. En réalité, le projet de filtrage semble compromis, même si elle perd, tant il est controversé au sein de la majorité. Les critiques sont bien connues : sur le plan idéologique, la liberté d’expression et, sur le plan technique, l’inefficacité des mesures de filtrage massif.

Filtrage en France : les Sites de Paris en Ligne

L’Autorité de Régulation des Jeux en Ligne (ARJEL) a pour mission de réguler l’activité des sites Web permettant aux internautes de jouer à des jeux d’argent en ligne. Plus précisément, les sites doivent être agréés par l’ARJEL pour pouvoir proposer des jeux aux internautes français. L’ARJEL a la possibilité de demander au juge des référés d’ordonner le blocage des sites non agréés, après une mise en demeure non suivie d’effet. La loi qui libéralise le secteur des jeux en ligne date du 12 mai dernier (juste avant la coupe du monde de football, paris sportifs obligent…), et les premiers contentieux apparaissent maintenant.

Le 25 juin dernier, l’ARJEL a mis en demeure la société Stanjames.com de se mettre en conformité avec la loi française, ou de cesser de proposer des paris au public français. En l’absence de réaction de la société, l’ARJEL a saisi le juge des référés afin d’obtenir le blocage du site litigieux. Par un jugement au fond en forme de référé du 6 août 2010, publié par Numérama, le juge des référés a ordonné aux FAI français de bloquer le site de la société Stanjames.com.

La décision du tribunal est dure pour les FAI français. Ceux-ci sont obligés de mettre en oeuvre toutes les mesures nécessaires pour bloquer le site litigieux : filtrage IP, d’URL, de DNS, et même filtrage avec DPI. Mais surtout, ils doivent faire évoluer les mesures de filtrage dans le temps, afin de garantir que le site continue d’être bloqué. Le coût de ces opérations est pour l’instant supporté par les FAI, le décret devant fixer les modalités de leur dédommagement n’ayant pas encore été publié.

Le filtrage de certains sites est nécessaire. On ne saurait tolérer n’importe quel comportement illicite au nom de la liberté d’expression ou de la liberté du commerce. La position française est donc théoriquement justifiable, d’autant que le filtrage n’intervient pas a priori ou de manière automatique, mais sur décision de justice. Mais il est plus contestable, en revanche, que le principe de subsidiarité de la LCEN (21 juin 2004), selon lequel le demandeur doit d’abord s’en prendre à l’éditeur du contenu litigieux avant d’agir contre l’hébergeur puis contre les fournisseurs d’accès, soit systématiquement évincé ; que la procédure soit celle du référé, dans laquelle le juge se borne, pour rendre un jugement au fond, à vérifier que les conditions d’application de la loi sont réunies ; et surtout que le site concerné ne soit pas partie à la procédure.

Neutralité du Net

L’on reparle également, cette semaine, du principe de neutralité du Net. C’est un article du New York Times(en) qui relance le débat(en) : Google serait prête, selon cet article, à permettre à l’opérateur de téléphonie mobile américain Verizon de moduler la bande passante allouée à un contenu en fonction de la disposition du consommateur à payer pour ce contenu. Le scandale éclate(es) et Google dément. Vinton Cerf(es) réaffirme l’importance du principe de neutralité du Net et Verizon conteste à son tour l’article du NYT.

En France, l’UMP promet une loi afin de garantir la neutralité du Net.

Aux États-Unis, la discussion avec la FCC continue(en). Les partisans de la neutralité du Net veulent voir les fournisseurs d’accès (ISP) qualifiés de «common carriers» au sens du Titre II du Communications Act de 1934(en).

Une petite explication s’impose. Dans l’arrêt Comcast du 6 avril 2010(en,pdf), la Cour d’appel du district de Columbia a décidé que la FCC n’avait pas compétence pour imposer à Comcast, fournisseur d’accès, la neutralité du Net au sein de son réseau. Le FAI est donc libre d’organiser son réseau comme il l’entend, et la FCC n’a pas son mot à dire.

[caption id=»attachment_95» align=»aligncenter» width=»300» caption=»Comcast Case Consequences»]Comcast Case Consequences[/caption]

Pour recouvrer sa compétence régulatoire, la FCC peut qualifier les ISP comme Comcast de «common carriers» et leur appliquer les règles du titre 2 du Communications Act. Mais cela est doublement dangereux. D’une part, les tribunaux pourraient refuser cette qualification, ce qui priverait définitivement la FCC de son pouvoir de contrôle. D’autre part, la FTC (Federal Trade Commission), qui protège notamment les consommateurs et la libre concurrence, perdrait sa compétence sur les ISP, puisqu’elle n’est pas compétente pour réguler les «common carriers» (ce qui est de plus en plus contesté(en)). La FTC dispose en effet d’une compétence générique, horizontale et très large, qu’elle perd pour les questions qui relèvent de la compétence spécifique et verticale d’un autre régulateur.

Anonymat, Vie Privée et Données Personnelles

La Commission européenne a dans l’idée de réformer la directive 95/46 définissant un cadre global pour la collecte et le traitement des données personnelles au sein de l’UE. Si la réforme semble nécessaire, sur certains points, notamment les réseaux sociaux qui touchent aujourd’hui plus de 20 millions d’internautes français, soit un citoyen sur trois, les autorités nationales européennes, la CNIL en France, répondent toutefois qu’il ne faut pas se précipiter. La révision de la directive devrait donc, en principe, avoir lieu pendant le deuxième semestre 2011. Espérons qu’elle parvienne à éviter ce que prédit Eric Schmidt, le PDG de Google : la disparition de l’anonymat sur Internet.

Liberté d’expression : Wikileaks

Wikileaks, le wiki hautement sécurisé dont le but est de permettre la publication de documents confidentiels d’intérêt public sous couvert d’anonymat, se retrouve une fois de plus au premier plan de l’actualité. Le site a publié, il a quelques temps, plusieurs dizaines de milliers de documents secrets de l’armée américaine portant sur l’Afghanistan. Depuis, les autorités américains enquêtent sur le site, et tentent de remonter à la source. Certains serveurs de Wikileaks seraient situés en Suède, pays dans lequel il est juridiquement très difficile (mais pas impossible…) de faire fermer un site web.

Le site a mis en ligne un fichier de 1,4 GO chiffré avec l’algoritme AES, réputé inviolable sauf par force brute (c’est-à-dire, dans les faits, totalement inviolable), appelé «assurance», sans précision sur son contenu. Le fichier étant disponible en ligne, de nombreuses personnes vont le télécharger. Et s’il «arrive malheur à Wikileaks», il n’y aura plus qu’à publier la clé de déchiffrement pour que le contenu du fichier soit à son tour rendu public.

• 1714 mots • #Internet #neutralité #Google #vie privée #données personnelles #jeux en ligne #gouvernement #filtrage #DPI #réseaux sociaux
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
1 Août 2010

Au sommaire cette semaine : propriété intellectuelle avec Hadopi et le logiciel de sécurisation, la licéité du jailbreaking aux USA ou, plus généralement, du contournement des DRM dans le cadre du fair use, et la diffusion de données personnelles publiques sur Internet.

Propriété intellectuelle : Hadopi

On reparle encore, cette semaine, de l’Hadopi qui se met progressivement en place. C’est d’abord du décret 2010-695 du 25 juin 2010 instituant une contravention de négligence caractérisée protégeant la propriété littéraire et artistique sur internet dont il est question. Même s’il représente un modèle à ne pas suivre en termes de légistique, on finit par en comprendre la teneur après quelques lectures : lorsqu’une infraction est constatée, les autorités recommandent un logiciel au titulaire de l’abonnement à Internet ; celui-ci ne verra par la suite sa responsabilité engagée que s’il n’a pas installé ce logiciel et qu’une nouvelle infraction est constatée. Un juriste souligne le problème : ce n’est pas la sécurisation de l’accès à Internet qui permet d’écarter la responsabilité de l’internaute, mais le défaut de sécurisation de cet accès (c’est-à-dire le fait de ne pas installer le logiciel recommandé) qui constitue un élément constitutif de l’infraction. En d’autres termes, la charge de la preuve incombe au parquet. Or, il sera très difficile, en pratique, de démontrer de façon convaincante le défaut de sécurisation.

L’une des principales difficultés provient du logiciel de sécurisation lui-même. Un document confidentiel sur les moyens de sécurisation, émanant de l’Hadopi et publié par Numérama, expose plusieurs problèmes.

1) Le premier problème concerne le fonctionnement du logiciel. Celui-ci analyse l’activité de l’internaute et la consigne dans un journal (log). Ce journal est conservé, sur l’ordinateur de l’internaute, en deux versions : une version en clair, que l’internaute peut lire, et une version chiffrée et signée numériquement, que l’internaute ne peut pas (en principe) consulter ou altérer. En cas de contentieux, la version chiffrée est déchiffrée ; c’est elle qui fait foi. A ce stade, les spécialistes de la cryptologie auront compris le problème : les algorithmes basés sur une clé publique et une clé privée (la cryptographie asymétrique), utilisés dans ce genre de circonstances, supposent que l’expéditeur et le destinataire du message se font confiance. Or, ici, l’Hadopi ne peut pas faire confiance à l’internaute.

Petite explication. L’expéditeur Alice (par convention) génère une clé privée, qu’elle garde secrète, et une clé publique qu’elle communique au destinataire, Bob (idem). Celui-ci chiffre le message avec la clé publique d’Alice et l’envoie à cette dernière. Alice déchiffre ensuite le message à l’aide de sa clé privée. L’idée essentielle est que la clé publique d’une personne permet aux tiers de chiffrer les données pour cette personne, et pour elle seule.

Dans le cas du logiciel Hadopi, le «tiers de confiance» (par rapport à Hadopi), éditeur du logiciel de sécurisation, a pour mission de chiffrer le contenu du journal de l’internaute. Il doit donc installer sa clé publique dans le logiciel de sécurisation qu’il édite, sur l’ordinateur de l’internaute. Conclusion : il suffit à l’internaute de récupérer cette clé publique pour chiffrer n’importe quel message en se faisant passer pour le tiers de confiance (B). Il peut, par exemple, altérer le journal en clair, puis le chiffrer avec la clé du tiers de confiance, et l’envoyer à l’Hadopi à la place du véritable journal chiffré.

Il faut donc empêcher l’internaute de récupérer la clé contenue dans le logiciel. Mais cela n’est pas vraiment possible, même si ce logiciel est compilé et que son code est obscurci (obfuscated). Il y a toujours une possibilité de récupérer la clé, en trançant l’activité du logiciel lors du chiffrement du journal.

2) De là provient la deuxième difficulté : le document mentionne les logiciels libres. Or, par définition, le code source d’un logiciel libre est disponible, et peut être lu et modifié par tout le monde. La clé de chiffrement d’un logiciel libre ne peut donc pas être cachée.

Plus fondamentalement, à partir du moment où le logiciel de sécurisation a pour but d’espionner l’internaute, il ne peut pas être libre. S’il était libre, l’internaute pourrait le modifier pour qu’il ne surveille pas certaines de ses activités, privant ainsi l’espionnage de toute pertinence. Pire encore, dès lors que le logiciel fonctionne sur un système d’exploitation libre (i.e. Linux et al.), qu’il soit libre ou propriétaire, son fonctionnement peut être altéré en modifiant le système d’exploitation (p. ex. : le logiciel lui-même n’est pas modifié, il tente bien de recueillir les données prévues, mais c’est le système d’exploitation qui est modifié pour lui interdire l’accès à ces données).

3) La troisième difficulté porte sur une autre fonction du logiciel de sécurisation : le filtrage. Le logiciel a en effet pour rôle de bloquer une partie du trafic, que ce soit avec certaines sites, à l’aide de certains logiciel ou de certains protocoles, ou sur certains ports. L’efficacité du filtrage est remise en question par l’existence de plusieurs techniques, notamment de tunneling (VPN, Tor…) : un tunnel chiffré est créé entre l’émetteur et le récepteur, et les données par le tunnel sont protégées contre la surveillance venant de l’extérieur.

Autre élément inquiétant : il est envisagé, pour le futur, d’intégrer le logiciel de sécurisation directement dans le routeur ADSL (la «box»). Il deviendrait, de cette manière, beaucoup plus difficile à contourner. Cependant, il mettrait encore plus en péril la vie privée des internautes et leur liberté d’accéder à un Internet ouvert et dépourvu de censure.

Propriété intellectuelle : DRM

La loi américaine Digital Millenium Copyright Act (DMCA)(pdf,en) interdit le contournement des mesures techniques de protection et de gestions des droits numériques (MTP, en français, ou DRM pour Digital Rights Management en anglais). Les DRM empêchent par exemple de lire une chanson achetée sur l’iTunes Store avec un autre logiciel qu’iTunes et sur plus de 5 ordinateurs différents.

Or, la cinquième Cour itinérante vient de juger(en) que le contournement des DRM n’était illicite que s’il était réalisé dans le but de violer les droits de propriété intellectuelle. Le contournement des DRM pour un fair use de l’oeuvre est donc licite(en).

Conséquence immédiate : certaines sociétés qui ont pris la mauvaise habitude de «verrouiller» leurs appareils afin d’emprisonner les consommateurs dans leur écosystème commercial (comprendre : Apple iOS contre jailbreak), ne peuvent plus s’opposer légalement à la levée des mesures de protection… Mais elles peuvent toujours s’y opposer contractuellement (notamment en annulant la garantie !).

Vie privée et données personnelles

L’actualité de cette semaine, en matière de protection de la vie privée et des données personnelles, est dominée par deux affaires : la première concerne Google Street View, et la seconde Facebook.

Google est accusée d’avoir collecté certains contenus transitant par des connexions Wifi non sécurisées, dans le cadre du programme «Street View». Après analyse, l’homologue anglaise de la CNIL, l’Information Commissioner’s Office (ICO), a décidé que Google n’était pas fautive : les données collectées étaient publiques, d’une part, et n’étaient pas «personnelles» (relatives à une personne identifée ou directement ou indirectement identifiable).

Côté Facebook, les données de 100 millions d’utilisateurs ont été collectées dans une base de données, à partir de la liste des profils du site, puis mises à disposition sur les réseaux d’échange P2P. Mais selon le droit américain, il n’y a aucun problème : les données étaient déjà publiques(en), et donc protégées par le premier amendement (exemple du raisonnement dans l’affaire The Virginia Watchdog).

Ces deux affaires mettent en relief un problème de plus en plus important sur Internet : le traitement des données personnelles des internautes présente certains dangers qui sont totalement indépendants de la nature publique des informations. Le regroupement des données personnelles publiques dans une base de données permet des traitements de ces données qui ne sont pas possibles directement depuis le Web (manuellement). En d’autres termes : on collecte d’abord les données nécessaires au traitement, depuis une source publique, puis l’on exploite ces données de telle ou telle manière, sur le fondement de tel ou tel critère.

Les internautes devraient pouvoir diffuser publiquement leurs données, pour qu’elles soient accessibles à des lecteurs humains, tout en interdisant leur inclusion dans des bases de données privées à traitement automatisé. Tel n’est pas le cas, à l’heure actuelle, en droit américain. Peut-être y a-t-il un peu d’espoir du côté de la réglementation de la publicité ciblée ?

On apprend par ailleurs que le site français de Facebook offrirait à certains utilisateurs la possibilité de supprimer leur compte. Jusque là, il n’était pas possible de supprimer définitivement son compte Facebook (et de retirer les données déjà publiées), mais seulement de le désactiver (et d’empêcher la publication de nouvelles données). La fonction semble être encore expérimentale, mais elle montre une volonté de Facebook d’assouplir sa politique, qui visait jusqu’à présent à retenir les utilisateurs autant que possible (et même contre leur volonté). Ce changement est donc une bonne chose, d’autant qu’une étude récente(en) montre que les étudiants américains qui se soucient de la confidentialité des données publiées sur Facebook sont de plus en plus nombreux.

• 1528 mots • #Internet #P2P #propriété intellectuelle #Google #vie privée #données personnelles #Apple #libre #linux #code source #Facebook #filtrage
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
25 Juill 2010

Au sommaire, cette semaine, un peu de droit de la propriété intellectuelle avec Hadopi et le traité ACTA, toujours au centre d’une polémique sur la transparence ; le principe de neutralité du Net dont les contours se précisent peu à peu ; la responsabilité des intermédiaires dans plusieurs arrêts récents de la Cour de cassation.

Propriété intellectuelle

«Ca marche très bien Hadopi», c’est le ministre de l'industrie de la culture qui le dit. Pourtant, elle ne marche pas encore : les premiers mails seront envoyés, toujours selon le ministre, en septembre. Elle pourrait alors être en mesure de traiter jusqu’à 125 000 saisines par jour.

Côté ACTA, l’on apprend que le gouvernement des Pays-Bas réclame la transparence des négociations. L’on apprend dans le même temps qu’un changement de politique, à la Commission européenne, est en cours : les positions européennes et les positions américaines divergeraient de plus en plus. Les causes de ces deux événements sont probablement multiples et complexes ; on peut néanmoins supposer que le durcissement du texte du traité, qui devient un instrument avant tout répressif (exemple de ce qui se fait aux USA), ainsi que la négociation de certaines clauses susceptibles de rendre nécessaires des changements dans le droit européen, éloignent trop le traité de ses objectifs originels.

Neutralité du Net

Le French Data Network a publié sa réponse(pdf) à la consultation publique de l’ARCEP sur la neutralité du Net. Le FDN reproche à l’ARCEP de ne pas suffisamment tenir compte des droits fondamentaux, notamment la liberté d’expression, dans sa conception du principe de neutralité du net.

Il est vrai que le principe de neutralité du net revêt généralement un aspect économique, qui tient plus de la régulation du marché par le droit de la concurrence que de la protection des consommateurs. Pourtant, garantir un accès non discriminatoire au réseau contribue à la fois de faire jouer la libre concurrence et à protéger la liberté d’expression des internautes, dans sa conception négative (droit de recevoir l’information). Le véritable danger vient ici plutôt des pouvoirs publics. En effet, lorsque les FAI censurent un contenu, c’est plus pour des raisons de forme (p. ex., les vidéos consomment trop de bande passante) que de fond. Les pouvoirs publics, en revanche, fondent leur censure de l’information sur le fond, son contenu, et non sur la forme, la manière de la communiquer. C’est cette forme de censure qui nécessite, notamment, la mise en oeuvre de mesures d’analyse du contenu telles que la Deep Packets Inspection.

Commerce électronique

La Cour de justice des communautés européenne (que l’on devrait d’ailleurs appeler Cour de justice de l’Union européenne) avait rendu un arrêt important, le 23 mars 2010, en matière de responsabilité des intermédiaires, répondant ainsi à plusieurs questions préjudicielles posées par la Cour de cassation.

La Haute juridiction française a finalement tranché les litiges dont il était question, grâce à la réponse de la Cour européenne, par 4 arrêts du 13 juillet 2010 : LVMH c. Google ; Viaticum et Luteciel c. Google ; CNRRH c. Google ; GIFAM c. Google. Les deux questions essentielles étaient, d’une part, celle de savoir si Google faisait usage des marques dans le cadre de la vente d’annonces publicitaires (AdWords) et, d’autre part, si la société agissait en tant qu’hébergeur de contenu, bénéficiant d’un régime spécial de responsabilité, ou en tant qu’éditeur, soumis au droit commun. La Cour de Luxembourg avait répondu par la négative à la première question : Google ne fait pas usage des marques, elle n’est donc pas responsable de contrefaçon, contrairement à ses clients qui, eux, choisissent des mots-clés contrefaisants pour élaborer les annonces publicitaires. En revanche, la Cour n’a pas répondu à la deuxième question (qui est pourtant la plus importante) : elle s’est bornée à rappeler les dispositions de la directive (2000/31 dite «commerce électronique»), tout en laissant le soin aux juges du fond des juridictions nationales de décider si, au cas d’espèce, l’activité du défendeur avait un «caractère purement technique, automatique et passif, impliquant [qu’il] n’a pas la connaissance ni le contrôle des informations transmises ou stockées”, ou si, au contraire, elle était de nature à lui conférer un certain contrôle sur le contenu hébergé. Dans le premier cas, l’opérateur peut bénéficier du régime de responsabilité des hébergeurs, alors qu’il est soumis au droit commun dans le second cas.

La Cour de cassation explique d’abord cela, dans un premier motif : «Attendu que la Cour de justice de l’union européenne a dit pour droit (C- 236/08, 23 mars 2010) que l’article 14 de la directive 2000/31/CE du Parlement européen et du Conseil, du 8 juin 2000, relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite « directive sur le commerce électronique », doit être interprété en ce sens que la règle y énoncée s’applique au prestataire d’un service de référencement sur Internet lorsque ce prestataire n’a pas joué un rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées ; que s’il n’a pas joué un tel rôle, ledit prestataire ne peut être tenu responsable pour les données qu’il a stockées à la demande d’un annonceur à moins que, ayant pris connaissance du caractère illicite de ces données ou d’activités de cet annonceur, il n’ait pas promptement retiré ou rendu inaccessibles lesdites données».

La Cour poursuit en citant les faits constatés par les juges du fond, qui permettent de caractériser l’activité de Google : «Attendu que pour refuser aux sociétés Google le bénéfice de ce texte, l’arrêt retient qu’elles ne se bornent pas à stocker des informations publicitaires qui seraient fournies par des annonceurs mais qu’elles déploient une activité de régie publicitaire, d’abord, en organisant la rédaction des annonces, en décidant de leur présentation et de leur emplacement, ensuite, en mettant à la disposition des annonceurs des outils informatiques destinés à modifier la rédaction de ces annonces ou la sélection des mots clés qui permettront de faire apparaître ces annonces lors de l’interrogation du moteur de recherche et, enfin, en incitant les annonceurs à augmenter la redevance publicitaire « coût par clic maximum » pour améliorer la position de l’annonce ; qu’il ajoute que le service Adwords est présenté sur les différents sites Google sous la rubrique et le lien hypertexte « publicité », avec le slogan « votre publicité avec Google » et cette précision « le ciblage à partir de mots clés augmente la pertinence de votre publicité », et que l’activité publicitaire ainsi déployée constitue l’essentiel du chiffre d’affaires qu’elles réalisent».

Puis la Cour conclut : «Attendu qu’en se déterminant ainsi, la cour d’appel a privé sa décision de base légale». La conclusion est, pour le moins, étrange. La Cour de cassation jugeant le droit à l’exclusion des faits, elle n’a pas pu contester les faits relevés par la Cour d’appel. Il faut donc comprendre l’énumération des faits, dans le motif précité, comme signifiant que la Cour d’appel a réussi à caractériser l’existence d’un certain contrôle de Google sur la forme du contenu («en organisant la rédaction des annonces, en décidant de leur présentation et de leur emplacement…»), mais qu’elle a échoué à caractériser l’existence d’un contrôle sur le fond. Or, c’est ce contrôle là qui semble compter, puisque c’est le fond et non la forme qui détermine l’illicéité d’un contenu. On devrait pouvoir en conclure que, si la Cour d’appel avait relevé un contrôle de Google sur la teneur des annonces publicitaires, son arrêté n’aurait pas été cassé.

Un autre point semble important : ce n’est plus tant l’opérateur qui est qualifié d’hébergeur ou d’éditeur, mais le contenu litigieux qui est qualifié d’hébergé ou d’édité. La Cour juge dit : «Attendu que pour écarter l’application du texte susvisé à l’activité de prestataire de positionnement payant sur internet exercée par la société Google France, l’arrêt retient que cette dernière tente d’opérer une confusion entre cette activité et celle de son moteur de recherche, et que sont vaines ses tentatives de se voir reconnaître le bénéfice de dispositions légales ou jurisprudentielles applicables aux intermédiaires techniques» … «Attendu qu’en se déterminant ainsi, alors que la Cour de justice de l’Union européenne a notamment dit pour droit, dans sa décision précitée, que l’article 14 de la directive 2000/31/CE du Parlement européen et du Conseil, du 8 juin 2000, relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur, dite « directive sur le commerce électronique », doit être interprété en ce sens que la règle y énoncée s’applique au prestataire d’un service de référencement sur Internet lorsque ce prestataire n’a pas joué un rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées, la cour d’appel, qui n’a pas examiné l’existence de ce rôle actif, n’a pas donné de base légale à sa décision». Peu importe, donc, l’activité de l’opérateur. Ce qui importe c’est l’action de cet opérateur par rapport au contenu litigieux. S’il a exercé un rôle actif, une certaine forme de contrôle sur ce contenu, il perd le bénéfice du régime de responsabilité des hébergeurs.

Il ne convient pas ici de faire une analyse exhaustive de la solution de la Cour. On fera néanmoins trois remarques : 1) ces arrêts vont dans un sens diamétralement opposé à celui de la jurisprudence Tiscali, pourtant récente ; 2) ils vont beaucoup plus loin que la Cour européenne, en instaurant une interprétation très large de la notion d’hébergement ; 3) ils laissent de nombreuses questions en suspend, et ne réduisent en rien l’insécurité juridique qui domine cette manière depuis quelques années.

En outre, la solution de la Cour peut présenter des inconvénients. Par exemple : qu’en est-il de l’opérateur qui pourrait (devrait ?) exercer un contrôle sur le contenu, mais qui ne le fait pas, par négligence ou pour des raisons économiques ? Selon la Cour, s’il n’exerce pas de contrôle, il est hébergeur. Il ne sera donc responsable que s’il n’a pas agi après avoir pris connaissance d’un contenu illicite. On le voit clairement avec cette hypothèse : cette jurisprudence incite les personnes qui, d’un point de vue technique, ne sont pas des hébergeurs, à ne pas contrôler le contenu diffusé, afin de bénéficier d’un régime de responsabilité plus souple. Mais, contrairement à ce que l’on pourrait penser, cette absence de contrôle n’est pas favorable à la liberté d’expression. Bien au contraire, elle incite à la censure puisque les hébergeurs ont tout intérêt à agir contre les contenus qui leur sont signalés comme étant illicites, avant même qu’un tribunal se prononce sur leur licéité.

• 1780 mots • #Internet #neutralité #téléchargement #P2P #propriété intellectuelle #commerce électronique #responsabilité #Google #international #gouvernement #filtrage #DPI #ACTA #hébergement
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
18 Juill 2010

L’actualité de cette semaine est dominée par les négociations du traité ACTA. Rappelons qu’il s’agit d’un traité sur la propriété intellectuelle qui a notamment pour but d’apporter une réponse coordonnée au niveau mondial à la contrefaçon numérique sur Internet. Si la finalité du traité est légitime, il n’en va pas de même de la façon dont il est élaboré et, dans une certaine mesure, de son contenu.

L’élaboration du traité, d’abord, se déroule dans la plus grande opacité. En avril, un projet de texte avait été diffusé sur Internet et certains s’étaient prononcés pour la transparence des négociations. En juillet, c’est un nouveau round dans les négociations qui se termine, avec pour mot d’ordre donné aux parties de ne pas révéler le texte(en). On savait que les États-Unis faisaient pression pour garder le texte secret, et l’on apprend cette semaine que l’Europe fait peu d’efforts pour obtenir la transparence. Heureusement, il existe encore certains démocrates qui ont utilisé le Web, le média le plus démocratique, pour publier le texte du traité(en,pdf).

Pourquoi garder le secret ? La raison officielle est que la révélation des questions débattues pourrait causer préjudice aux négociations. On se demande bien comment… La véritable raison est bien différente : le traité ACTA va à l’encontre des intérêts des citoyens, et ceux-ci ne doivent donc pas prendre connaissance de son contenu tant qu’il n’est pas terminé. Une fois le traité terminé, ils seront mis devant le fait accompli. Il s’agit d’une pratique dite de policy laundering(en) (blanchiment législatif) : lorsque les gouvernants ne veulent pas discuter un texte au Parlement de leur pays, ils négocient ce texte au niveau international puis, une fois le traité signé, ils présentent son implémentation en droit national comme une obligation internationale. Cela ne signifie pas, pour autant, que l’élaboration d’un traité n’est pas nécessaire : Internet étant intrinsèquement international, les réglementations nationales ne suffisent pas. Mais le problème est ici différent, puisqu’il porte sur les objectifs du traité, qui se révèlent dans son contenu.

Les objectifs du traité sont multiples. Certains sont légitimes, mais d’autres ne le sont pas. Deux objectifs, en particuliers, sont illégitimes : le contrôle des communication électroniques (en clair, la censure), et la défense des intérêts financiers d’un petit groupe d’industriels au détriment de la société. En d’autres termes, comme les dernières lois françaises en matière de propriété intellectuelle (DADVSI, HADOPI), le traité cherche à favoriser ceux qui vendent du contenu culturel au détriment de ceux qui produisent ce contenu (certains s’y font prendre, d’ailleurs, à soutenir à la fois «la culture» et «l’augmentation du PIB»…) et de ceux qui le consultent.

Quand au contenu, on note l’opposition entre USA et UE. Les USA veulent limiter le champ d’application matériel du traité, alors que l’UE cherche à l’étendre. Cette extension a pour conséquence, notamment, d’imposer à plusieurs parties des changements de leur droit national, alors qu’il était prévu, au début des négociations, que de telles modifications ne seraient pas nécessaires. Un commentateur conclut qu’il faut être «effrayé, très effrayé»(en) des modifications que les dispositions civiles et pénales du traité pourraient apporter en droit anglais.

On peut d’ailleurs s’interroger sur la valeur de ces dispositions répressives, en pratique, lorsqu’on sait que la lutte judiciaire contre la contrefaçon coûte plus cher qu’elle ne rapporte. Pourtant, il semblerait qu’elle continue de faire recette, notamment aux États-Unis. Les anglais, plus malins, cherchent à faire supporter une partie des coûts par les intermédiaires techniques du réseau.

L’actualité de la propriété intellectuelle ne se limite pas, cette semaine, au traité ACTA. On apprend par exemple que Motorola utilise un DRM particulièrement agressif qui détruit tout simplement le téléphone lorsqu’on tente d’altérer sa configuration logicielle. En anglais, on dit que le DRM «brick the phone», c’est-à-dire qu’il le transforme en «brique», ou du moins en en objet aussi utile pour communiquer qu’une brique… A l’exact opposé, le Brésil tente de garantir le «fair use» contre ce genre de procédés.

Les libristes s’interrogent quant à eux sur l’influence du copyright sur les licences libres. Il est paradoxal, en effet, que ce soit le copyright, un instrument fait pour restreindre les droits des tiers, qui permette de les garantir. La valeur juridique et l’efficacité du copyleft, notamment, qui permet d’imposer le maintien des conditions d’utilisation de l’oeuvre (i.e. un logiciel libre ne peut être inclus dans un logiciel propriétaire), sont garanties par le copyright.

• 746 mots • #Internet #neutralité #téléchargement #P2P #propriété intellectuelle #commerce électronique #responsabilité #Google #vie privée #données personnelles #Apple #blog #open source #libre #linux #international #jeux en ligne #code source #gouvernement #discrimination #Facebook #filtrage #DPI #réseaux sociaux #ACTA #hébergement
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
11 Juill 2010

Au sommaire, cette semaine, la liberté d’expression et les révélations de Mediapart dans l’affaire Woerth-Bettencourt, le filtrage en Australie, l’anonymat sur les forums Blizzard, Facebook et Google encore accusés de violer la vie privée des internautes, et les dernières évolutions du traité ACTA.

Liberté d’expression

Une affaire politique a dominé l’actualité de cette semaine : le témoignage de l’ancienne comptable de la famille Bettencourt, qui accuse certains hommes politiques d’avoir reçu de l’argent en espèces des milliardaires pour le financement de leur parti. Ces révélations proviennent d’un journal en ligne, Mediapart. La réaction du parti au pouvoir fut violente : le journal fut assimilé à Gringoire ou à d’autres publications fascistes qui participèrent, notamment, à l’infâme campagne de diffamation à l’encontre de Roger Salengro à l’époque du Front populaire. Le fait que le journal paraisse en ligne permit à ses détracteurs d’utiliser le sophisme habituel : sur Internet, on trouve des contenus illicites et des informations fausses ; Mediapart est publié sur Internet ; donc ce qu’il dit est faux. Étrangement, le Web retrouve toutes ses vertus lorsqu’il est utilisé par les défenseurs du ministre mis en cause. Mais peu importe : l’affaire donne du grain à moudre à ceux qui voudraient censurer le seul média aujourd’hui véritablement démocratique (au sens premier du terme : «l’information citoyenne» est apportée par le peuple, et non par les médias traditionnels qui sont parfois mus par des intérêts étrangers à leur mission première d’information).

Le filtrage du Web, qui est une forme de censure, présente un véritable danger pour la démocratie. On ne pourra donc que se réjouir que, face aux critiques, l’Australie décide de reporter(en) son projet de filtrage du réseau. A l’inverse, l’on pourra comprendre que l’ARJEL mette en demeure des sites de pari en ligne illicites de ne plus exercer en France. Mais cela ne veut pas dire que le procédé est toujours légitime ou efficace. En l’occurrence, on peut comprendre, en raison de la sensibilité de la question des jeux d’argent, que l’administration intervienne a priori pour autoriser certains sites, et qu’elle ordonne ensuite aux sites non autorisés de ne plus offrir leurs services au public français. Cela reste légitime tant que les sites concernés sont spécifiquement et individuellement visés, et que le filtrage n’est pas automatique. En revanche, côté pratique, il est permis de douter de l’efficacité de ces mesures de blocage : il suffit d’utiliser un Proxy/VPN (ou pas(en)) pour échapper au filtrage.

Le filtrage peut être beaucoup plus nuisible (et efficace) lorsqu’il est mis en place par des opérateurs qui occupent une place importante dans l’accès au contenu sur Internet. C’est le cas de Google qui est devenu le portail d’entrée sur le Web de nombreux utilisateurs. Utiliser un seul outil est dangereux, et les dangers pourraient bien se concrétiser s’il était prouvé que Google modifie volontairement le classement (PageRank) de certains sites. Pour l’instant, rien n’est établi, mais la Commission européenne enquête(en). Les fournisseurs d’accès (FAI) sont aussi des opérateurs importants, qui peuvent bloquer un site. C’est pourquoi des ayants-droit ont assigné en justice deux FAI belges afin de faire bloquer le site The Pirate Bay. La justice belge a estimé que le blocage total du site était une mesure disproportionnée (certains contenus étant tout de même licites, sur The Pirate Bay…).

À mi-chemin entre liberté d’expression et protection de la vie privée, Blizzard (l’éditeur de World of Warcraft) annonce cette semaine que ses forums ne seront plus anonymes. La justification est classique(en) : le pseudonymat inciterait les internautes à se conduire comme des sauvages, sans la retenue que l’on s’impose lorsque l’on signe un discours de son nom. On peut retourner l’argument : l’anonymat et, dans une certaine mesure, le pseudonymat, permettent d’éviter tout risque d’auto-censure et de préserver la sérénité de l’auteur ; c’est par eux que l’on atteint la véritable liberté d’expression, pour le meilleur comme pour le pire. Cela peut semble trivial, mais il devient de plus en plus nécessaire de le rappeler : sans liberté, il ne peut y avoir d’abus ; l’existence d’abus est donc parfaitement normale, puisqu’elle caractérise l’existence d’une liberté. Bien entendu, cela ne veut pas dire que les abus doivent être protégés ; au contraire, ils doivent être sanctionnés, mais cette sanction doit intervenir ex post et non ex ante. L’annonce de Blizzard provoqua un véritable tollé, les internautes étant très attachés au pseudonymat. Devant l’ampleur des critiques, la société finit par se rétracter.

Vie privée

Le célèbre réseau social Facebook serait-il sur le déclin ? Les internautes américains semblent peu à peu se désintéresser du site, pour plusieurs raisons : les critiques liées à la protection de la vie privée, notamment les changements de la «privacy policy» de Facebook ; les incitations à quitter le réseau social ; le succès grandissant de concurrents ; et le fait que beaucoup d’internautes finissent par réaliser, après un temps d’utilisation de Facebook, que le réseau social est addictif, mais qu’il ne remplace par les relations humaines dans le monde réel.

Alors que certains gouvernements utilisent Facebook pour la communication politique(en), d’autres continuent de se préoccuper de la protection des données personnelles déversées sur le réseau social. C’est le cas de l’Allemagne qui accuse Facebook de traiter des données de personnes qui ne sont pas membres du réseau (et qui n’ont donc pas pu consentir à un tel traitement). Facebook a jusqu’au 11 août(es) pour répondre aux autorités allemandes. Une procédure contre Facebook est également initiée au Canada, où il est reproché au site d’avoir modifié sa politique de protection de la vie privée et d’exploitation des données personnelles sans le consentement des personnes concernées.

Lorsqu’on parle de Facebook, Google n’est pas loin derrière. Alors qu’il vient d’obtenir le renouvellement de sa licence en Chine, le moteur de recherche est lui aussi accusé de violer la vie privée des internautes par l’exploitation de leurs données personnelles, cette fois en Australie(es) et en Espagne(es). C’est le service Street View qui est une fois de plus visé.

La protection des données implique certaines restrictions à la collecte et au traitement, mais aussi la sécurisation de leur stockage. Et c’est une faille dans la sécurité de The Pirate Bay qui a permis, grâce à une injection SQL, à des personnes mal intentionnées d’exposer des données des internautes inscrits au site(en), notamment des adresses IP. Peut-être que le nouvel hébergement du site sur les serveurs du parlement suédois serait une bonne occasion de revoir la sécurité de ses logiciels !

Apple commence à connaître de tels problèmes (en plus de ceux relatifs à la concurrence) : certains comptes iTunes ont été compromis par un vendeur indélicat, et la société a mis du temps à réagir. Les problèmes relatifs à la vie privée vont probablement se multiplier pour Apple, car la plateforme iAds vient d’ouvrir. On rappellera qu’il s’agit d’un service permettant à des annonceurs de vendre de la publicité aux utilisateurs des appareils Apple, iPhone, iPod Touch et iPad. Apple gère le système et se charge d’injecter les publicités dans les appareils de ses clients.

Pour finir sur une note optimiste, des solutions pour renforcer la protection de la vie privée des internautes sont envisagées par la fondation Mozilla, qui édite le navigateur Firefox.

Propriété intellectuelle

Au niveau européen, le vote sur le rapport Gallo est repoussé à septembre.

En attendant, le groupe de l’article 29 (de la directive 95/46 sur la protection des données personnelles) va s’intéresser au traité ACTA(en) dès la semaine prochaine. Alors que le round de Lucerne s’achève (v. la timeline élaborée par Michael Geist(en)), un pays continue à s’opposer à la transparence(en). Vu les antécédents, il est probable qu’il s’agisse des États-Unis (où l’on constate depuis quelque temps que, sur ce plan-là au moins, en matière de propriété intellectuelle, Obama ne vaut pas mieux que Bush).

Heureusement, il existe encore, parfois, un peu de justice dans le droit de la propriété intellectuelle. C’est ainsi qu’un juge américain a estimé que la condamnation d’une personne à 675.000 dollars d’amende pour avoir téléchargé 30 chansons sur Kazaa(en) constituait une violation de la clause due process de la Constitution. En effet, la disproportion entre l’amende et la violation des droits dépasse ce qu’il est nécessaire pour indemniser le préjudice de la victime et punir l’auteur du délit (le droit américain connaît les dommages-intérêts punitifs) : c’est tout simplement un châtiment cruel, et donc contraire à la Constitution (et dire que l’on diabolise les vilains-internautes-pirates, qui sont présentés comme des monstres voulant tuer la culture… on se demande vraiment qui est le plus monstrueux…). Le juge a divisé la somme par 10, l’amenant à 67.500 dollars (ce qui est déjà énorme pour 30 chansons !).

• 1513 mots • #Internet #neutralité #téléchargement #P2P #propriété intellectuelle #commerce électronique #responsabilité #Google #vie privée #données personnelles #Apple #blog #open source #libre #linux #international #jeux en ligne #code source #gouvernement #discrimination #Facebook #filtrage #DPI #réseaux sociaux #ACTA #hébergement
"GF", "login"=>"gflorimond", "email"=>"[email protected]", "url"=>""}" itemtype="https://schema.org/Person" />
4 Juill 2010

Début des vacances oblige, l’actualité de cette semaine est moins dense. Mais cela ne veut pas dire que les questions qu’elle soulève sont moins importantes. La réflexion sur la rénovation de l’architecture d’Internet est au contraire l’exemple parfait d’une question cruciale. Internet est un réseau d’ordinateurs, fondé sur une technologie de communication appelée TCP/IP. D’où les fameuses «adresses IP» qui identifient chaque ordinateur impliqué dans une communication. En utilisant une métaphore du monde réel, on pourrait dire que l’on indique à une personne que pour se tendre à tel endroit, elle doit passer par telle ou telle rue, de la même manière que l’information passe par tel ou tel ordinateur, identifié par une adresse IP, pour parvenir à sa destination, elle aussi identifiée par une adresse IP. Mais la métaphore s’arrête là. La technologie IP est vieille, à l’échelle de l’histoire informatique. Elle a été inventée dans le monde universitaire où certaines contraintes n’existaient pas : le nombre d’ordinateurs dotés d’une adresse, la sécurité des transmissions, l’identification de l’émetteur et du destinataire de la communication, etc. Avec le développement du réseau et la démocratisation de son usage, le plein exercice de la liberté d’expression et les abus qu’il entraîne, et l’explosion du commerce électronique, il est devenu nécessaire de revoir l’architecture technique d’Internet. Un premier pas a été franchi avec le début de transition des IPv4 (4 série de 3 chiffres) aux IPv6 (8 groupes de 16 bits) afin d’augmenter le nombre d’allocations possibles. Mais des changements plus profonds sont prévisibles, notamment une plus grande décentralisation des données dans le cadre du cloud computing.

Liberté d’expression

Certains pays filtrent et censurent Internet, et cela ne plaît pas aux autorités américaines qui étudient un projet de loi pour contraindre les autres pays à préserver l’ouverture du réseau. On ne peut qu’approuver : la censure par filtrage systématique de certains sites ou de certains contenus doit être combattue. Le filtrage devrait être strictement cantonné aux mesures ex post prises sur décision de justice, afin de faire cesser un illicite ou un préjudice, et tout aussi strictement limité, d’une part, aux contenus illicites et, d’autre part, par le principe de proportionnalité (adéquation de la mesure au but qu’elle poursuit).

Cependant, les USA font fermer des sites de téléchargement illicite, certains installés aux Pays-Bas. D’où la conclusion suivante, ironique mais pas trop : la liberté de communication est le droit le plus fondamental, mais le droit de «faire de l’argent» l’est plus encore. Cette conclusion ne s’applique pas, en revanche, au blocage des comptes Paypal des exploitants de ces sites, qui fondent leur modèle économique sur un préjudice causé à autrui. Mais elle s’applique bien à la fermeture des sites, dès lors qu’il aurait été suffisant d’ordonner le retrait des contenus illicites.

En Chine, Google jour sa dernière carte pour continuer d’exister tout en préservant un certain degré de neutralité par rapport aux sites indexés. Ainsi, l’internaute chinois ne sera plus automatiquement redirigé vers le site de Google à Hong-Kong, non censuré, mais un lien lui permettra tout de même de se rendre sur ce site. Il serait étonnant que les autorités chinoises acceptent cela : une passoire, qu’elle ait 1 ou 1000 trous, reste une passoire…

En France, les parlementaires semblent aimer un peu trop Twitter. Le problème, avec Twitter, c’est qu’on a du mal à caser les «éléments de langage» venus d’en haut en 140 caractères. Faute de pouvoir convenablement (dés)informer en si peu de mots, mieux vaut s’abstenir…

En France encore, on s’interroge sur le délit de mise à disposition de dispositifs permettant le contournement de mesures techniques (loi DADVSI) : le «full disclosure» des failles de sécurité, par des chercheurs et à des fins pédagogiques, pourrait-il constituer un tel délit dès lors que les failles rendues publiques sont par la suite utilisées par des personnes mal intentionnées ? La loi est dure, mais c’est la loi, même quand elle est stupide et injuste. Il ne reste qu’à espérer que les juridictions sauront l’interpréter de manière intelligente.

La Finlande, après l’Estonie, reconnaît que l’accès à Internet est un droit.

Propriété intellectuelle

On revient, une fois de plus, sur la très détestable loi Hadopi, avec un coût de la haute autorité estimé à 70 millions d’euro sur 3 ans (ou comment le contribuable paie pour être intimidé dans la plus grande transparence).

De son côté, la taxe pour la copie privée devient de plus en plus abominable. Pendant des années, la Commission chargée de la fixer avait pris en compte à la fois les copies licites et les copies illicites. Le Conseil d’État a rappelé que la taxe ne pouvait porter que sur les copies licites. La taxe, qui se trouve privée d’une partie substantielle de son assiette, aurait dû voir son montant rabaissé. Mais c’est sans compter sur l’ingéniosité du lobby de l’industrie (soi-disant) culturelle. Voici son raisonnement : si le système Hadopi fonctionne, le nombre de téléchargement illicite baissera, et le nombre de téléchargements licites augmentera proportionnellement ; donc, le montant de la taxe doit augmenter. Deux failles dans le raisonnement : dans la plupart des cas, l’internaute ne téléchargera pas de manière licite ce qu’il n’a pas pu télécharger de manière illicite, il passera son chemin (ce qui est de nouveau confirmé par une étude universitaire) ; en admettant toutefois, par hypothèse, que l’augmentation des téléchargements licites compense la baisse des téléchargements illicites, il y aurait un effet de vases communicants qui justifierait le maintien du montant de la taxe, mais en aucun cas son augmentation.

De son côté, le traité ACTA continue son bonhomme de chemin (et ses détracteurs le leur), et devrait être terminé dans 6 moisen</a>…

Vie privée

Facebook fait un nouveau pas en avant dans le traitement des données personnelles, en introduisant un mécanisme de reconnaissance faciale. Google, quant à elle, projette de lancer un réseau social concurrent. Un renforcement de la protection des données personnelle devient de plus en plus nécessaire…

• 1008 mots • #Internet #neutralité #téléchargement #P2P #propriété intellectuelle #commerce électronique #responsabilité #Google #vie privée #données personnelles #Apple #blog #open source #libre #linux #international #code source #gouvernement #discrimination #Facebook #filtrage #réseaux sociaux #ACTA #hébergement