La recherche et ses publications : le long chemin vers un libre accès

« Si la recherche universitaire est financée par des fonds publics, il n’y a aucune raison pour que ses publications soient privées ». Et pourtant…

La diffusion des publications universitaires dépend le plus souvent d’éditeurs qui tirent profit de situations de quasi-monopole en imposant une sorte de péage.
Pour échapper à ce contrôle marchand qui rend inaccessible l’accès aux connaissances à une part importante de la communauté scientifique mondiale, un nombre significatif de chercheuses et chercheurs désirent rendre le fruit de leur travail intellectuel disponible en Open Access.

La lutte pour le partage des connaissances est déjà ancienne. Retour rapide…

Il y a un peu plus de 10 ans maintenant, Aaron Swartz subissait la pression de poursuites judiciaires, qui allait le mener au suicide, pour avoir téléchargé et mis à disposition gratuitement 4,8 millions d’articles scientifiques de JSTOR, une plateforme de publication universitaire payante. Aaron Swartz était partisan d’un libre accès aux connaissances scientifiques, levier d’émancipation et de justice.

Aron Swartz par Sage Ross, CC BY-SA 2.0 <https://creativecommons.org/licenses/by-sa/2.0>, via Wikimedia Commons
Alexandra Elbakyan par Apneet Jolly, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons
C’est à peu près à la même époque qu’Alexandra Elbakyan a lancé Sci-Hub, animée du même désir de donner un large accès aux publications universitaires à tous ceux qui comme elle, n’avaient pas les moyens d’acquitter le péage imposé par des éditeurs comme la multinationale Elsevier.

Une large majorité de chercheurs, en France comme dans le monde entier, est favorable à l’accès libre à leurs publications. Citons par exemple Céline Barthonnat, éditrice au CNRS :

la diffusion du savoir scientifique fait partie du travail des personnels de la recherche [article L411-1 du code de la recherche]. Beaucoup de ces recherches qui sont financées par l’argent public sont diffusées ensuite par ces éditeurs prédateurs”.

(source)

Le billet de Glyn Moody que Framalang a traduit pour vous marque peut-être une étape dans ce long combat où la volonté de partager les connaissances se heurte constamment aux logiques propriétaires mercantiles qui veulent faire de la circulation des publications scientifiques un marché lucratif.

Glyn Moody indique ici qu’il existe désormais une possibilité pour que les auteurs et autrices de « papiers » scientifiques puissent conserver leur droit de publication et en permettre le libre accès.


Article original : Rights retention: one small step for academics, one giant leap for global access to knowledge

Traduction Framalang : Barbidule, Burbumpa, Claire, Draenog, Fabrice, goofy, jums, Sysy, xi

Rétention des droits : un petit pas pour la recherche, un pas de géant pour l’accès universel à la connaissance.

par Glyn Moody

empreinte du premier pas humain sur la Lune
Image by NASA/Buzz Aldrin.

 

Glyn Moody, par https://www.flickr.com/photos/stuartyeates/126951892/, CC BY-SA 2.0Il y a quelques semaines, nous nous demandions si les éditeurs universitaires essaieraient de faire supprimer l’extraordinaire Index général des publications scientifiques créé par Carl Malamud. Il existe un précédent de ce genre de poursuites judiciaires contre un service du plus grand intérêt pour la société. Depuis 2015, les éditeurs essaient de faire taire Sci-Hub, qui propose près de 90 millions de publications universitaires. Le motif de leur plainte : Sci-Hub viole leurs droits d’auteur1

C’est étrange, car d’après la loi, les droits d’auteur de la vaste majorité de ces 90 millions de publications sont détenus par les chercheur·euse·s qui les ont rédigées.

Et la majorité de ces chercheur·euse·s approuve Sci-Hub, comme l’a clairement montré une étude menée en 2016 par le magazine Science :

Il est probable que l’échantillon retenu pour le sondage soit biaisé par une surreprésentation des fans du site : près de 60 % des personnes interrogées disent avoir déjà utilisé Sci-Hub, et un quart le font quotidiennement ou chaque semaine. De sorte qu’on ne s’étonnera guère si 88 % d’entre elles déclarent ne rien voir de mal dans le téléchargement de publications piratées. Mais notez bien, éditeurs universitaires, que ce ne sont pas seulement des jeunes et de grands utilisateurs de Sci-Hub qui voient les choses ainsi. Un examen plus attentif des données du sondage indiquait que les personnes interrogées de toutes les catégories soutiennent la fronde, même celles qui n’ont jamais utilisé Sci-Hub ou celles âgées de plus de 50 ans – respectivement 84 % et 79 % – n’avaient aucun scrupule à le faire.

Alors, si la plupart des chercheur·euse·s n’ont aucun problème avec Sci-Hub, et l’utilisent eux-mêmes, pourquoi le site est-il poursuivi par les éditeurs ? La réponse à cette question révèle un problème clé crucial, celui des tentatives en cours pour rendre les savoirs universitaires librement accessibles, par le biais de l’open access.

Théoriquement, les chercheur·euse·s peuvent diffuser leurs publications sous une licence Creative Commons, ce qui permet de les lire et de les reproduire librement, et de se baser facilement sur ce travail. En réalité, les auteurs sont souvent « incités » à céder leurs droits aux éditeurs de la revue où apparaît la publication, ce qui conditionne l’accès aux connaissances derrière à des paiements onéreux. Ce n’est pas indispensable, c’est seulement ce qui est devenu habituel. Mais les conséquences en sont importantes. D’abord, les auteurs originaux deviennent réticents à partager leurs articles, parce qu’ils sont « sous copyright », comme le mentionne un précédent article (en anglais) de ce blog. Ensuite, si les droits sont transférés des auteurs vers les éditeurs, alors ces derniers peuvent poursuivre en justice les sites comme Sci-Hub, sans tenir compte de l’avis des chercheur⋅euse⋅s.

La bonne nouvelle, c’est qu’il existe maintenant des efforts coordonnés pour éviter ces problèmes grâce à « la rétention des droits ». Tout en garantissant aux éditeurs le droit de diffuser un article dans leur publication, les auteurs et autrices conservent aussi certains droits pour permettre le libre partage de leurs articles, et leur utilisation par des sites comme Sci-Hub. Un des chefs de file de cette initiative est cOAlition S, un groupe d’organisations de financement de la recherche, avec le soutien de la Commission européenne et du Conseil Européen de la Recherche. Les principes essentiels du « Plan S » de la Coalition précisent :

À compter de 2021, toutes les publications universitaires dont les résultats de recherche sont financés via des fonds publics ou privés au travers d’institutions nationales, continentales, régionales ou internationales, doivent être publiées dans des revues ou sur des plateformes en libre accès, ou bien encore être immédiatement disponibles sur un répertoire en libre accès, et ce sans aucune restriction.

L’un des points-clés de ce Plan S est le suivant :

Les auteurs et autrices ou leurs institutions gardent les droits sur leurs publications. Toute publication doit être placée sous licence ouverte, de préférence la licence Creative Commons Attribution (CC BY).

 

 

deux petits personnages simplifiés (boules avec 4 membres). l'un est enfermé derrière les barreaux d'une prison, il porte sur lui un C comme copyright, l'autre est libre et s'en va en courant, il porte les deux C de Cretaive Commons.
Illustration par Nina Paley

 

Ça semble fonctionner. Un récent article de Ross Mounce mettait en évidence le fait suivant :

En tant que personne indépendante de la cOAlition S, j’ai pu observer avec grand intérêt la mise en application de la stratégie de rétention des droits.
En utilisant Google Scholar et Paperpile, j’ai relevé plus de 500 papiers publiés sur des centaines de supports différents qui utilisaient la référence à la stratégie de rétention des droits dans les remerciements.

Les auteurs s’en servent pour conserver leurs droits sur les prépublications, les articles de revues, les supports de conférences, les chapitres de livres et même des posters sur les affiches, c’est tout à fait logique. La stratégie est rédigée en termes simples et elle est facile à ajouter à des résultats de recherche. Il est aisé de mentionner ses sources de financement des recherches et d’ajouter ce paragraphe : « Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de la présente soumission », et donc les autrices et auteurs le font.

Comme souligné ci-dessus, il suffit donc aux chercheur·euse·s d’ajouter la brève mention qui suit à leurs articles pour conserver leurs droits fondamentaux :

« Afin de maintenir un accès libre, l’auteur⸱ice a appliqué la licence de libre diffusion CC BY à toute version finale évaluée par les pairs découlant de cette la présente soumission. »

C’est un si petit pas pour un⸱e chercheur⸱euse, mais un tel pas de géant pour faciliter l’accès universel à la connaissance, que toutes et tous devraient le faire naturellement.

Ce billet de Glyn Moody est sous licence CC BY 4.0


Pour aller plus loin…


 




Glyn Moody sur l’article 13 – Une aberration judiciaire

Glyn Moody est infatigable dans son combat contre les dispositions néfastes de la directive européenne sur le droit d’auteur dont le vote est maintenant imminent. Il y consacre une série d’articles dont nous avons déjà proposé deux traductions.

Voici un troisième volet où l’auteur expose notamment le danger de plaintes injustifiées et automatisées de la part de cyberdélinquants.

Article original par dans Copybuzz : Article 13 is Not Just Criminally Irresponsible, It’s Irresponsibly Criminal

Traduction Framalang : jums , Khrys, goofy, Barbara

L’article 13 est criminel et irresponsable

par Glyn Moody

Dans un éditorial précédent, j’ai souligné qu’il existe un gros mensonge au cœur de l’Article 13 de la proposition de directive européenne au sujet du droit d’auteur : il est possible de vérifier les téléversements de matériels non-autorisés sans pouvoir inspecter chaque fichier. L’UE s’est retrouvée dans cette position absurde car elle sait que de nombreux parlementaires européens rejetteraient l’idée d’imposer une obligation de suivi général sur les services en ligne, ne serait-ce que parce que la directive sur le commerce en ligne l’interdit de manière explicite. Au lieu de cela, le texte de l’article 13 prétend simplement que des alternatives techniques peuvent être trouvées, sans les préciser. La session parue récemment de « Q & R sur la proposition de directive au sujet du Copyright numérique » par le Parlement Européen explique encore que si les services ne sont pas assez intelligents pour trouver des solutions et utiliser des filtres sur les téléversements de contenu, c’est forcément de leur faute.

vue à la loupe d’un fragment de lettre anonyme d’extorsion avec des lettres découpées
Image par Sheila Sund.

 

Imposer des obligations légales qu’il est impossible de remplir, c’est avoir une conception totalement irresponsable de la chose judiciaire. Mais il existe un autre aspect de l’article 13 qui est pire encore : c’est qu’il va encourager une nouvelle vague de criminalité. On a du mal à imaginer un plus grand échec qu’une loi qui augmente l’absence de loi.

Une fois encore, le problème vient de l’idée erronée qu’il faut contraindre les entreprises à installer des filtres d’upload (c’est-à-dire de mise en ligne par téléversement). De même que les législateurs européens semblent incapables de comprendre l’idée que les services en ligne seront obligés de mener une surveillance généralisée pour se conformer à l’article 13, de même leur manque de connaissances techniques les rend incapables de comprendre les immenses défis pratiques que représente l’implémentation de cette forme de surveillance généralisée.

Au moins le gouvernement français est bien plus cohérent et honnête sur ce point. Il veut aller encore plus loin que l’accord conclu avec le gouvernement allemand, qui a fini par donner la base de l’article 13 sous le nouveau mandat de la présidence roumaine du Conseil, adopté le vendredi 8 février. La France veut supprimer les références à l’article 15 de la directive sur le e-commerce, qui interdit aux États membres d’imposer des obligations de contrôle généralisé, de manière à rendre plus « clair » que ces catégories d’obligations sont parfaitement justifiées quand il s’agit de protéger des contenus sous droits d’auteur.

Un autre éditorial soulignait certains des défis pratiques que pose la mise en œuvre de cette forme de surveillance généralisée. L’article 13 s’appliquera à tous les supports imaginables. Cela signifie que les services en ligne auront besoin de filtres pour le texte, la musique, l’audio, les images, les cartes, les diagrammes, les photos, les vidéos, les films, les logiciels, les modèles 3D, etc. L’article ne peut être filtré que s’il existe une liste de choses qui doivent être bloquées. Ainsi, dans la pratique, l’article 13 signifie que tout site important acceptant les téléversements d’utilisateurs doit avoir des listes de blocage pour chaque type de matériel. Même lorsqu’elles existent, ces listes sont incomplètes. Pour de nombreux domaines – photos, cartes, logiciels, etc. – elles n’existent tout simplement pas. En outre, pour une grande partie du contenu qui devrait être surveillé, les filtres n’existent pas non plus. En un nouvel exemple de législation irresponsable et paresseuse, l’article 13 demande l’impossible.

Que feront les services en ligne dans une telle situation ? La directive sur le droit d’auteur n’est d’aucune aide, elle dit seulement ce qui doit être fait, pas comment le faire. Cela incitera les entreprises à mettre en place des systèmes susceptibles d’offrir la meilleure protection lorsqu’elles seront confrontées à d’inévitables poursuites judiciaires. La principale préoccupation sera de bloquer avec un matériel d’une efficacité maximale ce qui est censé être bloqué, plutôt que de choisir les approches les moins intrusives possible qui maximisent la liberté d’expression pour les utilisateurs. L’absence de systèmes pour se protéger de cette responsabilité pourrait également signifier que certaines plateformes utiliseront le géoblocage, disparaîtront ou s’éloigneront de l’UE, et que d’autres ne seront, en premier lieu, jamais créées en Europe.

Cette injonction va encourager la mise en place de systèmes permettant à quiconque de soumettre des réclamations sur du contenu, qui sera ensuite bloqué. En adoptant ce système, les entreprises seront en mesure de traiter du contenu pour lequel il n’existe pas de listes de blocage générales et pourront ainsi éviter toute responsabilité en cas de téléchargement non autorisé. En plus d’être le seul moyen pratique de relever l’énorme défi que représente le filtrage de tous les types de contenus protégés par le droit d’auteur, cette approche a l’avantage d’avoir déjà été utilisée ailleurs, bien qu’à une plus petite échelle.

Par exemple, YouTube permet à quiconque de prétendre qu’il est le détenteur des droits d’auteur du contenu qui a été posté sur le service Google, et de le faire supprimer automatiquement. Les conséquences négatives de cette fonctionnalité ont été discutées précédemment ; il suffit de dire ici que le matériel légitime est souvent retiré par erreur, et que faire appel contre ces décisions est difficile et prend du temps, et les résultats sont très imprévisibles. La même chose se produira inévitablement avec les filtres de téléchargement de l’article 13, avec ce détail supplémentaire que le contenu sera bloqué avant même qu’il ne soit affiché, alors que le système automatisé de retrait créé par la Digital Millennium Copyright Act (DMCA) des États-Unis ne fonctionne qu’après que le contenu soit affiché en ligne. Cependant, un article récent sur TorrentFreak révèle une autre possibilité troublante :

Par un horrible abus du système de copyright de YouTube, un YouTubeur rapporte que des arnaqueurs utilisent le système des « 3 coups »2 de la plate-forme pour extorquer de l’argent. Après avoir déposé deux fausses plaintes contre ObbyRaidz, les escrocs l’ont contacté et exigé de l’argent comptant pour éviter un troisième – et la résiliation de son canal.

Avec l’article 13, trois avertissements ne sont même pas nécessaires : si votre téléchargement est repéré par le filtre, votre contenu sera bloqué à jamais. On semble penser qu’il importe peu que des erreurs soient commises, parce que les gens peuvent tout bonnement faire appel. Mais comme nous l’avons déjà mentionné, les processus d’appel sont lents, ne fonctionnent pas et ne sont pas utilisés par les gens ordinaires, qui sont intimidés par le processus dans son ensemble. Ainsi, même la menace de revendiquer du contenu sera beaucoup plus forte avec l’article 13 qu’avec YouTube.

Ce qui veut dire que personne ne peut garantir que son contenu pourra seulement paraître en ligne, sauf pour les grosses sociétés de droits de diffusion (américaines) qui forceront les principales plateformes américaines à passer des accords de licence. Même si votre contenu arrive à passer le filtre sur les téléversements, vous allez encore courir le risque d’être racketté par les arnaqueurs au droit d’auteur qui abusent du système. Les obligations de suspension de l’article 13, qui impliquent que le matériel protégé par le droit d’auteur qui a été signalé par les titulaires de droits (ou les arnaqueurs) ne puisse plus être re-téléchargé, rendent les tentatives de réclamer du contenu ou de remettre quelque chose en ligne avec l’article 13 plus difficiles qu’elles ne le sont actuellement sur YouTube.

C’est vraiment une mauvaise nouvelle pour les nouveaux artistes, qui ont absolument besoin de visibilité et qui n’ont pas les poches pleines pour payer des avocats qui règlent ce genre de problèmes, ou pas assez de temps pour s’en occuper eux-mêmes. Les artistes plus établis perdront des revenus à chaque fois que leur contenu sera bloqué, donc ils décideront peut-être aussi de payer des arnaqueurs qui déposeront des fausses plaintes d’infraction au droit d’auteur. Avec cette nouvelle menace, les militants qui utilisent des sites permettant le téléversement public seront aussi sérieusement touchés : beaucoup de campagnes en ligne sont liées à des événements ou des journées particulières. Elles perdent la majeure partie de leur efficacité si leurs actions sont retardées de plusieurs semaines ou même de plusieurs jours, ce que les procédures d’appel ne manqueront pas de faire valoir. C’est plus simple de payer celui qui vous fait chanter.

Ce problème révèle une autre faille de l’Article 13 : il n’y a aucune pénalité pour avoir injustement prétendu être le détenteur des droits sur un contenu, ce qui empêche la mise en ligne de contenus légitimes bloqués par les filtres. Cela veut dire qu’il n’existe presque aucun obstacle si l’on veut envoyer des milliers, voire des millions, de menaces contre des artistes, des militants et autres. Il est clair que c’est de l’extorsion, évidemment illégale. Mais comme les forces de police sont dépassées aujourd’hui, il est à parier qu’elles ne dédieront que des ressources réduites à chasser les fantômes sur Internet. Il est facile pour les gens de se cacher derrière de faux noms, des comptes temporaires et d’utiliser des systèmes de paiement anonymisés tels que le Bitcoin. Avec assez de temps, il est possible d’établir qui se trouve derrière ces comptes, mais si la somme demandée est trop faible, les autorités ne s’en occuperont pas.

En d’autres termes, la nature trop peu réfléchie de l’Article 13 sur les filtres à l’upload crée une nouvelle catégorie de « crime parfait » en ligne. D’une part, tout le monde peut déposer plainte, pourvu d’avoir une connexion Internet, et ce depuis n’importe où dans le monde, et de l’autre cette plainte est prise sans aucun risque pratiquement. Une combinaison particulièrement séduisante et mortelle. Loin d’aider les artistes, la Directive Copyright pourrait créer un obstacle majeur sur la route de leurs succès.

 

[MISE À JOUR 13/02 22:50]

Dernières nouvelles de l’article 13 : Julia Reda (Parti Pirate européen) explique ici juliareda.eu/2019/02/eu-copyri où on en est et termine en expliquant ce qu’on peut faire (=intervenir auprès des parlementaires européens)
Voir aussi ce que propose saveyourinternet.eu/fr/




Glyn Moody sur l’article 13 – Les utilisateurs oubliés

Pour faire suite à l’article de Glyn Moody traduit dans le Framablog voici un autre billet du même auteur, publié ce vendredi 8 février, qui évoque des possibilités d’aménagement de l’article 13, mais surtout la nécessité de faire entrer dans la loi de larges exceptions pour ne pas oublier tous ceux et celles qui utilisent Internet…

Billet original paru dans Copybuzz : Fix the gaping hole art the Heart of Article 13: Users’s Rights

Un vaste oubli au cœur de l’article 13 : les droits des utilisateurs

par Glyn Moody

Le feuilleton à suspense de l’article 13 se poursuit. Les désaccords entre la France et l’Allemagne sur les exemptions à l’obligation d’utiliser des filtres de téléchargement ont stoppé la progression vers la mise au point de la nouvelle législation et permis d’espérer que les graves dommages causés par l’article 13 à Internet pourraient être évités à la dernière minute.

couer gravé dans une porte en bois
image par epicantus.

Mais les deux pays semblent être parvenus à un compromis qui est sans doute pire que le texte original. Cela implique qu’en pratique, même les plus petits sites seront obligés de demander des licences et d’accepter les conditions qui leur sont offertes. Il s’agit là d’une recette qui risque d’entraîner encore plus d’abus de la part de l’industrie du droit d’auteur et d’éloigner les jeunes entreprises numériques de l’UE.

Mais à côté de cette proposition incroyablement stupide de la France et de l’Allemagne, il y a un commentaire intéressant de Luigi Di Maio, le vice-premier ministre et ministre italien du Développement économique (original en italien), qui a été largement négligé :

La priorité est de modifier les articles 11 et 13, qui traitent de la taxe sur les liens et du filtrage du contenu. La directive sur le droit d’auteur connaît actuellement une période mouvementée. Les signes qui nous parviennent de Bruxelles ne sont pas encourageants, mais je suis convaincu que l’on peut trouver une solution qui protège les droits des internautes tout en garantissant en même temps les droits des auteurs.

Ce qui est important ici, c’est la mention des droits des utilisateurs. Les discussions à leur sujet ont été marquées par leur absence la plupart du temps où la directive de l’UE sur le droit d’auteur a été en cours d’élaboration. C’est vraiment scandaleux et cela montre à quel point le projet de loi est partial. Il s’agit de donner encore plus de droits à l’industrie du droit d’auteur, sans tenir compte de l’impact négatif sur les autres. Cette considération primordiale est si extrême que les conséquences désastreuses que l’article 13 aura sur l’Internet dans l’UE ont d’abord été niées, puis ignorées.

L’une des manifestations les plus évidentes de cette indifférence à l’égard des faits et du mépris des citoyens de l’UE concerne les mèmes. Comme nous l’avons expliqué il y a quelques mois, il n’est pas vrai que les mèmes ne seront pas affectés par l’article 13, et de nombreux politiciens l’ont souligné. Il n’y a pas d’exception au droit d’auteur à l’échelle de l’UE pour les mèmes : dans certains pays, les mèmes seraient couverts par certaines des exceptions existantes, dans d’autres non.

Actuellement, l’article 5 de la directive de 2001 sur le droit d’auteur stipule que « les États membres peuvent prévoir des exceptions ou des limitations », y compris « à des fins de caricature, de parodie ou de pastiche », qui pourraient couvrir les mèmes, selon l’interprétation que le juge en fait lorsqu’il est saisi d’une affaire judiciaire. Si les politiciens de l’UE se souciaient le moins du monde des utilisateurs ordinaires d’Internet, ils pourraient au minimum rendre ces exceptions obligatoires afin de fournir un espace juridique bien défini pour les mèmes. C’est précisément ce que l’eurodéputée Julia Reda a proposé dans son rapport de 2015 au Parlement européen évaluant l’actuelle directive de 2001 sur le droit d’auteur. Elle a écrit :

L’exception relative à la parodie, à la caricature et au pastiche devrait s’appliquer quel que soit le but de l’œuvre dérivée. Il ne devrait pas être limité par le droit d’auteur d’un titulaire de droit, mais seulement par les droits moraux de l’auteur.

Elle a également proposé une reconnaissance beaucoup plus large des droits des utilisateurs, leur permettant d’exploiter la technologie numérique, en particulier les téléphones mobiles, pour créer de nouvelles œuvres basées sur des éléments de leur vie quotidienne – photos, vidéos et audio – ainsi que du matériel qu’ils rencontrent sur Internet :

La législation sur le droit d’auteur ne devrait pas faire obstacle à cette vague sans précédent d’expression créative émergente et devrait reconnaître les nouveaux créateurs comme des acteurs culturels et des parties prenantes valables.

Une loi sur le droit d’auteur vraiment moderne comprendrait cette nouvelle dimension passionnante. Par exemple, l’article 29.21 de la Loi sur le droit d’auteur du Canada prévoit une vaste exception pour le contenu généré par les utilisateurs. Son existence démontre que l’inclusion d’une disposition similaire dans le droit communautaire n’est pas une demande déraisonnable et qu’elle est compatible avec les traités internationaux régissant le droit d’auteur.
Pourtant, la proposition de directive sur le droit d’auteur ignore complètement cet aspect et avec lui, les besoins et les aspirations de centaines de millions de citoyens européens dont la vie s’est enrichie grâce à leur expression personnelle en ligne. Au lieu de cela, les préoccupations de ce groupe d’intervenants clés n’ont fait l’objet que d’un vœu pieux. Ici, par exemple, dans un récent « non-papier » – le nom même trahit sa nature marginale – la Commission européenne propose une petite concession pour les utilisateurs :

les co-législateurs pourraient prévoir que les utilisations mineures de contenu par des téléchargeurs amateurs ne devraient pas être automatiquement bloquées… ni engager la responsabilité de l’auteur du téléchargement.

Mais il n’y a pas d’explication sur la façon dont cela va se produire – par magie, peut-être ? Au lieu de ces mots vagues, nous avons besoin d’une exception concrète qui reconnaisse la réalité de la façon dont la plupart des gens utilisent l’Internet de nos jours – pour partager des éléments du matériel protégé par le droit d’auteur à des fins non commerciales, pour le divertissement et l’édification de la famille et des amis.

S’il est trop difficile d’espérer une exception complète et appropriée pour le contenu généré par les utilisateurs que des pays avant-gardistes comme le Canada ont introduit, il existe une alternative que même les législateurs timorés devraient pouvoir accepter. L’article 10.2 de la Convention de Berne , cadre général des lois sur le droit d’auteur dans le monde, se lit comme suit :

Est réservé l’effet de la législation des pays de l’Union et des arrangements particuliers existants ou à conclure entre eux, en ce qui concerne la faculté d’utiliser licitement, dans la mesure justifiée par le but à atteindre, des œuvres littéraires ou artistiques à titre d’illustration de l’enseignement par le moyen de publications, d’émissions de radiodiffusion ou d’enregistrements sonores ou visuels, sous réserve qu’une telle utilisation soit conforme aux bons usages.

Pourquoi ne pas créer une exception générale au droit d’auteur au sein de l’UE pour de telles « illustrations », qui s’appliqueraient au-delà des établissements d’enseignement, au grand public réutilisant du matériel dans le but limité « d’illustrer » une pensée ou un commentaire ? Après tout, on pourrait faire valoir qu’une telle utilisation est, en effet, un nouveau type d’enseignement, en ce sens qu’elle transmet des connaissances et des opinions sur le monde, en s’appuyant sur les possibilités offertes par les technologies modernes. Ce n’est pas la meilleure solution, mais c’est mieux que rien. Cela montrerait au moins que la Commission européenne, les États membres et les députés européens sont conscients de l’existence du public et sont prêts à jeter une petite miette dans sa direction.

En fait, il y a peu de temps, le texte proposé pour la directive sur le droit d’auteur a inclus une telle formulation dans une section sur le contenu généré par l’utilisateur. Celle-ci a été initialement proposée sous la présidence autrichienne en décembre 2018, demandée par les Allemands dans leur document officieux de janvier 2019, et reprise initialement par la présidence roumaine. Cependant, la présidence roumaine l’a ensuite supprimée à la suite de plaintes émanant de certains pays de l’UE (très probablement les Français). Peut-être que l’Italie devrait la faire remettre à sa place.




Glyn Moody sur l’article 13 – Mensonges et mauvaise foi

Glyn Moody est un journaliste, blogueur et écrivain spécialisé dans les questions de copyright et droits numériques. Ses combats militants le placent en première ligne dans la lutte contre l’article 13 de la directive européenne sur le droit d’auteur, dont le vote final est prévu ce mois-ci. Cet article a été combattu par des associations en France telles que La Quadrature du Net, dénoncé pour ses effet délétères par de nombreuses personnalités (cette lettre ouverte par exemple, signée de Vinton Cerf, Tim Berners-lee, Bruce Schneier, Jimmy Wales…) et a fait l’objet de pétitions multiples.

Dans une suite d’articles en cours (en anglais) ou dans diverses autres interventions (celle-ci traduite en français) que l’on parcourra avec intérêt, Glyn Moody démonte un à un les éléments de langage des lobbyistes des ayants droit. Le texte que Framalang a traduit pour vous met l’accent sur la mauvaise foi des défenseurs de l’article 13 qui préparent des réponses biaisées aux objections qui leur viennent de toutes parts, et notamment de 4 millions d’Européens qui ont manifesté leur opposition.

Pour Glyn Moody, manifestement l’article 13 est conçu pour donner des pouvoirs exorbitants (qui vont jusqu’à une forme de censure automatisée) aux ayants droit au détriment des utilisateurs et utilisatrices « ordinaires »

Billet original paru dans Copybuzz : Why Article 13 is not just dangerous law-making, but deeply dishonest too
Traduction Framalang : Penguin, Lumi, Moutmout, FranBAG, Suzy, Mika, pyg, Barbara, gangsoleil, Mannik, Barbara, Cyrilus, Khrys, Goofy

L’article 13 n’est pas seulement un travail législatif dangereux, mais aussi foncièrement malhonnête

par Glyn Moody

La directive sur Copyright de l’Union Européenne est maintenant en phase d’achèvement au sein du système législatif européen. Étant donné la nature avancée des discussions, il est déjà très surprenant que le comité des affaires juridiques (JURI), responsable de son pilotage à travers le Parlement Européen, ait récemment publié une session de « Questions et Réponses » sur la proposition de « Directive au sujet du Copyright numérique ». Mais il n’est pas difficile de deviner pourquoi ce document a été publié maintenant. De plus en plus de personnes prennent conscience que la directive sur le Copyright en général, et l’Article 13 en particulier, vont faire beaucoup de tort à l’Internet en Europe. Cette session de Q & R tente de contrer les objections relevées et d’étouffer le nombre grandissant d’appels à l’abandon de l’Article 13.

personnage en costume gris, les doigts de la main droite croisés dans le dos
Crédit image peter67.

La première question de cette session de Q & R, « En quoi consiste la directive sur le Copyright ? », souligne le cœur du problème de la loi proposée.

La réponse est la suivante : « La proposition de directive sur le Copyright dans le marché unique numérique » cherche à s’assurer que les artistes (en particulier les petits artistes, par exemple les musiciens), les éditeurs de contenu ainsi que les journalistes, bénéficient autant du monde connecté et d’Internet que du monde déconnecté. »

Il n’est fait mention nulle part des citoyens européens qui utilisent l’Internet, ou de leurs priorités. Donc, il n’est pas surprenant qu’on ne règle jamais le problème du préjudice que va causer la directive sur le Copyright à des centaines de millions d’utilisateurs d’Internet, car les défenseurs de la directive sur le Copyright ne s’en préoccupent pas. La session de Q & R déclare : « Ce qu’il est actuellement légal et permis de partager, restera légal et permis de partager. » Bien que cela soit sans doute correct au sens littéral, l’exigence de l’Article 13 concernant la mise en place de filtres sur la mise en ligne de contenus signifie en pratique que c’est loin d’être le cas. Une information parfaitement légale à partager sera bloquée par les filtres, qui seront forcément imparfaits, et parce que les entreprises devant faire face à des conséquences juridiques, feront toujours preuve d’excès de prudence et préféreront trop bloquer.

La question suivante est : « Quel impact aura la directive sur les utilisateurs ordinaires ? ».

Là encore, la réponse est correcte mais trompeuse : « Le projet de directive ne cible pas les utilisateurs ordinaires. »

Personne ne dit qu’elle cible les utilisateurs ordinaires, en fait, ils sont complètement ignorés par la législation. Mais le principal, c’est que les filtres sur les chargements de contenu vont affecter les utilisateurs ordinaires, et de plein fouet. Que ce soit ou non l’intention n’est pas la question.

« Est-ce que la directive affecte la liberté sur Internet ou mène à une censure d’Internet ? » demande la session de Q & R.

La réponse ici est « Un utilisateur pourra continuer d’envoyer du contenu sur les plateformes d’Internet et (…) ces plateformes / agrégateurs d’informations pourront continuer à héberger de tels chargements, tant que ces plateformes respectent les droits des créateurs à une rémunération décente. »

Oui, les utilisateurs pourront continuer à envoyer du contenu, mais une partie sera bloquée de manière injustifiable parce que les plateformes ne prendront pas le risque de diffuser du contenu qui ne sera peut-être couvert par l’une des licences qu’elles ont signées.
La question suivante concerne le mensonge qui est au cœur de la directive sur le Copyright, à savoir qu’il n’y a pas besoin de filtre sur les chargements. C’est une idée que les partisans ont mise en avant pendant un temps, et il est honteux de voir le Parlement Européen lui-même répéter cette contre-vérité. Voici l’élément de la réponse :

« La proposition de directive fixe un but à atteindre : une plateforme numérique ou un agrégateur de presse ne doit pas gagner d’argent grâce aux productions de tierces personnes sans les indemniser. Par conséquent, une plateforme ou un agrégateur a une responsabilité juridique si son site diffuse du contenu pour lequel il n’aurait pas correctement rémunéré le créateur. Cela signifie que ceux dont le travail est illégalement utilisé peuvent poursuivre en justice la plateforme ou l’agrégateur. Toutefois, le projet de directive ne spécifie pas ni ne répertorie quels outils, moyens humains ou infrastructures peuvent être nécessaires afin d’empêcher l’apparition d’une production non rémunérée sur leur site. Il n’y a donc pas d’obligation de filtrer les chargements.

Toutefois, si de grandes plateformes ou agrégateurs de presse ne proposent pas de solutions innovantes, ils pourraient finalement opter pour le filtrage. »

La session Q & R essaye d’affirmer qu’il n’est pas nécessaire de filtrer les chargements et que l’apport de « solutions innovantes » est à la charge des entreprises du web. Elle dit clairement que si une entreprise utilise des filtres sur les chargements, on doit lui reprocher de ne pas être suffisamment « innovante ». C’est une absurdité. D’innombrables experts ont signalé qu’il est impossible « d’empêcher la diffusion de contenu non-rémunéré sur un site » à moins de vérifier, un à un, chacun les fichiers et de les bloquer si nécessaire : il s’agit d’un filtrage des chargements. Aucune “innovation” ne permettra de contourner l’impossibilité logique de se conformer à la directive sur le Copyright, sans avoir recours au filtrage des chargements.

En plus de donner naissance à une législation irréfléchie, cette approche montre aussi la profonde inculture technique de nombreux politiciens européens. Ils pensent encore manifestement que la technologie est une sorte de poudre de perlimpinpin qui peut être saupoudrée sur les problèmes afin de les faire disparaître. Ils ont une compréhension médiocre du domaine numérique et sont cependant assez arrogants pour ignorer les meilleurs experts mondiaux en la matière lorsque ceux-ci disent que ce que demande la Directive sur le Copyright est impossible.

Pour couronner le tout, la réponse à la question : « Pourquoi y a-t-il eu de nombreuses contestations à l’encontre de cette directive ? » constitue un terrible affront pour le public européen. La réponse reconnaît que : « Certaines statistiques au sein du Parlement Européen montrent que les parlementaires ont rarement, voire jamais, été soumis à un tel niveau de lobbying (appels téléphoniques, courriels, etc.). » Mais elle écarte ce niveau inégalé de contestation de la façon suivante :

« De nombreuses campagnes antérieures de lobbying ont prédit des conséquences désastreuses qui ne se sont jamais réalisées.

Par exemple, des entreprises de télécommunication ont affirmé que les factures téléphoniques exploseraient en raison du plafonnement des frais d’itinérance ; les lobbies du tabac et de la restauration ont prétendu que les personnes allaient arrêter d’aller dans les restaurants et dans les bars suite à l’interdiction d’y fumer à l’intérieur ; des banques ont dit qu’elles allaient arrêter de prêter aux entreprises et aux particuliers si les lois devenaient plus strictes sur leur gestion, et le lobby de la détaxe a même argué que les aéroports allaient fermer, suite à la fin des produits détaxés dans le marché intérieur. Rien de tout ceci ne s’est produit. »

Il convient de remarquer que chaque « contre-exemple » concerne des entreprises qui se plaignent de lois bénéficiant au public. Mais ce n’est pas le cas de la vague de protestation contre la directive sur le Copyright, qui vient du public et qui est dirigée contre les exigences égoïstes de l’industrie du copyright. La session de Q & R tente de monter un parallèle biaisé entre les pleurnichements intéressés des industries paresseuses et les attentes d’experts techniques inquiets, ainsi que de millions de citoyens préoccupés par la préservation des extraordinaires pouvoirs et libertés de l’Internet ouvert.

Voici finalement la raison pour laquelle la directive sur le Copyright est si pernicieuse : elle ignore totalement les droits des usagers d’Internet. Le fait que la nouvelle session de Q & R soit incapable de répondre à aucune des critiques sérieuses sur la loi autrement qu’en jouant sur les mots, dans une argumentation pitoyable, est la confirmation que tout ceci n’est pas seulement un travail législatif dangereux, mais aussi profondément malhonnête. Si l’Article 13 est adopté, il fragilisera l’Internet dans les pays de l’UE, entraînera la zone dans un marasme numérique et, par le refus réitéré de l’Union Européenne d’écouter les citoyens qu’elle est censée servir, salira le système démocratique tout entier.

 

Pour agir en envoyant des messages aux députés européens (n’oublions pas que les élections européennes approchent…) : https://saveyourinternet.eu/fr/#ActNowMEPs

Pour en savoir plus sur le débat et son actualité récente

 

 




La réforme européenne du droit d’auteur ? – une menace pour le logiciel libre selon Glyn Moody

Comme vous l’avez peut-être lu dans l’appel de Julia Reda que nous avons publié hier, l’heure est à la mobilisation contre une proposition de directive européenne qui pourrait avoir des effets dévastateurs.

Non, les GAFAM ne seraient pas les premiers impactés, mais plutôt des entreprises moins bien armées et aussi des sites comme Wikipédia, ainsi que des plateformes de dépôt et partage de code qui constituent des ressources précieuses pour la communauté du logiciel libre.

De tels sites risquent d’être contraints à des dispositifs coûteux et difficiles à mettre en œuvre pour filtrer les contenus sous droits. C’est ce que détaille aujourd’hui Glyn Moody à propos des effets de l’article 13 de cette proposition de directive, contre laquelle a déjà alerté l’April depuis septembre dernier.

Aujourd’hui, la mobilisation de plus de 80 organisations et la mise en place du site https://savethememe.net/en constituent des formes d’action militante auxquelles le plus grand nombre doit contribuer. Diffusons largement la traduction des articles de Julia Reda et de Glyn Moody. Signons la lettre ouverte Save Code Share! Opposons le groupe de pression de la communauté du libre au lobby du droit d’auteur qui est sans cesse à la manœuvre dans les institutions européennes.


Ce texte est une traduction d’un article rédigé par le journaliste Glyn Moody et publié sur le site Linux Journal le 3 avril 2018. Il a également été publié sur le site de l’April. Nous souhaitons contribuer à lui donner davantage encore de visibilité.

Traduction : etienne, goofy, mo, Lumi, wyatt, Alby, glyn moody, Fred, April.


Le logiciel libre subit l’offensive des nouvelles lois européennes sur le droit d’auteur

petite photo de Glyn Moody
Glyn Moody, photo Zaizi Ltd (CC BY-SA 2.0)

Le logiciel libre et le droit d’auteur sont étroitement liés. C’est grâce au détournement (hack) habile de la loi sur le droit d’auteur par Richard Stallman qu’a pu être créée la General Public License (GPL) et, par conséquent, le logiciel libre. La GPL requiert de la part des personnes copiant ou modifiant un logiciel publié sous cette licence qu’elles préservent les quatre libertés. Si cela n’est pas le cas, elles enfreignent alors les clauses de la GPL et perdent ainsi toute protection juridique de leurs copies et modifications. En d’autres termes, la sévérité des sanctions pour une violation du droit d’auteur est ce qui permet d’assurer la liberté de partage.

Malgré l’utilisation du droit d’auteur pour faire respecter la GPL et toutes les autres licences du logiciel libre ou open source, le droit d’auteur n’est généralement pas si inoffensif. Ce n’est pas étonnant : le droit d’auteur est un monopole intellectuel. En règle générale, il cherche à empêcher le partage — pas à le promouvoir. Ainsi, les ambitions de l’industrie du droit d’auteur vont généralement à l’encontre des aspirations du monde du logiciel libre.

C’est en Europe que l’on retrouve l’une des preuves les plus évidentes du désintérêt du monde du droit d’auteur envers les préoccupations de la communauté du logiciel libre. Les propositions actuelles de réforme du droit d’auteur au niveau de l’Union européenne contiennent un élément qui aurait des effets dévastateurs pour le codage du logiciel libre. L’article 13 de la pompeusement titrée « Directive du Parlement européen et du Conseil sur le droit d’auteur dans le marché unique numérique » contient la disposition clef suivante :

Les prestataires de services de la société de l’information qui stockent un grand nombre d’œuvres ou d’autres objets protégés chargés par leurs utilisateurs et qui donnent accès à ces œuvres et autres objets prennent, en coopération avec les titulaires de droits, des mesures destinées à assurer le bon fonctionnement des accords conclus avec les titulaires de droits en ce qui concerne l’utilisation de leurs œuvres ou autres objets protégés ou destinées à empêcher la mise à disposition, par leurs services, d’œuvres ou d’autres objets protégés identifiés par les titulaires de droits en coopération avec les prestataires de services. Ces mesures, telles que le recours à des techniques efficaces de reconnaissance des contenus, doivent être appropriées et proportionnées.

Cela signifie concrètement que les sites détenant une (très) importante base de fichiers téléversés par les utilisateurs et utilisatrices seront forcés de filtrer tous les fichiers avant de les publier. Les problèmes posés par cette proposition sont clairs. Une surveillance constante de l’activité des internautes sur lesdits sites, avec tout ce que cela induit en termes de perte de vie privée. Les faux-positifs sont inévitables, particulièrement parce que les complexités du droit d’auteur ne peuvent pas se voir réduites à de simples algorithmes qui pourront être appliqués automatiquement. Ajouté à l’effet dissuasif que cela aura sur la volonté des internautes de publier des contenus, cela impactera négativement la liberté d’expression et affaiblira le domaine public (article en anglais).

Le coût élevé de la mise en place des filtres de contenus — le système ContentID de Google a nécessité 50 000 heures de codage (page en anglais) et coûté 60 millions de dollars — signifie qu’un nombre restreint de sociétés finiront par contrôler le marché des systèmes de censure. Leur pouvoir d’oligopole leur donne la possibilité de faire payer très cher leurs services, ce qui imposerait de lourdes charges aux entreprises de l’Union européenne et conduirait à une diminution des startups dans la région. Un autre problème, parmi d’autres, avec cette idée : le fait non-négligeable que cela pourrait être contraire au droit de l’UE en vigueur (en anglais).

L’article 13 a été spécifiquement rédigé pour satisfaire le désir à peine déguisé de l’industrie européenne du droit d’auteur d’attaquer des entreprises états-uniennes prospères comme Google ou Facebook. Mais le filtrage des contenus mis en ligne est une arme grossière et va en affecter beaucoup d’autres qui, ironiquement, vont être moins capables que les géants d’Internet de se conformer aux onéreuses exigences de la censure. Par exemple, il est fort probable que Wikipédia rentrera dans le périmètre de la nouvelle règle. Après tout, le projet héberge un grand nombre d’ « objets protégés » chargés par des utilisateurs et utilisatrices. Comme le montre un billet sur le blog de Wikimedia (en anglais), « il serait absurde de demander à la Fondation Wikimedia de mettre en place des systèmes automatisés coûteux et technologiquement défaillants pour détecter des violations de droit d’auteur. »

Le point de l’article 13 qui est peut être le plus inquiétant pour les lecteurs du Linux Journal concerne les conséquences pour le logiciel libre. Une autre catégorie de sites web qui donnent accès « à des œuvres ou d’autres objets protégés chargés par leurs utilisateurs » : les plateformes de développement collaboratif et les dépôts de code [informatique]. Comme l’explique le site Savecodeshare.eu (Note de traduction : en anglais, voir l’article de l’April qui soutient cette campagne), créé par la Free Software Foundation Europe et OpenForum Europe (note de transparence : je suis un membre bénévole de OpenForum Academy) :


Si cette réforme du droit d’auteur devait être votée, chaque utilisateur ou utilisatrice d’une plateforme de partage de code, qu’il ou elle soit une personne physique, une entreprise ou une administration publique, serait traité comme un potentiel contrevenant au droit d’auteur : tous ses contenus, incluant des dépôts entiers de code, seraient contrôlés et empêchés d’être partagés en ligne à n’importe quel moment. Cela restreindrait la liberté des développeurs et développeuses d’utiliser des composants et outils logiciels spécifiques, ce qui, en retour, conduirait à moins de compétition et d’innovation. Finalement, cela pourrait conduire à des logiciels moins fiables et à une infrastructure logicielle moins résiliente pour tout le monde.

Comme l’explique en détail un livre blanc (PDF en anglais) de la même organisation, des sites web majeurs tels que Software Heritage, GitHub, GitLab, GNU Savannah et SourceForge sont menacés. Il met en exergue le fait que si cette proposition de loi venait à être adoptée, ces sites seraient directement responsables d’un grand nombre d’actions de leurs utilisateurs et utilisatrices, ce qui inclut le téléversement de copies non autorisées de logiciels et l’utilisation de code contraire à la licence initiale. Du fait de la difficulté, voire de l’impossibilité pour la plupart de ces sites d’éviter que cela se produise, il est fort probable que certains d’entre eux bloquent l’accès à leur site aux utilisateurs et utilisatrices européen⋅nes et arrêtent leur activité au sein de l’UE. Les projets de logiciels libres pourraient alors être forcés de faire la même chose. Dans le livre blanc, Thomas Pfeiffer, membre du conseil d’administration de KDE, est cité ainsi :

Pour savoir à quel point KDE est directement touché par le règlement proposé, il faut se demander si la configuration ci-dessus ferait de nous des « fournisseurs de services de la société de l’information stockant et distribuant de grandes quantités d’œuvres ou d’autres objets téléchargés par leurs utilisateurs ». Si c’est le cas, nous devrions probablement déplacer la majeure partie de notre infrastructure et de notre organisation en dehors de l’UE.

Figure 1 : Les sociétés et services concernés par l’Article 13 (Image fournie par EDiMA : http://edima-eu.org/wp-content/uploads/2018/01/Services-affected-by-Article-13-Infographic.jpg )

 

Le potentiel impact de l’Article 13 de la directive sur le droit d’auteur sur la façon dont le logiciel libre est créé tout autour du globe est clairement considérable. La bonne nouvelle est que cette loi européenne n’a pas encore été finalisée et est toujours amenée à évoluer ; la mauvaise est qu’elle n’évolue actuellement pas dans le bon sens.

Par exemple, le responsable politique supervisant l’adoption de cette nouvelle loi par le Parlement européen a récemment proposé un amendement qui exonérerait les grands sites de filtrer les contenus mis en ligne à condition que ceux-ci signent des accords avec l’ensemble des titulaires de droits d’auteur sur les contenus qu’ils hébergent. Ce qui est impossible pour les dépôts de code [informatique], étant donné le volume de fichiers téléversés — il n’existe pas de sociétés de perception pour les développeurs et développeuses, comme on peut en trouver chez les musicien⋅nes ou auteur⋅es, pouvant par exemple accorder une licence globale sur l’ensemble du contenu hébergé. L’article 13, qu’il s’agisse de filtre automatisé ou d’accord de licence obligatoire, est inconciliable avec la manière de fonctionner des principaux sites dans le domaine du logiciel libre.

Ses défauts fondamentaux impliquent que l’article 13 doit être retiré de la directive sur le droit d’auteur. Un site multilingue baptisé Savethememe.net (en anglais) a été mis en place pour faciliter la prise de contact direct avec les membres du Parlement européen, qui auront un vote décisif sur les propositions. Un autre moyen d’action est de faire connaître la nocivité de l’article 13 pour l’ensemble de l’écosystème du logiciel libre, et sur les effets secondaires négatifs que cela aurait pour l’innovation en général et pour la société.
Plus les programmeurs et programmeuses sont conscient⋅es du problème et le font savoir partout, plus les dépôts de code les plus affectés se joignent à la vague globale d’inquiétude grandissante sur les conséquences des filtres de contenus, plus grand sera l’impact de leur appel à complètement abandonner l’article 13.

À propos de l’auteur

Glyn Moody écrit au sujet d’Internet depuis 1994, et au sujet des logiciels libres depuis 1995. En 1997, il a écrit le premier article grand public sur GNU/Linux et le logiciel libre, paru dans Wired (en anglais). En 2001, son livre Rebel Code: Linux And The Open Source Revolution a été publié. Depuis, il a très souvent écrit sur le logiciel libre et les libertés informatiques. Il a un blog et il est actif sur des réseaux sociaux : @glynmoody sur Twitter ou identi.ca, et +glynmoody sur Google+.

 




Droits d’auteurs : la Commission européenne victime de l’illusion technologique

De communications en directives, l’incurie de la Commission européenne dans le domaine de la technologie et des contenus en ligne apparaît de plus en plus clairement.

Faisant fi des avis des experts, voire des rapports qu’elle a elle-même commandés, la Commission s’entête à proposer des solutions imparfaites et simplistes à des problèmes complexes. Une de ses dernières initiatives le prouve une fois de plus et ne fait que rajouter à l’inquiétude de tous les défenseurs des libertés numériques et de la vie privée.

Filtres de publication, droit d’auteur et poudre de perlimpinpin

Par Glyn Moody, source : Copybuzz
Traduction à 20 mains par simon, satanas_g, QuoiQue, mo, FranBAG, Edgar Lori, goofy, Mika et dodosan

Image par Stromcarlson.

Le 28 septembre, la Commission européenne a dévoilé une initiative de grande ampleur pour s’attaquer au « contenu illicite en ligne ». Comme c’est souvent le cas lorsque des politiciens veulent avoir l’air de « faire quelque chose » au sujet du terrorisme, il y a beaucoup de mauvaises idées.

Le cœur de cette initiative est un plan pour encourager les plateformes en ligne à renforcer « la prévention, la détection et la suppression proactives des contenus illicites en ligne incitant à la haine, à la violence et au terrorisme ».  De manière insistante, ces idées sont présentées comme des « orientations et des principes ». C’est parce que tout repose sur le libre consentement. Sauf que la Commission a clairement dit que si ce système volontaire n’est pas adopté par des entreprises comme Facebook ou Google, elle promulguera de nouvelles lois pour leur forcer la main. La Commission est pressée de voir les résultats de ces efforts volontaires, et des projets de loi pourraient être mis sur la table dès mai 2018.

Une de ces mauvaises idées imposerait aux plateformes en ligne de travailler conjointement avec des signaleurs de confiance – « des entités spécialisées disposant d’une expertise en matière de contenu illicite ». Ils peuvent bien être experts, mais ils ne sont pas juges, ce qui implique que la Commission voudrait que Facebook et Google mettent des contenus hors ligne sans avoir besoin de se soucier de ce qu’un juge considérerait réellement comme illégal.

Mais la pire idée, et elle apparaît plusieurs fois dans les derniers plans de la Commission, est l’utilisation omniprésente et systématique de filtres de publication. Dans un document de 20 pages détaillant la proposition intitulée « Communication sur la suppression des contenus illicites en ligne – Vers une responsabilité renforcée des plateformes en ligne » l’accent est mis sur « l’utilisation des technologies pour détecter les contenus illicites ». En particulier, l’utilisation et le développement futur de la détection automatique et des technologies de filtrage sont encouragés.

Une des principales raisons pour lesquelles la Commission européenne place tant d’espoirs dans l’automatisation pour résoudre les problèmes de contenus illégaux est qu’elle croit apparemment que « dans le domaine du droit d’auteur, la reconnaissance automatique des contenus s’est avérée être un outil efficace depuis de nombreuses années ». Sauf que cela n’est pas vrai. L’eurodéputée Julia Reda (Parti pirate) a écrit un article de blog instructif qui détaille neuf façons bien distinctes dont les filtres de publication échouent. Ce faisant, ils causent de nombreux dégâts collatéraux, particulièrement en matière de droits fondamentaux.

Une réponse à cette démonstration fracassante de l’échec des filtres de publication est de concéder qu’ils sont imparfaits, mais dire ceci montre simplement que davantage de recherches sont nécessaires pour les améliorer. C’est l’argument classique du cherchez plus fort qui est souvent utilisé pour défendre la création de portes dérobées dans les logiciels de chiffrement. Bien que les experts en sécurité expliquent unanimement et de façon répétée qu’il n’est pas possible de créer une vulnérabilité qui soit utilisable seulement par les autorités et qui ne soit pas vulnérable aux attaques de criminels ou d’acteurs étatiques malveillants, les gouvernements persistent à croire qu’ils savent mieux que les experts, et que les entreprises devraient juste le faire. Et des vulnérabilités sont donc implémentées. Même si les gens qui comprennent le fonctionnement des filtres de publication expliquent patiemment qu’il est impossible de traduire l’extrême complexité du droit d’auteur dans les règles de filtrage pouvant être appliquées automatiquement et correctement, les autorités continuent de prôner ce supposé remède miracle.

Appelons cela le mirage de la « poudre de perlimpinpin numérique » – la croyance que l’on peut traiter tous les problèmes du monde réel avec de la technologie, et qu’ils seront résolus, juste comme ça. La Commission européenne est une grande adepte de cette poudre de perlimpinpin, comme le montre clairement sa demande de mettre en place des filtres de publication dans la directive sur le droit d’auteur et le nouveau cadre destiné à s’attaquer au contenu illégal. L’annonce de la semaine dernière est un signe inquiétant qu’elle est loin de comprendre que les filtres de publication ne sont pas une solution pratique pour la question du droit d’auteur en ligne, et qu’elle s’entête au contraire dans cette direction et l’étend désormais à d’autres domaines.

La Commission européenne est bien au courant que l’Article 15 de la directive sur le commerce électronique interdit explicitement aux États membres d’imposer « une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » En mettant en avant la « responsabilité avancée des plateformes en ligne », comme le fait la première page de la communication du 29 septembre, la Commission semble souligner que sa nouvelle approche impose dans les faits une « obligation générale » à ces entreprises de filtrer tous les contenus mis en ligne qui correspondraient à une vaste gamme de « contenu illégal ». On imagine aisément la Cour de justice de l’Union européenne invalider toute tentative d’inscrire cette « responsabilité avancée » dans la loi.

Au-delà du fait qu’ils ne fonctionneront pas et qu’ils sont illégaux du fait de la directive sur le commerce électronique, il y a une autre raison pour laquelle les filtres de publication de l’article 13 devraient être abandonnés : il n’existe aucune preuve de leur nécessité. Tout comme la Commission européenne a joyeusement propagé l’idée fausse selon laquelle le filtrage automatique fonctionne, elle a aussi docilement accepté la rumeur selon laquelle les copies non autorisées d’œuvres soumises au droit d’auteur seraient un désastre pour l’industrie du droit d’auteur et les artistes.

Comme nous l’avons récemment appris par la publication tardive d’un rapport capital qui a coûté à la Commission européenne la somme princière de 369 871€, les faits montrent le contraire. Il est évident que la Commission a essayé d’enterrer sa propre analyse, payée par les citoyens européens, probablement parce que les résultats ne convenaient pas à son projet d’introduire des peines toujours plus fortes aux infractions au droit d’auteur. Comme l’admet le rapport, globalement, « les résultats ne montrent pas de preuves statistiques solides d’une modification des ventes due au non-respect du droit d’auteur en ligne ».

Deux domaines spécifiques ont été touchés par le partage non autorisé : les nouveaux films ont été affectés défavorablement, tandis que pour les jeux, la consommation illégale a mené à plus de ventes légales. C’est un signe de l’approche biaisée de la Commission européenne sur ce sujet : ses économistes ont publié une synthèse à propos des effets négatifs du téléchargement sur les films, mais ont omis de mentionner l’effet positif qu’il avait sur les jeux.

Cette mauvaise foi rend encore plus irritant l’acharnement de la Commission à vouloir trouver une solution technologique illusoire à un problème inexistant. Si elle avait le courage d’admettre la vérité sur la nature non problématique du partage non autorisé d’œuvres soumises au droit d’auteur, elle n’aurait pas à promouvoir des propositions stériles comme les filtres de publication dont on sait qu’ils nuiront immensément au monde en ligne ainsi qu’au Marché unique numérique de l’UE.

 




et pendant ce temps-là, du côté de l’open source…

Voilà des années qu’on nous prédit que l’année suivante sera celle de Linux sur le desktop mais on est encore bien loin de son adoption sur l’ordinateur familial des Dupuis-Morizeau[1]. D’autant que la ligne de front s’est maintenant déplacée vers les mobiles, les tablettes, les objets connectés…
Le tableau du champ de bataille serait plutôt sombre, le libre et l‘open source peinent à exister parmi les mastodontes qui s’affrontent. Mais voici comme pour nous consoler un petit lambeau de ciel bleu : le bilan que tire Glyn Moody de ce qu’il considère comme la domination victorieuse de l‘open source — Comment ça ? — On comprend mieux quand on remarque que son billet ici traduit est placé dans la rubrique Open Entreprise

2015 : l’Open Source a gagné, mais ce n’est qu’un début.

Après les succès de 2014, jusqu’où ira-t-elle ?

par Glyn Moody

Article original : 2015: Open Source Has Won, But It Isn’t Finished
Traduction Framalang : Diab, sinma, goofy, AFS, lamessen, KoS, Narcisse, cpio

185px-Glyn_Moody_1__cropped_.jpgÀ l’aube d’une nouvelle année, la tradition veut que l’on fasse une rétrospective des 12 mois précédents. Mais en ce qui concerne cette rubrique, il est facile de résumer ce qui s’est passé : l‘open source a gagné. Reprenons depuis le début :

Les supercalculateurs. L’hégémonie de Linux dans le top 500 des supercalculateurs est telle que c’en est presque gênant. Les chiffres de novembre 2014 montrent que 485 des 500 premiers systèmes tournent sous une version de Linux ou une autre. Un seul d’entre eux tourne sous Windows. C’est encore plus impressionnant si l’on regarde le nombre de cœurs concernés. Là, on retrouve Linux sur 22 581 693 cœurs, tandis que Windows n’en fait tourner que 30 720 ; cela signifie que non seulement Linux domine, mais aussi que sa position est particulièrement forte sur les plus gros systèmes.

L’informatique dans le nuage. La Fondation Linux a proposé l’année dernière un rapport intéressant qui analysait l’utilisation de Linux dans le cloud par les grandes entreprises. Il montrait que 75 % d’entre elles utilisent Linux comme plateforme principale contre 23 % pour Windows. Il est difficile de traduire cela en parts de marché car les solutions hybrides doivent être prises en compte. Toutefois, en raison de la popularité actuelle de l’informatique délocalisée, il est évident que l’on peut considérer que l’utilisation de Linux est importante et croissante. Concrètement, la même étude a montré que le déploiement de Linux dans le cloud était passé de 65 % à 78 % quand Windows chutait de 45 % à 36 %. Bien entendu, certains considéreront que la Fondation Linux n’est pas totalement objective ici, mais malgré cela et compte tenu des incertitudes statistiques, on voit clairement dans quelle direction l’on va.

Les serveurs web. L‘open source domine ce secteur depuis près de 20 ans — une performance. Cependant la répartition des parts de marché à récemment évolué de façon intéressante : à un moment donné, IIS de Microsoft a réussi à dépasser Apache en nombre total de serveurs web, mais, comme l’explique Netcraft dans son analyse la plus récente, il faut y regarder à deux fois :

C’est le second mois d’affilée que l’on enregistre une forte baisse du nombre total de sites web, faisant de ce mois celui qui en totalise le moins depuis janvier. Comme c’était le cas en novembre, ces pertes se sont concentrées sur un nombre limité de sociétés d’hébergement, avec les dix plus fortes baisses qui représentent plus de 52 millions de noms de domaine. Les sites actifs et les ordinateurs visibles sur le web n’ont pas été affectés par ces pertes. Les sites concernés étaient essentiellement des fermes de liens, avec très peu de contenu unique. La majorité de ces sites fonctionnaient avec Microsoft IIS, l’amenant à dépasser Apache dans l’enquête de juillet 2014. Cependant, les récentes pertes ont entraîné une chute de 29.8 % des parts de marché de ce système d’exploitation, qui se situe désormais à plus de 10 points (en pourcentage) derrière Apache.

Ainsi, la « percée » de Microsoft est plus virtuelle que réelle, car elle repose en grande partie sur des sites de liens sans grand contenu utile. Du reste, les chiffres de Netcraft sur les sites actifs brossent un tout autre tableau : Apache aurait 50,57 % des parts de marché, suivi par Nginx avec 14,73 %. Microsoft IIS arriverait péniblement derrière avec un pourcentage assez faible de 11,72 %. Ce qui signifie que l‘open source représente environ 65 % du marché des serveurs Web actifs – pas tout à fait au niveau des supercalculateurs, mais c’est tout de même plutôt bien.

Les systèmes mobiles. Ici, l’avancée de l‘open source, à travers Android, se poursuit. Les derniers chiffres montrent que 83,6 % des smartphones livrés au troisième trimestre 2014 tournent sur Android, en augmentation par rapport aux 81,4 % du même trimestre l’année précédente. Apple baisse, passant de 13,4 % à 12,3 %. Sur le marché des les tablettes, Android suit une trajectoire identique : au second trimestre 2014, Android atteignait environ 75 % des ventes mondiales, alors que celles d’Apple se situaient aux alentours de 25 %.

Les systèmes embarqués. Bien qu’il soit plus difficile de quantifier les parts de marché de Linux sur l’important marché des systèmes embarqués, les chiffres d’une étude de 2013 indiquent qu’environ la moitié des systèmes embarqués utiliseraient ce système d’exploitation.

L’Internet des objets. À plus d’un titre, il s’agit simplement d’un autre avatar des systèmes embarqués, à la différence qu’ils sont conçus pour être connectés en permanence. Il est encore trop tôt pour parler de parts de marché, mais comme je l’ai récemment expliqué, le framework open source AllSeen arrive en tête. Ceux qui brillent par leur absence, de façon frappante, ce sont les concurrents propriétaires crédibles ; il semble extrêmement probable que l’Internet des objets verra l’adoption de l‘open source aux mêmes niveaux que les supercalculateurs.

Bien sûr, un tel niveau de réussite soulève toujours la question : quelle est l’étape suivante ? Étant donné que l‘open source approche de la saturation dans de nombreux secteurs, une baisse est-elle inévitable à l’avenir ? En réponse à cette question, je recommande la lecture d’un essai qui donne à réfléchir, écrit en 2013 par Christopher Kelty pour le Journal of peer production et bizarrement intitulé : « Il n’y a pas de logiciel libre ». Voici comment il débute :

Le logiciel libre n’existe pas. Cela m’attriste étant donné que j’ai écrit un livre entier sur le sujet. Mais il s’agit aussi d’un point que je tente de traiter dans mon livre. Le logiciel libre, et son frère jumeau l‘open source, est en constant devenir. Il n’existe pas sous une forme stable, permanente ni pérenne, et c’est ce qui fait une partie de sa force.

En d’autres termes, 2014 nous a déjà apporté toutes sortes de formidables logiciels libres, mais nous pouvons être sûrs que 2015 nous en apportera bien davantage, car ils poursuivent indéfiniment leur évolution. SpitefulCat.jpg

Crédit photo
Glyn Moody par Stuart Yeates – (CC BY-SA 2.0)

Note

[1] Notre sympathique famille-témoin de Normandie




Saviez-vous que Mozilla est en train de détourner l’Internet ? par Glyn Moody

« Les cons ça ose tout, c’est même à ça qu’on les reconnaît » disaient nos tontons.

Je ne connaissais pas l’Interactive Advertising Bureau, organisation regroupant des acteurs de la publicité sur Internet, mais ce qui est sûr c’est qu’elle ne gagne rien à se ridiculiser en attaquant ainsi Mozilla (qui nous protège justement de la prolifération actuelle des cookies intrusifs).

Qu’en pensent Google, Microsoft, Orange, TF1, etc., tous membres de la branche française de l’Interactive Advertising Bureau ?

Commentaire : L’image ci-dessous est extraite de l’article de l’Interactive Advertising Bureau qui a fait bondir Glyn Moody. Ce serait donc Mozilla qui enferme ses utilisateurs, vraiment trop forts nos publicitaires !

Interactive Advertising Bureau vs Mozilla

Saviez-vous que Mozilla est en train de détourner l’Internet ?

Did You Know that Mozilla is Hijacking the Internet?

Glyn Moody – 12 août 2013 – ComputerWorld (Open Entreprise)
(Traduction Framalang : ane o’nyme, Sky, LordPhoenix, bruno, Cryptie, anneau2fer, simplementNat, Zii, greygjhart + anonymes)

Il y a quelques semaines j’ai relaté l’attaque à peine croyable de la branche européenne du « Interactive Advertising Bureau (IAB) » envers Mozilla au motif que cette dernière aurait « renoncé à ses valeurs » car elle persisterait à défendre les droits des utilisateurs à contrôler comment les cookies sont utilisés sur leur système.

Vu l’avalanche de moqueries venues de toutes part que cette énorme idiotie tactique a provoquée, on pouvait s’attendre à ce que des conseillers plus sages l’emportent et à ce que l’IAB se replie dans un petit coin tranquille, dans l’espoir que les gens arrêtent de se moquer et oublient simplement et complètement ce déplorable incident.

Mais non. au lieu de cela, l’IAB revient à la charge avec une nouvelle attaque sous la forme d’une pleine page achetée dans le magazine Advertising Age, encore plus énorme, plus forte et plus dingue (aussi disponible en ligne pour votre plus grand plaisir).

Sous le sobre titre : « Empêchez Mozilla de détourner l’internet », on peut lire :

De nos jours, il est facile de trouver le contenu qui vous intéresse sur Internet. Cela est dû au fait que les publicitaires peuvent adapter les annonces aux intérêts précis des utilisateurs grâce à l’usage responsable et transparent de cookies.

Je dois dire que je suis vraiment reconnaissant envers l’IAB de m’avoir ouvert les yeux en mettant ceci à jour parce que jusqu’à ce que je lise ce paragraphe, je nageais dans l’ignorance la plus totale et croyais naïvement que c’était les moteurs de recherches que j’utilisais, d’abord Lycos, puis Altavista, suivi de Google et désormais Startpage, qui me permettaient de trouver les choses qui m’intéressaient. Mais je réalise maintenant mon erreur : j’apprends qu’en fait c’est grâce à tous ces petits cookies si bien disséminés à mon insu dans mon système que j’ai trouvé tout ces trucs. Qui l’eût cru ?

Ces mêmes personnes de l’IAB qui ont eu l’obligeance de mentionner cela ont aussi de mauvaises nouvelles pour moi :

Mais Mozilla veux éliminer ces mêmes cookies qui permettent aux publicitaires de toucher le public, avec la bonne publicité, au bon moment.

Méchant Mozilla. Oh, mais attendez, en fait ce n’est pas ce que Mozilla fait. Il veut au contraire juste contrôler le flot de cookies qui proviennent de sites que vous n’avez pas visités et qui sont envoyés sur votre système, aussi appelés les cookies tiers. Voici une bonne explication de ce qui se passe ici :

Tous les acteurs tiers sont en marge de la transaction et peuvent ajouter de la valeur mais leur but premier diffère du bien ou du service recherché. Ces tierces parties sont plutôt comme le type qui fait le tour du parking avec ses prospectus pendant que vous faites vos courses et met des bons de réduction sur le pare-brise de tout le monde (Oh ! Jamais en panne, 169€ par mois ?). Il ne remplit pas les rayons, ni n’emballe vos courses, mais il fait quand même partie (indirectement ou marginalement) de l’opération « aller faire ses courses ».

Il ne s’agit donc pas d’une volonté de Mozilla d’éliminer les cookies en général mais simplement de donner à l’utilisateur le pouvoir de contrôler ces publicités ennuyeuses glissées sous vos essuie-glaces numériques quand vous visitez un supermarché virtuel.

Mais revenons à la fine analyse de l’IAB :

Mozilla prétend que c’est dans l’intérêt de la vie privée. En vérité nous pensons qu’il s’agit d’aider certains modèles d’affaire à prendre un avantage sur le marché et à réduire la concurrence.

Heu, parlons-nous du même Mozilla ? Vous savez le projet open source qui a certainement fait plus pour défendre les utilisateurs et le Web ouvert que personne ? Ce projet-là ? Car j’ai bien peur d’avoir du mal à imaginer ces codeurs altruistes « aider certains modèles d’affaire à prendre un avantage sur le marché et à réduire la concurrence ».

Je veux dire, Firefox a justement été spécifiquement créé pour accroître la concurrence ; le credo de Mozilla est que chacun devrait être libre d’utiliser le Web comme il l’entend, ce qui inclut toutes sortes de modèles économiques. Penser sérieusement que donner aux utilisateurs le contrôle de leur navigateur Firefox n’est pas défendre la vie privée mais une sorte complot maléfique destiné à miner l’ensemble de l’écosystème est, pour le formuler simplement, totalement cinglé. Peut être l’IAB vit-il dans univers parallèle ?

Les consommateurs ont déjà le contrôle sur les publicités ciblées qu’ils reçoivent via le programme d’auto-régulation de la Digital Advertising Alliance.

Pas de doute, l’IAB vit bien dans un univers parallèle, un univers dans lequel les gens ont réellement rencontré ce programme d’autorégulation de la Digital Advertising Alliance. Parce que je peux honnêtement dire qu’en 20 ans de promenades sur le Web, et bien trop d’heures passées en ligne chaque jour (comme mes abonnés sur Twitter, identi.ca et G+ le savent trop bien), je ne suis jamais tombé sur ce légendaire programme d’autorégulation de la Digital Advertising Alliance, et je sais encore moins comment l’utiliser pour contrôler les publicités que je reçois. Et je me retrouve, dans ce lamentable état d’ignorance, qui suggère plutôt que peu d’autres personnes utilisant l’Internet sont tombés sur le programme d’autorégulation de la Digital Advertising Alliance ou l’ont utilisé (est-ce qu’un lecteur ici est déjà tombé dessus, je me le demande).

En fait, je pense que l’IAB a commis ici un autre faux pas. En mentionnant le programme d’autorégulation de la Digital Advertising Alliance comme une « solution » existante qui rend caduques les projets de Mozilla pour maîtriser les cookies tiers, un programme qui, autant que je puisse en juger, est utilisé par très peu de gens, l’IAB a ainsi mis en évidence le fait qu’il n’y a pas vraiment d’alternative viable à Mozilla.

Je dois également souligner le fait que l’image (voir plus haut) utilisée dans l’article en question, un ordinateur portable enchainé, relève au mieux de l’ignorance, au pire constitue une insulte pour les centaines de milliers de personnes qui ont contribué au projet Mozilla au cours de ces 15 dernières années. Mozilla s’est voué à libérer le Web et ses utilisateurs d’un monopole qui menaçait de le détruire : il est difficile de penser à une image moins appropriée !

Et si l’IAB se préoccupe vraiment de qui peut faire pression sur nos ordinateurs et nous ôter notre liberté avec des centaines de fichiers minuscules qui nous épient où que l’on aille sur Internet, et s’inquiète de qui est vraiment en train de prendre en otage les incroyables ressources du Net, que Mozilla a beaucoup contribué à développer, il ferait bien de se regarder dans une glace…