Le plus vieux torrent de The Pirate Bay est une copie (illégale) de « Revolution OS »

Réalisé en 2001 par J.T.S. Moore, le documentaire « Revolution OS » retrace l’histoire des mouvements GNU, Linux, Open Source et des logiciels libres. Plusieurs personnalités de l’informatique sont interviewées, comme Richard Stallman, Linus Torvalds, Eric S. Raymond ou encore Bruce Perens.

Il n’est pas anodin de remarquer que c’est le plus vieux torrent encore activement partagé sur The Pirate Bay, avec la paradoxale ironie du partage illégal d’un film traitant d’un tel sujet !

PS : Nous avons choisi de faire comme si le lecteur était familier de Bittorrent et que les termes seeder, celui qui met à disposition le fichier, ou leecher n’avaient pas de secret pour lui (sinon c’est clic Wikipédia).

PS2 : Le film est également disponible dans son intégralité (anglais sous-titré anglais) en streaming sur YouTube (et toujours illégalement bien entendu).

Revolution OS

Le torrent le plus vieux de The Pirate Bay est « Revolution OS »

The Pirate Bay’s Oldest Torrent is “Revolution OS”

Ernesto – 17 mars 2013 – TorrentFreak.com
(Traduction : igor-d, Martin, Sakrecoer, Alpha, fcharton + anonymes)

Après presque 9 ans de distribution, le plus vieux torrent de The Pirate Bay disponible, est encore bien actif. Curieusement, ce torrent n’est ni un classique d’Hollywood ni un album de musique indémodable. La première place est attribuée à un exemplaire piraté de « Revolution OS », un documentaire qui traite de l’histoire de Linux, GNU et le mouvement du logiciel libre.

The Pirate Bay fêtera son dixième anniversaire un peu plus tard cette année. Une belle réussite, quand on sait que le site a fait l’objet de procès durant une bonne moitié de son existence.

Loin de tout ça, nous avons souhaité découvrir le plus vieux torrent ayant survécu à tous ces problèmes.

Après quelques recherches, nous avons trouvé que cette distinction revient à une copie pirate du documentaire « Revolution OS ». Le torrent en question fût mis en ligne le 31 Mars 2004.

A l’époque il n’y avait que quelques centaines de fichiers torrents stockés sur The Pirate Bay, comparé aux plus de 2 millions d’aujourd’hui. Année après année uniquement 15 personnes ont laissé un commentaire sur la page du torrent et il y a 27 seeders à l’heure où nous écrivons ces lignes.

Il y a une certaine ironie dans le fait qu’une copie « piratée » d’un film à propos de Linux, GNU et le mouvement des logiciels libres soit le torrent le plus ancien à être encore seedé (c’est-à-dire disponible et partagé). Richard Stallman, une des figures clefs du documentaire, serait fier et heureux de l’apprendre 😉

J.T.S. Moore, le réalisateur de « Revolution OS » a des sentiments contradictoires au sujet de cette réussite quand on l’interroge :

« Il y a clairement un problème de copyright, mais d’une certaine manière ça fait plaisir de savoir que « Revolution OS » intéresse certaines personnes douze ans plus tard » a-t-il confié à TorrentFreak.

Revolution OS - Torrent - The Pirate Bay

Mais « Revolution OS » est-il le plus ancien torrent encore en vie tout site confondu ?

Non, cet honneur là revient à une autre production peu connue. Le fichier torrent qui existe depuis le plus longtemps à notre connaissance est The Matrix ASCII.

Nous l’avions déjà couronné plus vieux torrent en 2005, et à ce jour il est toujours actif avec quelques téléchargeurs et seeders. Le fichier torrent en question a été créé en décembre 2003 alors que The Pirate Bay n’était âgé que de quelques mois et que Facebook et YouTube n’existaient pas encore. Jusqu’à maintenant, ce fichier a survécu une durée ahurissante de 3 333 jours.

En parlant de records, on peut aussi signaler le plus gros et le plus petit torrent de The Pirate Bay. Le plus gros torrent actif est une archive du dernier Geocities.com, fermé par Yahoo en 2010. Le torrent de 641 Go est actuellement en train de lutter pour sa survie avec un seul seeder.

Le plus petit torrent, à peine plus de 3 Ko, renvoie vers un crack d’Adobe Photoshop. Dans ce cas, le fichier du torrent prend plus d’espace disque à lui tout seul que le fichier qu’il permet de télécharger. Avec plus de 1000 seeders, ce fichier devrait rester encore disponible pour un petit moment 😉

L’an prochain, le torrent de « Revolution OS » devrait fêter ses 10 ans, et nul doute qu’il sera encore là pour souffler ses bougies.




Internet est (devenu) un État policier

Un article qui ne nous apprend à priori rien de nouveau mais dont les exemples et les arguments enchaînés aboutissent à quelque chose d’absolument terrifiant.

Ce n’est pas un cauchemar c’est la réalité. Une réalité, née d’un accord tacite entre le public (les États) et le privé (les multinationales), qui s’est mise en place sans véritablement rencontrer consciences ni oppositions.

Raison de plus pour soutenir tous ceux qui voient le monde autrement et participer à faire en sorte que nous soyons de plus en plus nombreux à réclamer une éthique et faire vivre le bien commun…

Mixer - CC by-sa

Internet est un État policier

The Internet is a surveillance state

Bruce Schneier – 16 mars 2013 – CNN Opinion
(Traduction : Antoine, Neros, Sky, guillaume, audionuma, Asta + anonymes)

Note de la rédaction : Bruce Schneier est un expert en sécurité et l’auteur de Liars and Outliers: Enabling the Trust Society Needs to Survive (NdT : Menteurs et Atypiques : mettre en œuvre la confiance dont la société à besoin pour survivre).

Je vais commencer par trois points factuels.

Un : certains des hackers militaires chinois qui ont été récemment impliqués dans une attaque d’envergure contre le gouvernement et des entreprises des États-Unis ont été identifiés car ils accédaient à leur compte Facebook depuis la même infrastructure réseau qu’ils utilisaient pour leurs attaques.

Deux : Hector Monsegur, un des dirigeants du mouvent hacker LulzSec, a été identifié et arrêté par le FBI l’année dernière. Bien qu’il prenait de fortes mesures de sécurité informatique et un relais anonyme pour protéger son identité, il s’est quand même fait prendre.

Et trois : Paula Broadwell, qui avait une relation extra-conjugale avec David Petraeus, le directeur de la CIA, a également pris de nombreuses mesures pour masquer son identité. Elle ne se connectait jamais à son service de courriel anonyme depuis le réseau de son domicile. À la place, elle utilisait les réseaux publics des hôtels lorsqu’elle lui envoyait un courriel. Le FBI a effectué une corrélation entre les données d’enregistrement de différents hôtels pour y trouver que son nom était le point commun.

Internet est en état de surveillance. Internet est un état de surveillance. Que nous l’admettions ou non, et que cela nous plaise ou non, nous sommes traqués en permanence. Google nous trace, tant sur ses propres pages que sur celles auxquelles il a accès. Facebook fait de même, en traçant même les utilisateurs non inscrits chez lui. Apple nous trace sur nos iPhones et iPads. Un journaliste a utilisé un outil appelé Collusion (NdT : de Mozilla) pour déterminer qui le traçait : 105 entreprises ont tracé son usage internet sur une seule période de 36 heures !

De plus en plus, nos activités sur Internet sont croisées avec d’autres données nous concernant. La découverte de l’identité de Broadwell a nécessité de croiser son activité sur internet avec ses séjours dans des hôtels. Tout ce que nous faisons aujourd’hui implique l’usage d’un ordinateur, et les ordinateurs ont comme effet secondaire de produire naturellement des données. Tout est enregistré et croisé, et de nombreuses entreprises de big data font des affaires en reconstituant les profils de notre vie privée à partir de sources variées.

Facebook, par exemple, met en corrélation votre comportement en ligne avec vos habitudes d’achat hors-ligne. Et, plus encore, Il y a les données de localisation de votre téléphone portable, les enregistrements de vos mouvements par les caméras de surveillance…

C’est de la surveillance omniprésente : nous sommes tous surveillés, tout le temps, et ces données sont enregistrées de façon permanente. C’est ce à quoi un état de surveillance ressemble, et c’est plus efficace que dans les rêves les plus fous de George Orwell.

Bien sûr, nous pouvons agir pour nous y prémunir. Nous pouvons limiter ce que nous cherchons sur Google depuis nos iPhones, et utiliser à la place les navigateurs Web de nos ordinateurs, qui nous permettent de supprimer les cookies. Nous pouvons utiliser un alias sur Facebook. Nous pouvons éteindre nos téléphones portables et payer en liquide. Mais plus le temps passe et moins de gens s’en soucient.

Il y a simplement trop de façons d’être pisté. L’Internet, les courriels, les téléphones portables, les navigateurs Web, les sites de réseaux sociaux, les moteurs de recherche : ils sont devenus nécessaires, et il est fantaisiste d’attendre des gens qu’ils refusent simplement de s’en servir juste parce qu’ils n’aiment pas être espionnés, d’autant plus que l’ampleur d’un tel espionnage nous est délibérément cachée et qu’il y a peu d’alternatives commercialisées par des sociétés qui n’espionnent pas.

C’est quelque chose que le libre marché ne peut pas réparer. Nous, les consommateurs, n’avons pas de choix en la matière. Toutes les grandes sociétés qui nous fournissent des services Internet ont intérêt à nous pister. Visitez un site Web et il saura certainement qui vous êtes; il y a beaucoup de façons de vous pister sans cookie. Les compagnies de téléphones défont de façon routinière la protection de la vie privée sur le Web. Une expérience à Carnegie Mellon a pris des vidéos en temps réél d’étudiants sur le campus et a permis d’identifier un tiers d’entre eux en comparant leurs photos avec leurs photos publiques taguées sur Facebook.

Garder sa vie privée sur Internet est désormais presque impossible. Si vous oubliez ne serait-ce qu’une fois d’activer vos protections, ou si vous cliquez sur le mauvais lien, vous attachez votre nom de façon permanente à quelque service anonyme que vous utilisez. Monsegur a dérapé une fois, et le FBI l’a choppé. Si même le directeur de la CIA ne peut garder sa vie privée sur Internet, nous n’avons aucun espoir.

Dans le monde d’aujourd’hui, les gouvernements et les multinationales travaillent de concert pour garder les choses telles qu’elles sont. Les gouvernements sont bien contents d’utiliser les données que les entreprises collectent — en demandant occasionnellement d’en collecter plus et de les garder plus longtemps — pour nous espionner. Et les entreprises sont heureuses d’acheter des données auprès des gouvernements. Ensemble, les puissants espionnent les faibles, et ils ne sont pas prêts de quitter leurs positions de pouvoir, en dépit de ce que les gens souhaitent.

Résoudre ces questions nécessite une forte volonté gouvernementale, mais ils sont aussi assoiffés de données que les entreprises. Mis à part quelques amendes au montant risible, personne n’agit réellement pour des meilleures lois de protection de la vie privée.

Alors c’est ainsi. Bienvenue dans un monde où Google sait exactement quelle sorte de pornographie vous aimez, où Google en sait plus sur vos centres d’intérêt que votre propre épouse. Bienvenue dans un monde où votre compagnie de téléphone portable sait exactement où vous êtes, tout le temps. Bienvenue à l’ère de la fin des conversations privées, puisque vos conversations se font de plus en plus par courriel, SMS ou sites de réseaux sociaux.

Bienvenue dans un monde où tout ce que vous faites sur un ordinateur est enregistré, corrélé, étudié, passé au crible de société en société sans que vous le sachiez ou ayez consenti, où le gouvernement y a accès à volonté sans mandat.

Bienvenue dans un Internet sans vie privée, et nous y sommes arrivés avec notre consentement passif sans véritablement livrer une seule bataille…

Crédit photo : Mixer (Creative Commons By-Sa)




DRM dans HTML5 : la réponse de Cory Doctorow à Tim Berners-Lee

Lors du tout récent SXSW, Sir Tim Berners-Lee, répondant à une question, s’est montré favorable à l’introduction de DRM dans le HTML5, c’est-à-dire directement dans le code des pages Web.

Ceci a déçu beaucoup de monde, à commencer par Cory Doctorow qui lui a répondu dans les colonnes du Guardian, traduit ci-dessous pour nos soins.

Etech - CC by

Ce que j’aurais souhaité que Tim Berners-Lee comprenne au sujet des DRM

What I wish Tim Berners-Lee understood about DRM

Cory Doctorow – 12 mars 2013 – The Guardian (Blog Tchnology)
(Traduction Framalang : catalaburro, Alpha, Alpha, lum’, Tito, goofy, peupleLà, lamessen, penguin + anonymes)

Ajouter des DRM au standard HTML aura des répercussions importantes qui seront incompatibles avec les règles fondamentales du W3C.

À la suite de son discours d’introduction au récent SXSW, l’inventeur du Web Tim Berners-Lee a répondu à une question concernant le projet controversé d’ajouter des DRM à la prochaine version du HTML. Le standard HTML5, qui est en ce moment en débat au W3C (World Wide Web Consortium), est le dernier en date des champs de bataille dans la longue guerre pour la conception des ordinateurs personnels. Berners-Lee a soutenu ce projet en prétendant que, sans les DRM, une part croissante du Web serait verrouillée dans des formats comme le Flash, impossibles à lier et à soumettre à la recherche.

Certains membres de l’industrie du divertissement ont longtemps entretenu le doux rêve d’ ordinateurs conçus pour désobéir à leurs propriétaires, dans une stratégie globale de maximisation des profits qui s’appuie sur la possibilité de vous faire payer pièce après pièce pour avoir le droit d’utiliser les fichiers stockés sur vos disques durs.

Il est notoire que l’industrie a réussi à convaincre les fabricants de lecteurs de DVD d’ajouter une limitation au lecteur pour vous empêcher de lire un DVD sur un continent si vous l’avez acheté dans un autre. Pour que cela fonctionne, les lecteurs de DVD ont dû être conçus pour cacher les programmes qui les faisaient tourner. Ainsi les propriétaires de lecteurs de DVD ne pouvaient tout simplement pas arrêter la fonction de « vérification de zone ». Les lecteurs devaient aussi être conçus pour cacher des fichiers à leurs propriétaires, de telle manière que les utilisateurs ne puissent pas trouver le fichier contenant la clé de déchiffrement afin de l’utiliser pour déverrouiller le DVD sur d’autres lecteurs, ceux qui ne vérifieraient pas la compatibilité de zone du DVD.

Deux questions importantes découlent de cet exemple historique. Tout d’abord, cela a-t-il fonctionné ? et deuxièmement, pourquoi diable les fabricants ont ils été d’accord avec ces limitations ? Ces deux questions sont importantes à poser ici.

Est-ce que le zonage géographique a fonctionné ? Pas du tout. Après tout, cacher des fichiers et des processus dans l’ordinateur que le « méchant » peut tout à fait embarquer avec lui dans un labo ou au bureau est complètement vain. Si Berners-Lee pense qu’ajouter des secrets aux navigateurs web auxquels les possesseurs d’ordinateurs ne pourront accéder permettra d’une quelconque manière de créer les marchés dont l’industrie du divertissement a soi-disant besoin pour créer de nouveaux modèles économiques, il se trompe.

Plus important encore : pourquoi les fabricants sont-ils d’accord pour ajouter des restrictions à leurs matériels ? Le zonage est le contraire d’une fonctionnalité, un « produit » qui n’a pas pour but d’être vendu. Vous ne pouvez pas vendre plus de lecteurs DVD en ajoutant un autocollant qui dit : « Nouvelle version, avec des restrictions par zones géographiques ! »

Les pièges du brevet

En clair, c’est l’industrie qui a établi un besoin légal pour l’établissement des DRM sur les lecteurs DVD. Lorsque les organismes à l’origine des DRM se rassemblent, ils cherchent à identifier un « lien de propriété intellectuelle », bien souvent un brevet. Si un brevet entre en jeu lors du décodage d’un format de fichier, alors le brevet peut être lié à l’application des termes de la licence, ce qui peut être utilisé pour contraindre les fabricants.

En d’autres termes, si un brevet (ou des brevets) peut être inclus dans le système de décodage des DVD, il est possible de menacer les fabricants d’un procès pour violation de brevet,à moins qu’ils n’achètent une licence d’utilisation. Les licences de brevet sont gérées par la Licensing Authority (LA) (NdT : Consortium regroupant les détenteurs de brevets sur la technologie en question, ici la MPEG-LA) qui crée des normes de contrat de licence. Ces termes incluent toujours une liste de fonctionnalités que les fabricants ne doivent pas implémenter (par exemple il ne leur est pas possible d’ajouter une fonctionnalité « sauvegarder sur un disque dur » à un lecteur DVD); et une liste de fonctionnalités négatives que les fabricants doivent implémenter (par exemple l’ajout obligatoire d’une fonction : « vérifier la zone » au lecteur).

Par ailleurs, tous les accords de licence de DRM s’accompagnent d’un ensemble de règles de « robustesse » qui incite les fabricants à concevoir leur produit de façon à ce que leur propriétaire ne puisse ni voir ce que font ces DRM ni les modifier. Cela a pour but d’empêcher que le possesseur d’un dispositif n’en reconfigure les propriétés pour faire des choses interdites (« sauvegarder sur le disque ») ou pour ignorer des choses obligatoires (« vérifier la région »).

Ajouter les DRM au standard HTML aura des répercussions étendues qui sont incompatibles avec les règles les plus importantes du W3C et avec les principes qui tiennent particulièrement à cœur à Berners-Lee.

Par exemple, le W3C a fait avancer les organismes de normalisation en insistant sur le fait que les standards ne devaient pas être gênés par les brevets. Lorsque des membres du W3C détiennent des brevets sur une partie d’un standard, ils doivent promettre à tous les utilisateurs de fournir une licence qui ne possède pas de conditions trop contraignantes. Cependant, les DRM nécessitent des brevets ou des éléments sous licence dont le seul objectif est d’ajouter des conditions contraignantes aux navigateurs.

La première de ces conditions – la « robustesse » contre les modifications de l’utilisateur final – est une exclusion totale de tous les logiciels libres (ces logiciels qui, par définition, peuvent être modifiés par leurs utilisateurs). Cela signifie que les deux technologies de navigateurs web les plus populaires, WebKit (utilisé avec Chrome et Safari) et Gecko (utilisé avec Firefox et ses navigateurs apparentés), pourraient légalement se voir interdire d’être intégré dans l’une de ces « normes » qui sortiraient du W3C.

Copie moi si tu peux

Plus encore, les DRM sont parfaitement inefficaces pour empêcher la copie. Je suspecte Berners-Lee d’en être parfaitement conscient. Quand les geeks minimisent les craintes autour des DRM, ils disent souvent des choses telles que : « He bien, je peux les contourner et de toute façon ils reviendront à la raison tôt ou tard vu que cela ne fonctionne pas, non ? ». Chaque fois que Berners-Lee raconte l’histoire des débuts du Web, il insiste sur le fait qu’il a pu inventer le Web sans demander la moindre permission. Il utilise cela comme une parabole pour expliquer l’importance d’un Internet ouvert et neutre. Mais il échoue à comprendre que la raison d’être des DRM est d’obliger à demander une permission pour innover.

Car limiter la copie n’est qu’une raison superficielle à l’ajout de DRM à une technologie. Les DRM échouent complètement lorsqu’il s’agit d’empêcher la copie, mais sont remarquablement efficaces pour éviter toute innovation. En effet les DRM sont couverts par les lois anti-contournement telles que la célèbre DMCA de 1998 (US Digital Millennium Copyright Act) et l’EUCD de 2002 (EU Copyright Directive) ; chacune d’elle fait du contournement de DRM un crime, même si vous n’enfreignez aucune autre loi. Concrètement, cela signifie que vous devez demander la permission à une autorité de licence de DRM pour ajouter ou modifier n’importe quelle fonctionnalité, ce que les termes de la licence vous interdisent de faire.

Comparons les DVD aux CD. Les CD n’avaient pas de DRM, il était donc légal d’inventer des technologies comme l’iPod ou iTunes qui extrayaient, encodaient et copiaient la musique pour un usage privé. Les DVD avaient des DRM, il était donc illégal d’en faire quoi que ce soit de plus et depuis presque 20 ans qu’ils sont apparus, aucune technologie légale n’a vu le jour sur le marché pour faire ce que iTunes et l’iPod font depuis 2001. Une entreprise a essayé de lancer un jukebox primitif à DVD combiné à un disque dur et fut poursuivie pour cette activité commerciale. 20 ans de DVD, zéro innovation. Bon, les DRM n’ont pas empêché les gens de créer des copies illégales de DVD (bien entendu !), mais elles ont complètement empêché l’émergence sur le marché de tout produit légal et innovant, et nous ne sommes pas près d’en voir la fin.

Prêts à vous faire les poches

C’est ce vers quoi le W3C essaie de faire tendre le Web. Et Berners-Lee, avec ses remarques, en prend la responsabilité. Un état où chaque amélioration est vue comme une occasion d’instaurer un péage. Un Web construit sur le modèle économique de l’infection urinaire : plutôt que d’innover dans un flot sain, chaque nouvelle fonctionnalité doit venir d’une petite goutte contractée et douloureuse : quelques centimes si vous voulez la lier à un temps spécifique de la vidéo, encore quelques centimes si vous souhaitez intégrer un lien provenant de la vidéo dans une page web, encore plus si vous souhaitez mettre la vidéo sur un autre appareil ou la décaler dans le temps, et ainsi de suite.

Le W3C étant l’organisme principal qui normalise le Web, son action repose sur une confiance énorme à la fois sacrée et significative. Le futur du Web est le futur du monde, car tout ce que nous faisons aujourd’hui implique le net et ce sera tout aussi nécessaire pour tout ce que nous ferons demain. À présent, il souhaite brader cette confiance, uniquement parce que les principaux fournisseurs de contenu verrouilleront leur « contenu » en utilisant Flash s’ils ne parviennent pas à obtenir de veto sur l’innovation issue du Web. Cette menace n’est pas nouvelle : les grands studios avaient promis de boycotter la télévision numérique américaine si elle ne rendait pas les DRM obligatoires. Les tribunaux américains ont refusé de leur accorder cette aubaine, et pour autant, la télévision numérique continue de fonctionner (si seulement Otcom et la BBC avaient tenu compte de cet exemple avant de vendre la télévision britannique aux studios américains en ce qui concerne nos propres normes de télévision numérique HD).

Flash est déjà hors course. Comme Berners-Lee vous le dira lui-même, la présence de plate-formes ouvertes, où l’innovation n’a pas besoin d’autorisation, est la meilleure façon d’inciter le monde à se connecter à vous. Un Web ouvert crée et distribue tant de valeur que chacun s’est mis à l’utiliser, délaissant ainsi les écosystèmes contrôlés semblables à Flash, entouré d’AOL et autres systèmes défaillants. Les gros studios ont plus besoin du Web que le Web n’a besoin d’eux.

Le W3C a le devoir d’envoyer au diable les colporteurs de DRM, tout comme les tribunaux américains l’ont fait lors de l’affaire de la TV numérique. Il n’y a pas de marché pour les DRM, pas de cause d’utilité publique qui justifie l’octroi d’un droit de veto à d’obscurs géants des médias qui ne voient pas plus loin que le bout de leur nez et qui rêvent d’un monde où chaque fois que vous cliquez, vous passez à la caisse et où la difficulté d’utilisation est quelque chose qui arrivent aux autres et pas à eux.

Crédit photo : Etech (Creative Commons By)




Pourquoi je retourne à Firefox

Les statistiques font foi, nombreux sont les lecteurs de ce blog à avoir adoré le navigateur Firefox, pour cependant, progressivement, parfois la mort dans l’âme, opter pour le choix pragmatique de Google Chromium, ou pire Google Chrome.

Sauf que depuis Firefox a progressé techniquement et Mozilla s’affirme chaque jour davantage comme une libre boussole du Web, ce que ne sera jamais Google.

Cela vaut le coup de reconsidérer la question, non ?

Keng Susumpow - CC by

Pourquoi je suis (re)passé à Firefox

Why I’m Switching (Back) to Firefox

Cameron Paul – 10 mars 2013 – Blog personnel
(Traduction : Jeff_, biglittledragoon, Agnes, MFolschette, Plop, Tom, Pouhiou, quack1, jtanguy, Rudloff + anonymes)

Dès septembre 2008, j’ai commencé à en avoir assez de Firefox. Il avait été mon navigateur de prédilection pendant des années mais la merveille du monde open source commençait à me décevoir. J’ai utilisé la version bêta de Firefox 3 dès le premier jour où elle a été disponible et je n’ai cessé de la trouver lourde et lente tout au long de mon utilisation. J’ai toujours été un adorateur des conceptions minimalistes et Firefox était en train de rapidement devenir tout sauf minimaliste.

Puis, quelque chose d’inattendu est arrivé. Google a annoncé la sortie de son propre navigateur. J’étais bientôt face à ce qui semblait être à l’époque le logiciel le plus incroyable que j’aie jamais vu. Google Chrome a initié une qualité de navigation formidablement épurée et aboutie soutenue par WebKit. Je pouvais enfin profiter de la vitesse de Safari avec une interface utilisateur bien conçue. Avec le temps, les choses n’ont fait que s’améliorer. Les outils de développement de WebKit sont devenus plus puissants que Firebug et avec la sortie de V8, Google a modifié notre conception des performances de JavaScript.

Cinq ans ont passé et les choses ne sont plus aussi roses. Plus que jamais, j’ai des problèmes de lenteur du navigateur. L’utilisation mémoire dépasse l’entendement et j’ai fréquemment des onglets qui ne répondent plus du tout. De plus, il semble y avoir une lacune générale de contrôle qualité ces derniers jours. Cocher la case « Désactiver le cache » dans les outils développeur semble ne pas avoir d’effet et, occasionnellement, des erreurs JavaScript disparaissent dans la nature au lieu d’apparaître dans la console. Chrome commence à beaucoup ressembler à ce qu’était Firefox en 2008.

Revenons-en maintenant à Firefox. Cela fait cinq années que je n’ai pas utilisé le navigateur de Mozilla pour autre chose qu’une vérification rapide, afin de m’assurer qu’une page web que je construisais avait un rendu correct. Dans ce laps de temps je n’ai pas prêté attention au travail qui avait été effectué. Firefox est devenu rapide. Comparé à Chrome, j’observe des chargements de pages visiblement plus prompts. SpiderMonkey semble avoir rattrapé V8 également. Mes propres tests (non scientifiques) m’ont montré que V8 était toujours légèrement plus rapide mais la différence était trop mince pour être perçue par des humains.

Puis il y a les outils de développement. Les outils de développement de WebKit ont toujours quelques fonctionnalités qui ne sont pas présentes dans Firefox, mais pour 95 % de mon utilisation, les outils de Firefox sont en fait meilleurs. Dans l’inspecteur, un meilleur contraste et une meilleure disposition permettent à l’œil de parcourir ce pavé qu’est le DOM non rendu. Sur la page, les éléments sélectionnés sont surlignés avec des pointillés subtils mais visibles au lieu d’une boîte bleue qui masque la page. Il y a également le mode de sélection au survol qui me permet de me déplacer rapidement à travers les éléments de la page jusqu’à arriver là où je le souhaite. Non seulement les outils de développement de Firefox sont plus agréables mais ils me font également gagner du temps lors de la sélection et la manipulation d’éléments sur la page.

Si l’on met de côté les problèmes techniques, il existe un autre élément qui me trotte dans la tête depuis déjà un petit moment. Je crois sincèrement que Mozilla s’engage sur les questions de liberté et de vie privée sur le Web. Google quant à lui s’engage à faire de l’argent et à savoir tout ce que je fais. Firefox m’accueille avec une page détaillant mes droits en tant qu’utilisateur de logiciel libre. Chrome m’accueille avec… pfffff… Chrome m’accueille avec une putain de publicité pour un Chromebook.

À l’heure où je parle je me sens un peu nostalgique. Le Firefox d’aujourd’hui me rappelle le Firefox tel qu’il était lorsque je l’ai découvert. Une fois de plus, Mozilla a délivré un produit techniquement supérieur tout en respectant totalement mes droits en tant qu’usager. Firefox c’est la liberté.

Crédit photo : Keng Susumpow (Creative Commons By)




Le SCÉRÉN CNDP : showroom Microsoft avec la complicité du Café pédagogique ?

Le « Tour de France du Numérique pour l’Éducation » est officiellement organisé par le Café pédagogique et le service public SCÉRÉN CNDP mais la présence plus ou moins discrète de Microsoft pose question pour ne pas dire problème.

Le Framablog en avait fait écho dès l’annonce de l’évènement dans un billet vindicatif : Tour de France du Numérique pour l’Éducation ou pour Microsoft ?

Pour aller plus loin nous avons décidé de rédiger un communiqué commun avec l’April demandant l’arrêt de l’opération en l’état actuel de son dispositif qui, pur hasard, fait comme si le Libre n’existait pas.

Et en cadeau bonus, une petite comparaison : La page d’accueil de Microsoft Education…

…et la page d’accueil du Tour de France !

Quelle étrange coïncidence 😉

Le service public d’éducation SCÉRÉN CNDP est-il le nouveau showroom de Microsoft avec la complicité du Café pédagogique ?

Paris, le 12 mars 2013. Communiqué de presse.

Le Centre National de Documentation Pédagogique (CNDP) en collaboration avec le Café pédagogique organise une opération nommée « Tour de France du Numérique pour l’éducation »1. Officiellement un « tour de l’Hexagone en 20 étapes pour découvrir les meilleurs projets numériques au service de l’éducation », en réalité une tournée au profit de Microsoft partenaire de l’opération et soutien du Café pédagogique2. L’April et Framasoft demandent que cette opération soit sérieusement amendée en faisant toute la place nécessaire aux logiciels libres et ressources libres pour l’éducation. Des agents de l’État étiquetés « innovants » par on ne sait qui , un service public d’éducation ne peuvent servir de caution morale et pédagogique à une opération qui a pour effet collatéral de contribuer à enfermer élèves et personnels dans un écosystème propriétaire et fermé avec de l’argent public.

Une vision du « numérique » à l’école éloignée de la réalité

Une des principales animations de ces évènements est constituée de « démonstrations des dernières innovations technologiques : tablettes Windows 8, plateformes de communication et collaboration (visio conférence, chat, réseaux sociaux…), expériences immersives grâce à de nouveaux terminaux comme la table Pixelsens… »3 par Microsoft. Au lieu d’une présentation d’une variété de solutions existantes, les évènements sont centrés sur la présentation commerciale unique des produits Microsoft.

Ainsi, aucune place n’est faite pour le logiciel et les ressources libres dans l’éducation, alors même qu’ils en font partie intégrante. De nombreux professeurs, associations et entreprises développent des ressources et des logiciels libres pour l’enseignement4. Si certaines personnes s’en sont émues, présenter la diversité des solutions ne semble pas être la priorité de ces évènements.

Pourtant, l’enseignement et l’Éducation nationale ont beaucoup à gagner du logiciel et des ressources libres. D’abord parce que la mission d’enseignement dévolue aux professeurs est, par définition, basée sur le partage de connaissances. Dans l’intérêt de ses élèves, un professeur doit avoir la possibilité d’utiliser, d’étudier, de modifier, de mettre à la disposition de tous logiciels ou ressources éducatives. Pour fluidifier les échanges, la mutualisation, on se doit d’utiliser des formats de fichiers ouverts et interopérables. Les logiciels et ressources utilisés à l’école doivent pouvoir être utilisés librement au domicile par les élèves, les étudiants ainsi que leurs familles. Le libre est moteur sur ces aspects et en phase avec ces valeurs fondatrices pour l’école de la République.

Le modèle présenté par cette caravane est basé au contraire sur un bridage de l’innovation avec des modèles passéistes basés sur des licences privatrices et restrictives 5, des formats de fichiers propriétaires et fermés voire des brevets sur de la connaissance. Il est donc surprenant et inquiétant de voir le service public se faire le porte-parole de ce seul modèle, en excluant clairement le logiciel libre et les ressources libres pour l’éducation.

Ces étapes se déroulent en grande partie dans les Centre Régionaux de Documentation Pédagogique (CRDP). Fort opportunément pour la campagne de marketing de Microsoft, ils sont dirigés par des personnels qui sont souvent aussi les conseillers TICE6 auprès du recteur d’Académie. Voilà une bonne occasion de présenter ses produits directement auprès des décideurs académiques dans leurs propres locaux. D’ailleurs, les commerciaux de Microsoft Éducation ne se cachent même pas, sur un réseau de micro-blogging, on lit de leur part : « Inscrivez-vous dès à présent à l’une de nos 21 étapes ! »7. On appréciera le pronom possessif.

Le Café Pédagogique, cheval de Troie de Microsoft dans l’éducation ?

Le groupe éducation de l’April et Framasoft s’interrogent depuis longtemps sur les liens entre le Café Pédagogique et Microsoft8. Rappelons que le Café pédagogique représente une source d’information pour de nombreux enseignants, personnels de direction ou décideurs académiques9. Pourtant, on peut s’interroger sur la partialité des informations diffusées notamment dans le domaine des TICE. De fait, on constate que depuis la mise à jour du site réalisée par Microsoft 10, on fait très peu de cas des projets libres, pourtant nombreux, dans la revue quotidienne du Café pédagogique alors que les nouveautés des produits Microsoft sont quant à elles bien mises en avant11.

Selon Rémi Boulle, vice-président de l’April en charge des questions d’éducation : « le Café Pédagogique et Microsoft n’ont pas le monopole de l’innovation dans l’éducation. Un enseignant n’est pas innovant parce qu’il utilise une tablette sous Windows 8 et sait remplir un court dossier de candidature au format Word. Au contraire, il serait urgent de définir ce qu’est précisément l’innovation et ses objectifs : simple promotion commerciale ou ouverture de nouvelles connaissances et possibilités pour les élèves en développant leur esprit critique ? ».

Selon Alexis Kauffmann de Framasoft : « L’expression “enseignant innovant” dérive directement du programme mondial “innovative teachers” de Microsoft12. Le Café pédagogique n’a fait que répondre à la demande de son généreux sponsor en la popularisant, tout en prenant bien soin de taire son origine. Tout ceci n’est qu’un échange de bons procédés entre amis, malheureusement au détriment du développement du logiciel libre, des formats ouverts et des ressources libres dans l’éducation. C’est pour cela que le SCÉRÉN CNDP ne doit pas dérouler le tapis rouge13 à un tel projet mais bien au contraire se montrer critique vis-à-vis des risques de marchandisation de l’école par le logiciel propriétaire, ses pratiques et ses logiques. »

L’April et Framasoft demandent donc au CNDP l’arrêt de cette opération ou, à défaut, qu’elle soit sérieusement amendée pour que toute la place nécessaire aux logiciels libres et ressources libres pour l’éducation soit faite.

À propos de l’April

Pionnière du logiciel libre en France, l’April est depuis 1996 un acteur majeur de la démocratisation et de la diffusion du Logiciel Libre et des standards ouverts auprès du grand public, des professionnels et des institutions dans l’espace francophone. Elle veille aussi, dans l’ère numérique, à sensibiliser l’opinion sur les dangers d’une appropriation exclusive de l’information et du savoir par des intérêts privés.

L’association est constituée de plus de 5 500 membres utilisateurs et producteurs de logiciels libres.

Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.april.org/, nous contacter par téléphone au +33 1 78 76 92 80 ou par notre formulaire de contact.

Contacts presse :

Frédéric Couchet, délégué général, fcouchet@april.org +33 6 60 68 89 31
Jeanne Tadeusz, responsable affaires publiques, jtadeusz@april.org +33 1 78 76 92 82

À propos de Framasoft

Issu du monde éducatif, Framasoft est un réseau d’éducation populaire consacré principalement au logiciel libre et s’organise en trois axes sur un mode collaboratif : promotion, diffusion et développement de logiciels libres, enrichissement de la culture libre et offre de services libres en ligne.

Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.framasoft.org/ et nous contacter par notre formulaire de contact.

Contact presse :

Alexis Kauffmann, fondateur et chargé de mission, aka@framasoft.org +33 6 95 01 04 55




La génération GitHub

GitHub a beau être une plateforme non libre de projets libres, force est de constater que cette « forge sociale » est devenue en quelques années l’un des centres névralgiques de la communauté.

Avec sa facilité d’usage, son appel permanent au fork et l’individuation des contributions, GitHub a permis a plus de monde de participer tout en ouvrant le Libre au delà du logiciel puisqu’il n’y a pas que du code proprement dit dedans (cf la liste de l’article traduit ci-dessous).

À tel point que certains n’hésitent pas à y voir un modèle pertinent pour toutes sorte de choses à commencer par la… démocratie !

Et si une génération toute entière était effectivement en train de naître sous nos yeux ?

GitHub

La génération Github : Pourquoi vous et moi pouvons désormais faire de l’Open Source

The GitHub Generation: Why We’re All in Open Source Now

Mikeal Rogers – 7 mars 2013 – Wired Opinion
(Traduction : Moosh, Sphinx, Peekmo, Chopin, goofy, misc, Uflex + anonymes)

GitHub a été conçu pour être une plate-forme de collaboration logicielle ouverte, mais c’est devenu une plate-forme pour déposer beaucoup plus de choses que du simple code. Elle est maintenant utilisée par des artistes, des créateurs, des propriétaires de maisons et des tas d’autres gens, par des entreprises entières… et même par des municipalités.

« N’importe qui peut maintenant changer les données quand de nouvelles pistes cyclables sont aménagées, quand de nouvelles routes sont construites ou quand de nouveaux immeubles sont construits » a annoncé récemment la ville de Chicago. Les gens planifient leurs projets de rénovation de maison sur GitHub. Un cabinet d’avocats a annoncé il y a quelques jours qu’il postait des documents juridiques pour des start-ups sur GitHub. Quelqu’un a même publié toutes les lois d’Allemagne sur GitHub l’année dernière (avec, s’il vous plaît, déjà 17 pull requests pour des modifications).

Bien sûr, GitHub reste majoritairement toujours utilisé par les programmeurs et développeurs qui font voler des AR.Drones avec Node.js ou construisent des sites web avec jQuery. Mais de plus en plus de gens passent de consommateurs à producteurs, et ils redéfinissent ainsi la culture de l’open source. Je crois que GitHub transforme l’open source comme l’internet a transformé l’industrie de la publication : un fossé culturel est en train de se creuser entre l’ancienne génération de gros projets libres et la nouvelle génération d’amateurs de projets libres d’aujourd’hui.

La révolution ne sera pas centralisée

Quand la plupart des gens entendent « open » source, ils pensent démocratie, distribution, égalité : tout le monde construit des choses pour que tout un chacun les utilise.

Mais cela n’a pas toujours été le cas. La plupart des logiciels open source ont été créés et maintenus par une classe privilégiée et protégée, les développeurs professionnels, qui interagissaient avec d’autre développeurs très semblables (ils sont pourtant suffisamment différents pour avoir de belles disputes).

Avant GitHub, je passais beaucoup de temps à penser et à discuter de la meilleure façon de gérer des projets open source parce que la coordination représentait un coût important d’un projet open source. Si important que lorsqu’un projet réussissait et développait une communauté assez grande, il était logique que le projet grandisse plutôt qu’il ne se fracture en projets plus petits. Mais plus le projet du logiciel devenait grand et complexe, plus il était difficile d’y contribuer. Ainsi, un choix de membres, les commiters – étaient assignés à la gestion et à la production du projet. Cela menait souvent à des ruptures séparant ceux qui produisaient le projet et ceux qui les utilisaient.

GitHub a comblé ce fossé en faisant de l’open source quelque chose de bien plus décentralisé. C’est devenu davantage centré sur les individus que sur le projet.

La façon d’utiliser GitHub est trés personnelle. Une personne (je suis github.com/mikeal) a un compte, et tout ce qu’elle publie existe à un niveau en dessous d’elle. Si quelqu’un veut corriger quelque chose, il suffit de « forker » le projet, ce qui place une copie sous son propre compte.

Cette façon de travailler est trés stimulante : elle encourage les individus à corriger les problèmes et à prendre possession des correctifs au même niveau que le projet de départ. Cela donne également à chacun une identité dans cette nouvelle culture du libre. GitHub est actuellement le premier fournisseur d’identité pour la production collaborative sur internet pour faire plus que du développement de code.

J’ai contribué à des projets libres depuis plus de 10 ans, mais ce qui est différent maintenant est que je ne suis pas un membre d’un de ces projets, je suis un simple utilisateur, et contribuer un peu est devenu une petite partie du rôle d’un utilisateur. Des petites interactions entre moi et les mainteneurs de projets arrivent plusieurs fois par semaine sur tout type de projet que j’utilise. Et ça arrive encore plus souvent dans l’autre sens : des gens dont je n”ai jamais entendu parler m’envoient des petits bouts de code sur les petits projets que j’ai publiés.

La décentralisation comme démocratie

Les premières versions de GitHub ont très bien fait une chose : rendre la publication de votre code beaucoup plus facile (que la non-publication). Ceci était suffisant pour que beaucoup de projets connus, notamment Ruby on Rails, migrent sur GitHub presque immédiatement.

Mais ce qui s’est passé après est encore plus intéressant : les gens ont commencé à tout publier sur GitHub. Pousser du code est presque devenu une habitude, comme tweeter. En abaissant la barrière pour entrer et rendant plus facile la contribution à l’open source, GitHub a élargi la production collaborative aux utilisateurs occasionnels.

Aujourd’hui un vaste choix de logiciels simples et compréhensibles est accessible à une catégorie de gens créatifs qui n’avaient jusqu’alors pas les compétences techniques requises pour participer à des projets open source par le passé.

Ce mélange des relations entre les producteurs, les contributeurs et les consommateurs valorise naturellement les projets plus petits et plus faciles à comprendre — et a conduit à de nombreuses contributions. Au cours du mois de septembre 2012 par exemple, la moitié des utilisateurs actifs de GitHub qui ont poussé au moins un changeset, l’ont fait moins de cinq fois, avec 22% (environ 44 000 personnes) qui ont poussé seulement un seul changeset ce mois-ci.

L’accès de l’open source aux amateurs présente certains avantages évidents.

Faciliter les usages

Un des problèmes récurrents, avec le logiciel open source, a été la qualité des finitions. La documentation, le design des sites web et l’ergonomie en général ont toujours été un problème — spécialement par rapport à de nombreux concurrents propriétaires.

Mais maintenant, avec les facilités de collaboration, des utilisateurs moins portés sur la technologie et la connaissance du code peuvent plus facilement participer à améliorer les logiciels sur lesquels ils travaillent (ce qui peut être des petites choses comme l’humanisation des messages d’erreur de codage ou de légers changements graphiques en une ligne de CSS qui optimisent le rendu des sites web des navigateurs, anciennes versions incluses, et sur les téléphones mobiles).

Dans le nouvel open source, les gens veulent utiliser la technologie sans avoir besoin de devenir des experts. La facilité d’utilisation est plus valorisée que jamais.

Éviter de réinventer la roue

Les développeurs aiment les défis et plus ils ont de chances de les relever, plus leurs solutions peuvent être astucieuses. C’était parfait lorsque les utilisateurs de ces solutions étaient eux aussi des gens très compétents techniquement comme ceux qui prenaient plaisir à résoudre astucieusement ces anciens problèmes.

Mais les amateurs préfèrent les solutions qu’ils peuvent tenir pour acquises : une fois qu’un problème est résolu, ils reviennent rarement en arrière pour le réexaminer. Et dans la mesure où les amateurs ne créeront qu’à partir des solutions les plus compréhensibles, cela contraint les développeurs à élaborer des solutions simples qui rendent les problèmes complexes plus faciles à appréhender.

Soutenir un écosystème plus vaste

Node.js, projet dans lequel je suis activement impliqué, définit des modèles suffisamment simples pour que les gens puissent écrire de petites bibliothèques indépendantes et les publier à leur gré. Tous ceux qui s’impliquent dans l’écosystème peuvent en tirer profit sans coordination. C’est le pôle inverse de l’énorme pile verticale qui accompagne des tas d’outils et fonctionnalités (tels que dans les systèmes intégrant des plugins, comme Ember, Dojo et YUI) qui sont nécessaires pour réussir à développer dans des environnement propriétaires (pensez à Cocoa et au développement pour iOS). Dans les environnements ouverts, tels que Node.js sur GitHub, nous constatons que des API bien plus légères peuvent facilement tirer parti du reste de l’écosystème sans coordination. Moins il y a de coordination entre les développeurs et les bibliothèques et plus nous pouvons créer de la valeur.

GitHub a donné les capacités à une nouvelle génération de collaborer, de créer, de produire. Beaucoup de développeurs regretteront l’abandon des normes culturelles précédentes, telles que le statut des commiters (ceux qui sont autorisés à envoyer le code sur le dépôt) ou la bonne vieille guerre pour le choix de la bonne licence — mais l’avenir est déjà entre les mains d’une nouvelle génération qui a évolué.

Ce n’est pas un simple outil : c’est à la naissance d’une nouvelle culture à laquelle nous assistons.




Un salon de beauté conçu avec Blender et Cycles (en lieu et place de 3ds Max)

Dans le milieu du design et de la CAO, la part belle est encore trop souvent faite aux logiciels propriétaires.

Mais il n’y pas que 3ds Max & co dans la vie logicielle. On peut faire tout aussi bien, voire mieux, avec le libre Blender et son moteur de rendu Cycles.

C’est que ne nous prouve par l’exemple cet entretien du talentueux ukrainien Igor Shevchenko.

Backstage - Blender

Un salon de beauté conçu et visualisé grâce à Blender et Cycles

Beauty salon designed and visualized with Blender and Cycles

Alexandre Prokoudine – 25 février 2013 – LibreGraphicsWorld.org
(Traduction : Alpha, Max, KoS + anonymes)

Parmi toutes les choses intéressantes qui sont réalisables à l’aide de logiciels libres, ce que LGW aime faire le plus, c’est produire un travail commandé qui soit reconnu. Parlons d’un cas particulier, celui de l’utilisation de Blender et Cycles pour la visualisation d’architectures commerciales.

Je suis récemment tombé sur ce travail sur Behance (NdT : une plateforme de partage de projets de design pour les professionnels) et je n’ai pas pu résister à l’envie de contacter Igor Shevchenko, son auteur.

Igor travaille pour une entreprise ukrainienne appelée « Magis ». Il s’occupe de la modélisation, du texturage et du rendu d’intérieur. « Backstage », le salon de beauté en question, est un véritable établissement qui a ouvert à Kiev en septembre 2012.

Igor, s’agit-il de ton premier projet sérieux réalisé à l’aide de Blender ? Le reste de ton album sur Behance semble porter les étiquettes de 3DS Max, Adobe Photoshop et d’autres logiciels du même genre.

Oui, c’est vrai, c’est le premier vrai projet que l’on m’a commandé et que j’ai réalisé avec Blender. J’étais vraiment curieux de savoir s’il allait être possible de réaliser un tel projet uniquement avec un logiciel libre et de voir les difficultés auxquelles on pouvait s’attendre. Lorsque j’ai commencé à travailler sur le projet, j’ai eu peur que ma connaissance de Blender ne soit pas suffisante pour le mener à bien et de devoir retourner sous 3DS Max. Ça ne s’est pas produit.

Combien de temps cela a-t-il pris ?

Le travail sur le design intérieur a été fait en 3 mois. Mais les rendus du portfolio pour Behance ont été une toute autre affaire. Je suis parti de rien, surtout pour Behance.

Vraiment ?

L’année dernière, en novembre, notre administrateur système m’a demandé de lui envoyer quelques rendus de ce que j’avais fait avec Blender. Il souhaitait les montrer à un ami qu’il tentait de convaincre que Blender était en fait un outil très correct. J’ai donc fouillé parmi mes fichiers et je fus horrifié de constater que je n’avais aucun rendu lissé. J’ai alors décidé de repartir de zéro pour refaire les rendus du projet « Backstage ».

Attends, donc tu n’as pas fait ces visualisations pour le client ?

Le client ne voulait pas des rendus de haute qualité dans un premier temps. Nous avons juste fait le design et décrit le reste avec des mots.

OK, donc de combien de temps as-tu eu besoin pour réaliser la version portfolio du projet ?

Je n’avais aucune date limite, ça ne pressait donc pas, je l’ai fait pendant mon temps libre. Je pense qu’en m’y mettant et en ne faisant rien d’autre, ça m’aurait pris une journée pour faire la modélisation, une autre pour peaufiner les détails et encore une autre pour effectuer le rendu global.

Backstage - Blender

D’où vient ton intérêt pour Blender ?

Il y a environ trois ans, j’ai fini par en avoir marre d’utiliser 3DS Max, j’ai donc commencé à chercher des alternatives. J’ai d’abord essayé Maya et Cinema 4D et j’ai opté pour Maya. Cependant, je me suis rendu compte que soit je n’arrivais pas à trouver le temps pour apprendre à l’utiliser, soit il ne me convenait pas. Peut-être un peu des deux.

J’ai fini par revenir à 3DS Max, faute d’autre chose. Notre administrateur système, qui est un grand adepte du logiciel libre m’a suggéré d’utiliser Blender, mais il s’agissait de la version 2.49 que je n’ai vraiment pas appréciée.

Fin 2011, j’ai lu un article sur « Sintel » le film libre, je l’ai alors regardé. J’ai adoré à la fois l’histoire et les visuels, j’ai donc donné une seconde chance à Blender : j’ai téléchargé une version plus récente et je me suis mis à lire les tutoriels d’Andrew Price, j’ai alors commencé à comprendre comment ce logiciel fonctionnait.

Puis, Cycles est arrivé, et ça a achevé de me convaincre. Mi-2012, j’étais déjà en train de réaliser des petits projets avec Blender, puis « Backstage » est devenu le premier grand projet pour lequel je m’en suis servi. Ça n’a pas été facile, mais je ne suis pas déçu. Avant je considérais que les logiciels libres performants ne pouvaient pas exister. Blender est une exception remarquable dans ce domaine.

L’un dans l’autre, une expérience positive ?

Oui. Mes collègues ont remarqué que je travaillais plus rapidement. Blender a une logique réellement différente, pas comme dans 3DS Max :

  • manipulation d’objets,
  • personnalisation facile de l’interface,
  • approche différente de la modélisation de polygone,
  • paramétrage nodal des matériaux,
  • traitement « post-processing » intégré,
  • modificateurs (il n’y en pas beaucoup, mais ils sont très efficaces pour accélérer le processus de modélisation),
  • raccourcis clavier (il y en a beaucoup et ils améliorent grandement mon efficacité).

Blender possède des fonctionnalités sans lesquelles je ne m’imagine pas travailler aujourd’hui. 3DS Max n’en possède pas autant.

Cette liste pourrait s’allonger mais le plus important est que Blender est tout simplement mon type d’application.

Et Cycles ?

Cycles est un formidable moteur de rendu. J’ai récemment implémenté le matériau caoutchouc dans 3DS Max pour les pneus, et c’était vraiment la misère : paramétrage, rendu, paramétrage, rendu ainsi de suite… Dans Cycles, j’ai juste ajusté les paramètres et vu le résultat immédiatement.

Vois-tu une utilité au moteur de rendu interne de Blender dans ton travail quotidien ?

Non, c’est plutôt inutile en ce qui me concerne.

Est-ce que l’aspect libre et gratuit, en plus de la faible taille du fichier à télécharger a joué un rôle ?

Tout à fait. À plusieurs reprises, j’ai eu besoin de télécharger Blender lors d’un rendez-vous avec un client sur son ordinateur (5 minutes), de le lancer (2 secondes) et de travailler sur un projet. Ça fait une grande différence.

Au vu de tout ça, est-ce que l’un de tes collègues a déjà eu envie d’utiliser Blender ?

Non, et je ne m’attends pas à ce qu’ils le fassent. Soyons réalistes, la seule façon pour que cela arrive, c’est de les forcer à l’utiliser, et rien de bon n’en sortira. En réalité, les gens n’ont soit pas le temps, soit pas l’envie d’apprendre de nouvelles choses, et certains ne savent même pas que des alternatives existent.

Quels types de difficultés as-tu rencontrés lorsque tu travaillais avec Blender sur le projet « Backstage » ?

Le principal défaut de Blender est que la phase de développement actif a commencé assez récemment et beaucoup de fonctionnalités de base ne sont pas encore présentes. Il y a aussi les problèmes de compatibilité avec les formats de fichiers : c’est difficile d’ouvrir des fichiers Blender dans AutoCAD et dans 3DS Max, c’est même quasiment impossible.

As-tu rencontré des problèmes purement techniques avec Cycles ? Quelque chose qui manque ?

J’ai un peu de mal à me rappeler ce qui manque. De manière générale, les fonctionnalités compatibles par défaut dans les autres moteurs de rendu. La gestion des fichiers IES (NdT : qui gèrent la répartition de la lumière) en faisait partie il y a peu, mais ça a été résolu.

D’un autre côté, j’ai trouvé des méthodes parfaitement fonctionnelles pour contourner la plupart — sinon toutes — des fonctionnalités manquantes. La seule chose que je n’arrive pas à contourner c’est que Cycles est plutôt inutile sans une carte graphique chère.

Penses-tu que la fréquence des mises à jour de versions interfère avec les méthodes de travail en entreprise ? Les studios seraient plus enclins à n’utiliser que des mises à jour importantes et à ne les mettre à jour que pour corriger les bugs, c’est assez connu.

La fréquence d’apparition des nouvelles versions semble être une des principales particularités des logiciels libres. Je pense qu’en réalité, Blender en tire profit, parce qu’il reste beaucoup de choses à faire.

En plus, Blender a une bonne compatbilité ascendante et, de cette manière, rien n’empêche un studio de se limiter à une version particulière et à l’utiliser pendant quelques années.

Backstage - Blender

La galerie complète du projet « Backstage » est disponible sur Behance.




Dialogue Pouhiou Calimaq sur le domaine public et plus parce qu’affinités

Pouhiou est notre joyeux et émérite premier romancier chez Framabook. À l’occasion de la sortie prochaine du livre II du cycle des NoéNautes, il a lancé une originale campagne de crowdfunding sur Ulule qui a fait réagir le blogueur influent (parce que brillant) Calimaq.

Ce dernier s’est en effet aventuré à parier que si cette campagne aboutissait alors il élèverait lui aussi son blog dans le domaine public via la licence Creative Commons CC-0. Bien mal lui en a pris puisque la campagne vient déjà de dépasser la barre escomptée (Pouhiou vous en remercie en vidéo ici) et se poursuit d’ailleurs…

Chose promise, chose due donc, et prétexte surtout à un passionnant entretien dialogue entre deux personnalités fortes du « Libre » francophone.

Je cède la parole à Pouhiou, et ça tombe bien car il adore la prendre 😉

monorchide-chaton02-ulule.jpg

En lançant le blog de mon roman feuilleton, j’ai eu d’instinct l’envie que cette histoire appartienne à ses lecteurs. Qu’ils s’en emparent. C’était une certitude que je ne savais pas comment appliquer dans les faits. M’intéressant au livre et au droit d’auteur, je suivais déjà le blog S.I.Lex écrit par un certain Calimaq. Ce mec, passionné et passionnant, arrive à transformer un sujet à priori lourd et chiant (la propriété intellectuelle) en une épopée rocambolesque. A force d’exemples, de décryptages, de coups de sang et de coup de cœur, il nous plonge dans les eaux du copy-right-left-up&down, on baigne en Absurdie et l’on ressort de son blog plus juriste qu’on y est rentré… sans même s’en apercevoir.

Un de ses billets m’a fait prendre conscience que la place de mes œuvres était dans le domaine public. J’ai donc passé tous mes écrits sous la licence CC0 et l’ai chaudement remercié dans cet article.

Il est né de cet échange une amitié intellectuelle. Calimaq s’est mis à défendre et mon œuvre, et la démarche qui l’accompagnait. Je me suis engagé dans SavoirsCom1, un collectif qu’il a co-fondé pour la défense des biens communs informationnels. Je ne compte plus les fois où l’on s’est dit « merci », tant chacun semble admirer et être complice de ce que fait l’autre. C’est ce genre d’émulation où la réflexion de l’autre nourrit la tienne, et te mène un poil plus vite, un poil plus loin que là où tu te serais rendu tout seul.

Quand, avec Framasoft, on a initié ce crowdfunding fou (toujours en cours sur Ulule) pour que le lancement de #MonOrchide (livre II des NoéNautes) puisse financer la distribution gratuite d’exemplaires de #Smartarded (le livre I), Calimaq a répondu présent. Il a fait un bel article pour promouvoir cette expérience . Mais, chose inattendue, il a ajouté ce post-scriptum explosif :

PS : allez, moi aussi, je mets quelque chose dans la balance. Si Pouhiou réussit son pari, je passe S.I.lex en CC0. Ceci n’est pas une parole en l’air !

Le pari est réussi. En 22 jours, on a atteint les 2200 € qui nous permettront de distribuer au moins 32 exemplaires de #Smartarded. Grâce à une mobilisation peu commune il ne nous a fallu que la moitié des 45 jours prévus (ce qui veut dire qu’il reste trois semaines pour battre tous les records et accroître le nombre de livres à distribuer !)

Le pari est réussi, et S.I.Lex devient un dommage collatéral : Calimaq tient sa part du contrat, élevant son blog dans le Domaine Public Vivant. Je sais que, le connaissant, ce n’est pas un geste anodin. Une belle occasion de discuter avec lui de licences, d’écriture, et de qu’est-ce que ça veut bien dire, toutes ces choses-là…

2012-12-08_19.23.44.JPG

Pouhiou : Tu m’as fait un super article sur ton blog S.I.Lex, qui a été repris par ActuaLitté. Cela m’a beaucoup aidé à faire connaitre le projet. C’était déjà énorme (merci ^^). Pourquoi avoir en plus ajouté la licence de ton blog dans la balance ?

Calimaq : Cela fait un moment que je m’intéresse à ce que tu fais autour du cycle des Noenautes et d’après ce que tu as écrit sur ton blog, un des billets que j’avais écrit sur S.I.Lex t’avait influencé dans ta décision d’adopter la licence CC0 pour ton premier roman #Smartarded.

Quand j’ai vu que tu lançais cette opération de crowdfunding, j’ai voulu la soutenir et la faire connaître, parce que je trouve qu’elle bouscule la manière dont nous avons l’habitude d’appréhender des notions fondamentales, comme celles du gratuit et du payant. Avec la licence CC0, tu as renoncé à tes droits d’auteur pour que tes œuvres soient complètement libres, tout en réussissant à faire paraître ton roman chez Framabook. C’est déjà en soi assez perturbant pour les schémas habituels. Mais tu ne t’es pas arrêté là et par le financement collaboratif, tu as cherché à faire en sorte qu’un maximum de livres en papier deviennent gratuits afin de pouvoir les offrir.

Le plus intéressant dans ta démarche, je trouve, c’est que derrière ces décisions, il y a un modèle économique bien pensé, qui utilise le crowdfunding pour raccourcir la chaîne de l’auteur au lecteur, dans le but de diminuer les coûts. Tu démontres de manière paradoxale que la gratuité a toujours un coût. C’est typiquement le genre d’approches alternatives qui retiennent mon attention, parce que je trouve qu’elles font avancer la réflexion. Dans le contexte actuel de crispations autour des questions de droit d’auteur, qui sont particulièrement vives dans le secteur du livre, je pense que des initiatives comme les tiennes sont importantes. J’ai aussi beaucoup apprécié la lecture de ton premier roman #Smartarded et j’ai commencé à lire la suite #MonOrchide par petites touches sur ton blog. Tout cela a fait que j’ai voulu te soutenir en écrivant un billet sur S.I.lex et je me réjouis de ta réussite.


Merci ! Mais là tu parles plus de moi que de toi, hein… J’ai bien saisi que ce billet a été un élément déclencheur, mais est-ce qu’il s’agit d’un coup de tête ou est-ce que ça fait partie d’une réflexion personnelle plus… ancienne ?


Au-delà du billet, pourquoi avoir promis de changer la licence de mon blog si ton pari réussissait ? Peut-être d’abord un peu par superstition, pour porter chance à ton projet, en engageant quelque chose qui me tenait vraiment à cœur. Par ailleurs, je me posais des questions à propos de la licence de S.I.Lex depuis un certain temps. À vrai dire depuis le moment où j’ai écrit le billet Rien n’est à nous : grandeur et misère du domaine public volontaire. J’y montrais comment un certain nombre de créateurs dans le passé avaient choisi pour diverses raisons de renoncer aux droits sur leurs œuvres pour se placer en dehors de la logique de la propriété intellectuelle : Léon Tolstoï, Romain Rolland, Jean Giono, les affichistes de mai 68, les situationnistes, le musicien folk Woodie Guthrie.

Le domaine public est une notion qui a un grande importance pour moi et pour laquelle j’essaie de me battre. Il m’a semblé que le moment était venu de franchir le pas et de placer ma propre création, S.I.Lex, dans le domaine public volontaire.

Ton blog était en licence CC-BY (la seule condition de partage est de citer l’auteur). Là tu le passes en CC0. C’est quoi, au fond, la différence ?

Juridiquement dans le cadre du droit français, il n’y a pas tellement de différences. En effet, le Code de Propriété Intellectuelle ne permet pas dans notre pays de renoncer valablement à son droit moral, ce qui signifie qu’on doit théoriquement interpréter la CC0 comme une CC-BY. Je n’ai pas la possibilité légale de renoncer à mon droit à la paternité. Ce caractère inaliénable du droit moral a été voulu pour protéger l’auteur dans le cadre des contrats d’édition. Même dans le cas des « nègres » (ou, plus joliment dit, Ghostwriters en anglais), il reste possible pour eux de réclamer devant un juge la paternité d’un texte écrit pour quelqu’un d’autre, quand bien même ils se seraient engagés par contrat à ne pas révéler leur identité (on a des jurisprudences intéressantes à ce sujet dès le 19ème siècle, notamment dans l’affaire qui opposa Alexandre Dumas à l’un de ses collaborateurs, Auguste Maquet.

Le problème, c’est que l’application trop rigide de ce principe aujourd’hui peut conduire à « protéger » l’auteur contre lui-même, alors qu’il manifeste clairement la volonté de renoncer à ses droits. La licence CC0 a d’ailleurs été obligée de prendre en compte cet état de fait, en précisant que l’auteur renonce à ces droits « dans la mesure permise par la loi ». Cela veut dire que l’effet de la CC0 varie selon les pays : aux États-Unis, où le droit moral n’existe pas vraiment, il est total ; en France, il reste juridiquement incomplet, puisque le droit moral persiste. Le seul pays à l’heure actuelle qui reconnaisse explicitement la possibilité de verser ses œuvres dans le domaine public volontaire, c’est le Chili.

Donc passer de CC-BY (licence déjà très ouverte) à CC0 n’a pas beaucoup d’effets pratiques… tant que la propriété intellectuelle n’est pas réformée en France. Malgré tout, je ne t’imagine pas homme à manier ces licences à la légère. Si passer de la CC-BY au Domaine Public Vivant n’est pas un choix pratique, il est de quel ordre ?

Cette décision revêt à mes yeux une valeur symbolique et psychologique importante, en tant qu’auteur. Je ne suis pas comme toi auteur de littérature ou de théâtre, mais j’ai un rapport profond avec l’écriture. J’écris sur S.I.Lex par besoin viscéral d’écrire et quand je décroche de l’écriture, je périclite littéralement. Pour moi, l’écriture a aussi une importance comme trace que l’on laisse de soi au-delà de son existence. Du coup, le BY – la paternité – gardait une vraie importance à mes yeux, comme une sorte de « cordon ombilical » ou de minimum minimorum du droit d’auteur, dont il était difficile de se détourner. Couper ce cordon en adoptant la CC0 n’était pas anodin et il m’a fallu un certain temps – et un coup de pouce de ta part – pour lâcher prise !


Quel est l’intérêt, pour toi, de mettre de son vivant des textes dans le domaine public ?

Pour moi, l’intérêt principal, c’est de sortir en dehors du cadre du droit d’auteur. Avec les licences libres, on passe de la logique du copyright à celle du copyleft, mais on reste encore dans le système du droit d’auteur. Les licences libres ne sont pas une négation du droit d’auteur, mais une autre manière de le faire fonctionner. Avec la licence CC0, on n’est plus dans le copyright, ni même dans le copyleft, mais littéralement dans le copy-out. On décide sciemment que son œuvre n’est plus saisie par le droit d’auteur et ne doit plus être comprise à travers ce filtre. Je ne prétends pas que cette voie doive être suivie par tous les auteurs. Mais au stade où j’en suis, c’est cohérent avec ma démarche.

Tu dis de ton côté que tu n’as pas l’impression que tes textes ne t’appartiennent pas, mais que tu “digères” des éléments extérieurs que tu restitues par tes écrits. De mon côté, j’ai très tôt été sensible aux effets d’intelligence collective sur la Toile, avec le sentiment que je me devais de rendre à l’intelligence collective ce qu’elle me donne. Il n’y a pas un seul de mes billets qui n’ait été déclenché par les conversations et les échanges dans les flux. Dès lors, le meilleur moyen d’être cohérent avec moi-même, c’est d’opter pour le domaine public volontaire.

Par ailleurs, je pense important de montrer que le domaine public n’est pas seulement une chose du passé, mais qu’il peut être vivant aujourd’hui. En tant qu’auteur de son vivant, contribuer à alimenter le domaine public, c’est la meilleure manière de s’en faire l’ambassadeur et d’agrandir le cercle des biens communs de la connaissance.

OK : on a tous les deux ce souci de cohérence. C’est bien beau d’utiliser une licence parce qu’elle te met en adéquation avec ce que tu ressens de ta production intellectuelle… Mais il y a forcément des pragmatiques qui vont nous traiter d’utopistes ! Ils vont nous rappeler qu’on vit dans un monde où les enjeux commerciaux prévalent et où — selon eux — les circonstances font qu’il vaudrait mieux armer et protéger ses œuvres… D’un point de vue pratique, la clause non commerciale (NC) est un outil redoutable quand la CC0 est une passoire ! Du coup, une licence, c’est la conséquence d’un ressenti théorique ou la résultante d’un besoin pratique d’outil légal ?

C’est sans doute assez souvent le résultat d’un compromis entre les deux. Il faut considérer la situation des auteurs dans leur diversité et de multiples stratégies sont envisageables avec les licences. Les choses peuvent varier également selon les domaines de la création. Quand on voit un Cory Doctorow ou un Lawrence Lessig publier leurs ouvrages chez des éditeurs traditionnels et placer les versions numériques sous CC-BY-NC, je trouve que c’est une stratégie compréhensible et qu’ils ont par ce biais contribué à faire avancer la cause, en diffusant leurs idées dans un large cercle.

Beaucoup de créateurs en revanche ne cherchent pas un retour financier pour les œuvres qu’ils produisent. C’est le cas pour la plupart des amateurs qui créent des contenus sur Internet. Dans ce genre de situation, la réservation de l’usage commercial n’est généralement pas justifiée et choisir cette clause impose des contraintes sans réelle nécessité. Mais dans certaines situations, la clause NC peut constituer un élément intéressant pour permettre la circulation des œuvres tout en mettant en place un modèle économique. Il y a un débat assez vif en ce moment sur la légitimité de la clause NC, notamment telle qu’elle figure dans les licences Creative Commons. Je ne fais pas partie de ceux qui condamnent cette clause de manière systématique et j’ai déjà essayé de montrer que ce serait une erreur selon moi de la supprimer.

Malgré cela, tu n’as jamais mis de clause NC sur ton blog S.I.Lex...

Dans mon propre cas, je n’en vois absolument pas l’intérêt… Mon objectif en écrivant de cette manière est d’être lu par un maximum de personnes. Si certains de mes billets sont repris sur d’autres sites, y compris des sites se livrant à des activités commerciales, cela ne peut qu’augmenter l’exposition de mes écrits. J’ai d’ailleurs toujours fonctionné depuis le lancement de S.I.Lex dans un « écosystème » de sites. Très vite, j’ai eu la chance de voir certains de mes billets repris par le regretté OWNI. Cela a grandement contribué à faire connaître S.I.Lex et à développer mon lectorat. D’autres sites me reprennent régulièrement, comme Actualitté ou plus récemment Slate.fr. J’ai toujours considéré que S.I.lex était une sorte de plateforme de tir, où je posais des écrits qui pouvaient ensuite aller faire leur vie ailleurs. Avec une licence NC, les choses auraient été beaucoup plus compliquées.

La licence CC0 est peut-être une passoire, mais dans les conditions particulières qui sont les miennes comme auteur, elle conviendra parfaitement à ce que je veux faire de mes créations. Même si un éditeur vient publier certains de mes billets sous forme de livre dans un recueil, cela ne fera que contribuer encore à leur diffusion.

Du coup, tu n’exiges plus que l’on te cite comme source de tes écrits… de manière légale, c’est ça ? C’est un peu comme moi en fait : tu ne brandis pas d’arme juridique. Plutôt que de les craindre, tu donnes ta confiance aux personnes qui s’inspireront de (ou diffuseront) tes écrits. Confiance en le fait qu’elles soient assez respectueuses pour citer leur source.

La question qui peut se poser est celle du plagiat, quelqu’un qui viendrait s’approprier certains de mes textes en les publiant sous son nom. C’est une chose qui m’est déjà arrivée une fois et j’avoue que cela m’avait laissé une sensation assez désagréable.

Mais une personne comme l’artiste Nina Paley dit des choses très intéressantes sur les rapports entre le copyright et le plagiat. Elle considère en effet que le droit d’auteur paradoxalement favorise davantage le plagiat qu’il ne l’empêche. Elle explique également que le fait de créditer l’auteur relève en fait d’un système de régulation sociale qui n’a pas nécessairement besoin du droit pour fonctionner. Il s’agit en fait davantage de règles éthiques que des communautés se donnent. Nina Paley place d’ailleurs ses créations dans le domaine public volontaire en utilisant la non-licence Copyheart ou la CC0. Elle dit vouloir en cela faire œuvre de « non-violence légale » et je trouve que c’est un discours inspirant.

Un des pivots du libre, c’est sa viralité. On m’affirme que des processus du type la clause SA ont permis au libre de se développer tel qu’il est aujourd’hui. Pour mon compte, la SA est trop paradoxale. Je dis toujours que la première des libertés c’est de ne pas me lire. Dans la même veine, obliger les gens qui adapteront/traduiront/réécriront/diffuseront mes romans à mettre leur production sous licence libre, ça me semble créer de l’enclosure. Ce serait un peu comme forcer les gens à se vacciner au lieu de leur montrer comme on est mieux une fois bien portant… Et du coup j’aperçois que ton blog S.I.Lex n’était même pas sous clause SA ? Pourquoi ?

C’est une question intéressante et là aussi, je m’étais longuement posé la question lorsque j’avais choisi ma licence.

La clause de partage à l’identique est très importante dans beaucoup de domaines, comme celui du logiciel libre qui est fondé sur cette idée qu’il ne doit pas y avoir de possibilité de supprimer les libertés conférées à tous par la licence. Contrairement à ce que tu dis, je soutiendrais que le SA garantit au contraire qu’il ne puisse jamais y avoir d’enclosure sur une œuvre. Personne ne peut plus s’approprier de manière définitive un contenu placé sous Share-Alike. C’est pourquoi il me semble que c’est un type de licence adapté pour les biens communs que des communautés veulent protéger des risques d’enclosure. Si l’on prend le cas de Wikipédia, la licence CC-BY-SA est parfaitement adaptée, à la fois au travail collaboratif et aux réutilisations des contenus. Elle garantit que cela puisse se faire, même à titre commercial, mais sans réappropriation.

Cependant, je peux comprendre que tu ne veuilles pas placer tes écrits sous le régime du partage à l’identique, et c’est aussi la conclusion à laquelle j’étais arrivé pour S.I.Lex. Si je prends le cas des billets que reprenait OWNI par exemple, les choses auraient été trop compliquées avec une CC-BY-SA. En effet, OWNI reprenait mes billets, mais en les modifiant légèrement. Les journalistes de la plate-forme changeaient généralement le titre, ajoutaient des intertitres, inséraient des illustrations, des vidéos et parfois même des infographies. Il arrivait également que certains de mes billets soient traduits en anglais pour alimenter OWNI.eu. Tout cet apport éditorial était à mes yeux excellents, mais d’un point de vue juridique, il s’agissait d’adaptations de mes créations, ce qui aurait déclenché la clause de partage à l’identique, si j’avais choisi une CC-BY-SA. Or OWNI était sous CC-BY-NC-SA et il n’aurait pas été simple pour eux d’intégrer mes billets si je n’avais pas laissé une grande ouverture avec la CC-BY.

De plus, la CC-BY-SA n’est pas toujours simple à appliquer, comme l’avait prouvé l’affaire qui avait opposé Michel Houellebecq à Wikimedia, lorsque qu’il avait intégré dans son roman La Carte et le Territoire des extraits d’articles de Wikipédia sans mention de la source, ni crédits des auteurs.

Le domaine public et le libre ne sont pas exactement superposables. Le propre du domaine public, c’est de constituer un réservoir complètement ouvert dans lequel on peut venir puiser pour alimenter sa création sans contraintes. Les deux approches sont importantes et complémentaires.

Mais attends, de nous jours, entre les CopyrightMadness, les guerres de brevets, ceux qui s’approprient mon grain de maïs ou ton rectangle à bords arrondis… Avec tous ces abus du côté de la propriété intellectuelle et des biens communs… Y’a pas plus important ou plus urgent que de s’occuper du domaine public ?

Oui, c’est certain qu’il existe des sujets alarmants sur lesquels il devient urgent d’agir. Je ne suis pas seulement engagé pour la défense du domaine public, mais plus globalement pour la promotion des biens communs de la connaissance, ce que je fais au sein du collectif SavoirsCom1. Je milite également aux côtés de la Quadrature du Net pour la légalisation des échanges non-marchands et la mise en place de solutions de financement mutualisées pour la création, comme la contribution créative ou le revenu de base.

Néanmoins, je pense que le domaine public peut constituer un bon angle d’attaque pour s’engager dans une réforme positive de la propriété intellectuelle. On a un peu l’impression d’être aujourd’hui face à une forteresse imprenable et on n’arrive pas à sortir des débats autour de la répression du partage des œuvres, qui continuent à monopoliser l’attention du législateur comme on le voit bien avec les travaux de la mission Lescure. C’est pourquoi il me paraît intéressant d’ouvrir de nouveaux fronts qui permettront de défendre l’idée que nous possédons des droits positifs sur la culture. Le domaine public peut être une piste en ce sens et j’ai fait des propositions de réforme législative pour consacrer et renforcer cette notion dans le Code de Propriété Intellectuelle.

Par ailleurs, tu évoques le Copyright Madness, mais le domaine public pourrait aussi être un moyen de lutter contre les pires dérapages de la propriété intellectuelle. On a vu par exemple récemment des laboratoires pharmaceutiques déposer valablement des brevets en Australie sur les gènes responsables du cancer du sein, ce qui est absolument terrifiant puisque cela signifie que tout chercheur qui voudra mettre au point un remède devra leur verser des royalties. Aux États-Unis, Monsanto a relancé une offensive en justice pour empêcher des agriculteurs de replanter des semences de variétés brevetées et l’entreprise semble en passe de l’emporter. Cela peut avoir des conséquences dramatiques au niveau mondial.

Ces dérives ont un lien avec le domaine public, parce que celui-ci ne contient pas seulement les œuvres anciennes, mais aussi tout ce qui ne devrait pas pouvoir faire l’objet d’une appropriation exclusive. Cela vaut pour certains éléments de la Culture, mais aussi pour des choses aussi essentielles que le génome humain ou les semences.

Le domaine public devrait être le bouclier qui protège tous ces éléments fondamentaux de la folie de l’appropriation, mais c’est à nous de le promouvoir et de le faire vivre pour qu’il puisse remplir ce rôle.

Je crois qu’on ne peut pas trouver de meilleure conclusion ! Merci à toi, Calimaq.

2012-12-08_19.24.39.JPG