Le chemin de croix du logiciel libre à l’école – Quand Mediapart mène l’enquête

Vauvau - CC byLe logiciel libre et sa culture n’ont toujours pas la place qu’ils méritent à l’école. Tel est l’un des chevaux de bataille de ce blog, qui a parfois l’impression de donner des coups d’épée dans l’eau tant ce sujet ne donne pas l’impression de passionner les foules.

Dans ce contexte médiatiquement défavorable, nous remercions Mediapart de s’être récemment emparé du sujet à la faveur d’une enquête conséquente sur L’école à l’ère numérique.

Ces enquêtes approfondies sont l’une des marques de fabrique de ce pure player qui contrairement à d’autres ne mise pas sur le couple gratuit/publicité mais sur l’abonnement qui offre un accès privé et réservé à la majorité de ses contenus (si je puis me permettre une petite digression, le modèle utopique idéal serait pour moi un nombre suffisant d’abonnés à qui cela ne poserait pas de problèmes que le site soit entièrement public et sous licence de libre diffusion).

Ce dossier comporte cinq articles : Les industriels lorgnent le futur grand plan numérique de Luc Chatel, A Antibes, un collège teste les manuels numériques[1], Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation »[2], Nouvelles technologies: remue-ménage dans la pédagogie ![3] et Le chemin de croix du logiciel libre à l’école.

Avec l’aimable autorisation de son auteure, nous avons choisi d’en reproduire le premier dans un autre billet et donc ici le dernier, dans la mesure où nous sommes cités mais aussi et surtout parce qu’ils touchent directement nos préoccupations.

Outre votre serviteur, on y retrouve de nombreux acteurs connus des lecteurs du Framablog. J’ai ainsi particulièrement apprécié la métaphore de la « peau de léopard » imaginée par Jean Peyratout pour décrire la situation actuelle du Libre éducatif en France[4].

Et si ce léopard se métamorphosait doucement mais sûrement en une panthère noire ?

Le chemin de croix du logiciel libre à l’école

URL d’origine du document

Louise Fessard – 12 février 2010 – Mediapart

Et le libre dans tout ça ?

Des logiciels et des contenus garantissant à tous le droit d’usage, de copie, de modification et de distribution, ne devraient-ils pas prospérer au sein de l’éducation nationale ? Si l’administration de l’éducation nationale a choisi en 2007 de faire migrer 95% de ses serveurs sous le système d’exploitation libre GNU/Linux, la situation dans les établissements scolaires est bien plus disparate.

Le choix dépend souvent de la mobilisation de quelques enseignants convaincus et de la politique de la collectivité locale concernée. « On se retrouve avec des initiatives personnelles, très locales et peu soutenues », regrette l’un de ses irréductibles, Alexis Kauffmann, professeur de mathématiques et fondateur de Framasoft, un réseau d’utilisateurs de logiciels libres.

« La situation ressemble à une peau de léopard, confirme Jean Peyratout, instituteur à Pessac (Gironde) et président de l’association Scideralle. Le logiciel libre est très répandu mais dans un contexte où aucune politique nationale n’est définie. C’est du grand n’importe quoi : il n’y a par exemple pas de recommandation ministérielle sur le format de texte. Certains rectorats vont utiliser la dernière version de Word que d’autres logiciels ne peuvent pas ouvrir. »

A la fin des années 1990, Jean Peyratout a développé avec un entrepreneur, Eric Seigne, AbulEdu, une solution réseau en logiciel libre destinée aux écoles et basée sur GNU/Linux. Selon Eric Seigne, directeur de la société de service et de formation informatique Ryxeo spécialisée dans le logiciel libre, environ 1000 des 5000 écoles visées à l’origine par le plan d’équipement « écoles numériques rurales », lancé à la rentrée 2009 par le ministère de l’éducation nationale, ont choisi d’installer AbulEdu. Faute de bilan national, il faudra se contenter de ce chiffre, qui ne concerne que le premier degré, pour mesurer l’importance du libre dans les établissements scolaires.

Autre exemple significatif, en 2007, le conseil régional d’Ile-de-France a choisi d’équiper 220.000 lycéens, apprentis de CFA et professeurs, d’une clé USB dotée d’un bureau mobile libre – développé par la société Mostick, à partir des projets associatifs Framakey et PortableApps.

« Pourquoi payer des logiciels propriétaires ? »

Le libre à l’école a plusieurs cordes à son arc. Jean Peyratout met en avant son interopérabilité – « Nos élèves sont amenés à utiliser à la maison ce qu’ils utilisent à l’école » –, la souplesse dans la gestion du parc – pas besoin d’acheter une énième licence en cas de poste supplémentaire – et surtout son éthique. « Faire de la publicité à l’école est interdit, plaide-t-il. Il me semble qu’utiliser un logiciel marchand à l’école alors qu’il existe d’autres solutions, c’est faire la promotion de ce logiciel. Pourquoi aller payer des logiciels propriétaires dont le format et le nombre limité de licences posent problème ? »

D’autant, souligne Eric Seigne, « qu’en investissant dans le libre, l’argent reste en local, alors qu’en achetant du propriétaire, la plus grande partie de l’argent part à l’étranger où sont implantés les gros éditeurs ». Reste à convaincre sur le terrain les enseignants, non experts et qui n’ont pas envie de mettre les mains dans le cambouis. A Saint-Marc-Jaumegarde par exemple, Emmanuel Farges, directeur d’une école primaire pourtant très technophile, est sceptique. « Seul notre site Internet repose sur un logiciel libre mais ça bogue souvent et il n’y a pas de suivi quand il y a un problème », explique-t-il.

A côté de la poignée d’enseignants militants du libre, se sont pourtant développés des professionnels. « Le fait que les logiciels soient gratuits éveille paradoxalement les soupçons de mauvaise qualité, note Bastien Guerry, doctorant en philosophie et membre de l’Association francophone des utilisateurs de logiciels libres (Aful). Mais il existe des associations locales de prestation de service en logiciel libre qui peuvent assurer un suivi. »

Des sites collaboratifs

« Aujourd’hui, les enjeux portent moins sur l’installation des postes que la mise à disposition de logiciels libres via l’environnement numérique de travail et des clefs USB », prévoit Bastien Guerry. A travers des sites participatifs comme Les Clionautes (histoire-géographie), WebLettres (français), et créés au début des années 2000, des enseignants s’adonnent avec enthousiasme à cette création de logiciels et surtout de contenus.

L’exemple le plus abouti en est Sésamath dont la liste de diffusion regroupe 8000 enseignants, soit un quart des profs de mathématiques français selon l’un des fondateurs du projet, Sébastien Hache, lui-même enseignant au collège Villars à Denain (Nord).

« Tous les enseignants créaient déjà eux-mêmes leurs ressources mais Internet leur a permis de les partager, explique-t-il. Et, comme il n’y a pas plus seul qu’un prof face à sa classe, ça évite à chacun de réinventer la roue dans son coin. » Grâce à la collaboration d’enseignants travaillant à distance, Sésamath a même édité « le premier manuel scolaire libre au monde ». « Les manuels des éditeurs sont d’ordinaire écrits par deux ou trois profs, nous, nous avons eu la collaboration d’une centaine d’enseignants avec de nombreux retours », se félicite Sébastien Hache.

400.000 exemplaires de ce manuel, qui couvre les quatre niveaux de collège, ont été vendus (11 euros pour financer les salaires des cinq salariés à mi-temps de l’association), la version en ligne étant gratuite et bien entendu modifiable en vertu de sa licence libre. L’autre activité du site consiste à créer des logiciels outils et des exercices s’adaptant aux difficultés des élèves. Beaucoup de professeurs de mathématiques sont aussi par ailleurs des développeurs passionnés!

Un foisonnement que s’efforce de fédérer le pôle de compétences logiciels libres du Scérén coordonné par Jean-Pierre Archambault. L’école doit désormais prendre en compte les « mutations engendrées par l’immatériel et les réseaux: enseignants-auteurs qui modifient le paysage éditorial, partage de la certification de la qualité, validation par les pairs, redistribution des rôles respectifs des structures verticales et horizontales… », jugeait-il en juin 2008.

Pas vraiment gagné, constate Alexis Kauffmann. « Rien ne laisse à penser que le ministère de l’éducation nationale comprend et souhaite encourager cette culture libre qui explose actuellement sur Internet », lance-t-il. Dernier exemple en date, l’Académie en ligne lancée par le Cned en juin 2009 propose des cours, certes gratuits, mais pas libres et donc non modifiables, manifestement uniquement conçus pour être imprimés! Pour la collaboration, il faudra repasser…

Notes

[1] On peut lire l’article A Antibes, un collège teste les manuels numériques dans son intégralité sur le site Sauvons l’Université.

[2] On peut lire l’article Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation » dans son intégralité sur le site Sauvons l’Université.

[3] On peut lire l’article Nouvelles technologies: remue-ménage dans la pédagogie ! dans son intégralité sur le site Sauvons l’Université.

[4] Crédit photo : Vauvau (Creative Commons By)




Si Google is not evil alors qu’il le prouve en libérant le format vidéo du Web !

Diegosaldiva - CC byQuel sera le futur format vidéo du Web ? Certainement plus le Flash dont les jours sont comptés. Mais quel nouveau format va alors s’imposer, un format ouvert au bénéfice de tous ou un format fermé dont le profit à court terme de quelques-uns se ferait au détriment des utilisateurs ?

Un acteur, à lui seul, possède semble-t-il la réponse ! Et c’est une fois encore de Google qu’il s’agit. Une réponse que la Free Software Foundation attend au tournant car elle en dira long sur les réelles intentions de la firme de Moutain View.

Tentative de résumé de la situation.

Faute de mieux, et alors qu’il n’avais pas été spécialement conçu pour jouer les premiers rôles, le format Flash Video d’Adobe (.flv) s’est imposé pendant des années comme format standard de fait de la vidéo en lecture continue (ou streamée) sur Internet, comme par exemple sur le site emblématique YouTube.

Pour le lire il nécessitait la présence d’un player Flash sur son ordinateur, ce qui a toujours posé problème aux Linuxiens puisque la technologie Flash est propriétaire et (en partie) fermée et qu’il n’est donc pas possible de l’inclure dans les distributions libres de GNU/Linux (ceux qui juste après une installation ont recherché comment lire ce satané format comprendront fort bien ce que je veux dire). Un problème si important que la FSF n’a pas hésité à le placer au top de ses priorités logicielles avec son projet de lecteur libre Gnash (juste en dessous d’un lecteur alternatif pour le format PDF, autre format problématique).

Mais tout ceci sera bientôt du passé car la nouvelle version du format des pages Web, le HTML5, est en train de changer la donne avec l’introduction de la balise <video> (cf cet article du Framablog pour en savoir plus : Building the world we want, not the one we have).

Exit le Flash donc dans nos vidéos du Web. D’ailleurs, coup de grâce, il ne figurera pas dans l’iPad et Steve Jobs aurait déclaré « ne pas vouloir perdre du temps sur une technologie dépassée aussi ringarde que les disquettes » !

Conséquence et grand progrès, on peut donc potentiellement lire directement les vidéos sur tout navigateur qui implémente le HTML5 (actuellement Firefox 3.5+, Safari 4+, Chrome 3+). Plus besoin de télécharger de plugins (Flash, QuickTime ou autre). Sauf que comme le dit Tristan Nitot « la spécification HTML5 précise comment un navigateur doit interpréter l’élément video, mais pas sur le format dans lequel doit être publiée la vidéo en question ».

Or justement deux formats sont les principaux candidats à la succession, l’un ouvert, que nous connaissons bien, le Ogg Theora (adopté notamment sur les projets Wikimedia), et l’autre fermé le H.264. Tristan Nitot expose avec la clarté qu’on lui connaît, la situation, ses contraintes et ses menaces, dans son billet Vidéo dans le navigateur : Theora ou H.264 ?.

Il en rajoute une couche sur Rue89 dans Firefox refuse que YouTube devienne « un club de riches » :

« Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

En effet, il en coûterait plusieurs millions par an à Mozilla si elle voulait intégrer le H.264 dans Firefox. Ce qu’elle ne pourrait pas se permettre et du coup si YouTube adoptait définitivement ce format (que la célèbre plate-forme teste actuellement), nous serions face à un choix cornélien : Firefox sans YouTube (et tous les autres sites de vidéos qui auront alors suivi YouTube, gageons qu’ils seront nombreux) ou YouTube sans Firefox.

Ceux qui pensent, comme Stallman, qu’on « ne brade pas sa liberté pour de simples questions de convenances » feront peut-être le premier choix. Mais pour le grand public, rien n’est moins sûr (c’est même sûr qu’il fera le choix inverse).

Or c’est un feuilleton à épisodes car un tout dernier évènement est venu semer le trouble en apportant son lot de spéculations. Un évènement passé un peu inaperçu à cause du buzz (négatif) engendré par la sortie simultanée de Google Buzz : le rachat par Google de la société On2 Technologies pour un peu plus de cent millions de dollars.

On2 Technologies est justement spécialisée dans la création de formats vidéos, dont un, le VP3, a d’ailleurs été libéré et est directement à l’origine de l’Ogg Theora. Mais c’est le tout dernier de la gamme, le VP8 qui focalise l’attention de par ses qualités (cf présentation et comparaison sur le site d’On2).

Ce rachat a quelque peu atténué les craintes des observateurs, à commencer par Mozilla (cf cet article de Numerama : Codec vidéo : Google rachète On2 et rassure Mozilla). Pourquoi en effet débourser une telle somme puisque le H.264 est là ? Peut-être pour le remplacer par le VP8. Mais alors aura-t-on un VP8 également fermé (et peut-être aussi payant) ou bien ouvert pour l’occasion ?

La balle est dans le camp de Google.

Soit la société fait le choix du H.264. Firefox ne peut pas suivre et alors il y a fort à parier que cela profitera au navigateur Google Chrome (nombre d’utilisateurs ne pouvant désormais concevoir le Web sans YouTube). Comme de plus l’essentiel des revenus de Mozilla provient de l’accord avec Google sur le moteur de recherche par défaut de Firefox, et que cet accord ne court que jusqu’en 2011, on voit bien que Google peut en théorie si ce n’est tuer Firefox, tout du moins participer directement à freiner son ascension.

Soit la société oublie le H.264 en optant pour le VP8 d’On2. Mais reste alors à savoir quelle sera la nature de ce format. Si Google décide de le libérer en donnant le la en l’installant sur YouTube, c’est non seulement Firefox qui en profitera mais le Web tout entier.

Le choix est important, parce qu’au-delà de l’avenir de la vidéo sur le Web, c’est l’avenir de Google dont il est question. Et aujourd’hui, qu’on le veuille ou non, l’avenir de Google rejoint souvent l’avenir du Web tout court, ce qui en dit long sur sa puissance et son influence actuelles sur le réseau.

Il est bien évident que le H.264 ou le VP8 fermé serait à priori la meilleure option pour Google en tant que multinationale cotée en bourse avec des actionnaires qui réclament leurs dividendes. Mais ce serait la plus mauvaise pour les partisans d’un Web libre et ouvert. « Google is not evil » nous dit le slogan, alors qu’elle le prouve en faisant le bon choix, celui de l’intérêt des utilisateurs. Google en tirerait alors l’avantage de conserver une image positive de plus en plus écornée ces derniers temps. Dans le cas contraire le masque serait définitivement levé[1] et le bénéfice du doute ne serait plus permis.

Tel est en substance le message lancé par la FSF que nous avons traduit ci-dessous.

Lettre ouverte à Google : libérez le VP8, et utilisez-le sur YouTube

Open letter to Google: free VP8, and use it on YouTube

Holmes – 19 février 2010 – FSF Blogs
(Traduction Framalang : Don Rico et Goofy)

Après son acquisition d’On2, entreprise spécialisée en technologie de compression vidéo, le 16 février 2010, Google est à présent en position de standardiser les formats vidéo libres et ainsi libérer le Web à la fois du Flash et du codec propriétaire H.264.

Cher Google,

Après votre rachat d’On2, vous possédez désormais le plus important site de vidéos au monde (YouTube) et tous les brevets déposés pour un nouveau codec vidéo de haute performance, le VP8. Imaginez ce que vous pouvez accomplir si vous rendez disponible, de façon irrévocable, le codec VP8 sous une licence libre de royalties, et le proposez aux utilisateurs de YouTube ? Vous pouvez mettre un terme à la dépendance du Web aux formats vidéo criblés de brevets et aux logiciels propriétaires tel que Flash.

Garder le secret sur les spécifications de cette technologie ou ne l’utiliser que comme levier de négociation desservirait le monde du Libre, en n’apportant dans le meilleur des cas que des bénéfices à court terme à votre entreprise. Libérer le code du VP8 sans recommander ce format aux utilisateurs de YouTube constituerait une occasion manquée et nuirait au navigateurs libres tel que Firefox. Nous voulons tous que vous fassiez le bon choix. Libérez le code de VP8, et utilisez-le pour YouTube !

Pourquoi ce serait un immense bond en avant

Le monde disposerait alors d’un nouveau format libre affranchi de brevets logiciels. Internautes, créateurs de vidéo, développeurs de logiciels libres, constructeurs de matériel informatique, tout le monde pourrait distribuer de la vidéo sans se soucier des brevets, des droits d’utilisation et des restrictions. Le format vidéo libre Ogg Theora est au moins aussi performant pour la vidéo sur le web (voir comparatif) que son concurrent fermé, le H.264, et jamais nous n’avons approuvé les objections que vous opposiez à son utilisation. Puisque vous avez pris la décision d’acquérir le VP8, on peut néanmoins supposer que ce format ne soulève pas selon vous les mêmes objections, et que l’implémenter dans YouTube est un jeu d’enfant.

Vous avez le pouvoir de faire de ce format libre un standard planétaire. Si YouTube, qui héberge la quasi totalité des vidéos numériques jamais conçues, proposait un format libre en option, ce simple changement vous vaudrait le soutien d’une pléthore de fabricants d’appareils et d’applications numériques.

Cette capacité à proposer un format libre sur YouTube n’est toutefois qu’une partie infime de votre véritable pouvoir. On passera aux choses sérieuses quand vous encouragerez les navigateurs des utilisateurs à prendre en charge les formats libres. Il existe un tas de moyens de s’y prendre. La meilleure, à nos yeux, serait que YouTube abandonne le Flash au profit des formats libres et du HTML, et propose à ses utilisateurs équipés de navigateurs obsolètes un plug-in ou un navigateur moderne (un logiciel libre, bien sûr). Apple a eu le cran de mettre au rebut le Flash pour l’iPhone et l’iPad (même si leurs raisons sont suspectes et leurs méthodes détestables les DRM), et cette décision pousse les développeurs Web à créer des alternatives sans Flash de leurs pages. Vous pourriez faire de même avec YouTube, pour des raisons plus nobles, ce qui porterait un coup fatal à la prédominance de Flash dans le secteur des vidéos en ligne.

Même des actions de moindre envergure porteraient leur fruits. Vous pourriez par exemple susciter l’intérêt des utilisateurs avec des vidéos HD disponibles sous format libre, ou inciter fortement les utilisateurs à mettre à niveau leur navigateur (plutôt que de mettre Flash à jour). De telles mesures sur YouTube porteraient la prise en charge des formats libres par les navigateurs à un niveau de 50% et plus, et elles augmenteraient lentement le nombre d’internautes qui ne prendraient pas la peine d’installer un plug-in Flash.

Si le logiciel libre et l’internet libre vous tiennent à cœur (un mouvement et un médium auxquels vous devez votre réussite), vous devez prendre des mesures drastiques pour remplacer Flash par des standards ouverts et des formats libres. Les codecs vidéo brevetés ont déjà fait un tort immense au Web et à ses utilisateurs, et cela continuera tant que nous n’y mettrons pas un terme. Parce qu’il était coûteux d’implémenter des standards bardés de brevets dans les navigateurs, un logiciel privateur aussi lourd qu’inadapté (le Flash) est devenu le standard de facto pour la vidéo en ligne. Tant que nous ne passerons pas aux formats libres, la menace des actions en justice pour violation de brevet et des royalties à verser pèsera sur tous les développeurs de logiciel, les créateurs de vidéo, les fabricants de matériel informatique, les sites Internet et les entreprises du Web, vous y compris.

Vous pouvez utiliser votre acquisition d’On2 comme simple levier de négociation pour apporter votre propre solution au problème, mais ce serait à la fois un faux-fuyant et une erreur stratégique. Si vous ne faites pas du VP8 un format libre, ce ne sera jamais qu’un codec vidéo de plus. À quoi servirait un énième format vidéo souffrant d’une compatibilité avec les navigateurs limitée par des brevets ? Vous devez au public et à l’Internet de résoudre ce problème ; vous le devez à nous tous, et pour toujours. Des organisation telles que Xiph, Mozilla, Wikimedia, la FSF et On2 elle-même mettent l’accent sur la nécessité d’imposer les formats libres et se battent corps et âme pour rendre cela possible. À votre tour, maintenant. Si vous en décidez autrement, nous saurons que vous avez à cœur non pas la liberté des utilisateurs mais seulement le règne sans partage de Google.

Nous voulons tous que vous preniez la bonne décision. Libérez le code du VP8 et utilisez-le sur Youtube !

Notes

[1] Crédit photo : Diegosaldiva (Creative Commons By)




Pourquoi le logiciel libre est-il important pour moi ?

The unnamed - CC by-saBruce Byfield est un journaliste américain que nous avons souvent traduit sur le Framablog.

Il nous livre ici une sorte de témoignage confession autour de cette simple question : Pourquoi le logiciel libre est-il important pour moi ? Une question qui, vers la fin, en cache une autre : Pourquoi le logiciel libre n’est-il pas important pour les autres ?

La réponse m’a alors fait fortement penser à l’Allégorie de la caverne de Platon parce que « pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe »[1].

Mais je ne vous en dis pas plus…

Pourquoi les 4 libertés du logiciel sont plus importantes que jamais pour les Linuxiens

Why ‘Free as in Freedom’ is More Important Than Ever for Linux Users

Bruce Byfield – 17 novembre 2009 – LinuxPlanet.com
(Traduction Framalang : Don Rico)

Une marionnette heureuse de sa condition

La Free Software Foundation organise un concours de vidéos sur le thème « Pourquoi le logiciel libre est-il important pour vous ? » C’est une question qui tombe à point nommé, en raison, d’une part, de la récente sortie de Windows 7, et d’autre part des bisbilles au sein de la communauté du Libre qui ont tellement gagné en virulence que ses partisans semblent en passe d’oublier leur objectif commun.

Je n’ai pas le talent pour monter une vidéo, mais ce concours m’a poussé à m’interroger : Pourquoi le logiciel libre est-il important pour moi ? Pourquoi la plupart de ceux qui m’entourent s’en soucient comme d’une guigne ? Ces deux questions sont plus intimement liées qu’on pourrait le croire au premier abord.

Une changement de logiciel et de relations

À certains égards, il m’est plus facile d’expliquer ce qui ne présente pas d’intérêt pour moi dans le logiciel libre que ce qui en présente. Par exemple, le code que j’écris se limite à des modifications d’un code existant, aussi avoir accès au code source n’est pour moi qu’un avantage indirect.

De la même manière, être journaliste spécialisé dans le domaine du logiciel libre ne présente que peu de bénéfices pour moi. J’aurais davantage de débouchés et de lecteurs si j’écrivais des rubriques sur le matériel, Windows, et même OS X.

La gratuité du logiciel m’importe peu elle aussi, car depuis des années je peux défalquer le prix des logiciels acquis de ma déclaration de revenus. D’ailleurs, utiliser des logiciels libres et gratuits est même un désavantage lorsque je déclare mes impôts, car j’ai moins de frais professionnels à déduire.

Je ne peux même pas avancer l’argument que je voue une vive haine à Microsoft – mon sentiment envers cette entreprise est plus une grande méfiance et le désir d’avoir le moins possible affaire à elle.

Microsoft a néanmoins contribué à me pousser vers le logiciel libre. Un mois à peine après l’acquisition de ma première machine, je pestais déjà contre les carences du DOS, que j’ai remplacé par 4DOS. 4DOS était alors un partagiciel (à l’époque, quasi personne ne connaissait l’existence des logiciels libres) et ses fonctionnalités plus riches m’ont appris que le prix de vente d’un programme n’avait rien à voir avec sa qualité.

C’est aussi cette recherche de qualité qui m’a conduit à préférer OS/2 à Windows 3.0, et à vouloir être en mesure de bidouiller mes logiciels.

L’abandon d’OS/2 par IBM sous la pression de Microsoft m’a fourni un enseignement supplémentaire : je ne pouvais compter sur une entreprise commerciale pour protéger mes intérêts en tant que client. Lorsque j’ai découvert le logiciel libre, je me suis aussitôt rendu compte que mes intérêts en tant qu’utilisateur seraient sans doute mieux protégés par une communauté. Au moins, la mise à disposition du code source réduisait les risques que l’on cesse de veiller à mes intérêts.

Au cours des dix dernières années, l’évolution du monde des affaires et de la technologie n’a fait que renforcer ces convictions. À une époque où primait le bon sens, les ordinateurs et internet auraient été construits à partir de standards élaborés de façon collaborative et soumis à la régulation des pouvoirs publics, comme la télévision et la radio l’ont été au Canada et en Europe. Hélas, l’informatique et l’internet étant apparus à l’ère où dominait le conservatisme américain, ils ont été développés pour leur majeure partie par des entreprises privées.

Le résultat ? Qualité discutable, obsolescence programmée, et absence quasi totale de contrôle par l’utilisateur. Les utilisateurs de Windows et de Mac OS X ne possèdent même pas les logiciels qu’ils achètent, on leur accorde seulement un licence pour les utiliser. D’après les termes de ces licences, ils n’ont même pas le droit de contrôler l’accès que peuvent avoir Microsoft ou Apple à leur matériel ou à leurs données.

Du point de vue du consommateur, une telle situation serait inacceptable avec n’importe quel appareil. Qui tolérerait pareilles restrictions si elles s’appliquaient aux voitures ou aux cafetières électriques ?

La véritable liberté

Dans le domaine de l’informatique et de l’internet, pourtant, la situation est quasi catastrophique. Les ordinateurs pourraient être le plus formidable outil de tous les temps pour la promotion de l’éducation et de la liberté d’expression. De temps à autre, les entreprises propriétaires reconnaissent par un petit geste ce potentiel en créant des logiciels éducatifs ou en vendant leurs produits à bas prix aux pays en voie de développement.

Pourtant, dans la plupart des cas, ce potentiel n’est exploité au mieux qu’à 50% par les logiciels propriétaires. Leur coût élevé et l’absence de contrôle par l’utilisateur signifient que l’accès à ces outils reste bridé et filtré par leurs fabricants. À cause d’un hasard de l’Histoire, nous avons laissé des entreprises commerciales utiliser ces technologies, ce qui est bien sûr tout à fait acceptable, mais aussi avoir le contrôle sur tous ceux qui comme eux les utilisent.

Le logiciel libre, lui, reprend une partie de ce contrôle aux entreprises commerciales et rend l’informatique et internet plus accessibles à l’utilisateur moyen. Grâce aux logiciels libres, notre capacité à communiquer n’est plus restreinte par notre capacité financière à acquérir tel ou tel programme. Ce n’est pas la panacée, car le prix du matériel reste une barrière pour certains, mais il s’agit d’un pas de géant dans la bonne direction.

Pour résumer, le logiciel libre est une démocratisation d’une technologie privative. On retrouve cet esprit intrinsèque dans les communautés qu’il génère, dans lesquelles la norme est le bénévolat,le partage et la prise de décision collégiale. On le retrouve aussi dans l’utilisation de logiciels libres pour la création d’infrastructures dans les pays en développement, ou dans les initiatives que mènent l’Open Access Movement (NdT : Mouvement pour l’Accès Ouvert) pour affranchir les chercheurs universitaires des revues à accès restreint, de sorte que tout un chacun puisse les exploiter. En un mot, le logiciel libre, c’est un pas en avant pour atteindre les idéaux sur lesquels la société moderne devrait reposer.

On pourrait me rétorquer que d’autres causes, telles que la lutte contre la faim et la misère dans le monde, sont plus importantes, et je vous donnerais raison. Néanmoins, c’est une cause à laquelle je peux apporter ma modeste contribution. À mon sens, elle est non seulement importante, mais si essentielle pour les droits de l’homme et la liberté de la recherche que je peine à comprendre pourquoi elle n’est pas déjà universelle.

Hors du cadre de référence

Hélas, le logiciel libre ne peut se targuer que d’un nombre d’utilisateurs réduit, même si celui-ci augmente sans cesse. On cite souvent les monopoles, l’ampleur de la copie illégale, l’absence d’appui des constructeurs, les luttes intestines au sein des communautés et l’hostilité envers les non-initiés, pour expliquer pourquoi l’utilisation des logiciels libres n’est pas plus répandue. Toutes ces raisons jouent sans doute un rôle, mais je soupçonne les véritables causes d’être beaucoup plus simples.

« Je ne comprends pas qu’on puisse encore utiliser Windows », ai-je un jour grommelé en présence d’un ami. « Parce que c’est préinstallé sur tous les ordinateurs ? » a-t-il répondu. Il n’avait sans doute pas tort.

On pourrait penser que des gens qui passent de huit à quatorze heures devant leur machine souhaiteraient avoir davantage de contrôle sur elle. Mais il ne faut jamais sous-estimer la force de la peur du changement. Si les ordinateurs sont vendus avec un système d’exploitation préinstallé, la plupart des utilisateurs s’en accommodent, même s’ils passent leur temps à s’en plaindre ou à s’en moquer.

Je pense néanmoins que le frein principal à une adoption plus massive des logiciels libres est plus basique encore. Pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe.

Le logiciel libre trouve son origine dans l’informatique universitaire des années 1960 et 1970, mais pour le plus grand nombre, l’histoire de l’informatique ne commence qu’avec l’apparition de l’ordinateur personnel sur le marché vers 1980.

Depuis, les logiciels sont avant tout des produits marchands, et le fait que les fabricants aient tout contrôle sur eux constitue la norme. Même si de temps à autre il arrive aux utilisateurs de râler, ils sont habitués à perdre les droits qui devraient être les leurs en matière de propriété dès qu’ils sortent leur logiciel de sa boîte.

De nombreux utilisateurs ignorent encore quels sont les objectifs du logiciel libre. Pourtant, s’ils sont un jour amenés à découvrir le logiciel libre, ils apprennent vite que ses aspirations sont radicalement différente.

Pour le mouvement du Libre, le logiciel n’est pas une marchandise mais un médium, comparable aux ondes télé ou radio, qui devrait être fourni à tous avec leur matériel informatique. Cette philosophie suggère que l’utilisateur moyen devrait être plus actif dans sa façon d’utiliser son ordinateur et modifier son rapport aux fabricants.

Face à des aspirations si opposées, quelle peut être la réaction de l’utilisateur moyen à part l’incompréhension et le rejet ? Il se peut que son premier réflexe consiste à penser que tout cela est trop beau pour être vrai. Il risque de ne pas croire à la façon dont sont conçus les logiciels libres, et craindre des coûts cachés ou la présence de logiciels malveillants.   Cet utilisateur n’est pas près de prendre ces promesses pour argent comptant, et il n’y a rien d’étonnant à cela.

Le logiciel libre diffère tant des logiciels qu’il utilise depuis toujours qu’il n’a pas de cadre de référence. Le fait que le Libre offre plus de souplesse et plus de possibilité de contrôle qu’il n’en a jamais eu ne fait pas le poids contre l’incapacité de l’utilisateur à le rapprocher du reste de son expérience avec les logiciels. Plutôt que de de se jeter dans les bras du Libre, il risque de le rejeter par incompréhension.

Retour aux fondamentaux

Lors de mon premier contact avec le Libre, je l’ai considéré comme un phénomène isolé. Ses similitudes avec d’autres tendances ou mouvements historiques ne me sont apparues que plus tard. Aujourd’hui encore, il m’arrive de temps à autre de négliger trop facilement son importance, et je soupçonne qu’il en va de même pour de nombreux membres de la communauté.

Cette remarque s’applique surtout pour ceux qui se définissent comme partisans de l’Open Source, lesquels accordent de la valeur au logiciel libre principalement pour la qualité supérieure que permet le code ouvert. Ils oublient parfois, comme me l’a un jour confié Linus Torvalds, que ce confort accordé aux codeurs n’est qu’un moyen permettant d’accéder à la liberté de l’utilisateur.

Mais négliger l’importance du logiciel libre a un effet encore plus profond. Nous, qui appartenons à la communauté, sommes conscients de cette importance, mais nous la prenons souvent pour acquise. Pris dans notre routine, nous perdons de vue que ce qui nous semble normal peut se révéler déroutant et menaçant pour qui en entend parler pour la première fois.

Chaque année, le logiciel libre accomplit de nouvelles avancées. Quand je fais le point sur mes dix ans d’activité dans ce domaine, je suis souvent stupéfait par les progrès dont j’ai été témoin, à la fois concernant les logiciels eux-mêmes et le succès qu’ils remportent en dehors de la communauté. Néanmoins, le logiciel libre pourrait rencontrer le succès plus vite si ceux qui participent au mouvement se remémoraient plus souvent son importance et se rendaient compte du caractère déconcertant qu’il peut avoir pour les néophytes.

Notes

[1] Crédit photo : The unnamed (Creative Commons By-Sa)




Geektionnerd : Oracle rachète Sun

Oracle a racheté Sun en avril dernier, ce qui n’a pas été sans créer un certain émoi dans la communauté du libre.

Ainsi on pouvait lire sur LinuxFr : « L’accord cite principalement les deux principaux actifs logiciels de Sun : Java et Solaris. On peut se demander ce qu’il adviendra des produits libres de Sun (Java, MySQL, OpenOffice.org, VirtualBox, OpenSolaris, GlassFish, OpenSPARC, NetBeans, etc.) et surtout de leur politique globale vers le libre. »

PS : Notons que la situation n’était pas forcément rose non plus avant l’arrivée d’Oracle.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




L’Éclaternet ou la fin de l’Internet tel que nous le connaissons ?

Raúl A. - CC byUne fois n’est pas coutume, nous vous proposons aujourd’hui une traduction qui non seulement ne parle pas de logiciel libre mais qui en plus provient de CNN, et même pire que cela, de sa section Money !

Et pourtant il nous semble pointer du doigt une possible évolution d’Internet, celle de son éclatement sous la pression des smartphones et autres objets connectés tels ces nouvelles liseuses et tablettes dont on vante tant les futurs mérites.

Une évolution possible mais pas forcément souhaitable car c’est alors toute la neutralité du Net qui vacille puisque les trois couches qui définissent le réseau d’après Lessig se trouvent ensemble impactées.

l’iPad ou le Kindle en sont des exemples emblématiques car ce sont des ordinateurs (la couche « physique ») dont Apple et Amazon contrôlent à priori les protocoles et les applications (la couche « logique ») et peuvent filtrer à leur guise les fichiers (la couche des « contenus »).

L’article s’achève sur une note optimiste quant au HTML5 et au souci d’interopérabilité. Encore faudrait-il avoir affaire à des utilisateurs suffisamment sensibilisés sur ces questions[1].

Hier encore on nous demandait : T’es sous quel OS, Windows, Mac ou Linux ? Aujourd’hui ou tout du moins demain cela pourrait être : T’es sous quel navigateur, Firefox, Internet Explorer ou Chrome ?

Et après-demain on se retrouvera à la terrasse des cafés wi-fi, on regardera autour de nous et on constatera, peut-être un peu tard, qu’à chaque objet différent (netbook, smartphone, iPad, Kindle et leurs clones…) correspond un Internet différent !

La fin de l’Internet tel que nous le connaissons, grâce à l’iPad et aux autres

End of the Web as we know it, thanks to iPad and others

Julianne Pepitone – 3 février 2010 – CNNMoney.com
(Traduction Framalang : Martin et Goofy)

Pendant plusieurs années, l’Internet a été relativement simple : tout le monde surfait sur le même réseau.

Plus on s’avance vers 2010, plus l’idée d’un même Internet « taille unique » pour tous devient un souvenir lointain, à cause de l’arrivée de l’iPhone, du Kindle, du BlackBerry, d’Android, et bien sûr du fameux iPad.

La multiplication des gadgets mobiles allant sur Internet s’accompagne à chaque fois d’un contenu spécifique pour chaque appareil. Par exemple, l’application populaire pour mobile Tweetie permettant de se connecter à Twitter n’est disponible que pour l’iPhone, alors que l’application officielle pour Gmail ne l’est que pour Android. Et si vous achetez un e-book pour le Kindle d’Amazon, vous ne pourrez pas forcément le lire sur d’autres lecteurs électroniques.

En même temps de plus en plus de contenus en ligne sont protégés par un mot de passe, comme la plupart des comptes sur Facebok et certains articles de journaux.

C’est un Internet emmêlé qui est en train de se tisser. Simplement, le Web que nous connaissions est en train d’éclater en une multitude de fragments. C’est la fin de l’âge d’or, selon l’analyste de Forrester Research Josh Bernoff, qui a récemment formulé le terme de « éclaternet » pour décrire ce phénomène (NdT : the splinternet).

« Cela me rappelle au tout début d’Internet la bataille de fournisseurs d’accès entre AOL et CompuServe » dit Don More, du fond de capital risque Updata, une banque d’investissement conseillère dans les technologies émergentes de l’information. « Il y aura des gagnants et des perdants ».

Dans ces premiers temps du Web, les utilisateurs accédaient aux contenus en utilisant des systèmes spécifiques ; ainsi les abonnés de chez AOL ne pouvaient voir que les contenus AOL. Puis le World Wide Web est devenu une plateforme ouverte. Maintenant les appareils nomades sont à noueau en train de morceler le Web.

D’après Bernoff, « Vous ne pouvez plus recoller les morceaux, la stabilité qui a aidé le Web à prendre forme s’en est allée, et elle ne reviendra plus ».

Des angles morts

Quand les utilisateurs d’appareils mobiles choisissent d’acheter un iPhone, un Motorola avec Android, un BlackBerry ou d’autres, ils sont effectivement en train d’opter pour certains types de contenus ou au contraire d’en abandonner d’autres, puisque toutes les applications ne sont pas disponibles sur tous ces gadgets.

D’après Don More de Updata, ce phénomène est en train de mettre le contenu dans des « communautés fermés ». Les fabricants de ces appareils peuvent (et ils le font) prendre et choisir quelles applications fonctionneront avec leur machine, en rejetant celles qui pourraient être en concurrence avec leurs propre produits, ou bien celles qu’ils estiment n’être pas à la hauteur.

Par exemple, Apple a rejeté l’application Google Voice sur l’iPhone, qui aurait permis aux utilisateurs d’envoyer gratuitement des messages et d’appeler à l’étranger à faible coût.

Et les limitations ne s’arrêtent pas seulement aux applications. Une affaire d’actualité : Le nouvel iPad ne prend pas en charge le lecteur Flash d’Adobe, ce qui empêchera les utilisateurs d’accéder à de nombreux sites.

Bernoff ajoute : « bien que (cette tendance) ne soit pas nécessairement mauvaise pour les consommateurs, ils devraient prendre conscience qu’ils sont en train de faire un choix. Quoi qu’ils choisissent, certains contenus ne leur seront pas disponibles ».

Des choix difficiles

Les entreprises qui créent les applications sont maintenant confrontées à des choix difficiles. Quels appareils choisiront-elles de prendre en charge ? Combien d’argent et de temps devront-elles prendre pour que leurs contenus fonctionnent sur ces gadgets ?

Quel que soit le choix des développeurs, il leur manquera toujours une partie des consommateurs qu’ils pouvaient auparavant toucher lorsque le Web était un seul morceau.

Sam Yagan, co-fondateur du site de rencontres OKCupid.com, ajoute : « quand nous avons commencé notre projet, jamais nous avons pensé que nous aurions à faire face à un tel problème. Réécrire un programme pour un téléphone différent c’est une perte de temps, d’argent, et c’est un vrai casse-tête ».

D’après Yagan, OkCupid emploie 14 personnes, et son application pour l’iPhone a nécessité 6 mois de travail pour être développée. L’entreprise envisage de créer une application pour Android, ce qui prendra environ 2 mois.

« C’est un énorme problème de répartition des ressources, surtout pour les petites entreprises », explique Yagan, « Nous n’avons tout simplement pas assez de ressources pour mettre 5 personnes sur chaque appareil qui sort ».

Chris Fagan, co-fondateur de Froogloid, une société qui propose un comparateur pour le commerce électronique, dit que son entreprise a choisi de se spécialiser sur Android, car il marche avec plusieurs téléphones comme le Droid, Eris, ou G1.

Selon Fagan « les consommateurs sont en train de perdre des choix possibles, et les entreprises sont en train de souffrir de ces coûts supplémentaires ». Mais il ajoute que la popularité en plein essor des applications signifie que les entreprises continueront à en concevoir malgré leur coût.

Et après ?

Comme un Internet plus fragmenté devient chose courante, Bernoff de Forrester pense qu’il y aura un contrecoup : une avancée pour rendre le contenu sur mobile plus uniforme et interopérable.

La solution pourrait bien être la nouvelle version du langage Web qui arrive à point nommé, le HTML5, qui d’après Bernoff pourrait devenir un standard sur les appareils nomades dans quelques années. Par exemple, le HTML5 permet de faire fonctionner des animations sur les sites Web sans utiliser le Flash.

Mais l’arrivée de n’importe quelle nouvelle technologie déclenchera une lutte pour la contrôler. Don More de Updata s’attend à voir « une bataille sans merci entre les entreprises (pas seulement Apple et Google, mais aussi Comcast, Disney et tous ceux qui s’occupent des contenus). Que ce soit les applications, les publicités, les appareils… tout le monde est en train d’essayer de contrôler ces technologies émergentes ».

Évidemment, personne ne peut prévoir le futur du Web. Mais Bernoff est au moins sûr d’une chose.

« Nous ne connaissons pas ce que seront les tous nouveaux appareils en 2011. Mais ce qui est certain, c’est que l’Internet ne fonctionnera plus comme on l’a connu. »

Notes

[1] Crédit photo : Raúl A. (Creative Commons By)




Naissance du (pas très bien nommé) Conseil National du Logiciel Libre

Gruntzooki - CC by-saCe matin je reçois dans ma boite aux lettres (électronique) un communiqué de presse m’informant de la création du Conseil National du Logiciel Libre (ou CNLL).

Le nom m’a intrigué parce que de Conseil national, je connaissais surtout celui de Suisse, de la Résistance et de l’Ordre des médecins !

En fait il s’agit d’une nouvelle association nationale regroupant 10 associations régionales représentant 200 entreprises françaises spécialisées dans le logiciel libre.

Le CNLL a pour vocation de parler au nom de l’ensemble de la filière économique du logiciel libre, sans discrimination, afin de faire connaître les bénéfices du logiciel libre dans le contexte actuel de relance économique, et de faire entendre les demandes de ses membres auprès des pouvoirs publics, pour un soutien à l’activité économique de la filière.

L’union faisant la force, c’est une très bonne nouvelle que voilà.

D’ailleurs l’Aful, associée au communiqué de presse, se réjouit de cette création. Tandis que l’April salue l’initiative.

On remarquera au passage la subtile nuance entre la réjouissance et la salutation. Le titre de l’annonce n’étant d’ailleurs pas le même chez nos deux associations : Création du Conseil National du Logiciel Libre pour le premier, Création d’une fédération professionnelle du Logiciel Libre pour le second 😉

J’ai eu la curiosité de parcourir la FAQ du site.

« Logiciels Libre » ou « Open Source », quelle est la position du CNLL ?

Logiciel Libre et Open Source Software désignent des logiciels dont les licences permettent de les utiliser, de les modifier et de redistribuer librement, selon des conditions qui ont été codifiées précisément, respectivement par la FSF et l’OSI. Les deux termes ont cependant des connotations différentes, et certains préfèrent utiliser l’un plutôt que l’autre, ce que nous respectons, tout en estimant que nous n’avons pas à trancher dans ce débat.

Quelle que soit la façon dont on les appelle, nous estimons que le processus de développement et de diffusion des logiciels libres / open source est à même d’apporter plus de valeur à moindre coût, et plus de contrôle sur leurs choix technologiques, aux clients des entreprises que nous représentons.

Cette dernière phrase a tout de même de forts accents « open source » selon moi. Comme si on répondait tout de même à la question en faisant un choix (au demeurant tout à fait cohérent, logique et respectable)[1].

Mais du coup je n’aurais pas forcément adopté un tel nom de baptême, qui peut prêter à confusion dans le sens où on ne comprend pas forcément qu’il s’agit de fédérer des entreprises.

Proposition alternative : l’ANAREFOS pour Association Nationale des Associations Régionales des Entreprises Françaises Open Source. Mais c’est plus long, moins sexy et puis il y a « anar » dedans !

Certaines mauvaises langues m’objecteront qu’il existait déjà une structure similaire avec la FniLL, qui a pour « vocation de représenter en France l’ensemble des acteurs professionnels qui participent au dynamisme de l’économie du Logiciel Libre ». N’étant pas dans le secret des dieux, je me dis qu’il doit y avoir quelques bonnes raisons à une telle (saine) concurrence.

Aful / April, CNLL / FniLL, Logiciel Libre / Open Source, ce billet figurera en bonne place dans le « Hall of Troll » du blog !

Mais qu’on ne se meprenne pas. Moi aussi je salue, que dis-je, je me réjouis de la naissance de ce projet qui témoigne du dynamisme des FLOSS dans notre beau pays 😉

Notes

[1] Crédit photo : Gruntzooki (Creative Commons By-Sa)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)




Au secours, l’Hadopi arrive en Belgique !

Yumyumbubblegum - CC byOn peut être éventuellement fiers d’exporter nos parfums et nos vins, mais certainement pas notre Hadopi !

C’est pourtant la menace qui plane en Belgique. Ce court extrait vidéo d’un récent débat télévisé de la RTBF vous rappellera en effet illico bien des souvenirs.

Pour en savoir plus nous avons recontré un membre d’une association locale qui souhaite sensibiliser et mobiliser le grand public pour éviter la contagion française.

PS : Désolé pour le choix de la photo clichée de la Belgique[1], mais ça symbolise les quatre majors du disque pissant dans les violons des artistes 😉

Entretien avec André Loconte du collectif NURPA

Bonjour, pouvez-vous vous présenter succinctement ?

André Loconte, belge, étudiant ingénieur, politiquement orienté vers le logiciel libre, développeur et fervent défenseur de l’accessibilité du Web et de la neutralité du Net. Mes connaissances techniques liées à l’informatique sont issues principalement (pour ne pas dire « exclusivement ») du Net.

Je suis l’un des trois co-fondateurs de NURPA (avec Laurent Peuch et Frédéric Van Der Essen).

Qu’est ce que NURPA ? (et pourquoi un acronyme anglophone dans un pays qui a déjà trois autres langues officielles ?)

Nous sommes un collectif hétéroclite constitué initialement d’étudiants (sciences informatiques, ingénieurs, ..) bercés dans la culture du libre mais qui s’est très vite complété de citoyens de tous horizons professionnels, concernés par les problèmes que l’application de lois telles que celle proposée par le sénateur Philippe Monfils (Proposition de loi visant à promouvoir la création culturelle sur Internet) serait susceptible d’engendrer. Deux des co-fondateurs ont contribué (et contribuent toujours) chacun à leur manière aux débats qui font rage en France.

La Net Users’ Rights Protecion Association (trad. Association de protection des droits des internautes) est la réponse collective de citoyens amoureux du Net et de leurs libertés, décidés à ne brader ni l’un ni l’autre au prétexte qu’un gouvernement flexible au poids des industries du divertissement tente d’imposer subrepticement une surveillance généralisée du Net. Si l’on écarte une hypothétique pression des lobbys, il est évident que nos politiques ont un retard considérable dans l’appréhension d’Internet et dans la compréhension de sa complexité. C’est donc avant tout dans une démarche pédagogique forte que s’inscrit NURPA : (in)former pour éviter de voir se reproduire en Belgique les erreurs qui ont conduit à la promulgation d’HADOPI en France (et qui ont poussé les députés à aller plus loin dans l’absurde avec HADOPI2, LOPPSI…).

En observateurs avisés des déboires français et du contexte européen, nous craignons que cet HADOPI à la belge ne soit qu’un cheval de Troie, le calme avant la tempête. L’ombre d’ACTA plane. Nous ne nous positionnons pas comme collectif uniquement contre l’HADOPI de Monfils, nous sommes évidemment contre cette loi, mais le débat ne s’arrête pas là.

Dans un pays qui possède trois langues officielles (l’allemand, le néerlandais et le français), l’utilisation de l’anglais pour la formation du nom, in fine de l’acronyme, a été pour nous une manière de passer outre cette indéniable barrière linguistique. Il nous a semblé que l’anglais était le meilleur choix pour garantir que notre but soit compris de tous.

Voici donc que la Belgique nous propose par l’entremise du sénateur Philippe Monfils son « Hadopi locale » baptisée tendancieusement « Proposition de loi visant à promouvoir la création culturelle sur Internet ». Pouvez-vous nous en dire plus ? Quelles sont les similarités et différences par rapport à la loi française ?

Le sénateur Monfils, qui a déclaré « la culture gratuite, ça n’existe pas » (lors de l’émission InterMedia de la RTBF du 25 janvier 2010), explique que des systèmes de juste rémunération des artistes et de contrôle du Net ont fait leur preuve ailleurs et cite sans scrupule, .. HADOPI en France (page 5, paragraphe 5 de sa proposition de loi). Signe évident selon nous d’une part, de sa méconnaissance du contexte qui a entouré la promulgation du texte de loi non seulement dans l’hexagone mais également au niveau européen; d’autre part, de la nature inapplicable de la loi française.

Le texte belge est une version édulcorée de l’HADOPI français, on y retrouve d’ailleurs les erreurs de jeunesse d’HADOPI :

  • Pas de Haute Autorité de Contrôle mais des agents commissionnés par le ministère de l’économie : des agents qui ont un pouvoir d’investigation a priori illimité (car non-défini dans la proposition de loi), qui constatent les infractions et qui décident des sanctions.
  • Pas de mouchard mais une collaboration des FAI : les FAI (Fournisseurs d’Accès à Internet) auront l’obligation juridique de fournir toutes les informations nécessaires pour l’association d’une personne physique à une adresse IP. Actuellement, obtenir ce type d’information nécessite l’ordonnance d’un juge, ce qui garantit le respect de la vie privée et limite les dérapages.

    Une différence importante par rapport au dispositif français qui pénalise le titulaire de la ligne en cas de défaut de sécurisation, le texte belge ne prévoit de peine que pour le titulaire qui télécharge illégalement du contenu soumis au droits d’auteur ou droits voisins sur sa propre ligne. On imagine aisément l’immense difficulté de prouver qu’il s’agit effectivement du titulaire qui s’est rendu coupable de téléchargements illégaux sur sa propre ligne.

  • Double peine : le paiement de l’abonnement à Internet dans sa totalité est d’application même si celui-ci a été suspendu pour raison de téléchargement illégal.
  • Théoriquement pas de coupure de la ligne mais un bridage du débit : « en théorie » car bien que cela semble être l’argument clé de Philippe Monfils, sa proposition de loi ne manque pas de préciser que la coupure serait tout à fait envisageable en cas de multiple récidive. Bridage du débit, c’est à dire : diminuer la vitesse de transfert de telle sorte que l’internaute puisse continuer à chercher du travail et à consulter ses mails (sic).

    On conçoit un peu mieux la qualité de ce texte quand on sait qu’un débit suffisant à la consultation de mail et à la recherche d’emploi est également suffisant au téléchargement de la plupart des fichiers (moins rapidement certes). Ne parlons même pas des mises à jour de sécurité qui vont devenir pénible à obtenir et toutes les conséquences fâcheuses que cela risquerait d’entraîner.

    Lors d’une coupure (en cas de récidive après le bridage), quid du téléchargement légal ? L’internaute qui verrait sa ligne coupée serait en effet dans l’incapacité d’acheter du contenu légalement en ligne. A cela s’ajoute la décision du 10 juin 2009 du Conseil Constitutionnel français qui présente Internet comme une composante de la liberté d’expression et de consommation nécessaire à l’exercice la liberté d’expression et de consommation tel que décrit dans l’article 11 de la déclaration des droits de l’homme de 1789.

  • Enfin, le texte qui trouve sa justification dans la juste rémunération des artistes, ne contient pas une ligne à leur propos.

L’Hadopi est certes passée en France mais modifiée par rapport au texte initial (et non encore appliquée). Et puis « nous » avons coutume de dire que c’est une victoire à la Pyrrhus car « nous » avons gagné au passage la bataille de la médiatisation et des idées. Comment alors selon vous peut-elle encore servir d’exemple à d’autres pays ?

Je soulevais la question plus haut : profonde méconnaissance du dossier, incompétence technique, influence des lobbys du divertissement ? Probablement un savant mélange des trois.

Et pour citer un certain Jérémie Zimmerman (reprenant Michel Audiard) : « Les cons ça osent tout, c’est à ça qu’on les reconnaît ».

D’autres sénateurs (écologistes je crois) ont rédigé une proposition de loi visant à instaurer quelque chose qui ressembe à une « licence globale ». Approuvez-vous cette initiative ? A-t-elle une chance d’être comprise et entendue par les politiques en particulier et la société belge en générale ?

Cette idée de licence globale est en effet portée par Ecolo (à travers Benoit Hellings) et n’a pas encore été déposée. Il nous est donc impossible de nous prononcer précisément à son sujet. Les interventions télévisuelles de Benoit Hellings permettent cependant de dresser un rapide état des lieux : il semble que cette licence globale soit largement inspirée du livre de Philippe Aigrain « Internet & Création. Comment reconnaître les échanges hors-marché sur internet en finançant et rémunérant la création ? » (sic); que la contribution de l’internaute serait répercutée directement dans le prix de l’abonnement (sans sur-coût); que la grille de répartition des biens aux artistes serait semblable à celle actuellement en usage par la SABAM (NDLR : la SACEM locale). Il est évoqué également la possibilité de création d’un organisme indépendant chargé d’établir des statistiques sur les téléchargements sur base d’enquêtes anonymes.

Sans chercher à créer la polémique avant même que la proposition de loi d’Ecolo ne soit déposée, nous relevons déjà plusieurs points qui à n’en pas douter seraient problématiques s’ils étaient introduits dans la proposition de loi :

  • Je parlais de contribution directement répercutée dans le prix de l’abonnement, Benoit Heillings va plus loin : il suggère une retarification des connexions au Net selon le critère du téléchargement, en d’autres termes les « gros téléchargeurs » bénéficieraient, pour des tarifs semblables à ceux pratiqués actuellement, de vitesses de connexion plus élevées et d’une capacité de téléchargement supérieure (illimitée ?); les autres, pour un tarif plus modeste, de vitesses de connexion réduites et de capacité de téléchargement inférieure (permettant uniquement la consultation des mails et la recherche d’emploi). De notre point de vue, cette vision bipolaire du comportement des internautes (soit il télécharge, soit il ne télécharge pas du tout) traduit une fois de plus une méconnaissance profonde d’Internet et de ses usages.

    Ce n’est pas la première fois que le gouvernement belge est pris à défaut sur cette problématique, on se rappellera le courrier adressé par Microsoft au Ministre fédéral des télécommunications à propos des quotas de téléchargement en application en Belgique qui empêcheraient la firme de Redmond de déployer son service de VOD.

  • Ensuite, l’utilisation de la grille de répartition – déjà obsolète – de la SABAM ne permettrait en rien une meilleure rémunération des artistes.
  • Enfin, nous voyons d’un oeil méfiant la création d’un organisme indépendant, ô combien respectueux de l’anonymat soit-t-il. A quel niveau et de quelle manière s’effectuerait l’analyse des échanges ? Qui s’assurait que cet organisme respecte le cadre de ses attributions, la vie privée des internautes ? Quels moyens cet organisme serait-il capable de mettre en place afin d’observer les échanges via les VPN ou dans les Darknet ?

Nous n’hésiterions pas à leur faire part de ces remarques si nos craintes s’avéraient fondées à la lecture du projet de loi.

NURPA est-elle la seule structure belge à s’opposer ? Quelles sont les forces en présence ? Etes-vous en contact avec, par exemple, La Quadrature du Net ? Et quelles sont vos relations avec le tout jeune Parti Pirate belge ?

NURPA n’est heureusement pas la seule association que cette proposition de loi révolte. Citons par exemple « HADOPI mayonnaise » qui partage de nombreux points d’accord avec notre vision et avec qui nous collaborerons bientôt.

Quant aux forces en présence, le système de majorité étant différent en Belgique et en France, c’est avec la proposition Ecolo et la proposition annoncée du PS que les débats parlementaires se dérouleront. Contrairement à la situation qu’a connu la France avec l’UMP, la possibilité pour le Mouvement Réformateur (dont est issu P. Monfils) de faire passer sa loi de force est rendue complexe (pour ne pas dire impossible) tant la répartition des sièges à la Chambre et au Sénat est panachée.

Nous avons eu il y a quelques semaines, des échanges avec Jeremy Zimmerman, il nous a prodigué – fort de son expérience avec La Quadrature du Net – de précieux conseils d’ordre organisationnel. Des actions coordonnées pourraient être envisagées mais ne sont pas d’actualité.

Nous avons contacté le Parti Pirate belge afin de recueillir leur avis concernant la proposition de loi du sénateur MR. Notre interlocuteur (Germain Cabot) a manifesté un réel intérêt pour la question et nous a informé que le PP belge dressait un état des initiatives citoyennes afin d’envisager des collaborations. Le Parti Pirate belge fait les frais de sa jeunesse politique (création en juillet 2009), ne disposant pas de siège parlementaire, il verra son rôle limité à celui de commentateur sans avoir l’opportunité d’apporter un réel contre-poids politique.

Nous tenons à conserver une indépendance politique certaine, nos rapports au PP belge ne seront pas différents de ceux envers les autres partis politiques.

Quelles sont les échéances et quels moyens d’action envisagez-vous ?

Il n’y a pour l’instant pas d’échéances précises, en Belgique, un projet de loi met habituellement une année à passer à travers les rouages parlementaires. Bien que le projet de loi de P. Monfils ait été déposé, celui-ci est en cours de correction et de traduction. ECOLO n’a pas encore publié le leur et le PS s’en tient à des déclarations d’intention sans plus de précisions. Cela ne nous dispense pas de faire preuve de vigilence dès à présent, c’est un combat de longue haleine qui nous attend.

Nous allons principalement nous concentrer sur l’information et la sensibilisation de l’opinion publique et politique à ce sujet au travers d’analyses, de dossiers et de communiqués de presses, de rencontres et d’actions sur le terrain.

Nous avons, dès les premiers jours, mis à disposition un wiki afin d’asseoir l’aspect communautaire prépondérant de notre action.

Inspiré par le modèle de La Quadrature du Net, nous comptons également attirer les projecteurs des médias pour éviter que cette proposition de loi et les débats qui l’entourent soient passés sous silence.

Au delà d’Hadopi, vous dites être également sensible à des sujets comme le filtrage du Net ou la taxe sur la copie privée. En France on est actuellement mobilisé sur le front de la loi Loppsi et les cachotteries de l’Acta. Les libertés numériques dans leur ensemble sont-elles menacées ?

Lorsque l’on constate l’inconscience et l’incompétence avec laquelle les libertés numériques sont abordées par les politiques, on ne peut que craindre pour la pérennité de celles-ci. C’est pourquoi nous nous faisons un devoir d’éduquer et de sensibiliser les politiques à ces sujets.

Nous craignons que cet « HADOPI à la belge » soit le précédent nécessaire et suffisant à l’émergence d’autres lois plus pernicieuses encore. Je le disais en préambule, nous partons avec l’avance non négligeable que sont les enseignements tirés de l’expérience française.

Nous ferons ce qui est en notre pouvoir afin de nous assurer que ce projet de loi ne soit jamais promulgué et que LOPPSI et consorts demeurent le fait de l’exception française.

Brel disait « Je préfère les hommes qui donnent à ceux qui expliquent ».

La connaissance est parfois tout ce que l’on a à offrir. Tant qu’à la partager, autant que cela se fasse sous licence libre.

Que ferait le Grand Jacques aujourd’hui, il s’enfuirait aux Marquises ou résisterait debout ?

Il chanterait.

Pour NURPA, André Loconte

Notes

[1] Crédit photo : Yumyumbubblegum (Creative Commons By)