Le compilateur libre GCC a 25 ans et il continue de bénéficier à tous

On a parfois tendance à l’oublier, mais le logiciel libre est là depuis un certain temps déjà. D’ailleurs si son histoire de l’intérieur vous intéresse nous vous suggérons l’excellente et enrichissante lecture de notre biographie de Richard Stallman.

L’intérêt de cette traduction est de venir nous le rappeler à l’occasion du vingt-cinquième anniversaire du célèbre compilateur GCC du projet GNU, en soulignant le fait qu’il est toujours utilisé de nos jours et qu’il ne faudrait pas oublier d’où il vient[1].

L’occasion aussi de constater comment l‘open source est évoqué dans la grande presse nationale, en l’occurrence australienne.

Renuka Prasad - CC by

Les bénéfices de l’open source

The benefits of open source

George Wright – 25 mars 2012 – The Sydney Morning Herald
(Traduction Framalang : Céline, Lamessen, Amine Brikci-N, Evpok, Goofy et Barbidule)

Les logiciels libres et open source ont un impact sur nos vies, qu’on le sache ou non. Souvent mal compris et éveillant la méfiance, de nombreuses sociétés profitent de leurs avantages sans reconnaître la communauté qui en est à l’origine. Avant d’aller plus loin, le logiciel libre n’est pas une question de prix, mais plutôt une idéologie qui prône qu’un logiciel est plus utile lorsqu’il est permis de l’utiliser, de l’améliorer et d’en étudier le code source librement.


Cette année marque le 25ème anniversaire de la naissance du compilateur C de GNU (abrégé en GCC). En 1987, un certain Richard M. Stallman bien plus jeune mais probablement déjà sacrément barbu sort ce qui est probablement l’une des plus importantes contributions à la culture informatique moderne – un compilateur C libre (autant en coût qu’en liberté). Pour faire simple, les compilateurs sont des logiciels qui traitent un ensemble d’instructions écrites dans un langage structuré humainement lisible (comme ici, le langage C) et le compilent en instructions qu’un ordinateur peut comprendre (appelé code machine). La sortie du compilateur est un assemblage de logiciels exécutables appelés bibliothèques, exécutables ou binaires.


Richard Stallman, souvent simplement surnommé RMS sur le Net, a fondé le projet GNU de façon à créer un système d’exploitation proche d’Unix complètement libre et ouvert. GNU signifie GNU’s not Unix. On retrouve souvent ce style d’acronymes récursifs dans le monde de l’informatique, qui en est malheureusement friand. À l’époque, Unix était un système fortement propriétaire et seulement utilisé par les grands centres de recherche, les entreprises, le gouvernement ou les installations militaires. Au début des années 80, Unix, alors qu’il constituait une technologie fermement établie, faisait l’objet de poursuites dans des affaires antitrust entre le Département de Justice américain et Bell Systems. AT&T tenta de commercialiser Unix System V mais cela représenta une menace pour l’entraide entre les chercheurs en informatique.


Un système similaire à Unix, créé avec pour principes la protection des libertés fondamentales des programmeurs et des utilisateurs que ce soit pour l’exécution, l’étude, la modification ou la distribution des logiciels sans avoir à craindre que votre travail soit contrôlé par d’autres, semblait souhaitable. Unix étant déjà une plateforme de recherche informatique importante (sur laquelle beaucoup de fonctionnalités que nous tenons pour acquises de nos jours étaient développées et expérimentées), les soucis légaux, la mauvaise gestion d’entreprise et les contrôles propriétaires menaçaient de ralentir sérieusement l’innovation.


Il n’est pas difficile de voir que sortir un système d’exploitation du laboratoire et former une communauté autour est essentiel pour que l’informatique bénéficie des rapides progrès qui ont été obtenus durant les trente dernières années. Au cœur de cette communauté se trouvait la chaîne d’outils de GNU et le joyau qu’est le compilateur du projet GNU.


Bon anniversaire GCC et merci à tous les chercheurs, les développeurs et les défenseurs de la liberté qui ont rendu cela possible au cours de ces 25 dernières années !


Assez parlé du passé. La communauté des logiciels libres est bien en vie et continue de contribuer à de nombreuses technologies et innovations qui peuvent être partagées par tous.


Pendant cette semaine, je parlais à un gros distributeur de logiciels en faisant une évaluation de l’une de leurs plateformes. La plateforme était excellente et dépassait mes attentes et alors que nous creusions plus profondément dans les sous-composants, j’ai demandé quels étaient les outils qu’ils utilisaient pour effectuer certaines fonctions de manipulation d’images. Presque embarrassés, ils m’ont répondu ImageMagick, une bibliothèque open source d’édition d’images développée par ImageMagick Studio. Il m’a semblé étrange de voir qu’il y ait encore une honte à admettre que les vendeurs de logiciels utilisent des logiciels open source dans le cadre de leurs offres.


Pourquoi une telle honte ?


Les systèmes sont plus que la somme de leurs composants. Si l’utilisation d’une bibiliothèque libre vous permet d’obtenir une fonctionnalité dont vous avez besoin et tant que vous vous conformez aux termes de la licence, c’est du bon sens. Pourquoi réinventer la roue et passer aux oubliettes ce qui est parfois un travail de plusieurs années de développement et de tests effectués par la communauté ?


Ce n’est pas une raison pour utiliser les logiciels libres à tort et à travers. Chaque activité commerciale se doit d’évaluer les avantages et les inconvénients de chaque bibliothèque ou sous-système selon ses besoins. Mais rejeter ces solutions potentielles à cause de préjugés sur les logiciels libres/open source, c’est de l’ignorance. Il y a des implications légales, si vous décidez par exemple de développer des extensions de ces bibliothèques, mais c’est loin d’être aussi problématique que cela est souvent affirmé.


Je ne vous demande pas de distribuer votre produit sous une licence open source. Si vous êtes dans le secteur du développement logiciel, souvent vos développeurs connaitront ces bibliothèques et outils. Ayez une discussion franche et ouverte avec eux sur le potentiel que peut apporter l’exploitation de ces bibliothèques. Dites quelles sont les bibliothèques libres que vous utilisez et quelle est votre politique concernant la contribution à apporter à la communauté par les améliorations réalisées ou même le parrainage des améliorations.


Finalement, si votre société utilise des plateformes et des bibliothèques développées par la communauté, fêtez-le. Vous êtes en bonne compagnie.

Initialement publié sur smh.com.au IT Pro.

Notes

[1] Crédit photo : Renuka Prasad (Creative Commons By)




Le Raspberry Pi sauvera-t-il le Royaume-Uni ?

Grand succès pour le mini ordinateur sous GNU/Linux Raspberry Pi, officiellement disponible à la vente depuis une semaine pour une trentaine d’euros. Plutôt que nous extasier (à juste titre) sur ses caractéristiques techniques, nous en avions souligné ses potentialités éducatives dans un article précédent.

Mais pour le mettre entre les mains des écoliers il faut bien le produire en masse. ce qui présente, d’après Pete Nelson, une belle opportunité économique pour le pays qui l’a vu naître.

Une traduction qui fait vibrer la fibre patriotique mais qui permet aussi en creux de s’interroger sur la situation française en cette période électorale. Angleterre et France, ces deux vieux pays rois de la Révolution industrielle[1], sauront-ils retrouver leur place dans le domaine du matériel et logiciel informatique ?

La réponse est peut-être une fois de plus à chercher du côté du Libre.

Katherine Johnson - CC by

Pourquoi le Raspberry Pi va sauver le Royaume-Uni

Why the Raspberry Pi will save the UK

Pete Nelson – 6 marc 2012 – Blog perso
(Traduction Framlang : OranginaRouge, ZeHiro, nh2, Lamessen)

Le Royaume-Uni a un riche passé d’ingénierie et d’industrie. La révolution industrielle y a commencé et depuis ce jour nous avons assisté au développement d’une ingénierie fiable, solide et bien pensée.

Malheureusement, durant le dernier quart du 20ième siècle, des décisions ont été prises pour mettre à mal l’assise de notre ingénierie et de nos industries de façon à ce que nous, société de consommation, puissions acheter des produits moins chers auquels nous ferions moins attention. Pour combler le déficit, nous nous sommes appuyés de plus en plus sur la City de Londres et nous l’avons dérégulée afin de s’assurer qu’elle attire les investisseurs du monde entier. Alors que la City générait de l’argent pour le pays, le reste d’entre nous se mettait au travail pour subvenir aux besoins de la nation – quelqu’ils soient – généralement en dépensant de l’argent dans de la nourriture de marque distributeur ou des débits de boissons. Pendant ce temps, ceux qui se démenaient à produire des biens réels perdaient leurs CDI au profit de contrats gérés par des sociétés de service afin que les entreprises puissent embaucher et licencier aussi vite qu’ils le souhaitaient, alors que ces suceurs de sang grattaient un gros pourcentage sur les salaires.

Mais il y a une industrie qui peut changer les choses au Royaume-Uni : le logiciel. Nous avons un solide héritage en matière de matériel informatique et de logiciel dans ce pays mais la beauté du développement logiciel est qu’il peut être réalisé par n’importe qui, à n’importe quel endroit avec un minimum d’investissement. Le coût le plus important est de loin la formation du personnel pour qu’il soit capable de développer un logiciel ; bien qu’il soit très simple d’acquérir les bases, ça reste un métier qui nécessite des connaissances en ingénierie et une expérience pratique.

C’est là que le Raspberry Pi peut nous sauver : il est désormais possible pour le gouvernement de fournir à moindre coût et à chaque enfant de ce pays une machine qu’il pourra emporter chez lui et avec laquelle il pourra jouer. En outre, si le gouvernement tient sa promesse d’arrêter de donner des cours sur l’utilisation de Microsoft Word et commence à enseigner des sujets dignes de ce nom, nous aurons bientôt une génération de travailleurs hautement qualifiés à portée de main, prêts à exporter des produits dans le monde.

La programmation n’est pas faite pour tout le monde, bien entendu, mais le développement d’un logiciel ne se résume pas à de la programmation, il y est aussi une question de conception , d’idées, de raisonnements et d’organisation. Nous avons déjà de super entreprises de design, de jeux, de développement web et logiciel dans ce pays (bien que minoritaires) – si les représentants de ces industries pouvaient aller dans cette direction et développer massivement ces industries au point de venir concurrencer les leaders américains alors nous serions sur la bonne voie.

C’est génial d’entendre que Nissan a créé de nouveaux emplois dans le pays mais je crois qu’il est nécessaire de commencer à s’éloigner de ces industries antiques et de créer une main d’œuvre locale, décentralisée et hautement qualifiée composée de créateurs, dans l’objectif d’exporter à nouveau.

Et nous devons commencer à donner à l’industrie du logiciel le respect qu’elle connaît aux États-Unis. Au moment où je vous écris, le Raspberry Pi se vend à 700 unités par seconde et cela me redonne confiance en ce monde – qu’une initiative à but non lucratif et une conception désintéréssée puisse avoir autant de succès. Et j’aime qu’il soit basé sur une autre technologie de Cambridge qui a changé le monde (et qui a confirmé que nous, britanniques, pouvons encore produire des choses) : la puce ARM.

Notes

[1] Crédit photo : Katherine Johnson (Creative Commons By)




« Le logiciel libre peut redonner sens à nos vies » Bernard Stiegler

Le philosophe Bernard Stiegler fait l’objet d’un tag dédié sur le Framablog.

En découvrant le titre de l’article qui lui était consacré dans le journal belge Le Soir du 30 novembre dernier, on comprend bien pourquoi 🙂

Remarque : Demain 3 mars à 14h au Théâtre de La Colline aura lieu une rencontre Ars Industrialis autour du récent ouvrage L’école, le numérique et la société qui vient co-signé entre autres par Bernard Stiegler.

Bernard Stiegler - Le Soir

« Le logiciel libre peut redonner sens à nos vies »

URL d’origine du document

Quentin Noirfalisse – 30 novembre 2011 – Le Soir

Bernard Stiegler, un philosophe en lutte. Dans sa ligne de mire : un capitalisme addictif qui aspire le sens de nos existences. Son remède : une économie de la contribution.

Ce n’est plus un secret pour personne : le capitalisme est en train d’être dévoré par ses propres effets toxiques. En 2005, parmi d’autres voix peu écoutées alors, une association française, Ars Industrialis, lancée par quatre philosophes et une juriste, avait sonné le tocsin. A l’époque, leur manifeste décrivait les dangers d’un capitalisme « autodestructeur » et la soumission totale aux « impératifs de l’économie de marché et des retours sur investissements les plus rapides possibles des entreprises » et notamment celles actives dans les médias, la culture ou les télécommunications.

Aujourd’hui, l’association comporte plus de 500 membres, économistes, philosophes, informaticiens et toxicologues (car le capitalisme est devenu « addictif » et « pulsionnel ») confondus et ne semble pas s’être trompée de sonnette d’alarme. « Nous faisons partie des gens qui ont soulevé, dès 2006, l’insolvabilité chronique du système financier américain. On nous riait au nez, à l’époque », explique le philosophe Bernard Stiegler, fondateur d’Ars Industrialis et directeur de l’Institut de recherche et d’innovation du Centre Pompidou.

L’homme habite un petit moulin industriel reconverti en maison à Epineuil-le-Fleuriel, au beau milieu de la France paysanne. Entre quelques cris de paons, il vient de nous détailler le malaise qui s’empare de tous les échelons de la société.

Le règne de l’incurie

« Au 20e siècle, un nouveau modèle s’est substitué au capitalisme industriel et productiviste du 19e : le consumérisme, qu’on assimile au fordisme et qui a cimenté l’opposition entre producteur et consommateur. Le capitalisme productiviste supposait la prolétarisation des ouvriers. Ceux-ci perdaient tout leur savoir-faire qui était transféré aux machines. Avec le consumérisme, ce sont les consommateurs qui perdent leur savoir-vivre, ce qui constitue la deuxième phase de la prolétarisation. »

Chez Stiegler, le savoir-vivre, c’est ce qui permet à un homme de pouvoir développer ses propres pratiques sociales, d’avoir un style de vie particulier, une existence qui n’est pas identique à celle de son voisin. « Le problème du capitalisme, c’est qu’il détruit nos existences. Le marketing nous impose nos modes de vie et de pensée. Et cette perte de savoir-faire et de savoir-vivre devient généralisée. Beaucoup d’ingénieurs n’ont plus que des compétences et de moins en moins de connaissances. On peut donc leur faire faire n’importe quoi, c’est très pratique, mais ça peut aussi produire Fukushima. L’exemple ultime de cette prolétarisation totale, c’est Alan Greenspan, l’ancien patron de la Banque fédérale américaine, qui a dit, devant le Congrès américain qu’il ne pouvait pas anticiper la crise financière parce que le système lui avait totalement échappé. »

Que la justification de Greenspan soit sincère ou non, il n’en ressort pas moins que le système ultralibéral qu’il a sans cesse promu a engendré la domination de la spéculation à rendement immédiat sur l’investissement à long terme. Nous assistons, déplore Stiegler, au règne d’une « économie de l’incurie » dont les acteurs sont frappés d’un syndrome de « déresponsabilisation » couplé à une démotivation rampante.

Où se situe la solution ? Pour Stiegler, l’heure est venue de passer du capitalisme consumériste à un nouveau modèle industriel : l’économie de la contribution. En 1987, le philosophe organisait une exposition au Centre Pompidou, « Les mémoires du futur », où il montra que « le 21e siècle serait une bibliothèque où les individus seraient mis en réseaux, avec de nouvelles compétences données par des appareils alors inaccessibles. »

Depuis, Stiegler a chapeauté la réalisation de logiciels et réfléchit le numérique, convaincu qu’il est, en tant que nouvelle forme d’écriture, un vecteur essentiel de la pensée et de la connaissance. Il a observé de près le mouvement du logiciel libre[1]. C’est de là qu’aurait en partie germé l’idée d’une économie de la contribution. Car dans le « libre », l’argent n’est plus le moteur principal. Il cède la place à la motivation et à la passion, deux valeurs en chute libre dans le modèle consumériste. La question du sens donné aux projets par leurs participants y occupe une place centrale.

« Le logiciel libre est en train de gagner la guerre du logiciel, affirme la Commission européenne. Mais pourquoi ça marche ? Parce que c’est un modèle industriel – écrire du code, c’est éminemment industriel – déprolétarisant. Les processus de travail à l’intérieur du libre permettent de reconstituer ce que j’appelle de l’individuation, c’est-à-dire la capacité à se transformer par soi-même, à se remettre en question, à être responsable de ce que l’on fait et à échanger avec les autres. Cela fait longtemps, par exemple, que les hackers[2] s’approprient les objets techniques selon des normes qui ne sont pas celles prescrites par le marketing. »

De la même manière, une « infrastructure contributive » se développe, depuis deux décennies, sur un internet qui « repose entièrement sur la participation de ses utilisateurs ». Elle a permis, entre autres, d’accoucher de Wikipédia et de substituer à la dualité consommateur-producteur un ensemble de contributeurs actifs. Ceux-ci créent et échangent leurs savoirs sur le réseau, développant ainsi des « milieux associés » où ils peuvent façonner leurs propres jugements. Pour Stiegler, cette capacité à penser par soi-même propre au modèle contributif, est constitutive d’un meilleur fonctionnement démocratique.

Poison et remède

Pas question, toutefois, de tomber dans un angélisme pontifiant. Dans ses textes, il décrit le numérique comme un « pharmakon », terme grec qui désigne à la fois un poison et un remède, « dont il faut prendre soin ». Objectif : « lutter contre un usage de ces réseaux au service d’un hyperconsumérisme plus toxique que jamais », peut-on lire dans le Manifeste d’Ars Industrialis. Stiegler complète, en face-à-face : « Le numérique peut également aboutir à une société policière. Soit on va vers un développement pareil, soit vers l’économie de la contribution. »

D’ores et déjà, des embryons de ce modèle naissent dans d’autres domaines. « Une agriculture contributive existe déjà. L’agriculteur et ses consommateurs deviennent des partenaires, en s’appuyant notamment sur le web. » En France, cela se fait au travers des AMAP, les Associations pour le maintien d’une agriculture paysanne, où les différents acteurs se mettent d’accord sur la quantité et la diversité des denrées à produire. « Dans l’univers médical, poursuit Stiegler, les patients sont parfois intégrés à la recherche, comme ce qu’a fait le professeur Montagnier avec les malades du sida. Nous pensons également qu’il y a des domaines contributifs en énergie, où l’idée serait de produire autant que l’on reçoit, grâce aux réseaux de distribution intelligents, les smart grids. C’est bien sûr totalement contraire aux intérêts des grands groupes. »

Ainsi, l’idée d’une économie de la contribution implique que des pans entiers de nos sociétés sont à réinventer. Stiegler énumère certains besoins : « une politique éducative en relation avec le numérique, un nouveau droit du travail, un système politique déprofessionnalisé, un monde de la recherche où professionnels et amateurs sont associés. Nous plaidons beaucoup pour cette figure de l’amateur, qui aime ce qu’il fait et s’y investit complètement. » Reste, finalement, la question de l’argent. La valeur produite par les contributeurs n’est pas toujours monétisable, mais peut avoir un impact sur l’activité économique. Ainsi, les articles de Wikipédia permettent à Bernard Stiegler d’écrire beaucoup plus vite qu’avant. « La puissance publique doit être en charge d’assurer la solvabilité des contributeurs. Quelqu’un qui a un projet intéressant doit pouvoir recevoir de l’argent. Cela s’inscrit dans le sillage de thèses classiques comme le revenu minimum d’existence, à ceci près que nous pensons que ces budgets doivent être pensés comme des investissements. »

Reproduire de l’investissement, non seulement financier, mais surtout humain. Aux yeux de Stiegler, voilà l’enjeu d’une sortie de crise. Et voilà, aussi, pourquoi il appelle à la réunion des hackers, des universités, des chercheurs, des amateurs et des gens de bonne volonté (« il y en a partout ») face à un « néolibéralisme devenu l’organisation généralisée du désinvestissement ».

www.arsindustrialis.org

Interview de Bernard Stiegler

URL d’origine du document

Entretien : Quentin Noirfalisse – Vidéo: Adrien Kaempf et Maximilien Charlier
Geek PoliticsDancing Dog Productions

—> La vidéo au format webm

Notes

[1] Selon la définition consacrée, un logiciel est libre lorsque les utilisateurs ont le droit « d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». Quelques exemples, parmi les plus connus : Firefox, OpenOffice ou le système d’exploitation Ubuntu.

[2] Le hacker, grand artisan de l’internet tel qu’on le connaît, n’est pas un pirate informatique, mais plutôt un « détourneur », qui va utiliser des systèmes ou des objets (technologiques ou non) dans un but que leurs créateurs n’imaginaient pas.




Je ne pense pas que vous naviguez comme moi sur le Web

Parano notre ami David ?

Peut-être prudent tout simplement, quitte à sacrifier un peu de son temps pour que Google & co en sache le moins possible sur lui[1].

Pour vivre heureux, vivons cachés ?

Enrico Policardo - CC by-nc-nd

Je ne pense pas que vous surfez comme moi

I don’t think you browse like I do

David – 4 février 2012 – Microcosm
(Traduction Framalang : Goofy, Antonin, OranginaRouge, Lamessen)

En fait, j’en suis même convaincu.

Cela ne m’est venu à l’esprit que cette semaine quand des amis étaient en train de parler de la façon virale dont Google étend sa connaissance sur vous. Certains étaient choqués par la précision, d’autres amusés d’être référencés dix ans plus jeunes ou dix ans plus vieux. Quelques-uns étaient affublés du mauvais sexe.

Je peux vous dire ce que les préférences de publicités Google savent de moi : rien.

Ce n’est pas par magie, c’est juste dû à la façon dont je surfe. Je ne laisse aucune trace localement, et tant que je ne me connecte pas sur un service, ils ne savent pas qui je suis. En plus, même si je me connecte à un service traquant l’identité comme Google, Twitter ou Facebook, ces services ne voient qu’une petite partie de ce que je fais, étant donné que je sépare énormément la navigation de mes autres usages d’Internet.

Comment est-ce possible? J’utilise plusieurs navigateurs et j’utilise les options sur la vie privée.

Ma configuration:

  • Firefox pour tous les services qui réclament des identifiants (Gmail/G+, Twitter, Facebook, Linkedln, etc).
  • Chrome pour la navigation traditionelle (recherches, forums, actualités, équipement technologiques, musique, etc).
  • Last Pass pour tous les mots de passe.
  • Pinboard pour tous les marque-pages.

J’ai configuré Firefox en utilisant about:config avec thatbrowser.privatebrowsing.autostart = true. Cela signifie que dès que je lance Firefox, il se lance automatiquement en navigation privée et ne stocke rien localement.

J’ai configuré tous les raccourcis de Chrome de façon à ce que tous les chemins de lancement se terminent par --incognito. À nouveau, cela signifie que dès que je lance Chrome, il utilise automatiquement le mode anonyme. La navigation privée de Firefox et le mode anonyme de Chrome font la même chose : ils ne stockent aucun historique, aucun cookie, et ne laissent aucune trace de votre activité en local sur le navigateur de votre ordinateur. Quand vous fermez la fenêtre du navigateur, tous les cookies précédemment créé sont supprimés ce qui empêche toute entreprise de vous pister, et plus rien ne permet de savoir qui vous êtes.

Évidemment, cela n’est pas sans conséquences si vous essayez de m’imiter :

  • Vous aurez toujours à vous identifier partout.
  • Le gestionnaire d’authentification en deux étapes de Google vous demandera tout le temps d’entrer un code.
  • Les marque-pages sous Firefox ne se retrouveront pas sous Chrome et inversement.
  • Cliquer sur un lien dans un service demandant des identifiants ouvrira celui-ci sous Firefox, cliquer dans un e-mail ou un lien relatif sous Chrome l’ouvrira sous Chrome.

Ce sont des points positifs, et voici comment j’ai dépassé ou contourné chaque point :

  • J’utilise Last Point pour me connecter sur les sites, ça ne prend qu’une fraction de seconde et je ne me connecte que si j’ai besoin de faire quelque chose qui nécessite de se connecter. L’avantage est que tous les sites auquel je me connecte ont leur propre mot de passe particulièrement complexe, ce qui est bon pour la sécurité.
  • Le gestionnaire d’authentification en deux étapes augmente aussi votre sécurité et vous avez votre téléphone avec vous, n’est-ce pas ? Je me connecte à Gmail une à deux fois par jour et j’utilise Google Authenticator sur mon téléphone. Les quelques secondes que cela me prend par jour ne me gênent pas.
  • Je stocke les marque-pages dans un navigateur adapté et accessible par le réseau : une page d’accueil personnalisée pour les visites récurrentes. Pinboard pour les visites occasionnelles.
  • Je ne franchis jamais la limite entre les services identifiants et le reste du web. Cela ne prend qu’une seconde de copier le lien, passer sur l’autre navigateur et coller le même lien, et c’est ce que je fais. Étonnamment, ça arrive moins souvent que vous pourriez le penser.

La question évidente qui se pose est la suivante : pour quelle raison feriez-vous une telle chose ?

La réponse est que ma navigation a évolué de cette manière.

J’ai commencé avec un seul navigateur, puis j’ai eu besoin de jongler avec deux pour des questions de développement Web. J’utilisais le mode incognito de Chrome pour simuler de nouvelles visites sur un site Internet, et je devais fréquemment fermer et rouvrir les fenêtres incognito. Parfois, il m’arrivait de fermer accidentellement la fenêtre principale, sans mode incognito… fermant également mes e-mails. J’ai donc déplacé mes e-mails et communications dans Firefox de sorte que je ne puisse plus les perdre à cause d’une action accidentelle (en fermant toutes les fenêtres de Chrome). Ainsi, avec Chrome dédié au développement Web, j’ai décidé d’utiliser le mode incognito en permanence afin de m’éviter la danse folklorique de le passer en incognito à chaque fois (ce qui ouvrait une nouvelle fenêtre) ; le mode incognito restait donc actif en permanence.

En raison du fait que Chrome offrit une « navigation jetable », j’ai remarqué que je me sentais un peu libéré du traçage et je me montrais un peu moins prudent à cliquer sur un site qui aurait pu changer d’état en connaissant qui je suis. Par exemple : les forums que vous avez peur de vister en raison de la quantité d’éléments « non lus » qui seront marqués comme « lus » juste parce que vous vous y êtes précédemment connecté. Utiliser le mode incognito en permanence signifie que je lisais un peu plus d’élements, et je m’immergeais dans les sites de manière plus fréquente.

Ensuite, concernant Firefox, j’ai commencé à remarquer que lorsque quand je suivais un lien je me sentais envahi de sites avec des widgets ou des publicités hyper personnalisées (à commencer par le pays d’où je me connecte). Cela m’inquiéta d’être ainsi étiqueté lorsque un site Web sait que j’aime le vélo par exemple. Ai-je loupé quelquechose ? Pourquoi est-ce que ces recherches me montrent des choix que je ne savais même pas que je voulais faire ? Cela me déplaît d’être catalogué par une vision normalisée basée sur mes actions et celles d’autres personnes similaires. Je souhaitais la version anonyme des résultats mais sans savoir comment l’obtenir.

Ma première astuce pour pallier ceci était de simplement copier-coller les liens dans Google Chrome pour avoir une version anonyme, c’est pourquoi j’en utilise le mode incognito en permanence. Cela marche bien et c’est devenu une habitude.

Après un moment, je me suis rendu compte que je pouvais aussi bien utiliser Firefox en mode privé et terminer ce que j’avais apparemment déjà commencé : éclater les bulles et éviter le pistage des mes informations à moins que je ne l’aie accepté (par l’identification à mon compte).

Je dispose maintenant d’une navigation préservée des pop-ups personnalisés, et qui sépare tous les services identifiants du reste du Web.

Comme je le disais, je ne pense pas que vous naviguez comme moi.

Notes

[1] Crédit photo : Enrico Policardo (Creative Commons By-Nc-Nd)




7 qualités de l’Open Source, entre mythes et réalités

UGArdener - CC by-nc« Nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent », nous affirme ici Matthew But­t­er­ick, juriste et passionné de typographie[1].

Constatant que de nombreux projets se disent open source alors qu’ils n’en possèdent pas les caractéristiques, il nous propose ici de le définir en sept points, distinguant la réalité de ce qu’il appelle sa dilution.

Vous ne serez pas forcément d’accord, surtout si vous êtes plus « logiciel libre » (version canal historique Richard Stallman) que « Open Source ». Mais on devrait pouvoir en discuter sereinement dans les commentaires 🙂


Sept qualités essentielles à l’Open Source

Seven essential qualities of open source

Matthew But­t­er­ick – Janvier 2012 – TypographyForLawyers.com
(Traduction Framalang : Goofy, OranginaRouge, antistress)


Les citations tronquées déforment les propos. Beaucoup connaissent la fameuse citation de Stew­art Brand selon laquelle « l’information veut être gratuite » (NdT : « infor­ma­tion wants to be free. »). Cette phrase, prise isolément, est souvent citée à l’appui de thèses selon lesquelles toute contrainte sur l’information numérique est futile ou immorale.

Mais peu ont entendu la deuxième partie du propos, rarement citée, qui prend le contrepied de la première partie : « l’information veut être hautement valorisée » (NdT : « infor­ma­tion wants to be expen­sive. »). Lorsque l’on reconstitue le propos dans son entier, il apparait que Brand veut illustrer la tension centrale de l’économie de l’information. Lorsque le propos est tronqué, sa signification en est changée.

Les citations tronquées ont aussi déformé le sens de « Open Source ». Au fur et à mesure que le monde de l’Open Source prenait de l’ampleur, il a attiré davantage de participants, depuis les programmeurs individuels jusqu’aux grandes entreprises. C’était prévisible. Tous ces participants ne sont pas d’accord sur le sens donné à l’Open Source. Ça aussi c’était prévisible. Certains participants influents ont tenté de diluer l’idée de l’Open Source, usant d’un raccourci réducteur pour décrire une démarche méthodique. Ça aussi, on pouvait s’y attendre.

Mais même si cela était à prévoir, il est toujours payant de combattre cette dilution. Sur le long terme, cela est néfaste à l’Open Source. Et pas seulement pour des raisons éthiques ou morales mais aussi pour des raisons pratiques et de viabilité. Si on laisse l’Open Source se diluer en acceptant de revoir à la baisse les attentes, ceux d’entre nous qui jouissent des avantages de l’Open Source seront perdants à terme. De la même façon, ceux qui contribuent à des projets pseudo-Open Source risquent de dépenser leur énergie au profit de causes douteuses. C’est pourquoi nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent.

Dans le même esprit, voici sept qualités que je considère comme essentielles pour définir l’identité de l’Open Source, par opposition aux formes diluées que revêt généralement ce mouvement. L’objectif de cet exercice n’est pas d’offrir une caractérisation univoque de l’Open Source. Ce serait à la fois présomptueux et impossible. L’Open Source est hétérogène par essence, comme tout ce qui apparaît sur la place publique.

Pourtant, le fait que nous puissions parler de l’Open Source en général signifie qu’il doit y avoir des caractéristiques irréductibles. Des gens raisonnables, par exemple, peuvent avoir des conceptions différentes de l’art. Mais qui irait contester la qualité de Mona Lisa ? De la même façon, s’il n’est pas raisonnable de parler de l’Open Source comme d’un bloc monolithique, il est tout aussi déraisonnable de prétendre que c’est un concept complètement subjectif. L’Open Source doit pouvoir être défini sinon le terme lui-même n’a pas de sens.

Pourquoi rédiger un essai sur l’Open Source sur un site Web traitant de typographie ? Premièrement parce que les outils open source prennent une part de plus en plus importante dans la conception des polices (citons par exemple Robo­Fab). Deuxièmement parce que des polices soi-disant open source sont en train d’être produites à une cadence accélérée. Troisièmement parce que l’approche utilisée pour l’Open Source est de plus en plus appliquée aux projets issus des domaines du design ou du droit. Quatrièmement parce que je m’intéresse personnellement de longue date à l’Open Source, ayant par exemple travaillé pour Red Hat (ajoutons que ce site tourne avec Word­Press, un moteur de blog open source).

Qualité essentielle n°1

  • Dilution : L’Open Source émane d’un esprit de liberté et de coopération.
  • Réalité : L’Open Source émane d’un esprit de compétition capitaliste.

L’Open Source, en tant que méthode de conception d’un logiciel, permet l’émergence de produits compétitifs sans les besoins en capitaux et main-d’œuvre inhérents aux méthodes traditionnelles de développement des logiciels propriétaires. La plupart des projets open source à succès sont conçus comme des substituts de logiciels propriétaires à succès. Il n’y a pas de coïncidence. La demande en logiciels propriétaires est aussi ce qui créée la demande pour des alternatives open source.

De plus, le succès d’un projet open source dépend de sa capacité à rivaliser avec l’alternative propriétaire. Le temps, c’est de l’argent. Les logiciels open source qui ne remplissent pas leur office ne font pas des bonnes affaires au final. Bien que certains choisiront le logiciel open source pour des raisons purement politiques, les clients rationnels se prononceront sur la base d’un bilan coûts/avantages.

Qualité essentielle n°2

  • Dilution : Les développeurs de logiciels open source travaillent gratuitement.
  • Réalité : Les développeurs de logiciels open source sont rémunérés.

Personne ne travaille sur des projets open source gratuitement. Peut-être un petit groupe de développeurs contribue t-il à des projets open source pour se distraire au lieu de collectionner des timbres par exemple. Il s’agit là d’une minorité. La plupart du travail open source est réalisé par des développeurs professionnels qui sont rémunérés à un tarif professionnel.

C’est forcément vrai, et ce pour deux raisons.

Premièrement, les développeurs ne sont pas altruistes. Comme n’importe qui d’autre sur le marché du travail, ce sont des acteurs rationnels, et bien payés avec ça. Il n’y a aucune raison pour que ces développeurs se consacrent au développement de logiciels open source moyennant un salaire de misère alors qu’il existe plein d’entreprises qui accepteraient de les payer pour le même travail.

Deuxièmement, ainsi que nous l’avons déjà mentionné, le logiciel open source ne peut réussir que s’il a les moyens de rivaliser avec les alternatives propriétaires. Et il ne peut rivaliser avec les logiciels propriétaires que s’il parvient à attirer des développeurs de même niveau. Et la seule façon d’attirer ces développeurs est de les rémunérer au prix du marché. De la même façon qu’il n’y a pas de déjeuner gratuit, il n’y a pas d’avantage de logiciel gratuit.

Qualité essentielle n°3

  • Dilution : L’Open Source rend les choses gratuites.
  • Réalité : L’Open Source redéfinit ce qui a de la valeur.

Les développeurs de logiciels open source ne travaillent pas gratuitement, mais il existe un corollaire à cette affirmation : les projets open source bénéficient, pour une valeur équivalente, à ceux qui financent ce travail de développement — habituellement les employeurs des développeurs.

Si vous croyez que les entreprises de technologies sont des acteurs rationnels de l’économie, vous avez certainement raison. Une société investira son capital dans les activités les plus rentables qu’elle pourra trouver. Si une entreprise finance des projets open source, elle en espère un retour sur investissement supérieur aux autres options.

Alors que les défenseurs des logiciels libres ou open source tentent parfois d’en illustrer l’idée avec ces comparaisons : libre comme dans « entrée libre » ou comme dans « expression libre » (NdT : « free as in beer » et « free as in speech », deux images souvent utilisées en anglais pour distinguer les deux sens du mot « free », respectivement gratuit et libre), un ingénieur de Red Hat me l’a un jour plus exactement décrit de cette façon : « gratuit comme un chiot ». Certes vous ne payez pas les logiciels open source. Mais vous ne bénéficiez pas des avantages habituels des logiciels propriétaires : facilité d’installation, support d’utilisation, documentation, etc. Soit vous payez avec votre temps, soit vous payez quelqu’un pour ces services. Le résultat est que le coût des services liés au logiciel est déplacé à l’extérieur du logiciel lui-même au lieu d’être inclus dans son prix. Mais ce coût est seulement déplacé, et non supprimé.

Qualité essentielle n°4

  • Dilution : Il n’y a pas de barrière pour participer à l’Open Source.
  • Réalité : L’Open Source s’appuie sur la méritocratie.

L’Open Source ne pourrait pas fonctionner sans un filtrage méritocratique. Ce principe découle de l’idée que l’Open Source est une méthode pour créer des produits compétitifs. Pour obtenir des résultats de haute qualité, les projets open source doivent mettre l’accent sur les contributions de haute qualité, et rejeter le reste. Les projets open source sont ouverts à tous dans le sens où n’importe qui peut suggérer des changements dans le code source. Mais ces changements peuvent toujours être rejetés ou annulés.

L’idée de l’Open Source est mal employée quand elle est appliquée à des projets qui n’ont pas ce filtrage méritocratique et auxquels n’importe qui peut contribuer. Ces projets sont plutôt décrit comme du « partage de fichiers ». Ce qui distingue la méthode open source est son appui sur une communauté de développeurs pour trouver les meilleures idées. Cela signifie donc que la plupart des idées sont rejetées.

Qualité essentielle n°5

  • Dilution : L’Open Source est démocratique.
  • Réalité : L’Open Source s’appuie sur des dictateurs bienveillants.

Les projets open source sont menés par des développeurs qui sont parfois appelés des « dictateurs bienveillants ». Habituellement il s’agit de ceux qui ont démarré le projet et qui sont considérés comme détenant la vision de l’avenir du projet.

Ils ne sont pas élus mais, d’un autre côté, il ne sont autorisés à rester au pouvoir que tant que les autres participants y consentent. C’est le principe de l’Open Source : n’importe qui peut récupérer le code source et l’utiliser pour démarrer un nouveau projet (cette pratique a pour nom le « forking »).

Cela arrive rarement. En fin de compte, les participants à un projet open source ont davantage à gagner à conserver le projet intact sous la direction d’un dictateur bienveillant plutôt que le fragmenter en de multiples projets. (notons ici encore l’influence des incitations rationnelles). De même, le dictateur a intérêt à rester bienveillant puisque le projet pourrait à tout moment se dérober sous ses pieds.

Qualité essentielle n°6

  • Dilution : Un projet open source peut n’avoir qu’un développeur.
  • Réalité : Un projet open source nécessite plusieurs développeurs.

Cette exigence découle de l’idée que l’Open Source est une méritocratie. Il ne peut y avoir de filtrage méritocratique si toutes les contributions viennent d’une seule personne. Parfois certains publieront leur projet personnel et annonceront « Hé, c’est maintenant open source ».

Cela ne le rend pas pour autant open source, pas plus qu’acheter un pack de bières et des chips suffisent à faire une soirée. Vous aurez toujours besoin d’invités. De même pour créer une pression méritocratique, les projets open source ont besoin de plusieurs développeurs (pour créer une émulsion d’idées) et d’un dictateur éclairé (pour choisir parmi ces idées). Sans cette pression, on a affaire à du partage de fichiers, pas de l’Open Source.

Qualité essentielle n°7

  • Dilution : Un projet logiciel peut devenir open source à tout moment.
  • Réalité : L’Open Source est inscrit dans l’ADN du projet ou ne l’est pas.

Comme l’Open Source rencontre un succès grandissant, de plus en plus de projets de logiciels propriétaires ont été « convertis » en logiciels open source. Cela revient à greffer des ailes à un éléphant dans l’espoir qu’il volera.

L’Open Source est une manière de produire des logiciels (entre autres). Cela inclut certaines valeurs et en exclut d’autres. Cela n’est ni intrinsèquement meilleur que le développement de logiciels propriétaires ni applicable à tous les projets. Mais la décision de développer un projet open source n’a du sens qu’au démarrage du projet. De cette manière, le dirigeant, la communauté des développeurs et le code pourront évoluer autour des ces principes.

Un projet propriétaire démarre avec des principes radicalement différents et évolue autour de ces principes. Et il ne pourra pas devenir plus tard un projet open source, pas plus qu’un éléphant ne peut devenir un aigle. Néanmoins, ceux qui convertissent des projets propriétaires en projets open source suggèrent le plus souvent que cela offre le meilleur des deux mondes : une manière de partager les bénéfices d’un développement propriétaire avec une communauté open source.

Mais cela offre presque toujours le pire des deux mondes : l’ouverture des sources n’est qu’une manière cynique d’exporter les problèmes d’un projet propriétaire. Malheureusement c’est ce qui se produit la plupart du temps car des projets propriétaires qui fonctionnent n’ont rien à gagner à devenir open source. Les développeurs n’adoptent pas votre technologie propriétaire ? Ramenez son prix à zéro et renommez le « Open Source ». Votre logiciel propriétaire est rempli de mystérieux bogues insolubles ? Rendez le « Open Source » et peut-être que quelqu’un d’autre résoudra ces problèmes. Votre technologie est sur le point de devenir obsolète car vous avez été trop lent à la mettre à jour ? Peut-être que la rendre open source allongera sa durée de vie. Les entreprises refourguent leurs logiciels à la communauté open source quand elles n’ont plus rien à perdre.

Cependant cette technique n’a jamais payé. Les projets open source qui fonctionnent ont appliqué cette méthodologie très tôt et s’y sont tenu. Le simple engagement en faveur de l’open source n’est pas un gage de succès bien qu’il soit nécessaire.


La plupart de mes explications ci-dessus ont été formulées en termes de développement logiciel. Mais ce message a une portée qui va au delà du simple logiciel. Je pense que « l’Open Source » vient du monde du logiciel, et restera certainement plutôt adapté à ce type de projet, mais il n’y a aucune raison à ce qu’il ne convienne pas à d’autres types de projets. C’est déjà ce qui se passe.

La principale difficulté est d’appliquer de façon méticuleuse et réfléchie le modèle open source. Au fur et à mesure que l’Open Source s’étend et s’éloigne de ses racines traditionnelles, il va devoir faire face à un risque grandissant de dilution. Encore une fois, je ne prêche pas une définition canonique de l’Open Source. Peut-être que le meilleur que nous pouvons espérer est que ceux qui souhaitent qualifier leur projet d’open source apprendront d’eux-mêmes les caractéristiques qui font le succès de ce type de projet. Si vous n’aimez pas mon résumé de ces qualités essentielles, alors apprenez-en suffisamment à propos de l’Open Source pour venir avec le vôtre. Et ne vous sentez pas obligé, ne prenez pas cela comme un devoir à la maison — faites cela dans votre propre intérêt.

Ça ne peut pas faire de mal de se pencher sur les autres projets open source pour comprendre comment ils ont réussi. Une fois cet examen réalisé, si vous voulez modifier les grands principes pour votre propre projet, allez-y ! Je ne m’en plaindrai pas.

Et accordez-moi une faveur : n’appelez pas cela Open Source.

Notes

[1] Crédit photo : UGArdener (Creative Commons By-Sa)




La nouvelle version 2 de la Mozilla Public License tend vers l’unité

Le 3 janvier dernier la Fondation Mozilla annonçait la sortie officielle de la version 2 de la Mozilla Public License.

C’est un évènement à saluer comme il se doit car cette nouvelle version rapproche les deux grandes familles de licences libres logicielles que sont les copyleft (comme la GPL) et les licences dites permissives (comme la BSD ou la MIT).

Pour résumer, on pourrait dire que la différence entre une licence libre avec copyleft et une licence libre qui en serait dépourvue, les premières forcent le code dérivé à rester libre alors que les secondes autorisent le code dérivé à être intégré à un produit fermé, non libre[1].

Tristan Nitot - CC by-nc-sa

Mozilla peut-elle apporter l’unité à l’open source ?

Can Mozilla Unify Open Source?

Simon Phipps – 6 janvier 2012 – ComputerWorld.uk
(Traduction Framalang : Don Rico e_Jim et Goofy)

La nouvelle licence open source de Mozilla est bien plus qu’un simple ravalement de façade. Elle pourrait créer de nouvelles possibilités pour l’unité de la communauté du Libre.

La première semaine de janvier 2012 marque un jalon discret mais important dans le mouvement de l’open source, grâce à la publication d’une deuxième version de la Mozilla Public License (MPLv2) et sa validation en tant que licence libre officielle au sens de l’Open Source Initiative (OSI). Quand bien même beaucoup n’y voient qu’un énième détail juridique, cette publication est importante à deux titres : le procédé par lequel on l’a élaborée, et l’objectif pour lequel on l’a créée. Il s’agit d’une licence qui a pour but l’unité.

Rédaction et révision de cette licence se sont déroulées selon un processus très ouvert, dans lequel Luis Villa a joué un rôle prépondérant. Organisé en majeure partie dans des forums publics, le débat a conduit à de nombreuses modifications du texte. Luis est entré en contact très tôt avec l’OSI, a intégré les retours du groupe de révision des licences, puis obtenu sans mal l’approbation du conseil d’administration.

D’autres articles sur cette nouvelle licence se sont concentrés sur les modifications de la partie « patent peace » (NdT: la paix des brevets) et autres ajustements des clauses (adieu, Netscape !), mais le changement le plus important apporté par la version 2 de la licence Mozilla est à mon sens l’inclusion d’une compatibilité particulière avec la GPL (GNU General Public License). Par le passé, le projet Mozilla jonglait avec un système complexe et peu clair de triple licence afin de composer avec les univers des licences copyleft et non copyleft. De manière générale, les autres utilisateurs de la MPL (et ses nombreux clones rebaptisés) ne prenaient pas cette peine, et par conséquent certains codebases se sont retrouvés exclus de toute collaboration possible avec l’immense univers des logiciels placés sous licence GPL.

Selon un procédé inédit que la Commission européenne a inauguré pour la Licence Publique de l’Union européenne (EUPL), la MPLv2 inclut des clauses permettant à un projet de stipuler, de façon optionnelle et explicite, sa compatibilité avec d’autres licences, en particulier celles de la famille GPL. À mes yeux, la MPLv2 représente une mise à jour d’envergure de la famille précédente des v1.x, justement grâce à cette compatibilité explicite avec la GPL, laquelle offre pour la première fois une passerelle praticable entre les paradigmes permissifs et copyleft. Elle ne satisfera pas les puristes des deux mondes, mais propose avec pragmatisme une nouvelle solution aux projets open source appuyés par des entreprises. Celles-ci pourront disposer d’une communauté qui produit du code sous licence permissive tout en fournissant à cette même communauté un moyen d’entretenir des relations avec d’autres communautés travaillant sur du code sous licence copyleft.

Avec le déclin continu du business model de la double licence (ce que d’aucuns nomment « exceptions commerciales au copyleft »), il devient de plus en plus évident que les licences permissives sont importantes pour les entreprises commerciales qui contribuent à l’open source. De la même façon, l’écosystème GPL ne disparaîtra pas, aussi les conceptions qui reposent sur une opposition idéologique – y compris celles qui prônent l’élimination de tout code sous GPL – sont néfastes pour toutes les entreprises

Je salue l’arrivée de la MPLv2, un pas en avant vers l’unification de la cause commune de nombreux développeurs open source. Bravo, Mozilla !

Notes

[1] Crédit photo : Tristan Nitot (Creative Commons By-Nc-Sa)




Mesures de R. Stallman pour une politique publique de promotion du logiciel libre

La « timidité » des pouvoirs publics vis-à-vis du logiciel libre est quelque chose qui en 2012 défie le bon sens.

Comme d’habitude avec Richard Stallman[1] c’est du sans concession mais je me prends à rêver que tous les candidats aux futures élections approuvent ces mesures et s’engagent en signant en bas de la page…

Au delà de ce crucial sujet de fond, ce billet a deux autres intentions. Rappeler l’existence du site Gnu.org qui accueille entre autres les écrits de Richard Stallman et de la Free Software Foundation et qui réalise un gros travail de traduction. Appeler à participer à la campagne de soutien dont il ne manque plus grand chose pour atteindre l’objectif fixé.

Christian Payne - CC by-nc-sa

Mesures à la portée des gouvernements pour promouvoir le logiciel libre

URL d’origine du document

Richard Stallman – GNU.org – version du 06 janvier 2012
Licence Creative Commons By-Nd

Cet article suggère des mesures pour une politique forte et résolue destinée à promouvoir le logiciel libre au sein de l’État, et à conduire le pays vers la liberté informatique.

La mission de l’État est d’organiser la société avec pour objectif la liberté et le bien-être du peuple. Un aspect de cette mission, dans le domaine informatique, est d’encourager les utilisateurs à adopter le logiciel libre.

L’État a besoin d’exiger le logiciel libre dans sa propre informatique pour garantir sa souveraineté dans ce domaine (c’est-à-dire le contrôle par l’État de son informatique). Les utilisateurs ont un droit légitime au contrôle de leur informatique, mais l’État est responsable envers les citoyens du maintien de son contrôle sur les travaux informatiques qu’il effectue pour eux. La plupart des activités de l’État se font actuellement par ce moyen, et son contrôle de ces activités dépend donc de son contrôle de son informatique. Lorsqu’il s’agit d’une agence dont la mission est cruciale, perdre ce contrôle sape la sécurité nationale.

La migration des organismes étatiques vers le logiciel libre peut fournir des bénéfices supplémentaires qui sont d’induire des économies budgétaires et de dynamiser l’industrie locale de support de logiciel.

Dans ce texte, « organismes étatiques » se réfère à tous les niveaux de gouvernement, et signifie les organismes publics y compris les écoles, les partenariats public-privé, les organismes en grande partie financés par l’État, et les sociétés « privées » contrôlées par l’État ou auxquelles l’État a attribué des privilèges ou des missions particulières.

Le domaine politique le plus important concerne l’éducation, dans la mesure où celle-ci détermine l’avenir d’une nation :

  • Les activités éducatives, du moins celles qui sont assurées par des organismes étatiques, doivent enseigner uniquement les logiciels libres (et donc ne devraient jamais conduire les élèves à utiliser un programme non libre), et devraient enseigner les raisons civiques de promouvoir le logiciel libre. Enseigner un programme non libre revient à enseigner la dépendance, ce qui est contraire à la mission de l’école.

Sont également cruciales les politiques publiques qui ont des conséquences sur le type de logiciel utilisé par les particuliers et par les organisations :

  • Les lois et les pratiques du secteur public doivent être modifiées afin de ne jamais obliger les particuliers ou les organisations à utiliser un programme non libre, ni les y pousser, même indirectement. Elles doivent aussi décourager les pratiques de communication et de publication qui impliquent de telles conséquences, y compris la gestion numérique des restrictions (DRM) EN).
  • Chaque fois qu’un organisme étatique distribue des logiciels au public, y compris des programmes inclus dans ses pages web ou exigés par elles, ces programmes doivent être distribués en tant que logiciels libres, et être aptes à fonctionner dans un environnement 100% libre.
  • Les sites web et les serveurs des organismes étatiques doivent être conçus pour fonctionner parfaitement dans des environnements 100% libres sur l’ordinateur de l’utilisateur.
  • Les organismes étatiques doivent utiliser uniquement les formats de fichier et les protocoles de communication qui sont bien pris en charge par le logiciel libre, et de préférence ceux dont les spécifications ont été publiées. (Nous n’énonçons pas cette règle en termes de « standards » parce qu’elle doit s’appliquer aux interfaces non standardisées aussi bien que standardisées.) Par exemple, ils ne doivent pas distribuer d’enregistrements audio ou vidéo dans des formats qui nécessitent de recourir à Flash ou à des codecs non libres, et les bibliothèques publiques ne doivent pas distribuer d’œuvres munies de dispositifs de gestion numérique des restrictions (DRM).

Plusieurs politiques affectent la souveraineté informatique de l’État. Les organes étatiques doivent exercer le contrôle de leur informatique, et ne pas céder celui-ci aux mains d’entités privées. Ces points s’appliquent à tous leurs ordinateurs, y compris les smartphones.

  • Tous les organismes étatiques doivent migrer vers le logiciel libre, et ne doivent installer ni continuer à utiliser aucun logiciel non libre, sauf exception temporaire. Une seule agence doit être compétente pour accorder ces dérogations temporaires, et seulement lorsque des raisons impérieuses sont démontrées. L’objectif de cette agence devrait être de réduire le nombre de ces exceptions à zéro.
  • Quand un organisme étatique finance le développement d’une solution informatique, le contrat doit exiger que ce soit une solution logicielle libre et capable de fonctionner dans un environnement 100% libre. Tous les contrats doivent l’exiger, de sorte que si les développeurs ne se conforment pas à cette exigence, leur ouvrage ne puisse être payé.
  • Quand un organisme étatique achète ou loue des ordinateurs, il doit choisir parmi les modèles qui se rapprochent le plus, dans leur catégorie de spécifications et capacités, d’un fonctionnement sans aucun logiciel privateur (non libre). L’État doit maintenir, pour chaque catégorie d’ordinateurs, une liste des modèles acceptables répondant à ce critère. Les modèles disponibles à la fois pour le public et l’État doivent être préférés aux modèles disponibles uniquement pour l’État.
  • L’État se doit de négocier activement avec les fabricants pour favoriser la disponibilité sur le marché (tant pour le public que pour l’État), dans tous les domaines pertinents, de produits matériels hardware appropriés qui ne nécessitent aucun logiciel privateur.
  • L’État devrait inviter d’autres États à négocier collectivement avec les fabricants la fourniture de produits matériels appropriés. Car ensemble ils auront plus de poids.

La souveraineté et la sécurité informatiques d’un État supposent le contrôle de l’État sur les ordinateurs effectuant des tâches de son ressort. Cela exige d’éviter le logiciel en tant que service (SaaS), à moins qu’il ne soit géré par une agence de l’État. (Cependant, pour respecter la séparation des pouvoirs, les travaux informatiques des services relevant respectivement de l’exécutif, du législatif et du judiciaire ne doivent pas être confiés à une agence relevant d’un autre pouvoir.) Plus généralement, cela exige d’éviter toute pratique qui diminuerait le contrôle exercé par l’État sur son informatique.

  • Tout ordinateur utilisé au service de l’État doit avoir été acquis ou loué par une entité relevant du même « pouvoir » (exécutif, législatif ou judiciaire) que l’administration utilisatrice ; aucune entité extérieure à ce pouvoir ne doit avoir le droit de décider qui a accès à l’ordinateur, qui peut en effectuer la maintenance (matérielle ou logicielle), ou quels logiciels doivent y être installés. Si l’ordinateur n’est pas portable, alors il doit être utilisé dans un espace dont l’État est propriétaire ou locataire.

Une autre politique concerne le développement de logiciels libres et non libres :

  • L’État doit encourager les développeurs à créer ou à améliorer le logiciel libre ainsi que tous ceux qui les mettent à disposition du public, par exemple au moyen d’exonérations fiscales ou de toutes autres incitations financières. Au contraire, aucune incitation ne doit être accordée pour le développement, la distribution ou l’utilisation de logiciels non libres.
  • En particulier, les développeurs de logiciels privateurs ne devraient pas être en mesure de « donner » des copies à des écoles et réclamer une déduction d’impôt basée sur la valeur nominale du logiciel. Les logiciels privateurs n’ont nulle légitimité dans les écoles.

Un tel train de mesures doit permettre à l’État de recouvrer le contrôle et la souveraineté de son informatique, ainsi que d’amener les citoyens, les entreprises et les organisations du pays à prendre le contrôle de leur informatique.

Notes

[1] Crédit photo : Christian Payne (Creative Commons By-Nc-Sa)




Stallman avait malheureusement raison depuis le début

Nur Hussein - CC by-saLe cauchemar paranoïaque et apocalyptique d’un geek psychorigide est en passe de devenir réalité.

Trente ans, trente ans que Stallman et la Free Software Foundation répètent inlassablement qu’il est fondamental que ce soit l’homme qui contrôle le logiciel, et donc la machine, et non l’inverse.

Le discours est peut-être radical sur le fond (car il ne souffre d’aucune compromission) et parfois excentrique dans la forme (le personnage Richard Stallman[1]) mais, comme Thom Holwerda ci-dessous, nous sommes de plus en plus nombreux à réaliser sa justesse et sa pertinence au fur et à mesure que le temps passe et les libertés s’amenuisent.

C’est d’ailleurs aussi voire surtout pour cela que nous avions traduit et enrichi avec lui sa biographie où figure en exergue cette citation de Lessig qui, cela dépend de nous, peut tout aussi bien être prémonitoire que tomber dans l’oubli :

« Chaque génération a son philosophe, écrivain ou artiste qui saisit et incarne l’imaginaire du moment. Il arrive que ces philosophes soient reconnus de leur vivant, mais le plus souvent il faut attendre que la patine du temps fasse son effet. Que cette reconnaissance soit immédiate ou différée, une époque est marquée par ces hommes qui expriment leurs idéaux, dans les murmures d’un poème ou dans le grondement d’un mouvement politique. Notre génération a un philosophe. Ce n’est ni un artiste ni un écrivain. C’est un informaticien. »

Remarque : On notera que l’auteur fait référence à une récente et marquante conférence de Cory Doctorow qui affirme l’importance de gagner la guerre actuelle contre le copyright, prélude, ni plus ni moins selon lui, à une future éventuelle guerre totale contre le Net et donc les citoyens. Nous aurons l’occasion d’en reparler car notre fine équipe Framalang a prévu son sous-titrage.

Richard Stallman avait raison depuis le début

Richard Stallman Was Right All Along

Thom Holwerda – 2 janvier 2012 – OSNews.com
(Traduction Framalang : Lolo le 13, Goofy, Slystone, e-Jim, Pandark et Clochix)

À la fin de l’année dernière, le président Obama a signé une loi qui permet de maintenir indéfiniment en détention des gens soupçonnés de terrorisme sans la moindre forme de procès ou de jugement en bonne et due forme. Les manifestants pacifiques des mouvements Occupy du monde entier ont été qualifiés de terroristes par les autorités. Des initiatives comme SOPA promeuvent une surveillance constante de tous les canaux de communication.

Il y a trente ans, lorsque Richard Stallman a lancé le projet GNU, et pendant les trois décennies qui ont suivi, ses vues radicales et parfois extrêmes ont été raillées et méprisées comme étant de la paranoïa — mais nous y voici, en 2012, et ses suppositions paranoïaques sont devenues réalité.

Jusqu’à récemment, il était facile d’écarter Richard Stallman en le qualifiant de fanatique paranoïaque, quelqu’un qui avait depuis longtemps perdu le contact avec la réalité. Une sorte d’éternel hippie des ordinateurs, la personnification parfaite de l’archétype du nerd vivant retiré du monde dans le garage d’une maison. Sa barbe, ses cheveux, sa tenue — dans notre monde d’apparences, il était très facile de l’écarter.

Ses positions ont toujours été extrêmes. Son unique ordinateur est un netbook Lemote Yeelong, car c’est le seul ordinateur qui n’utilise que des logiciels libres — pas de binaires dans le firmware, pas de BIOS propriétaire ; il est complètement libre. Il refuse également de posséder un téléphone portable, car ils sont trop simples à pister. En attendant qu’il existe un téléphone mobile équivalent au Yeelong, Stallman ne veut pas en posséder.

En règle générale, tous les logiciels devraient être libres. Ou, comme le dit la Free Software Foundation :

À mesure que notre société devient plus dépendantes des ordinateurs, les logiciels que nous utilisons sont d’une importance critique pour sécuriser l’avenir d’une société libre. Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller.

J’ai, moi aussi, ignoré Richard Stallman que je jugeais trop extrême. Le logiciel libre pour combattre les gouvernements qui contrôlent et espionnent ? Des entreprises démoniaques prêtes à prendre le contrôle du monde ? Le logiciel comme outil pour surveiller les canaux de communication privés ? Ok, je suis d’accord, le logiciel libre est important, et je le choisis à chaque fois qu’il implémente les mêmes fonctionnalités que les solutions propriétaires, mais de là à croire et adhérer aux sornettes de Stallman et de la FSF…

Or nous y voici.

Nous sommes au début de 2012 et Obama a signé le NDAA, qui autorise la rétention indéfinie de citoyens américains sans aucune forme de jugement ou de procès, simplement parce qu’ils sont suspectés de terrorisme. Au même moment, nous avons la loi SOPA, qui, si elle passe, mettrait en place un système dans lequel les sites peuvent être débranchés du Web, une fois encore sans la moindre forme de jugement ou de procès, tout en autorisant également la surveillance du trafic Internet. Combinez cela avec la façon dont les autorités ont qualifié de terroristes les mouvements Occupy et vous pouvez voir où cela nous amène.

Au cas où ça vous rappelle la Chine et des régimes totalitaires similaires, vous n’êtes pas le seul. Même l’Association du Cinéma d’Amérique, la MPAA, clame fièrement que ce qui fonctionne en Chine, Syrie, Iran et dans d’autres pays devrait fonctionner aux États-Unis. La Grande Muraille pare-feu de Chine et les systèmes de filtrage similaires sont glorifiés et cités en exemple dans ce qui est supposé être le monde libre.

Le nœud du problème ici est qu’à la différence de jadis, à l’époque où les régimes répressifs avaient besoin de réseaux compliqués de police secrète et d’informateurs pour surveiller les communications, tout ce dont ils ont besoin à présent est de contrôle sur le logiciel et le matériel que nous utilisons. Nos ordinateurs de bureau, nos portables, nos tablettes, nos smartphones, et toutes sortes de terminaux jouent un rôle dans pratiquement toutes nos communications. Vous pensez être à l’abri lorsque vous communiquez en face-à-face ? Réfléchissez-y à deux fois. Comment avez-vous préparé la rencontre ? Au téléphone ? Via le Web ? Et qu’est-ce que vous avez dans votre poche ou votre sac, toujours connecté au réseau ?

C’est contre cela que Stallman nous a mis en garde pendant toutes ces années — et la plupart d’entre nous, moi compris, ne l’ont jamais réellement pris au sérieux. Cependant, à mesure que le monde change, l’importance de la possibilité de vérifier ce que fait le code dans vos terminaux — ou de le faire faire par quelqu’un d’autre si vous n’en avez pas les compétences — devient de plus en plus évidente. Si nous perdons la possibilité de vérifier ce que font nos ordinateurs, nous sommes foutus.

C’est au cœur de ce que croient la Free Software Foundation et Stallman : que le logiciel propriétaire enlève à l’utilisateur le contrôle sur la machine, ce qui peut avoir des conséquences désastreuses, en particulier à présent que nous dépendons des ordinateurs pour à peu près tout ce que nous faisons. Le fait que Stallman l’ait prévu il y a près de trois décennies est remarquable, et donne raison à son activisme.

Et en 2012, nous allons avoir plus que jamais besoin de logiciels libres. Au récent Chaos Computer Congress de Berlin, Cory Doctorow a donné une conférence intitulée La guerre à venir sur l’informatique généraliste (NdT : The Coming War on General Purpose Computation). À cette occasion, Doctorow nous informa que l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi actuel. La guerre du copyright ? Rien de plus qu’un prélude à la vraie guerre.

« En tant que membre de la génération Walkman, j’ai accepté le fait que j’aurai sûrement bientôt besoin d’implants auditifs, et, bien sûr, il ne s’agira pas de prothèses au sens classique, mais bien d’un ordinateur implanté dans mon corps », explique Doctorow. « Donc, lorsque je rentre dans ma voiture (un ordinateur dans lequel j’insère mon corps) avec mes audioprothèses (un ordinateur que j’insère dans mon corps), je veux être certain que ces technologies n’ont pas été conçues de manière à me cacher des choses, ni à m’empêcher de mettre fin à des processus qu’elles exécutent et qui nuiraient à mes intérêts ».

Et ceci est vraiment le coeur de la problématique. À partir du moment où les ordinateurs s’occupent de choses comme l’audition, la conduite automobile, et bien d’autres choses encore, nous ne pouvons plus nous permettre d’être privés d’accès à leur code. Nous devons avoir un droit de regard sur leur fonctionnement interne et pouvoir comprendre ce qu’ils font, afin de nous assurer que nous ne sommes pas surveillés, filtrés ou manipulés. Il y a peu, j’aurais encore affirmé que tout ceci n’est que pure paranoïa, mais avec tout ce qui se passe ces derniers temps, ce n’est plus de la paranoïa. C’est la réalité.

« À l’avenir, la liberté exigera de nous que nous ayons la capacité de surveiller nos appareils, de leur imposer ce que nous voulons qu’ils fassent, de définir une politique éthique et sensée pour leur utilisation, d’examiner et de pouvoir choisir et mettre fin aux processus qu’ils exécutent, afin qu’ils restent nos fidèles serviteurs, et non des traîtres et des espions à la solde de criminels, de voyous et d’obsédés du contrôle, qu’ils soient individus, États ou multinationales », nous avertit Doctorow, « Nous n’avons pas encore perdu, mais il nous faut gagner la guerre du Copyright afin de garder Internet et nos ordinateurs libres et ouverts. Parce que ces derniers sont les armes des guerres à venir, nous serons incapables de nous battre sans eux. »

Voilà pourquoi vous devriez soutenir Android (pas Google, mais Android), même si vous préférez l’iPhone. Voilà pourquoi vous devriez soutenir Linux, même si vous utilisez Windows. Voilà pourquoi vous devriez soutenir le serveur Web Apache, même si vous utilisez Microsoft IIS. Il va arriver un moment où être libre et ouvert ne sera plus seulement un avantage amusant, mais une nécessité.

Et ce moment approche beaucoup plus rapidement que vous ne le pensez.

Notes

[1] Crédit photo : Nur Hussein (Creative commons By-Sa)