« Le logiciel libre peut redonner sens à nos vies » Bernard Stiegler

Le philosophe Bernard Stiegler fait l’objet d’un tag dédié sur le Framablog.

En découvrant le titre de l’article qui lui était consacré dans le journal belge Le Soir du 30 novembre dernier, on comprend bien pourquoi 🙂

Remarque : Demain 3 mars à 14h au Théâtre de La Colline aura lieu une rencontre Ars Industrialis autour du récent ouvrage L’école, le numérique et la société qui vient co-signé entre autres par Bernard Stiegler.

Bernard Stiegler - Le Soir

« Le logiciel libre peut redonner sens à nos vies »

URL d’origine du document

Quentin Noirfalisse – 30 novembre 2011 – Le Soir

Bernard Stiegler, un philosophe en lutte. Dans sa ligne de mire : un capitalisme addictif qui aspire le sens de nos existences. Son remède : une économie de la contribution.

Ce n’est plus un secret pour personne : le capitalisme est en train d’être dévoré par ses propres effets toxiques. En 2005, parmi d’autres voix peu écoutées alors, une association française, Ars Industrialis, lancée par quatre philosophes et une juriste, avait sonné le tocsin. A l’époque, leur manifeste décrivait les dangers d’un capitalisme « autodestructeur » et la soumission totale aux « impératifs de l’économie de marché et des retours sur investissements les plus rapides possibles des entreprises » et notamment celles actives dans les médias, la culture ou les télécommunications.

Aujourd’hui, l’association comporte plus de 500 membres, économistes, philosophes, informaticiens et toxicologues (car le capitalisme est devenu « addictif » et « pulsionnel ») confondus et ne semble pas s’être trompée de sonnette d’alarme. « Nous faisons partie des gens qui ont soulevé, dès 2006, l’insolvabilité chronique du système financier américain. On nous riait au nez, à l’époque », explique le philosophe Bernard Stiegler, fondateur d’Ars Industrialis et directeur de l’Institut de recherche et d’innovation du Centre Pompidou.

L’homme habite un petit moulin industriel reconverti en maison à Epineuil-le-Fleuriel, au beau milieu de la France paysanne. Entre quelques cris de paons, il vient de nous détailler le malaise qui s’empare de tous les échelons de la société.

Le règne de l’incurie

« Au 20e siècle, un nouveau modèle s’est substitué au capitalisme industriel et productiviste du 19e : le consumérisme, qu’on assimile au fordisme et qui a cimenté l’opposition entre producteur et consommateur. Le capitalisme productiviste supposait la prolétarisation des ouvriers. Ceux-ci perdaient tout leur savoir-faire qui était transféré aux machines. Avec le consumérisme, ce sont les consommateurs qui perdent leur savoir-vivre, ce qui constitue la deuxième phase de la prolétarisation. »

Chez Stiegler, le savoir-vivre, c’est ce qui permet à un homme de pouvoir développer ses propres pratiques sociales, d’avoir un style de vie particulier, une existence qui n’est pas identique à celle de son voisin. « Le problème du capitalisme, c’est qu’il détruit nos existences. Le marketing nous impose nos modes de vie et de pensée. Et cette perte de savoir-faire et de savoir-vivre devient généralisée. Beaucoup d’ingénieurs n’ont plus que des compétences et de moins en moins de connaissances. On peut donc leur faire faire n’importe quoi, c’est très pratique, mais ça peut aussi produire Fukushima. L’exemple ultime de cette prolétarisation totale, c’est Alan Greenspan, l’ancien patron de la Banque fédérale américaine, qui a dit, devant le Congrès américain qu’il ne pouvait pas anticiper la crise financière parce que le système lui avait totalement échappé. »

Que la justification de Greenspan soit sincère ou non, il n’en ressort pas moins que le système ultralibéral qu’il a sans cesse promu a engendré la domination de la spéculation à rendement immédiat sur l’investissement à long terme. Nous assistons, déplore Stiegler, au règne d’une « économie de l’incurie » dont les acteurs sont frappés d’un syndrome de « déresponsabilisation » couplé à une démotivation rampante.

Où se situe la solution ? Pour Stiegler, l’heure est venue de passer du capitalisme consumériste à un nouveau modèle industriel : l’économie de la contribution. En 1987, le philosophe organisait une exposition au Centre Pompidou, « Les mémoires du futur », où il montra que « le 21e siècle serait une bibliothèque où les individus seraient mis en réseaux, avec de nouvelles compétences données par des appareils alors inaccessibles. »

Depuis, Stiegler a chapeauté la réalisation de logiciels et réfléchit le numérique, convaincu qu’il est, en tant que nouvelle forme d’écriture, un vecteur essentiel de la pensée et de la connaissance. Il a observé de près le mouvement du logiciel libre[1]. C’est de là qu’aurait en partie germé l’idée d’une économie de la contribution. Car dans le « libre », l’argent n’est plus le moteur principal. Il cède la place à la motivation et à la passion, deux valeurs en chute libre dans le modèle consumériste. La question du sens donné aux projets par leurs participants y occupe une place centrale.

« Le logiciel libre est en train de gagner la guerre du logiciel, affirme la Commission européenne. Mais pourquoi ça marche ? Parce que c’est un modèle industriel – écrire du code, c’est éminemment industriel – déprolétarisant. Les processus de travail à l’intérieur du libre permettent de reconstituer ce que j’appelle de l’individuation, c’est-à-dire la capacité à se transformer par soi-même, à se remettre en question, à être responsable de ce que l’on fait et à échanger avec les autres. Cela fait longtemps, par exemple, que les hackers[2] s’approprient les objets techniques selon des normes qui ne sont pas celles prescrites par le marketing. »

De la même manière, une « infrastructure contributive » se développe, depuis deux décennies, sur un internet qui « repose entièrement sur la participation de ses utilisateurs ». Elle a permis, entre autres, d’accoucher de Wikipédia et de substituer à la dualité consommateur-producteur un ensemble de contributeurs actifs. Ceux-ci créent et échangent leurs savoirs sur le réseau, développant ainsi des « milieux associés » où ils peuvent façonner leurs propres jugements. Pour Stiegler, cette capacité à penser par soi-même propre au modèle contributif, est constitutive d’un meilleur fonctionnement démocratique.

Poison et remède

Pas question, toutefois, de tomber dans un angélisme pontifiant. Dans ses textes, il décrit le numérique comme un « pharmakon », terme grec qui désigne à la fois un poison et un remède, « dont il faut prendre soin ». Objectif : « lutter contre un usage de ces réseaux au service d’un hyperconsumérisme plus toxique que jamais », peut-on lire dans le Manifeste d’Ars Industrialis. Stiegler complète, en face-à-face : « Le numérique peut également aboutir à une société policière. Soit on va vers un développement pareil, soit vers l’économie de la contribution. »

D’ores et déjà, des embryons de ce modèle naissent dans d’autres domaines. « Une agriculture contributive existe déjà. L’agriculteur et ses consommateurs deviennent des partenaires, en s’appuyant notamment sur le web. » En France, cela se fait au travers des AMAP, les Associations pour le maintien d’une agriculture paysanne, où les différents acteurs se mettent d’accord sur la quantité et la diversité des denrées à produire. « Dans l’univers médical, poursuit Stiegler, les patients sont parfois intégrés à la recherche, comme ce qu’a fait le professeur Montagnier avec les malades du sida. Nous pensons également qu’il y a des domaines contributifs en énergie, où l’idée serait de produire autant que l’on reçoit, grâce aux réseaux de distribution intelligents, les smart grids. C’est bien sûr totalement contraire aux intérêts des grands groupes. »

Ainsi, l’idée d’une économie de la contribution implique que des pans entiers de nos sociétés sont à réinventer. Stiegler énumère certains besoins : « une politique éducative en relation avec le numérique, un nouveau droit du travail, un système politique déprofessionnalisé, un monde de la recherche où professionnels et amateurs sont associés. Nous plaidons beaucoup pour cette figure de l’amateur, qui aime ce qu’il fait et s’y investit complètement. » Reste, finalement, la question de l’argent. La valeur produite par les contributeurs n’est pas toujours monétisable, mais peut avoir un impact sur l’activité économique. Ainsi, les articles de Wikipédia permettent à Bernard Stiegler d’écrire beaucoup plus vite qu’avant. « La puissance publique doit être en charge d’assurer la solvabilité des contributeurs. Quelqu’un qui a un projet intéressant doit pouvoir recevoir de l’argent. Cela s’inscrit dans le sillage de thèses classiques comme le revenu minimum d’existence, à ceci près que nous pensons que ces budgets doivent être pensés comme des investissements. »

Reproduire de l’investissement, non seulement financier, mais surtout humain. Aux yeux de Stiegler, voilà l’enjeu d’une sortie de crise. Et voilà, aussi, pourquoi il appelle à la réunion des hackers, des universités, des chercheurs, des amateurs et des gens de bonne volonté (« il y en a partout ») face à un « néolibéralisme devenu l’organisation généralisée du désinvestissement ».

www.arsindustrialis.org

Interview de Bernard Stiegler

URL d’origine du document

Entretien : Quentin Noirfalisse – Vidéo: Adrien Kaempf et Maximilien Charlier
Geek PoliticsDancing Dog Productions

—> La vidéo au format webm

Notes

[1] Selon la définition consacrée, un logiciel est libre lorsque les utilisateurs ont le droit « d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». Quelques exemples, parmi les plus connus : Firefox, OpenOffice ou le système d’exploitation Ubuntu.

[2] Le hacker, grand artisan de l’internet tel qu’on le connaît, n’est pas un pirate informatique, mais plutôt un « détourneur », qui va utiliser des systèmes ou des objets (technologiques ou non) dans un but que leurs créateurs n’imaginaient pas.




Je ne pense pas que vous naviguez comme moi sur le Web

Parano notre ami David ?

Peut-être prudent tout simplement, quitte à sacrifier un peu de son temps pour que Google & co en sache le moins possible sur lui[1].

Pour vivre heureux, vivons cachés ?

Enrico Policardo - CC by-nc-nd

Je ne pense pas que vous surfez comme moi

I don’t think you browse like I do

David – 4 février 2012 – Microcosm
(Traduction Framalang : Goofy, Antonin, OranginaRouge, Lamessen)

En fait, j’en suis même convaincu.

Cela ne m’est venu à l’esprit que cette semaine quand des amis étaient en train de parler de la façon virale dont Google étend sa connaissance sur vous. Certains étaient choqués par la précision, d’autres amusés d’être référencés dix ans plus jeunes ou dix ans plus vieux. Quelques-uns étaient affublés du mauvais sexe.

Je peux vous dire ce que les préférences de publicités Google savent de moi : rien.

Ce n’est pas par magie, c’est juste dû à la façon dont je surfe. Je ne laisse aucune trace localement, et tant que je ne me connecte pas sur un service, ils ne savent pas qui je suis. En plus, même si je me connecte à un service traquant l’identité comme Google, Twitter ou Facebook, ces services ne voient qu’une petite partie de ce que je fais, étant donné que je sépare énormément la navigation de mes autres usages d’Internet.

Comment est-ce possible? J’utilise plusieurs navigateurs et j’utilise les options sur la vie privée.

Ma configuration:

  • Firefox pour tous les services qui réclament des identifiants (Gmail/G+, Twitter, Facebook, Linkedln, etc).
  • Chrome pour la navigation traditionelle (recherches, forums, actualités, équipement technologiques, musique, etc).
  • Last Pass pour tous les mots de passe.
  • Pinboard pour tous les marque-pages.

J’ai configuré Firefox en utilisant about:config avec thatbrowser.privatebrowsing.autostart = true. Cela signifie que dès que je lance Firefox, il se lance automatiquement en navigation privée et ne stocke rien localement.

J’ai configuré tous les raccourcis de Chrome de façon à ce que tous les chemins de lancement se terminent par --incognito. À nouveau, cela signifie que dès que je lance Chrome, il utilise automatiquement le mode anonyme. La navigation privée de Firefox et le mode anonyme de Chrome font la même chose : ils ne stockent aucun historique, aucun cookie, et ne laissent aucune trace de votre activité en local sur le navigateur de votre ordinateur. Quand vous fermez la fenêtre du navigateur, tous les cookies précédemment créé sont supprimés ce qui empêche toute entreprise de vous pister, et plus rien ne permet de savoir qui vous êtes.

Évidemment, cela n’est pas sans conséquences si vous essayez de m’imiter :

  • Vous aurez toujours à vous identifier partout.
  • Le gestionnaire d’authentification en deux étapes de Google vous demandera tout le temps d’entrer un code.
  • Les marque-pages sous Firefox ne se retrouveront pas sous Chrome et inversement.
  • Cliquer sur un lien dans un service demandant des identifiants ouvrira celui-ci sous Firefox, cliquer dans un e-mail ou un lien relatif sous Chrome l’ouvrira sous Chrome.

Ce sont des points positifs, et voici comment j’ai dépassé ou contourné chaque point :

  • J’utilise Last Point pour me connecter sur les sites, ça ne prend qu’une fraction de seconde et je ne me connecte que si j’ai besoin de faire quelque chose qui nécessite de se connecter. L’avantage est que tous les sites auquel je me connecte ont leur propre mot de passe particulièrement complexe, ce qui est bon pour la sécurité.
  • Le gestionnaire d’authentification en deux étapes augmente aussi votre sécurité et vous avez votre téléphone avec vous, n’est-ce pas ? Je me connecte à Gmail une à deux fois par jour et j’utilise Google Authenticator sur mon téléphone. Les quelques secondes que cela me prend par jour ne me gênent pas.
  • Je stocke les marque-pages dans un navigateur adapté et accessible par le réseau : une page d’accueil personnalisée pour les visites récurrentes. Pinboard pour les visites occasionnelles.
  • Je ne franchis jamais la limite entre les services identifiants et le reste du web. Cela ne prend qu’une seconde de copier le lien, passer sur l’autre navigateur et coller le même lien, et c’est ce que je fais. Étonnamment, ça arrive moins souvent que vous pourriez le penser.

La question évidente qui se pose est la suivante : pour quelle raison feriez-vous une telle chose ?

La réponse est que ma navigation a évolué de cette manière.

J’ai commencé avec un seul navigateur, puis j’ai eu besoin de jongler avec deux pour des questions de développement Web. J’utilisais le mode incognito de Chrome pour simuler de nouvelles visites sur un site Internet, et je devais fréquemment fermer et rouvrir les fenêtres incognito. Parfois, il m’arrivait de fermer accidentellement la fenêtre principale, sans mode incognito… fermant également mes e-mails. J’ai donc déplacé mes e-mails et communications dans Firefox de sorte que je ne puisse plus les perdre à cause d’une action accidentelle (en fermant toutes les fenêtres de Chrome). Ainsi, avec Chrome dédié au développement Web, j’ai décidé d’utiliser le mode incognito en permanence afin de m’éviter la danse folklorique de le passer en incognito à chaque fois (ce qui ouvrait une nouvelle fenêtre) ; le mode incognito restait donc actif en permanence.

En raison du fait que Chrome offrit une « navigation jetable », j’ai remarqué que je me sentais un peu libéré du traçage et je me montrais un peu moins prudent à cliquer sur un site qui aurait pu changer d’état en connaissant qui je suis. Par exemple : les forums que vous avez peur de vister en raison de la quantité d’éléments « non lus » qui seront marqués comme « lus » juste parce que vous vous y êtes précédemment connecté. Utiliser le mode incognito en permanence signifie que je lisais un peu plus d’élements, et je m’immergeais dans les sites de manière plus fréquente.

Ensuite, concernant Firefox, j’ai commencé à remarquer que lorsque quand je suivais un lien je me sentais envahi de sites avec des widgets ou des publicités hyper personnalisées (à commencer par le pays d’où je me connecte). Cela m’inquiéta d’être ainsi étiqueté lorsque un site Web sait que j’aime le vélo par exemple. Ai-je loupé quelquechose ? Pourquoi est-ce que ces recherches me montrent des choix que je ne savais même pas que je voulais faire ? Cela me déplaît d’être catalogué par une vision normalisée basée sur mes actions et celles d’autres personnes similaires. Je souhaitais la version anonyme des résultats mais sans savoir comment l’obtenir.

Ma première astuce pour pallier ceci était de simplement copier-coller les liens dans Google Chrome pour avoir une version anonyme, c’est pourquoi j’en utilise le mode incognito en permanence. Cela marche bien et c’est devenu une habitude.

Après un moment, je me suis rendu compte que je pouvais aussi bien utiliser Firefox en mode privé et terminer ce que j’avais apparemment déjà commencé : éclater les bulles et éviter le pistage des mes informations à moins que je ne l’aie accepté (par l’identification à mon compte).

Je dispose maintenant d’une navigation préservée des pop-ups personnalisés, et qui sépare tous les services identifiants du reste du Web.

Comme je le disais, je ne pense pas que vous naviguez comme moi.

Notes

[1] Crédit photo : Enrico Policardo (Creative Commons By-Nc-Nd)




7 qualités de l’Open Source, entre mythes et réalités

UGArdener - CC by-nc« Nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent », nous affirme ici Matthew But­t­er­ick, juriste et passionné de typographie[1].

Constatant que de nombreux projets se disent open source alors qu’ils n’en possèdent pas les caractéristiques, il nous propose ici de le définir en sept points, distinguant la réalité de ce qu’il appelle sa dilution.

Vous ne serez pas forcément d’accord, surtout si vous êtes plus « logiciel libre » (version canal historique Richard Stallman) que « Open Source ». Mais on devrait pouvoir en discuter sereinement dans les commentaires 🙂


Sept qualités essentielles à l’Open Source

Seven essential qualities of open source

Matthew But­t­er­ick – Janvier 2012 – TypographyForLawyers.com
(Traduction Framalang : Goofy, OranginaRouge, antistress)


Les citations tronquées déforment les propos. Beaucoup connaissent la fameuse citation de Stew­art Brand selon laquelle « l’information veut être gratuite » (NdT : « infor­ma­tion wants to be free. »). Cette phrase, prise isolément, est souvent citée à l’appui de thèses selon lesquelles toute contrainte sur l’information numérique est futile ou immorale.

Mais peu ont entendu la deuxième partie du propos, rarement citée, qui prend le contrepied de la première partie : « l’information veut être hautement valorisée » (NdT : « infor­ma­tion wants to be expen­sive. »). Lorsque l’on reconstitue le propos dans son entier, il apparait que Brand veut illustrer la tension centrale de l’économie de l’information. Lorsque le propos est tronqué, sa signification en est changée.

Les citations tronquées ont aussi déformé le sens de « Open Source ». Au fur et à mesure que le monde de l’Open Source prenait de l’ampleur, il a attiré davantage de participants, depuis les programmeurs individuels jusqu’aux grandes entreprises. C’était prévisible. Tous ces participants ne sont pas d’accord sur le sens donné à l’Open Source. Ça aussi c’était prévisible. Certains participants influents ont tenté de diluer l’idée de l’Open Source, usant d’un raccourci réducteur pour décrire une démarche méthodique. Ça aussi, on pouvait s’y attendre.

Mais même si cela était à prévoir, il est toujours payant de combattre cette dilution. Sur le long terme, cela est néfaste à l’Open Source. Et pas seulement pour des raisons éthiques ou morales mais aussi pour des raisons pratiques et de viabilité. Si on laisse l’Open Source se diluer en acceptant de revoir à la baisse les attentes, ceux d’entre nous qui jouissent des avantages de l’Open Source seront perdants à terme. De la même façon, ceux qui contribuent à des projets pseudo-Open Source risquent de dépenser leur énergie au profit de causes douteuses. C’est pourquoi nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent.

Dans le même esprit, voici sept qualités que je considère comme essentielles pour définir l’identité de l’Open Source, par opposition aux formes diluées que revêt généralement ce mouvement. L’objectif de cet exercice n’est pas d’offrir une caractérisation univoque de l’Open Source. Ce serait à la fois présomptueux et impossible. L’Open Source est hétérogène par essence, comme tout ce qui apparaît sur la place publique.

Pourtant, le fait que nous puissions parler de l’Open Source en général signifie qu’il doit y avoir des caractéristiques irréductibles. Des gens raisonnables, par exemple, peuvent avoir des conceptions différentes de l’art. Mais qui irait contester la qualité de Mona Lisa ? De la même façon, s’il n’est pas raisonnable de parler de l’Open Source comme d’un bloc monolithique, il est tout aussi déraisonnable de prétendre que c’est un concept complètement subjectif. L’Open Source doit pouvoir être défini sinon le terme lui-même n’a pas de sens.

Pourquoi rédiger un essai sur l’Open Source sur un site Web traitant de typographie ? Premièrement parce que les outils open source prennent une part de plus en plus importante dans la conception des polices (citons par exemple Robo­Fab). Deuxièmement parce que des polices soi-disant open source sont en train d’être produites à une cadence accélérée. Troisièmement parce que l’approche utilisée pour l’Open Source est de plus en plus appliquée aux projets issus des domaines du design ou du droit. Quatrièmement parce que je m’intéresse personnellement de longue date à l’Open Source, ayant par exemple travaillé pour Red Hat (ajoutons que ce site tourne avec Word­Press, un moteur de blog open source).

Qualité essentielle n°1

  • Dilution : L’Open Source émane d’un esprit de liberté et de coopération.
  • Réalité : L’Open Source émane d’un esprit de compétition capitaliste.

L’Open Source, en tant que méthode de conception d’un logiciel, permet l’émergence de produits compétitifs sans les besoins en capitaux et main-d’œuvre inhérents aux méthodes traditionnelles de développement des logiciels propriétaires. La plupart des projets open source à succès sont conçus comme des substituts de logiciels propriétaires à succès. Il n’y a pas de coïncidence. La demande en logiciels propriétaires est aussi ce qui créée la demande pour des alternatives open source.

De plus, le succès d’un projet open source dépend de sa capacité à rivaliser avec l’alternative propriétaire. Le temps, c’est de l’argent. Les logiciels open source qui ne remplissent pas leur office ne font pas des bonnes affaires au final. Bien que certains choisiront le logiciel open source pour des raisons purement politiques, les clients rationnels se prononceront sur la base d’un bilan coûts/avantages.

Qualité essentielle n°2

  • Dilution : Les développeurs de logiciels open source travaillent gratuitement.
  • Réalité : Les développeurs de logiciels open source sont rémunérés.

Personne ne travaille sur des projets open source gratuitement. Peut-être un petit groupe de développeurs contribue t-il à des projets open source pour se distraire au lieu de collectionner des timbres par exemple. Il s’agit là d’une minorité. La plupart du travail open source est réalisé par des développeurs professionnels qui sont rémunérés à un tarif professionnel.

C’est forcément vrai, et ce pour deux raisons.

Premièrement, les développeurs ne sont pas altruistes. Comme n’importe qui d’autre sur le marché du travail, ce sont des acteurs rationnels, et bien payés avec ça. Il n’y a aucune raison pour que ces développeurs se consacrent au développement de logiciels open source moyennant un salaire de misère alors qu’il existe plein d’entreprises qui accepteraient de les payer pour le même travail.

Deuxièmement, ainsi que nous l’avons déjà mentionné, le logiciel open source ne peut réussir que s’il a les moyens de rivaliser avec les alternatives propriétaires. Et il ne peut rivaliser avec les logiciels propriétaires que s’il parvient à attirer des développeurs de même niveau. Et la seule façon d’attirer ces développeurs est de les rémunérer au prix du marché. De la même façon qu’il n’y a pas de déjeuner gratuit, il n’y a pas d’avantage de logiciel gratuit.

Qualité essentielle n°3

  • Dilution : L’Open Source rend les choses gratuites.
  • Réalité : L’Open Source redéfinit ce qui a de la valeur.

Les développeurs de logiciels open source ne travaillent pas gratuitement, mais il existe un corollaire à cette affirmation : les projets open source bénéficient, pour une valeur équivalente, à ceux qui financent ce travail de développement — habituellement les employeurs des développeurs.

Si vous croyez que les entreprises de technologies sont des acteurs rationnels de l’économie, vous avez certainement raison. Une société investira son capital dans les activités les plus rentables qu’elle pourra trouver. Si une entreprise finance des projets open source, elle en espère un retour sur investissement supérieur aux autres options.

Alors que les défenseurs des logiciels libres ou open source tentent parfois d’en illustrer l’idée avec ces comparaisons : libre comme dans « entrée libre » ou comme dans « expression libre » (NdT : « free as in beer » et « free as in speech », deux images souvent utilisées en anglais pour distinguer les deux sens du mot « free », respectivement gratuit et libre), un ingénieur de Red Hat me l’a un jour plus exactement décrit de cette façon : « gratuit comme un chiot ». Certes vous ne payez pas les logiciels open source. Mais vous ne bénéficiez pas des avantages habituels des logiciels propriétaires : facilité d’installation, support d’utilisation, documentation, etc. Soit vous payez avec votre temps, soit vous payez quelqu’un pour ces services. Le résultat est que le coût des services liés au logiciel est déplacé à l’extérieur du logiciel lui-même au lieu d’être inclus dans son prix. Mais ce coût est seulement déplacé, et non supprimé.

Qualité essentielle n°4

  • Dilution : Il n’y a pas de barrière pour participer à l’Open Source.
  • Réalité : L’Open Source s’appuie sur la méritocratie.

L’Open Source ne pourrait pas fonctionner sans un filtrage méritocratique. Ce principe découle de l’idée que l’Open Source est une méthode pour créer des produits compétitifs. Pour obtenir des résultats de haute qualité, les projets open source doivent mettre l’accent sur les contributions de haute qualité, et rejeter le reste. Les projets open source sont ouverts à tous dans le sens où n’importe qui peut suggérer des changements dans le code source. Mais ces changements peuvent toujours être rejetés ou annulés.

L’idée de l’Open Source est mal employée quand elle est appliquée à des projets qui n’ont pas ce filtrage méritocratique et auxquels n’importe qui peut contribuer. Ces projets sont plutôt décrit comme du « partage de fichiers ». Ce qui distingue la méthode open source est son appui sur une communauté de développeurs pour trouver les meilleures idées. Cela signifie donc que la plupart des idées sont rejetées.

Qualité essentielle n°5

  • Dilution : L’Open Source est démocratique.
  • Réalité : L’Open Source s’appuie sur des dictateurs bienveillants.

Les projets open source sont menés par des développeurs qui sont parfois appelés des « dictateurs bienveillants ». Habituellement il s’agit de ceux qui ont démarré le projet et qui sont considérés comme détenant la vision de l’avenir du projet.

Ils ne sont pas élus mais, d’un autre côté, il ne sont autorisés à rester au pouvoir que tant que les autres participants y consentent. C’est le principe de l’Open Source : n’importe qui peut récupérer le code source et l’utiliser pour démarrer un nouveau projet (cette pratique a pour nom le « forking »).

Cela arrive rarement. En fin de compte, les participants à un projet open source ont davantage à gagner à conserver le projet intact sous la direction d’un dictateur bienveillant plutôt que le fragmenter en de multiples projets. (notons ici encore l’influence des incitations rationnelles). De même, le dictateur a intérêt à rester bienveillant puisque le projet pourrait à tout moment se dérober sous ses pieds.

Qualité essentielle n°6

  • Dilution : Un projet open source peut n’avoir qu’un développeur.
  • Réalité : Un projet open source nécessite plusieurs développeurs.

Cette exigence découle de l’idée que l’Open Source est une méritocratie. Il ne peut y avoir de filtrage méritocratique si toutes les contributions viennent d’une seule personne. Parfois certains publieront leur projet personnel et annonceront « Hé, c’est maintenant open source ».

Cela ne le rend pas pour autant open source, pas plus qu’acheter un pack de bières et des chips suffisent à faire une soirée. Vous aurez toujours besoin d’invités. De même pour créer une pression méritocratique, les projets open source ont besoin de plusieurs développeurs (pour créer une émulsion d’idées) et d’un dictateur éclairé (pour choisir parmi ces idées). Sans cette pression, on a affaire à du partage de fichiers, pas de l’Open Source.

Qualité essentielle n°7

  • Dilution : Un projet logiciel peut devenir open source à tout moment.
  • Réalité : L’Open Source est inscrit dans l’ADN du projet ou ne l’est pas.

Comme l’Open Source rencontre un succès grandissant, de plus en plus de projets de logiciels propriétaires ont été « convertis » en logiciels open source. Cela revient à greffer des ailes à un éléphant dans l’espoir qu’il volera.

L’Open Source est une manière de produire des logiciels (entre autres). Cela inclut certaines valeurs et en exclut d’autres. Cela n’est ni intrinsèquement meilleur que le développement de logiciels propriétaires ni applicable à tous les projets. Mais la décision de développer un projet open source n’a du sens qu’au démarrage du projet. De cette manière, le dirigeant, la communauté des développeurs et le code pourront évoluer autour des ces principes.

Un projet propriétaire démarre avec des principes radicalement différents et évolue autour de ces principes. Et il ne pourra pas devenir plus tard un projet open source, pas plus qu’un éléphant ne peut devenir un aigle. Néanmoins, ceux qui convertissent des projets propriétaires en projets open source suggèrent le plus souvent que cela offre le meilleur des deux mondes : une manière de partager les bénéfices d’un développement propriétaire avec une communauté open source.

Mais cela offre presque toujours le pire des deux mondes : l’ouverture des sources n’est qu’une manière cynique d’exporter les problèmes d’un projet propriétaire. Malheureusement c’est ce qui se produit la plupart du temps car des projets propriétaires qui fonctionnent n’ont rien à gagner à devenir open source. Les développeurs n’adoptent pas votre technologie propriétaire ? Ramenez son prix à zéro et renommez le « Open Source ». Votre logiciel propriétaire est rempli de mystérieux bogues insolubles ? Rendez le « Open Source » et peut-être que quelqu’un d’autre résoudra ces problèmes. Votre technologie est sur le point de devenir obsolète car vous avez été trop lent à la mettre à jour ? Peut-être que la rendre open source allongera sa durée de vie. Les entreprises refourguent leurs logiciels à la communauté open source quand elles n’ont plus rien à perdre.

Cependant cette technique n’a jamais payé. Les projets open source qui fonctionnent ont appliqué cette méthodologie très tôt et s’y sont tenu. Le simple engagement en faveur de l’open source n’est pas un gage de succès bien qu’il soit nécessaire.


La plupart de mes explications ci-dessus ont été formulées en termes de développement logiciel. Mais ce message a une portée qui va au delà du simple logiciel. Je pense que « l’Open Source » vient du monde du logiciel, et restera certainement plutôt adapté à ce type de projet, mais il n’y a aucune raison à ce qu’il ne convienne pas à d’autres types de projets. C’est déjà ce qui se passe.

La principale difficulté est d’appliquer de façon méticuleuse et réfléchie le modèle open source. Au fur et à mesure que l’Open Source s’étend et s’éloigne de ses racines traditionnelles, il va devoir faire face à un risque grandissant de dilution. Encore une fois, je ne prêche pas une définition canonique de l’Open Source. Peut-être que le meilleur que nous pouvons espérer est que ceux qui souhaitent qualifier leur projet d’open source apprendront d’eux-mêmes les caractéristiques qui font le succès de ce type de projet. Si vous n’aimez pas mon résumé de ces qualités essentielles, alors apprenez-en suffisamment à propos de l’Open Source pour venir avec le vôtre. Et ne vous sentez pas obligé, ne prenez pas cela comme un devoir à la maison — faites cela dans votre propre intérêt.

Ça ne peut pas faire de mal de se pencher sur les autres projets open source pour comprendre comment ils ont réussi. Une fois cet examen réalisé, si vous voulez modifier les grands principes pour votre propre projet, allez-y ! Je ne m’en plaindrai pas.

Et accordez-moi une faveur : n’appelez pas cela Open Source.

Notes

[1] Crédit photo : UGArdener (Creative Commons By-Sa)




La nouvelle version 2 de la Mozilla Public License tend vers l’unité

Le 3 janvier dernier la Fondation Mozilla annonçait la sortie officielle de la version 2 de la Mozilla Public License.

C’est un évènement à saluer comme il se doit car cette nouvelle version rapproche les deux grandes familles de licences libres logicielles que sont les copyleft (comme la GPL) et les licences dites permissives (comme la BSD ou la MIT).

Pour résumer, on pourrait dire que la différence entre une licence libre avec copyleft et une licence libre qui en serait dépourvue, les premières forcent le code dérivé à rester libre alors que les secondes autorisent le code dérivé à être intégré à un produit fermé, non libre[1].

Tristan Nitot - CC by-nc-sa

Mozilla peut-elle apporter l’unité à l’open source ?

Can Mozilla Unify Open Source?

Simon Phipps – 6 janvier 2012 – ComputerWorld.uk
(Traduction Framalang : Don Rico e_Jim et Goofy)

La nouvelle licence open source de Mozilla est bien plus qu’un simple ravalement de façade. Elle pourrait créer de nouvelles possibilités pour l’unité de la communauté du Libre.

La première semaine de janvier 2012 marque un jalon discret mais important dans le mouvement de l’open source, grâce à la publication d’une deuxième version de la Mozilla Public License (MPLv2) et sa validation en tant que licence libre officielle au sens de l’Open Source Initiative (OSI). Quand bien même beaucoup n’y voient qu’un énième détail juridique, cette publication est importante à deux titres : le procédé par lequel on l’a élaborée, et l’objectif pour lequel on l’a créée. Il s’agit d’une licence qui a pour but l’unité.

Rédaction et révision de cette licence se sont déroulées selon un processus très ouvert, dans lequel Luis Villa a joué un rôle prépondérant. Organisé en majeure partie dans des forums publics, le débat a conduit à de nombreuses modifications du texte. Luis est entré en contact très tôt avec l’OSI, a intégré les retours du groupe de révision des licences, puis obtenu sans mal l’approbation du conseil d’administration.

D’autres articles sur cette nouvelle licence se sont concentrés sur les modifications de la partie « patent peace » (NdT: la paix des brevets) et autres ajustements des clauses (adieu, Netscape !), mais le changement le plus important apporté par la version 2 de la licence Mozilla est à mon sens l’inclusion d’une compatibilité particulière avec la GPL (GNU General Public License). Par le passé, le projet Mozilla jonglait avec un système complexe et peu clair de triple licence afin de composer avec les univers des licences copyleft et non copyleft. De manière générale, les autres utilisateurs de la MPL (et ses nombreux clones rebaptisés) ne prenaient pas cette peine, et par conséquent certains codebases se sont retrouvés exclus de toute collaboration possible avec l’immense univers des logiciels placés sous licence GPL.

Selon un procédé inédit que la Commission européenne a inauguré pour la Licence Publique de l’Union européenne (EUPL), la MPLv2 inclut des clauses permettant à un projet de stipuler, de façon optionnelle et explicite, sa compatibilité avec d’autres licences, en particulier celles de la famille GPL. À mes yeux, la MPLv2 représente une mise à jour d’envergure de la famille précédente des v1.x, justement grâce à cette compatibilité explicite avec la GPL, laquelle offre pour la première fois une passerelle praticable entre les paradigmes permissifs et copyleft. Elle ne satisfera pas les puristes des deux mondes, mais propose avec pragmatisme une nouvelle solution aux projets open source appuyés par des entreprises. Celles-ci pourront disposer d’une communauté qui produit du code sous licence permissive tout en fournissant à cette même communauté un moyen d’entretenir des relations avec d’autres communautés travaillant sur du code sous licence copyleft.

Avec le déclin continu du business model de la double licence (ce que d’aucuns nomment « exceptions commerciales au copyleft »), il devient de plus en plus évident que les licences permissives sont importantes pour les entreprises commerciales qui contribuent à l’open source. De la même façon, l’écosystème GPL ne disparaîtra pas, aussi les conceptions qui reposent sur une opposition idéologique – y compris celles qui prônent l’élimination de tout code sous GPL – sont néfastes pour toutes les entreprises

Je salue l’arrivée de la MPLv2, un pas en avant vers l’unification de la cause commune de nombreux développeurs open source. Bravo, Mozilla !

Notes

[1] Crédit photo : Tristan Nitot (Creative Commons By-Nc-Sa)




Mesures de R. Stallman pour une politique publique de promotion du logiciel libre

La « timidité » des pouvoirs publics vis-à-vis du logiciel libre est quelque chose qui en 2012 défie le bon sens.

Comme d’habitude avec Richard Stallman[1] c’est du sans concession mais je me prends à rêver que tous les candidats aux futures élections approuvent ces mesures et s’engagent en signant en bas de la page…

Au delà de ce crucial sujet de fond, ce billet a deux autres intentions. Rappeler l’existence du site Gnu.org qui accueille entre autres les écrits de Richard Stallman et de la Free Software Foundation et qui réalise un gros travail de traduction. Appeler à participer à la campagne de soutien dont il ne manque plus grand chose pour atteindre l’objectif fixé.

Christian Payne - CC by-nc-sa

Mesures à la portée des gouvernements pour promouvoir le logiciel libre

URL d’origine du document

Richard Stallman – GNU.org – version du 06 janvier 2012
Licence Creative Commons By-Nd

Cet article suggère des mesures pour une politique forte et résolue destinée à promouvoir le logiciel libre au sein de l’État, et à conduire le pays vers la liberté informatique.

La mission de l’État est d’organiser la société avec pour objectif la liberté et le bien-être du peuple. Un aspect de cette mission, dans le domaine informatique, est d’encourager les utilisateurs à adopter le logiciel libre.

L’État a besoin d’exiger le logiciel libre dans sa propre informatique pour garantir sa souveraineté dans ce domaine (c’est-à-dire le contrôle par l’État de son informatique). Les utilisateurs ont un droit légitime au contrôle de leur informatique, mais l’État est responsable envers les citoyens du maintien de son contrôle sur les travaux informatiques qu’il effectue pour eux. La plupart des activités de l’État se font actuellement par ce moyen, et son contrôle de ces activités dépend donc de son contrôle de son informatique. Lorsqu’il s’agit d’une agence dont la mission est cruciale, perdre ce contrôle sape la sécurité nationale.

La migration des organismes étatiques vers le logiciel libre peut fournir des bénéfices supplémentaires qui sont d’induire des économies budgétaires et de dynamiser l’industrie locale de support de logiciel.

Dans ce texte, « organismes étatiques » se réfère à tous les niveaux de gouvernement, et signifie les organismes publics y compris les écoles, les partenariats public-privé, les organismes en grande partie financés par l’État, et les sociétés « privées » contrôlées par l’État ou auxquelles l’État a attribué des privilèges ou des missions particulières.

Le domaine politique le plus important concerne l’éducation, dans la mesure où celle-ci détermine l’avenir d’une nation :

  • Les activités éducatives, du moins celles qui sont assurées par des organismes étatiques, doivent enseigner uniquement les logiciels libres (et donc ne devraient jamais conduire les élèves à utiliser un programme non libre), et devraient enseigner les raisons civiques de promouvoir le logiciel libre. Enseigner un programme non libre revient à enseigner la dépendance, ce qui est contraire à la mission de l’école.

Sont également cruciales les politiques publiques qui ont des conséquences sur le type de logiciel utilisé par les particuliers et par les organisations :

  • Les lois et les pratiques du secteur public doivent être modifiées afin de ne jamais obliger les particuliers ou les organisations à utiliser un programme non libre, ni les y pousser, même indirectement. Elles doivent aussi décourager les pratiques de communication et de publication qui impliquent de telles conséquences, y compris la gestion numérique des restrictions (DRM) EN).
  • Chaque fois qu’un organisme étatique distribue des logiciels au public, y compris des programmes inclus dans ses pages web ou exigés par elles, ces programmes doivent être distribués en tant que logiciels libres, et être aptes à fonctionner dans un environnement 100% libre.
  • Les sites web et les serveurs des organismes étatiques doivent être conçus pour fonctionner parfaitement dans des environnements 100% libres sur l’ordinateur de l’utilisateur.
  • Les organismes étatiques doivent utiliser uniquement les formats de fichier et les protocoles de communication qui sont bien pris en charge par le logiciel libre, et de préférence ceux dont les spécifications ont été publiées. (Nous n’énonçons pas cette règle en termes de « standards » parce qu’elle doit s’appliquer aux interfaces non standardisées aussi bien que standardisées.) Par exemple, ils ne doivent pas distribuer d’enregistrements audio ou vidéo dans des formats qui nécessitent de recourir à Flash ou à des codecs non libres, et les bibliothèques publiques ne doivent pas distribuer d’œuvres munies de dispositifs de gestion numérique des restrictions (DRM).

Plusieurs politiques affectent la souveraineté informatique de l’État. Les organes étatiques doivent exercer le contrôle de leur informatique, et ne pas céder celui-ci aux mains d’entités privées. Ces points s’appliquent à tous leurs ordinateurs, y compris les smartphones.

  • Tous les organismes étatiques doivent migrer vers le logiciel libre, et ne doivent installer ni continuer à utiliser aucun logiciel non libre, sauf exception temporaire. Une seule agence doit être compétente pour accorder ces dérogations temporaires, et seulement lorsque des raisons impérieuses sont démontrées. L’objectif de cette agence devrait être de réduire le nombre de ces exceptions à zéro.
  • Quand un organisme étatique finance le développement d’une solution informatique, le contrat doit exiger que ce soit une solution logicielle libre et capable de fonctionner dans un environnement 100% libre. Tous les contrats doivent l’exiger, de sorte que si les développeurs ne se conforment pas à cette exigence, leur ouvrage ne puisse être payé.
  • Quand un organisme étatique achète ou loue des ordinateurs, il doit choisir parmi les modèles qui se rapprochent le plus, dans leur catégorie de spécifications et capacités, d’un fonctionnement sans aucun logiciel privateur (non libre). L’État doit maintenir, pour chaque catégorie d’ordinateurs, une liste des modèles acceptables répondant à ce critère. Les modèles disponibles à la fois pour le public et l’État doivent être préférés aux modèles disponibles uniquement pour l’État.
  • L’État se doit de négocier activement avec les fabricants pour favoriser la disponibilité sur le marché (tant pour le public que pour l’État), dans tous les domaines pertinents, de produits matériels hardware appropriés qui ne nécessitent aucun logiciel privateur.
  • L’État devrait inviter d’autres États à négocier collectivement avec les fabricants la fourniture de produits matériels appropriés. Car ensemble ils auront plus de poids.

La souveraineté et la sécurité informatiques d’un État supposent le contrôle de l’État sur les ordinateurs effectuant des tâches de son ressort. Cela exige d’éviter le logiciel en tant que service (SaaS), à moins qu’il ne soit géré par une agence de l’État. (Cependant, pour respecter la séparation des pouvoirs, les travaux informatiques des services relevant respectivement de l’exécutif, du législatif et du judiciaire ne doivent pas être confiés à une agence relevant d’un autre pouvoir.) Plus généralement, cela exige d’éviter toute pratique qui diminuerait le contrôle exercé par l’État sur son informatique.

  • Tout ordinateur utilisé au service de l’État doit avoir été acquis ou loué par une entité relevant du même « pouvoir » (exécutif, législatif ou judiciaire) que l’administration utilisatrice ; aucune entité extérieure à ce pouvoir ne doit avoir le droit de décider qui a accès à l’ordinateur, qui peut en effectuer la maintenance (matérielle ou logicielle), ou quels logiciels doivent y être installés. Si l’ordinateur n’est pas portable, alors il doit être utilisé dans un espace dont l’État est propriétaire ou locataire.

Une autre politique concerne le développement de logiciels libres et non libres :

  • L’État doit encourager les développeurs à créer ou à améliorer le logiciel libre ainsi que tous ceux qui les mettent à disposition du public, par exemple au moyen d’exonérations fiscales ou de toutes autres incitations financières. Au contraire, aucune incitation ne doit être accordée pour le développement, la distribution ou l’utilisation de logiciels non libres.
  • En particulier, les développeurs de logiciels privateurs ne devraient pas être en mesure de « donner » des copies à des écoles et réclamer une déduction d’impôt basée sur la valeur nominale du logiciel. Les logiciels privateurs n’ont nulle légitimité dans les écoles.

Un tel train de mesures doit permettre à l’État de recouvrer le contrôle et la souveraineté de son informatique, ainsi que d’amener les citoyens, les entreprises et les organisations du pays à prendre le contrôle de leur informatique.

Notes

[1] Crédit photo : Christian Payne (Creative Commons By-Nc-Sa)




Blackout de la Wikipédia en anglais pour protester contre SOPA le 18 janvier 2012

« Chers étudiants, faites vos devoirs à la maison avant mercredi car Wikipédia sera coupé du Net ce jour-là ». Tel est le tweet ironique envoyé par Jimmy Wales pour annoncer la fermeture totale de la version anglophone de Wikipédia demain, mercredi 18 janvier 2012, pour protester contre les mortifères lois SOPA et PIPA.

Ce n’est évidemment pas lui seul qui a pris cette grave et sans précédente décision mais l’ensemble de la communauté, comme l’explique le message de la directrice générale de la Wikimedia Foundation Sue Gardner traduit ci-dessous par nos soins.

Signalons que Framasoft se joindra également au mouvement, non seulement en guise de solidarité mais aussi voire surtout parce que nous pensons que ces lois américaines (à l’influence internationale) sont susceptibles d’impacter négativement l’ensemble d’Internet. Nous avions consacré une série d’articles à SOPA en décembre dernier (voir aussi le dossier de La Quadrature).

À priori les wikipédias italiennes et allemandes participeront également, ne serait-ce que par un bandeau informatif, mais pas la francophone. Il semblerait que la communauté se soit réveillée trop tard pour en discuter, que pour certains ces lois sont lointaines et cet engagement « politique » en désaccord avec « le principe de neutralité ».

C’est respectable mais pour ainsi dire dommage car il s’agit là d’un signal fort (et une bonne manière de sensibiliser d’un coup un grand nombre de personnes), sans oublier pragmatiquement que la majorité des serveurs sont aux USA et que ces lois peuvent brutalement couper les accès de la Wikipédia francophone aux Américains.

Wikipédia Blackout

Blackout anti SOPA de la Wikipedia en anglais le 18 janvier

English Wikipedia anti-SOPA blackout

Sue Gardner, 16 janvier 2012 – Wikimedia Foundation
(Traduction Framalang : Clochix, Poupoul2, DonRico)

Aujourd’hui, la communauté Wikipedia a décidé de fermer la version anglophone de Wikipedia pour vingt-quatre heures, dans le monde entier, à partir de 5h UTC le mercredi 18 janvier. Cette fermeture est un acte de protestation contre deux propositions de loi aux USA – le Stop Online Piracy Act (SOPA) présentée à la Chambre des représentants, et le PROTECTIP Act (PIPA) au Sénat – qui, si elles étaient votées, endommageraient gravement l’Internet libre et ouvert, dont Wikipedia.

Ce sera la première fois que la Wikipedia anglophone manifestera ainsi, et cette décision n’a pas été prise à la légère. Voici comment la présentent les trois administrateurs de Wikipedia qui ont animé la discussion de la communauté, au travers d’un extrait de la déclaration publique signée par NuclearWarfare, Risker et billinghurst :

La communauté de la Wikipedia anglophone estime que ces deux lois, si elles étaient votées, seraient dévastatrices pour le Web libre et ouvert.

Au cours des dernières soixante-douze heures, plus de 1.800 Wikipédiens ont participé à une discussion visant à définir les actions que la communauté pourrait vouloir entreprendre contre SOPA et PIPA. C’est de loin le plus fort niveau de participation à un débat jamais vu sur Wikipedia, et cela illustre combien les Wikipédiens se sentent concernés par ces propositions de lois. L’écrasante majorité des participants est favorable à une action de la communauté afin d”encourager une participation plus générale de la population contre ces deux lois. Parmi les propositions étudiées par les Wikipédiens, ce sont celles qui conduiraient à un « blackout » de la Wikipedia anglophone, conjointement avec des blackout similaires d’autres sites opposés à SOPA et PIPA, qui ont reçu le plus de soutien.

Après un passage en revue détaillé de ce débat, les administrateurs chargés de le clore constatent un soutien solide des Wikipédiens du monde entier, et pas seulement aux États-Unis, en faveur d’une action. L’opposition principale à un blackout généralisé du réseau Wikipedia venait de membres de la communauté préférant que le blackout se limite aux visiteurs américains, et que le reste du monde ne voie s’afficher qu’un simple bandeau d’explication. Nous avons néanmoins relevé qu’environ 55% des Wikipédiens en faveur du blackout préféraient une action mondiale, nombre d’entre eux faisant part d’inquiétudes concernant des lois similaires dans d’autres pays.

En prenant cette décision, les Wikipédiens essuieront des critiques pour avoir abandonné leur neutralité et pris un position politique. C’est une question justifiée et légitime. Nous souhaitons que les internautes accordent leur confiance à Wikipedia, et ne craignent pas d’être soumis à une quelconque propagande.

Mais bien que les articles de Wikipedia soient neutres, son existence ne l’est pas. Comme l’a écrit récemment Kat Walsh, qui appartient au conseil d’administration de la Wikimedia Foundation, sur une de nos listes de discussion :

Nous dépendons d’une infrastructure légale qui nous permet de publier nos sites. Et nous dépendons d’une infrastructure légale qui permet aussi à d’autres sites d’héberger du contenu produit par les utilisateurs, qu’il s’agisse d’information ou d’avis personnels. Le rôle principal des projets Wikimedia consiste à organiser et rassembler le savoir mondial. Nous l’intégrons dans son contexte et permettons à nos visiteurs de le comprendre.

Mais ce savoir doit être publié à un endroit où tout un chacun peut y accéder et l’utiliser. Si ce contenu pouvait être censuré sans autre forme de procès, cela serait néfaste pour qui veut exprimer son opinion, pour le public, et pour Wikimedia. Si l’on ne peut s’exprimer que si l’on a les moyens d’affronter des défis juridiques, ou si une opinion doit être approuvée au préalable par quelqu’un qui les a, on ne trouvera plus sur internet qu’un même ensemble d’idées consensuelles.

La décision d’éteindre la Wikipedia anglophone ne vient pas que de moi – elle a été prise collégialement par de nombreux éditeurs du réseau. Et je la soutiens.

Comme Kat et le reste du conseil d’administration de la Fondation Wikimedia, je considère de plus en plus la voix publique de Wikipedia et la bonne volonté que les gens ont pour Wikipedia comme une ressource qui doit être utilisée pour le bénéfice du public. Les lecteurs font confiance à Wikipedia parce qu’ils savent que malgré ses erreurs, Wikipedia a le cœur au bon endroit. Wikipedia n’a pas pour but de monétiser leurs visites ou de leur faire croire quoi que ce soit de particulier, ni même de leur vendre un produit. Wikipedia n’a pas de programme secret : elle veut seulement être utile.

C’est moins vrai pour d’autres sites. La plupart ont des motivations commerciales : leur objectif est de gagner de l’argent. Cela ne signifie pas qu’ils n’ont pas le souhait de rendre le monde meilleur (beaucoup le font), mais que leurs positions et leurs actions doivent être envisagés dans un contexte d’intérêts contradictoires.

Je nourris l’espoir que, lorsque Wikipedia fermera le 18 janvier, les internautes comprendront que nous le faisons pour nos lecteurs. Nous soutenons le droit de chacun à la liberté d’opinion et à la liberté d’expression. Nous estimons que tout le monde devrait avoir accès à du matériel éducatif pour un large éventail de sujets, même s’ils ne peuvent pas le payer. Nous croyons à un internet libre et ouvert où l’information peut être partagée sans entrave. Nous croyons que des propositions de loi telles que SOPA ou PIPA, ou d’autres lois similaires en cours de discussion à l’intérieur ou à l’extérieur des États-Unis, ne font pas avancer les intérêts du grand public. Vous pourrez prendre connaissance ici d’une liste de très bonnes raisons de vous opposer à SOPA et PIPA, proposée par l’Electronic Frontier Foundation.

Pourquoi une action globale, et pas limitée aux seuls États-Unis ? Et pourquoi maintenant, si certains législateurs américains semblent adopter une tactique de retrait vis à vis de SOPA ?

La réalité, à notre sens, c’est que le Congrès ne renoncera pas à SOPA, et que PIPA est toujours en pleine forme. Qui plus est, SOPA et PIPA ne sont que les indicateurs d’un problème bien plus important. Partout dans le monde, nous observons la mise en place de réglementations destinées à combattre le piratage et à réguler internet d’autres manières, avec pour effet de nuire aux libertés numériques. Notre inquiétude ne se limite pas à SOPA et PIPA, qui ne sont que des éléments du problème. Nous voulons que l’internet demeure libre et ouvert, partout dans le monde, et pour tous.

Le 18 janvier, nous espérons que vous partagerez notre engagement et que vous ferez tout votre possible pour faire entendre votre voix.

Sue Gardner




Stallman avait malheureusement raison depuis le début

Nur Hussein - CC by-saLe cauchemar paranoïaque et apocalyptique d’un geek psychorigide est en passe de devenir réalité.

Trente ans, trente ans que Stallman et la Free Software Foundation répètent inlassablement qu’il est fondamental que ce soit l’homme qui contrôle le logiciel, et donc la machine, et non l’inverse.

Le discours est peut-être radical sur le fond (car il ne souffre d’aucune compromission) et parfois excentrique dans la forme (le personnage Richard Stallman[1]) mais, comme Thom Holwerda ci-dessous, nous sommes de plus en plus nombreux à réaliser sa justesse et sa pertinence au fur et à mesure que le temps passe et les libertés s’amenuisent.

C’est d’ailleurs aussi voire surtout pour cela que nous avions traduit et enrichi avec lui sa biographie où figure en exergue cette citation de Lessig qui, cela dépend de nous, peut tout aussi bien être prémonitoire que tomber dans l’oubli :

« Chaque génération a son philosophe, écrivain ou artiste qui saisit et incarne l’imaginaire du moment. Il arrive que ces philosophes soient reconnus de leur vivant, mais le plus souvent il faut attendre que la patine du temps fasse son effet. Que cette reconnaissance soit immédiate ou différée, une époque est marquée par ces hommes qui expriment leurs idéaux, dans les murmures d’un poème ou dans le grondement d’un mouvement politique. Notre génération a un philosophe. Ce n’est ni un artiste ni un écrivain. C’est un informaticien. »

Remarque : On notera que l’auteur fait référence à une récente et marquante conférence de Cory Doctorow qui affirme l’importance de gagner la guerre actuelle contre le copyright, prélude, ni plus ni moins selon lui, à une future éventuelle guerre totale contre le Net et donc les citoyens. Nous aurons l’occasion d’en reparler car notre fine équipe Framalang a prévu son sous-titrage.

Richard Stallman avait raison depuis le début

Richard Stallman Was Right All Along

Thom Holwerda – 2 janvier 2012 – OSNews.com
(Traduction Framalang : Lolo le 13, Goofy, Slystone, e-Jim, Pandark et Clochix)

À la fin de l’année dernière, le président Obama a signé une loi qui permet de maintenir indéfiniment en détention des gens soupçonnés de terrorisme sans la moindre forme de procès ou de jugement en bonne et due forme. Les manifestants pacifiques des mouvements Occupy du monde entier ont été qualifiés de terroristes par les autorités. Des initiatives comme SOPA promeuvent une surveillance constante de tous les canaux de communication.

Il y a trente ans, lorsque Richard Stallman a lancé le projet GNU, et pendant les trois décennies qui ont suivi, ses vues radicales et parfois extrêmes ont été raillées et méprisées comme étant de la paranoïa — mais nous y voici, en 2012, et ses suppositions paranoïaques sont devenues réalité.

Jusqu’à récemment, il était facile d’écarter Richard Stallman en le qualifiant de fanatique paranoïaque, quelqu’un qui avait depuis longtemps perdu le contact avec la réalité. Une sorte d’éternel hippie des ordinateurs, la personnification parfaite de l’archétype du nerd vivant retiré du monde dans le garage d’une maison. Sa barbe, ses cheveux, sa tenue — dans notre monde d’apparences, il était très facile de l’écarter.

Ses positions ont toujours été extrêmes. Son unique ordinateur est un netbook Lemote Yeelong, car c’est le seul ordinateur qui n’utilise que des logiciels libres — pas de binaires dans le firmware, pas de BIOS propriétaire ; il est complètement libre. Il refuse également de posséder un téléphone portable, car ils sont trop simples à pister. En attendant qu’il existe un téléphone mobile équivalent au Yeelong, Stallman ne veut pas en posséder.

En règle générale, tous les logiciels devraient être libres. Ou, comme le dit la Free Software Foundation :

À mesure que notre société devient plus dépendantes des ordinateurs, les logiciels que nous utilisons sont d’une importance critique pour sécuriser l’avenir d’une société libre. Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller.

J’ai, moi aussi, ignoré Richard Stallman que je jugeais trop extrême. Le logiciel libre pour combattre les gouvernements qui contrôlent et espionnent ? Des entreprises démoniaques prêtes à prendre le contrôle du monde ? Le logiciel comme outil pour surveiller les canaux de communication privés ? Ok, je suis d’accord, le logiciel libre est important, et je le choisis à chaque fois qu’il implémente les mêmes fonctionnalités que les solutions propriétaires, mais de là à croire et adhérer aux sornettes de Stallman et de la FSF…

Or nous y voici.

Nous sommes au début de 2012 et Obama a signé le NDAA, qui autorise la rétention indéfinie de citoyens américains sans aucune forme de jugement ou de procès, simplement parce qu’ils sont suspectés de terrorisme. Au même moment, nous avons la loi SOPA, qui, si elle passe, mettrait en place un système dans lequel les sites peuvent être débranchés du Web, une fois encore sans la moindre forme de jugement ou de procès, tout en autorisant également la surveillance du trafic Internet. Combinez cela avec la façon dont les autorités ont qualifié de terroristes les mouvements Occupy et vous pouvez voir où cela nous amène.

Au cas où ça vous rappelle la Chine et des régimes totalitaires similaires, vous n’êtes pas le seul. Même l’Association du Cinéma d’Amérique, la MPAA, clame fièrement que ce qui fonctionne en Chine, Syrie, Iran et dans d’autres pays devrait fonctionner aux États-Unis. La Grande Muraille pare-feu de Chine et les systèmes de filtrage similaires sont glorifiés et cités en exemple dans ce qui est supposé être le monde libre.

Le nœud du problème ici est qu’à la différence de jadis, à l’époque où les régimes répressifs avaient besoin de réseaux compliqués de police secrète et d’informateurs pour surveiller les communications, tout ce dont ils ont besoin à présent est de contrôle sur le logiciel et le matériel que nous utilisons. Nos ordinateurs de bureau, nos portables, nos tablettes, nos smartphones, et toutes sortes de terminaux jouent un rôle dans pratiquement toutes nos communications. Vous pensez être à l’abri lorsque vous communiquez en face-à-face ? Réfléchissez-y à deux fois. Comment avez-vous préparé la rencontre ? Au téléphone ? Via le Web ? Et qu’est-ce que vous avez dans votre poche ou votre sac, toujours connecté au réseau ?

C’est contre cela que Stallman nous a mis en garde pendant toutes ces années — et la plupart d’entre nous, moi compris, ne l’ont jamais réellement pris au sérieux. Cependant, à mesure que le monde change, l’importance de la possibilité de vérifier ce que fait le code dans vos terminaux — ou de le faire faire par quelqu’un d’autre si vous n’en avez pas les compétences — devient de plus en plus évidente. Si nous perdons la possibilité de vérifier ce que font nos ordinateurs, nous sommes foutus.

C’est au cœur de ce que croient la Free Software Foundation et Stallman : que le logiciel propriétaire enlève à l’utilisateur le contrôle sur la machine, ce qui peut avoir des conséquences désastreuses, en particulier à présent que nous dépendons des ordinateurs pour à peu près tout ce que nous faisons. Le fait que Stallman l’ait prévu il y a près de trois décennies est remarquable, et donne raison à son activisme.

Et en 2012, nous allons avoir plus que jamais besoin de logiciels libres. Au récent Chaos Computer Congress de Berlin, Cory Doctorow a donné une conférence intitulée La guerre à venir sur l’informatique généraliste (NdT : The Coming War on General Purpose Computation). À cette occasion, Doctorow nous informa que l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi actuel. La guerre du copyright ? Rien de plus qu’un prélude à la vraie guerre.

« En tant que membre de la génération Walkman, j’ai accepté le fait que j’aurai sûrement bientôt besoin d’implants auditifs, et, bien sûr, il ne s’agira pas de prothèses au sens classique, mais bien d’un ordinateur implanté dans mon corps », explique Doctorow. « Donc, lorsque je rentre dans ma voiture (un ordinateur dans lequel j’insère mon corps) avec mes audioprothèses (un ordinateur que j’insère dans mon corps), je veux être certain que ces technologies n’ont pas été conçues de manière à me cacher des choses, ni à m’empêcher de mettre fin à des processus qu’elles exécutent et qui nuiraient à mes intérêts ».

Et ceci est vraiment le coeur de la problématique. À partir du moment où les ordinateurs s’occupent de choses comme l’audition, la conduite automobile, et bien d’autres choses encore, nous ne pouvons plus nous permettre d’être privés d’accès à leur code. Nous devons avoir un droit de regard sur leur fonctionnement interne et pouvoir comprendre ce qu’ils font, afin de nous assurer que nous ne sommes pas surveillés, filtrés ou manipulés. Il y a peu, j’aurais encore affirmé que tout ceci n’est que pure paranoïa, mais avec tout ce qui se passe ces derniers temps, ce n’est plus de la paranoïa. C’est la réalité.

« À l’avenir, la liberté exigera de nous que nous ayons la capacité de surveiller nos appareils, de leur imposer ce que nous voulons qu’ils fassent, de définir une politique éthique et sensée pour leur utilisation, d’examiner et de pouvoir choisir et mettre fin aux processus qu’ils exécutent, afin qu’ils restent nos fidèles serviteurs, et non des traîtres et des espions à la solde de criminels, de voyous et d’obsédés du contrôle, qu’ils soient individus, États ou multinationales », nous avertit Doctorow, « Nous n’avons pas encore perdu, mais il nous faut gagner la guerre du Copyright afin de garder Internet et nos ordinateurs libres et ouverts. Parce que ces derniers sont les armes des guerres à venir, nous serons incapables de nous battre sans eux. »

Voilà pourquoi vous devriez soutenir Android (pas Google, mais Android), même si vous préférez l’iPhone. Voilà pourquoi vous devriez soutenir Linux, même si vous utilisez Windows. Voilà pourquoi vous devriez soutenir le serveur Web Apache, même si vous utilisez Microsoft IIS. Il va arriver un moment où être libre et ouvert ne sera plus seulement un avantage amusant, mais une nécessité.

Et ce moment approche beaucoup plus rapidement que vous ne le pensez.

Notes

[1] Crédit photo : Nur Hussein (Creative commons By-Sa)




Le changement le plus important dans la courte histoire de Wikipédia ?

Rappelant que le pouvoir de transformation est désormais entre les mains de ceux qui codent, c’est la venue prochaine d’une simple modification technique que The Economist n’hésite pas à qualifier de « changement le plus important dans la courte histoire de Wikipédia ».

Il s’agit de la très attendue amélioration de l’interface d’édition des articles de l’encyclopédie qui passera bientôt en mode WYSIWYG (voir tout de suite ici ce que cela donne en avant-première). L’espoir est alors d’abaisser la barrière à l’entrée pour voir arriver de nouveaux contributeurs, au moment même où l’on constate si ce n’est une érosion tout du moins une stagnation de la participation.

Parce qu’il est vrai que lorsque l’on a la curiosité de pousser pour la première fois le bouton « Modifier » d’un article (et de basculer alors dans un autre monde possible), on se retrouve face à un déroutant mélange de texte et de balises complexes à appréhender. Tellement complexes que certains pouvent abandonner avant même d’avoir pu commencer, laissant alors la place aux seuls téméraires, un peu geeks sur les bords, qui ont eux réussi à franchir l’obstacle.

Mais attention, l’opération comporte aussi ses risques. Un afflux massif de nouveaux contributeurs implique d’être capable de les accueillir comme il se doit et d’être patient et tolérant face aux inévitables erreurs commises lors des premières tentatives. Ce sera un test pour le beau et fameux principe wikipédien qui suppose la bonne foi de tous. La démocratisation n’est évidemment pas synonyme de médiocrité mais elle impactera forcément la situation et la culture de ceux qui étaient là avant.

Un peu comme quand Ubuntu a débarqué sans crier gare dans le monde tranquille des distributions GNU/Linux 😉

Wikipédia Visual Editor

Des changements chez Wikipedia – Voir les choses

Changes at Wikipedia – Seeing things

Babbage – 13 décembre 2011 – The Economist
(Traduction Framalang : Lolo le 13, Goofy, Clochix, e-Jim et Martin)

Wikipédia vient tout juste de révéler la première version de sa nouvelle interface d’édition visuelle. Nous avons vu une avant-première de la nouvelle interface (à tester d’ores et déjà ici) avant qu’elle ne soit mise en ligne et ce ne sera pas exagérer que de dire que ce sera le changement le plus important dans la courte histoire de Wikipédia. L’espoir est qu’éditer l’encyclopédie en ligne avec un éditeur visuel deviendra aussi facile qu’écrire sur son blog ou sur Facebook et ne sera plus réservé à une minorité d’initiés seuls capables de comprendre le chinois des balises du code.

Pour le moment, l’éditeur visuel n’est encore qu’un prototype, ou la démo d’une démo, à la seule intention des développeurs et des testeurs pour le permettre d’apporter les dernière améliorations. Les options sont limitées à l’utilisation de listes préformatées et d’insertion de gras, d’italiques et de liens. Il y a aussi un menu déroulant avec une liste des formats des paragraphes (cf image ci-dessus) qui fait oublier le besoin de marquer explicitement les titres par la balise adéquate. Les utilisateurs avancés ont aussi la possibilité de voir les changements qu’ils opérent dans la wikisyntaxe, le HTML ou le JSON (une sorte de JavaScript allégé). Tout ce qui concerne les images et le reste seront inclus dans les versions ultérieures, avant le début de l’intégration officielle dans Wikipédia prévue en juin 2012. Wikipédia affirme que c’est le projet technique le plus stimulant qu’ils aient pu entreprendre.

Le nouvel éditeur s’avère nécessaire pour une simple et bonne raison : le nombre de contributeurs actifs sur la version anglaise est en déclin après avoir atteint son apogée en 2007. En accord avec le plan annuel 2011-2012 de la Wikimedia Foundation (l’organisation qui fait tourner Wikipédia), « le déclin de la participation est de loin le problème le plus sérieux auquel le projet Wikimedia fait face ». L’éditeur visuel est une « solution évidente » qui fait partie d’un projet de développement de nouvelles fonctionnalités soutenu à hauteur d’un million de dollars. C’est un changement qui était prévu depuis longtemps.

La nuit avant qu’ils créent Wikipedia, le 15 juillet 2001, ni Jimmy Wales ni Larry Sanger n’avait entendu parler d’un wiki. Lorsqu’on présenta l’idée à Sanger, il fut impressionné par sa simplicité, et écrivit qu’il s’agissait du format simple et ouvert ULTIME (les majuscules sont de lui). A cette époque, les wikis semblaient révolutionnaires et ils l’étaient effectivement. Ils représentaient un moyen simple d’éditer et mettre directement en ligne des pages Web en s’affranchissant de la connaissance du code HTML. Le balisage était toujours là mais il avait été fortement simplifié et allégé.

Mais c’était il y a longtemps, bien avant que votre grand-mère ne se crée un compte Facebook. Dix ans plus tard, la population connectée s’est élargie au point d’inclure la plupart des êtres humains (du moins, dans les pays industrialisés) et les internautes se sont de plus en plus habitués aux interfaces graphiques et ergonomiques. Aujourd’hui, le langage wiki semble impénétrable pour la majorité d’entre eux, ou à tout le moins faire l’effort de l’apprendre et le maîtriser ne semble pas valoir le coup. « Lors de la création de Wikipédia, tout était difficile sur Internet. Nous n’étions pas plus compliqués que les autres, bien au contraire. Mais aujourd’hui, la plupart des interactions en ligne sont plus faciles que l’édition d’un article d’un wiki, et cela crée une barrière à l’entrée qui n’est bénéfique à personne », explique Sue Gardner, directrice exécutive de la Fondation Wikimédia.

Imaginons que l’édition de pages Web soit un vaste espace ouvert dans lequel vous pouvez vous promener sans restriction de n’importe quelle direction. Alors Facebook est une ligne de tram, confortable et structurée mais restreignant les destinations possibles de ceux qui l’utilisent. Les wikis sont se situe entre les deux : la liberté de se déplacer est potentiellement là mais elle demande un apprentissage et une expérience pour pouvoir en jouir pleinement. Vous pouvez vous les réprésenter comme un réseau de sentiers et des pistes cyclables sur lesquels votre itinéraires dépend des besoins spécifiques de votre voyage. La syntaxe wiki prenait pour acquis que les utilisateurs connaissaient peu ou prou la configuration du terrain. La mise en place d’un éditeur visuel revient alors à distribuer des cartes à l’entrée.

La Fondation espère que cela va amener une nouvelle vague de contributeurs, dont « le succès du projet dépend entièrement ». Attention cependant car ce progrès a ses pièges. La dernière arrivée massive, en 2006-07, n’a pas été forcément bien traitée par les anciens contributeurs, qui n’ont pas pu, su ou voulu gérer cette arrivée soudaine. Incapables d’aider ou d’orienter correctement ces nouveaux éditeurs que Mme Gardner qualifie de « bien intentionnés mais nuls », ils ont érigé des barrières sous la forme de bannières d’avertissement et de réponses automatiques.

Cette fois-ci, la Fondation va faire les choses différemment. Comme pour l’édition des articles, les contributeurs n’auront plus besoin de connaître de codes secrets pour distribuer des « wikilove », ces médailles virtuelles qui félicitent les contributeurs pour la qualité de leur travail. Un nouvel outil rendra également plus simple la distribution d’étoiles et de badges, qui sont un moyen d’encourager les nouvelles recrues. Difficile de prédire si cela sera suffisant. Mais si les choses de déroulent bien, les fameux pionniers, vieux éditeurs grognons de Wikipédia, auront à nouveau du pain sur la planche.