Vers une société contributive de pair à pair -2

Et si le pair-à-pair devenait le modèle et le moteur d’une nouvelle organisation sociale ? – Deuxième volet de la réflexion de Michel Bauwens (si vous avez raté le début, c’est par ici).

Source : Blueprint for P2P Society par Michel Bauwens

Traduction Framalang : Fabrice, goofy, jums, CLC, avec l’aimable contribution de Maïa Dereva.

2. Les relations entre la communauté et la coalition d’entrepreneurs

Quelles sont les relations entre cette coalition d’entrepreneurs et les communs dont ces entrepreneurs retirent leur valeur ? La coalition subvient aux besoins vitaux des « commoners » et soutient parfois financièrement l’institution à but lucratif. IBM, par exemple, verse un salaire aux développeurs/commoners qui contribuent à l’environnement Linux ainsi que des aides à l’association à but non lucratif (la Fondation Linux). Ainsi, les coalitions entrepreneuriales co-produisent et financent les biens communs sur lesquels leur succès est bâti.

Il est vrai qu’en agissant de la sorte, ils font par ailleurs de Linux un « commun d’entreprises », comme l’a expliqué Doc Searls :

Le rédacteur en chef du Linux Journal explique que « Linux est devenue une entreprise économique commune (une joint venture) composée d’un certain nombre de sociétés, tout comme Visa est une entreprise commune à un certain nombre de sociétés financières. Comme le montre le rapport de la Fondation Linux, ces sociétés participent au projet pour des raisons commerciales diverses et variées ».

Dans un rapport de la Fondation Linux sur le noyau de Linux, il est dit clairement :

Plus de 70 % des développements du noyau sont visiblement réalisés par des développeurs qui sont rémunérés pour ce travail. Plus de 14 % vient de contributions de développeurs qui sont connus pour ne pas être rémunérés et être indépendants, et 13 % sont produits par des gens qui peuvent ou non être rémunérés, donc la contribution faite par des travailleurs rémunérés peut atteindre jusqu’à 85 %. Par conséquent, le noyau Linux est largement produit par des professionnels, et non par des bénévoles.

Mais ce n’est pas là toute l’histoire. Thimothy Lee explique que la transformation de Linux en entreprise n’a pas changé son modèle d’organisation sous-jacente:

… l’important est la manière dont les projets open source sont organisés en interne. Dans un projet logiciel traditionnel, il y a un responsable projet qui décide des fonctionnalités dont bénéficiera le produit, et affecte du personnel pour travailler sur ces différentes fonctionnalités. En revanche, personne ne dirige le développement général du noyau Linux. Oui, Linus Torvalds et ses lieutenants décident quels correctifs iront finalement dans le noyau, mais les employés de Red Hat, IBM et Novell qui travaillent sur le noyau Linux ne reçoivent pas d’ordre de leur part. Ils travaillent sur ce qu’ils (et leurs clients respectifs) pensent être le plus important, et la seule autorité que possède Torvalds est celle de décider si le correctif qu’ils soumettent est suffisamment bon pour être intégré au noyau.

Clay Shirky, auteur de « Here Comes Everybody: The Power of Organizing Without Organisations [NdT : Voici venir tout le monde: le pouvoir de s’organiser sans les organisations] souligne que les entreprises qui travaillent avec Linux, comme IBM, « ont abandonné le droit de gérer les projets pour lesquels ils payent, et que leurs concurrents ont accès immédiatement à tout ce qu’ils font. Ce n’est pas un produit IBM. »

C’est donc là où je veux en venir : même avec des sociétés d’actionnaires alliées à la production entre pairs, la création de valeur de la communauté reste toujours au cœur du processus, et la coalition entrepreneuriale, jusqu’à un certain point, suit déjà cette nouvelle logique, dans laquelle la communauté prime, et où le business est secondaire. Dans ce modèle, la logique d’entreprise doit s’accommoder de la logique sociale. En d’autres termes, c’est avant tout une « économie éthique ».

D’après une diapositive exposée par M. Dereva à l’occasion de la manifestation Le cloud de Numerique en Commun[s] – sept. 2018 (CC BY-NC-SA 4.0)
3. La logique démocratique des institutions à but lucratif

La production entre pairs repose aussi sur une infrastructure de coopération parfois coûteuse. Wikipédia n’existerait pas sans le financement de ses serveurs, pas non plus de logiciel libre ou de matériel ouvert sans mécanisme de support similaire. C’est pour cela que les communautés open source ont créé une nouvelle institution sociale : les associations à but lucratif.

Encore une fois, c’est une innovation sociale importante car, contrairement aux institutions à but non-lucratif ou non-gouvernementales, elles ne fonctionnent pas du point de vue de la rareté. Les ONG classiques fonctionnent encore comme d’autres institutions industrielles à l’instar de l’entreprise ou de l’état-marché, car elles estiment que les ressources doivent être mobilisées et gérées.

À l’inverse, celles qui ont un but lucratif ont uniquement un rôle actif qui permet et favorise la coopération au sein de la communauté, qui fournit les infrastructures, sans pour en diriger les processus de production. Ces associations existent dans le seul but de bénéficier à la communauté dont elles sont l’expression, et c’est la bonne nouvelle, elles sont souvent gérées de manière démocratique. Et elles doivent l’être, car une institution non démocratique découragerait les contributions de sa communauté de participants.

Maintenant, le hic est de savoir comment appeler une institution responsable du bien commun de tous les participants, en l’occurrence, pas les habitants d’un territoire, mais les personnes impliqués dans un projet similaire ? Je rétorquerais que ce type d’institution à but lucratif possède une fonction très similaire aux fonctions normalement dévolues à l’État.

Bien que la forme étatique soit toujours aussi une institution de classe qui défend un arrangement particulier de privilèges sociaux, elle ne peut jamais être un simple instrument de règle de privilégié à elle seule, mais doit aussi gérer le commun. Si l’on considère cette dernière option, la plupart des gens la verrait comme acceptable, voire bonne. En revanche, si l’on considère que l’État échoue dans cette gestion, alors il perd sa légitimité et il est vu de plus en plus comme une source d’oppression par une minorité.

En général, un État reflète l’équilibre des forces à l’œuvre dans une société donnée. L’État providence était une forme acceptable puisqu’il reposait sur un compromis et sur la force d’un puissant mouvement de travailleurs ouvriers, alors que « la peur de Dieu » était instillée dans les milieux privilégiés par la possibilité d’un modèle alternatif d’État qui aurait pu faire disparaître la loyauté de leurs citoyens.

Cette alternative s’est effondrée en 1989, et avec elle les mouvements sociaux occidentaux. Elle a d’autant plus été affaiblie par les choix sociaux, politiques et économiques de désindustrialiser le Nord depuis les années 1980. Depuis, l’État providence a peu à peu laissé sa place à l’État providence contemporain des multinationales (parfois appelé « l’État marché »), qui aide uniquement les privilégiés, détruit les mécanismes de solidarité sociaux, et appauvrit la majorité de la population, et a fortiori affaiblit fatalement la classe moyenne.

Malheureusement, un tel système ne peut avoir aucune une légitimité à long terme, et rompt tout contrat social qui peut garantir la paix sociale. Il est compliqué d’établir une loyauté sur la perspective d’une souffrance toujours plus grande !

Cela signifie que nous assistons non seulement à la mort réelle de l’État providence social, mais aussi à la mort et à l’impossibilité logique de l’État-marché. Nous pourrions ajouter que même l’État providence est devenu problématique. La raison principale en est que sa base sociale, la classe ouvrière occidentale et ses mouvements sociaux, sont devenues des minorités démographiques en Occident, et que ses mécanismes, même lorsqu’ils fonctionnaient, ne contribueraient pas beaucoup à aider la majorité sociale actuelle, c’est-à-dire les travailleurs de la connaissance et des services, souvent indépendants et précaires.

De plus, le fonctionnement paternaliste et bureaucratique de beaucoup d’États providence devient inacceptable face à la demande émergente d’autonomie sociale et personnelle qui est l’un des principaux désirs sociaux de la nouvelle classe des travailleurs de la connaissance. La plupart des autres fonctions sociales de l’État providence ont été affaiblies par les réformes néolibérales du « New Labour » qui tendent à introduire la logique du secteur privé dans le monde du secteur public.




Des routes et des ponts (10) – Les enjeux de la démocratisation de l’open source

L’open source est de plus en plus populaire et répandu parmi les développeurs. Grâce à des plate-formes comme GitHub, qui ont standardisé la manière de contribuer à un projet, l’open source est devenu plus accessible, au point de devenir une norme. Mais cette nouvelle configuration n’est pas sans poser certains problèmes.

Dans ce nouveau chapitre de son ouvrage Des Routes et des ponts (traduit chapitre après chapitre par l’équipe Framalang), Nadia Eghbal s’intéresse aux enjeux de la standardisation et de la démocratisation de l’open source – notamment à l’inflation parfois anarchique du nombre de projets et de contributeurs : pour elle, l’enjeu est d’éviter que l’écosystème numérique ne se transforme en un fragile château de cartes.

open-source-chateau-de-cartes
Photo de fdecomite / CC BY 2.0

Pourquoi les problèmes de support des infrastructures numériques sont de plus en plus pressants

Traduction Framalang : goudron, Penguin, serici, goofy, Rozmador, xi, Lumibd, teromene, xi, Opsylac, et 3 anonymes.

L’open source, grâce à ses points forts cités plus tôt dans ce rapport, est rapidement en train de devenir un standard pour les projets d’infrastructure numérique et dans le développement logiciel en général. Black Duck, une entreprise qui aide ses clients à gérer des programmes open source, dirige une enquête annuelle qui interroge les entreprises sur leur utilisation de l’open source. (Cette enquête est l’un des rares projets de banque de données qui existe sur le sujet.) Dans leur étude de 2015, 78% des 1300 entreprises interrogées déclarent que les logiciels qu’elles ont créés pour leurs clients sont construits grâce à l’open source, soit presque le double du chiffre de 2010.

L’open source a vu sa popularité s’accroître de manière impressionnante ces cinq dernières années, pas seulement grâce à ses avantages évidents pour les développeurs et les consommateurs, mais également grâce à de nouveaux outils qui rendent la collaboration plus facile. Pour comprendre pourquoi les infrastructures numériques rencontrent des problèmes de support grandissants, nous devons comprendre la manière dont le développement de logiciels open source prolifère.

Github, un espace standardisé pour collaborer sur du code

On n’insistera jamais trop sur le rôle clé de GitHub dans la diffusion de l’open source auprès d’une audience grand public. L’open source a beau exister depuis près de 30 ans, jusqu’en 2008, contribuer à des projets open source n’était pas si facile. Le développeur motivé devait d’abord découvrir qui était le mainteneur du projet, trouver une manière de le contacter, puis proposer ses changements en utilisant le format choisi par le mainteneur (par exemple une liste courriel ou un forum). GitHub a standardisé ces méthodes de communication : les mainteneurs sont listés de façon transparente sur la page du projet, et les discussions sur les changements proposés ont lieu sur la plate-forme GitHub.

GitHub a aussi créé un vocabulaire qui est désormais standard parmi les contributeurs à l’open source, tels que la « pull request » (où un développeur soumet à l’examen de ses pairs une modification à un projet), et changé le sens du terme « fork » (historiquement, créer une copie d’un projet et le modifier pour le transformer en un nouveau projet) [littéralement « fork » signifie « bifurcation », Ndt.]. Avant GitHub, forker un projet revenait à dire qu’il y avait un différend irréconciliable au sujet de la direction qu’un projet devrait prendre. Forker était considéré comme une action grave : si un groupe de développeurs décidait de forker un projet, cela signifiait qu’il se scindait en deux factions idéologiques. Forker était aussi utilisé pour développer un nouveau projet qui pouvait avoir une utilisation radicalement différente du projet initial.

Ce type de « fork de projet » existe toujours, mais GitHub a décidé d’utiliser le terme « fork » pour encourager à davantage d’activité sur sa plate-forme. Un fork GitHub, contrairement à un fork de projet, est une copie temporaire d’un projet sur laquelle on effectue des modifications, et qui est généralement re-fusionnée au projet. Le fork en tant que pratique quotidienne sur GitHub a ajouté une connotation positive, légère au terme : c’est l’idée de prendre l’idée de quelqu’un et de l’améliorer.

GitHub a aussi aidé à standardiser l’utilisation d’un système de contrôle de version appelé Git. Les systèmes de contrôle de versions sont un outil qui permet de garder une trace de chaque contribution apportée sur un morceau de code précis. Par exemple, si le Développeur 1 et le Développeur 2 corrigent différentes parties du même code en même temps, enregistrer chaque changement dans un système de contrôle de version permet de faire en sorte que leurs changements n’entrent pas en conflit. Il existe plusieurs systèmes de contrôle de versions, par exemple Apache Subversion et Concurrent Versions System (CVS). Avant GitHub, Git était un système de contrôle de version assez méconnu. En 2010, Subversion était utilisé dans 60% des projets logiciels, contre 11%pour Git.

C’est Linus Torvalds, le créateur de Linux, qui a conçu Git en 2005. Son intention était de mettre à disposition un outil à la fois plus efficace et plus rapide, qui permette de gérer de multiples contributions apportées par de nombreux participants. Git était vraiment différent des systèmes de contrôle de version précédents, et donc pas forcément facile à adopter, mais son workflow décentralisé a résolu un vrai problème pour les développeurs.

 

graphique-1
GitHub a fourni une interface utilisateur intuitive pour les projets open source qui utilisent Git, ce qui rend l’apprentissage plus facile pour les développeurs. Plus les développeurs utilisent GitHub, plus cela les incite à continuer d’utiliser Git. Aujourd’hui, en 2016, Git est utilisé par 38% des projets de logiciels, tandis que la part de Subversion est tombée à 47%. Bien que Subversion soit encore le système de contrôle de version le plus populaire, son usage décline. L’adoption généralisée de Git rend plus facile pour un développeur la démarche de se joindre à un projet sur GitHub, car la méthode pour faire des modifications et pour les communiquer est la même sur tous les projets. Apprendre à contribuer sur un seul des projets vous permet d’acquérir les compétences pour contribuer à des centaines d’autres. Ce n’était pas le cas avant GitHub, où des systèmes de contrôle de versions différents étaient utilisés pour chaque projet.

Enfin, GitHub a créé un espace sociabilité, qui permet de discuter et de tisser des liens au-delà de la stricte collaboration sur du code. La plate-forme est devenue de facto une sorte de communauté pour les développeurs, qui l’utilisent pour communiquer ensemble et exposer leur travail. Ils peuvent y démontrer leur influence et présenter un portfolio de leur travail comme jamais auparavant.

Les usages de GitHub sont un reflet de son ascension vertigineuse. En 2011 il n’y avait que 2 millions de dépôts (« repository »). Aujourd’hui, GitHub a 14 millions d’utilisateurs et plus de 35 millions de dépôts (ce qui inclut aussi les dépôts forkés, le compte des dépôts uniques est plutôt aux environs de 17 millions.) Brian Doll, de chez GitHub, a noté qu’il a fallu 4 ans pour atteindre le million de dépôts, mais que passer de neuf millions à dix millions n’a pris que 48 jours.

En comparaison, SourceForge, la plate-forme qui était la plus populaire pour héberger du code open source avant l’apparition de GitHub, avait 150 000 projets en 2008. Environ 18 000 projets étaient actifs.

Stack Overflow, un espace standard pour s’entraider sur du code

L’une des autres plate-formes importantes de l’open source est Stack Overflow, un site de question/réponse populaire parmi les développeurs, créé en 2008 par Jeff Atwood (développeur déjà mentionné précédemment) et par le blogueur Joel Spolsky. En Avril 2014, Stack Overflow avait plus de 4 millions d’utilisateurs enregistrés et plus de 11 millions de questions résolues (à noter qu’il n’est pas nécessaire de s’enregistrer pour voir les questions ou leurs réponses).

Stack Overflow est devenu de facto une plate-forme d’entraide pour les développeurs, qui peuvent poser des questions de programmation, trouver des réponses à des problèmes de code spécifiques, ou juste échanger des conseils sur la meilleure façon de créer un aspect précis d’un logiciel. On pourrait définir la plate-forme comme un « support client » participatif pour les développeurs à travers le monde. Même si Stack Overflow n’est pas un endroit où l’on écrit directement du code, c’est un outil de collaboration essentiel pour les développeurs individuels, qui facilite grandement la résolution de problèmes et permet de coder plus efficacement. Cela signifie qu’un développeur individuel est capable de produire plus, en moins de temps, ce qui améliore le rendement global. Stack Overflow a également permis à certains utilisateurs d’apprendre de nouveaux concepts de développement (ou même de s’initier au code tout court), et a rendu le codage plus facile et plus accessible à tous.

Tendances macro dans un paysage en mutation constante

La popularité hors-normes de l’open source a amené à des changements significatifs dans la manière dont les développeurs d’aujourd’hui parlent, pensent et collaborent sur des logiciels.

Premièrement, les attentes et exigences en termes de licences ont changé, reflétant un monde qui considère désormais l’open source comme une norme, et pas l’exception : un triomphe sur l’univers propriétaire des années 1980. Les politiques de GitHub et de Stack Overflow reflètent toutes deux cette réalité.

Dès le départ, Stack Overflow a choisi d’utiliser une licence Creative Commons appelée CC-BY-SA pour tous les contenus postés sur son site. La licence était cependant limitante, car elle requérait des utilisateurs qu’ils mentionnent l’auteur de chaque morceau de code qu’ils utilisaient, et qu’ils placent leurs propres contributions sous la même licence.

Beaucoup d’utilisateurs choisissaient d’ignorer la licence ou n’étaient même pas au courant de ses restrictions, mais pour les développeurs travaillant avec des contraintes plus strictes (par exemple dans le cadre d’une entreprise), elle rendait Stack Overflow compliqué à utiliser. S’ils postaient une question demandant de l’aide sur leur code, et qu’une personne extérieure réglait le problème, alors légalement, ils devaient attribuer le code à cette personne.

En conséquence, les dirigeants de Stack Overflow ont annoncé leur volonté de déplacer toutes les nouvelles contributions de code sous la Licence MIT, qui est une licence open source comportant moins de restrictions. En Avril 2016, ils débattent encore activement et sollicitent des retours de leur communauté pour déterminer le meilleur moyen de mettre en œuvre un système plus permissif. Cette démarche est un encouragement à la fois pour la popularité de Stack Overflow et pour la prolifération de l’open source en général. Qu’un développeur travaillant dans une grosse entreprise de logiciel puisse légalement inclure le code d’une personne complètement extérieure dans un produit pour lequel il est rémunéré est en effet un accomplissement pour l’open source.

A l’inverse, GitHub fit initialement le choix de ne pas attribuer de licence par défaut aux projets postés sur sa plateforme, peut-être par crainte que cela ne freine son adoption par les utilisateurs et sa croissance. Ainsi, les projets postés sur GitHub accordent le droit de consulter et de forker le projet, mais sont à part ça sous copyright, sauf si le développeur spécifie qu’il s’agit d’une licence open source.

En 2013, GitHub décida enfin de prendre davantage position sur la question des licences, avec notamment la création et la promotion d’un micro-site, choosealicense.com (« choisissez-une-licence »), pour aider les utilisateurs à choisir une licence pour leur projet. Ils encouragent aussi désormais leurs utilisateurs à choisir une licence parmi une liste d’options au moment de créer un nouveau « repository » (dépôt).

Ce qui est intéressant, cependant, c’est que la plupart des développeurs ne se préoccupaient pas de la question des licences : soit ignoraient que leurs projets « open source » n’étaient pas légalement protégés, soit ils s’en fichaient. Une étude informelle réalisée en 2013 par le Software Freedom Law Center (Centre du Droit de la Liberté des Logiciels) sur un échantillon de 1,6 million de dépôts GitHub révéla que seuls 15% d’entre eux avaient spécifié une licence. Aussi, les entretiens avec des développeurs réalisés pour ce rapport suggèrent que beaucoup se fichent de spécifier une licence, ou se disent que si quelqu’un demande, ils pourront toujours en ajouter une plus tard.

Ce manque d’intérêt pour les licences a amené James Governor, cofondateur de la firme d’analyse de développeurs Red Monk, à constater en 2012 que « les jeunes dévs aujourd’hui font du POSS – Post open source software. Envoie chier les licences et la gestion, contribue juste à GitHub » [en anglais « commit to GitHub » signifie littéralement « s’engager dans GitHub » mais fait également référence à la commande « commit » qui permet de valider les modifications apportées à un projet, NdT.]. En d’autres termes, faire de l’information ouverte par défaut est devenu une telle évidence culturelle aujourd’hui que les développeurs ne s’imaginent plus faire les choses autrement – un contexte bien différent de celui des rebelles politisés du logiciel libre des années 1980. Ce retournement des valeurs, quoi qu’inspirant au niveau global, peut cependant amener à des complications légales pour les individus quand leurs projets gagnent en popularité ou sont utilisés à des fins commerciales.

Mais, en rendant le travail collaboratif sur le code aussi facile et standardisé, l’open source se retrouve aux prises avec une série d’externalités perverses.

L’open source a rendu le codage plus facile et plus accessible au monde. Cette accessibilité accrue, à son tour, a engendré une nouvelle catégorie de développeurs, moins expérimentés, mais qui savent comment utiliser les composants préfabriqués par d’autres pour construire ce dont ils ont besoin.

En 2012, Jeff Atwood, cofondateur de Stack Overflow, rédigea un article de blog intitulé ironiquement « Pitié n’apprenez pas à coder », où il se plaint de la mode des stages et des écoles de code. Tout en se félicitant du désir des personnes non-techniciennes de comprendre le code d’un point de vue conceptuel, Atwood met en garde contre l’idée qu’« introduire parmi la main-d’œuvre ces codeurs naïfs, novices, voire même-pas-vraiment-sûrs-d’aimer-ce-truc-de-programmeur, ait vraiment des effets positifs pour le monde ».

Dans ces circonstances, le modèle de développement de l’open source change de visage. Avant l’ascension de GitHub, il y avait moins de projets open source. Les développeurs étaient donc un groupe plus petit, mais en moyenne plus expérimenté : ceux qui utilisaient du code partagé par d’autres étaient susceptibles d’être également ceux qui contribuent en retour.

Aujourd’hui, l’intense développement de l’éducation au code implique que de nombreux développeurs inexpérimentés inondent le marché. Cette dernière génération de développeurs novices emprunte du code libre pour écrire ce dont elle a besoin, mais elle est rarement capable, en retour, d’apporter des contributions substantielles aux projets. Beaucoup sont également habitués à se considérer comme des « utilisateurs » de projets open source, davantage que comme les membres d’une communauté. Les outils open source étant désormais plus standardisés et faciles à utiliser, il est bien plus simple aujourd’hui pour un néophyte de débarquer sur un forum GitHub et d’y faire un commentaire désobligeant ou une requête exigeante – ce qui épuise et exaspère les mainteneurs.

Cette évolution démographique a aussi conduit à un réseau de logiciels bien plus fragmenté, avec de nombreux développeurs qui publient de nouveaux projets et qui créent un réseau embrouillé d’interdépendances. Se qualifiant lui-même de « développeur-pie en rémission » [« pie » est un surnom pour les développeurs-opportunistes, d’après le nom de l’oiseau, la pie réputée voleuse, NdT], Drew Hamlett a écrit en janvier 2016 un post de blog devenu très populaire intitulé « Le triste état du développement web ». L’article traite de l’évolution du développement web, se référant spécifiquement à l’écosystème Node.js :

« Les gens qui sont restés dans la communauté Node ont sans aucun doute créé l’écosystème le plus techniquement compliqué [sic] qui ait jamais existé. Personne n’arrive à y créer une bibliothèque qui fasse quoi que ce soit. Chaque projet qui émerge est encore plus ambitieux que le précédent… mais personne ne construit rien qui fonctionne concrètement. Je ne comprends vraiment pas. La seule explication que j’ai trouvée, c’est que les gens sont juste continuellement en train d’écrire et de réécrire en boucle des applis Node.js. »

Aujourd’hui, il y a tellement de projets qui s’élaborent et se publient qu’il est tout simplement impossible pour chacun d’eux de développer une communauté suffisamment importante et viable, avec des contributeurs réguliers qui discuteraient avec passion des modifications à apporter lors de débats approfondis sur des listes courriels. Au lieu de cela, beaucoup de projets sont maintenus par une ou deux personnes seulement, alors même que la demande des utilisateurs pour ces projets peut excéder le travail nécessaire à leur simple maintenance.

GitHub a rendu simples la création et la contribution à de nouveaux projets. Cela a été une bénédiction pour l’écosystème open source, car les projets se développent plus rapidement. Mais cela peut aussi parfois tourner à la malédiction pour les mainteneurs de projets, car davantage de personnes peuvent facilement signaler des problèmes ou réclamer de nouvelles fonctionnalités, sans pour autant contribuer elles-mêmes en retour. Ces interactions superficielles ne font qu’alourdir la charge de travail des mainteneurs, dont on attend qu’ils répondent à une quantité croissante de requêtes.

Il ne serait pas déraisonnable d’affirmer qu’un monde « post-open source » implique une réflexion non seulement autour des licences, ainsi que James Governor l’exprimait dans son commentaire originel, mais aussi autour du processus de développement lui-même.

Noah Kantrowitz, développeur Python de longue date et membre de la Python Software Foundation, a résumé ce changement dans un post de blog souvent cité :

« Dans les débuts du mouvement open source, il y avait assez peu de projets, et en général, la plupart des gens qui utilisaient un projet y contribuaient en retour d’une façon ou d’une autre. Ces deux choses ont changé à un point difficilement mesurable.
[…] Alors même que nous allons de plus en plus vers des outils de niche, il devient difficile de justifier l’investissement en temps requis pour devenir contributeur. « Combler son propre besoin » est toujours une excellente motivation, mais il est difficile de construire un écosystème là-dessus.
L’autre problème est le déséquilibre de plus en plus important entre producteurs et consommateurs. Avant, cela s’équilibrait à peu près. Tout le monde investissait du temps et des efforts dans les Communs et tout le monde en récoltait les bénéfices. Ces temps-ci, très peu de personnes font cet effort et la grande majorité ne fait que bénéficier du travail de ceux qui s’impliquent.
Ce déséquilibre s’est tellement enraciné qu’il est presque impensable pour une entreprise de rendre (en temps ou en argent) ne serait-ce qu’une petite fraction de la valeur qu’elle dérive des Communs. »

Cela ne veut pas dire qu’il n’existe plus de grands projets open source avec des communautés de contributeurs fortes (Node.js, dont on parlera plus tard dans ce rapport, est un exemple de projet qui est parvenu à ce statut.) Cela signifie qu’à côté de ces réussites, il y a une nouvelle catégorie de projets qui est défavorisée par les normes et les attentes actuelles de l’open source, et que le comportement qui dérive de ces nouvelles normes affecte même des projets plus gros et plus anciens.

Hynek Schlawack, Fellow de la Python Software Foundation et contributeur sur des projets d’infrastructure Python, exprime ses craintes au sujet d’un futur où il y aurait une demande plus forte, mais seulement une poignée de contributeurs solides :

« Ce qui me frustre le plus, c’est que nous n’avons jamais eu autant de développeurs Python et aussi peu de contributions de haute qualité. […] Dès que des développeurs clefs comme Armin Ronacher ralentissent leur travail, la communauté toute entière le ressent aussitôt. Le jour où Paul Kehrer arrête de travailler sur PyCA, on est très mal. Si Hawkowl arrête son travail de portage, Twisted ne sera jamais sur Python 3 et Git.
La communauté est en train de se faire saigner par des personnes qui créent plus de travail qu’elles n’en fournissent. […] En ce moment, tout le monde bénéficie de ce qui a été construit mais la situation se détériore à cause du manque de financements et de contributions. Ça m’inquiète, parce Python est peut-être très populaire en ce moment mais une fois que les conséquences se feront sentir, les opportunistes partiront aussi vite qu’ils étaient arrivés. »

Pour la plupart des développeurs, il n’y a guère que 5 ans peut-être que l’open source est devenu populaire. La large communauté des concepteurs de logiciel débat rarement de la pérennité à long terme de l’open source, et n’a parfois même pas conscience du problème. Avec l’explosion du nombre de nouveaux développeurs qui utilisent du code partagé sans contribuer en retour, nous construisons des palaces sur une infrastructure en ruines.




Des routes et des ponts (9) – l’argent et l’open source

Nadia Eghbal a déjà évoqué plusieurs fois les liens entre l’argent et l’open source (si vous avez manqué des épisodes). Elle y revient dans ce chapitre, en insistant sur les questions fondamentales que pose l’argent aux communautés open source ainsi qu’à leurs membres.

Question de nature quasi-philosophique : l’open source peut-il perdre son âme à cause de l’argent ? Question de gouvernance : qui va décider de l’utilisation des fonds ? Et pour finir question éthique et politique : jusqu’à où peut-on, doit-on accepter les requêtes des financeurs ?

La relation compliquée de l’open source avec l’argent

Traduction Framalang : goudron, Penguin, serici, goofy, Rozmador, xi, Lumibd, teromene, xi, Diane, et 3 anonymes

eye-banknote

L’argent est un sujet tabou dans les projets open source, et ce depuis les premiers jours du mouvement du logiciel libre qui émergea en réponse directe aux pratiques commerciales des logiciels propriétaires. Dans le contexte du mouvement du logiciel libre, l’aversion pour l’argent est tout à fait compréhensible. L’argent est ce qui permettait de commercialiser les logiciels dans les années 1980 et il a fallu des décennies pour revenir sur cet état d’esprit et promouvoir les avantages liés à l’élaboration de logiciels qui soient libres d’utilisation, de distribution et de modification. Même si de nos jours, nous prenons les logiciels libres pour acquis, dans les années 1980, c’était une véritable contre-culture, un état d’esprit révolutionnaire.

Au sein même des communautés open source, il existe une croyance répandue selon laquelle l’argent est de nature à corrompre l’open source. Et en effet, le nombre de projets nés d’un « travail-passion » est assez incroyable. Aujourd’hui, le développement de logiciel est considéré comme un domaine lucratif, dont les écoles de programmation appâtent leurs futurs étudiants avec des promesses de premiers salaires en dollars à six chiffres. Par contraste, il y a quelque chose de pur et d’admirable dans le fait de créer un logiciel simplement pour le plaisir.

D’un point de vue plus pratique, les projets open source se créent traditionnellement autour d’un besoin réel et identifiable. Quelqu’un estime qu’un projet pourrait être mieux fait, décide de le forker, effectue des améliorations, puis les diffuse pour qu’on en fasse usage. Le pragmatisme est au cœur de la culture open source, comme le prouve sa scission stratégique avec le mouvement du logiciel libre à la fin des années 1990. Certains contributeurs open source craignent, peut-être avec raison, que l’argent n’introduise un développement « artificiel » du système, avec des développeurs qui lancent de nouveaux projets simplement pour acquérir des financements, plutôt que pour répondre à un besoin réel.

David Heinemeier Hansson (aussi connu sous le pseudo de DHH), qui a créé le framework populaire Ruby on Rails, mettait en garde en 2013 contre les mélanges entre open source et argent :

Si l’open source est une incroyable force pour la qualité et pour la communauté, c’est précisément parce qu’elle n’a pas été définie en termes de marché. Dans le cadre du marché, la plupart des projets open source n’auraient jamais eu leur chance.

Prenez Ruby on Rails. […] C’est une réalisation colossale pour l’humanité ! Des milliers de gens, collaborant pendant une décennie entière pour produire une structure et un écosystème incroyablement aboutis, disponibles pour tous gratuitement. Prenez une seconde pour méditer sur l’ampleur de cette réussite. Pas seulement pour Rails, évidemment, mais pour de nombreux autres projets open source, encore plus grands, avec une filiation plus longue et encore plus de succès.

C’est en considérant ce fantastique succès, dû aux règles de vie d’une communauté, que nous devrions être extraordinairement prudents avant de laisser les lois du marché corrompre l’écosystème.

Structurellement, le meilleur atout de l’open source : son penchant pour la démocratie, est aussi sa faiblesse. Beaucoup de projets open source ne sont rien de plus qu’un dépôt numérique public où est stocké du code auquel un groupe de gens contribue régulièrement : l’équivalent d’une association officieuse sur un campus universitaire. Il n’y a pas de structure légale et il n’y a pas de propriétaire ou de chef clairement défini. Les  « mainteneurs » ou les contributeurs principaux émergent souvent de facto, en fonction de qui a créé le projet, ou de qui y a investi beaucoup de temps ou d’efforts. Cependant, même dans ces cas-là, dans certains projets on répugne à introduire une hiérarchie favorisant clairement un contributeur par rapport à un autre.

En avril 2008, Jeff Atwood, un développeur .NET bien connu et dont nous avons déjà parlé, a annoncé qu’il donnait 5 000 $ au projet open source : ScrewTurn Wiki. ScrewTurn Wiki est un projet de wiki développé par Dario Solara, un autre développeur .NET, et maintenu par des volontaires. Atwood a dit à Dario que le don était « sans condition » : Solara pouvait utiliser l’argent de la manière qu’il jugerait la plus utile au projet.
Plusieurs mois plus tard, Atwood demanda à Solara comment il avait décidé de dépenser l’argent. Solara lui répondit que l’argent de la donation était « encore intact. Ce n’est pas facile de l’utiliser… Que suggères-tu ? » Atwood a écrit que cette réponse l’avait « terriblement déçu ».

La nature décentralisée du monde open source en a fait ce qu’il est : des logiciels produits de façon participative, que n’importe qui peut élaborer, partager, et améliorer. Mais quand vient le moment de discuter des besoins organisationnels, ou de la viabilité, il peut être difficile de prendre des décisions faisant autorité.

Ces transitions vers une viabilité à long terme peuvent êtres interminables et douloureuses. Un des exemples les plus connus est le noyau Linux, un projet open source utilisé dans de nombreux systèmes d’exploitation à travers le monde, parmi lesquels Android et Chrome OS. Il a été créé en 1991 par Linus Torvalds, un étudiant en informatique .
Au fur et à mesure que le noyau Linux gagnait en popularité, Linus rechignait à discuter de l’organisation du développement du projet, préférant tout gérer tout seul.  L’inquiétude et aussi la colère à l’égard de Torvalds grandirent chez les développeurs du projet, déclenchant de « vraies grosses disputes » selon Torvalds. Le conflit a atteint son apogée en 2002, on évoqua même un possible schisme.

Torvalds attribua ces conflits internes à un manque d’organisation, plutôt qu’à un quelconque problème technique :

Nous avons eu de vraies grosses disputes aux alentours de 2002, quand j’appliquais des correctifs à droite à gauche, et que les choses ne fonctionnaient vraiment pas. C’était très douloureux pour tout le monde, et également beaucoup pour moi. Personne n’aime vraiment les critiques, et il y avait beaucoup de critiques virulentes, et comme ce n’était pas un problème strictement technique, on ne pouvait pas juste montrer un correctif et dire :  « Hé, regardez, ce patch améliore les performances de 15% » ou quoique ce soit de ce genre. Il n’y avait pas de solution technique. La solution a été d’utiliser de meilleurs outils, et d’avoir une organisation du travail qui nous permette de mieux distribuer les tâches.

La Fondation Linux a été créée en 2007 pour aider à protéger et à maintenir Linux et ses projets associés. Torvalds ne pilote pas la Fondation Linux lui-même, il a préféré recevoir un salaire régulier en tant que « Compagnon Linux », et travailler sur ses projets en tant qu’ingénieur.

Malgré le fait que le logiciel open source soit admirablement ancré dans une culture du volontariat et de la collaboration relativement peu touchée par des motivations extérieures, la réalité est que notre économie et notre société, depuis les sociétés multimillionnaires jusqu’aux sites web gouvernementaux, dépendent de l’open source.

Dans l’ensemble, c’est probablement une évolution positive pour la société. Cela signifie que les logiciels ne sont plus limités à un développement privé et propriétaire, comme cela a été le cas pendant des dizaines d’années. Le fait que le gouvernement des États-Unis, ou un réseau social possédant des milliards d’utilisateurs, intègrent des logiciels construits par une communauté, annonce un futur optimiste pour la démocratie.

De plus, de nombreux projets fonctionnent très bien de manière communautaire lorsqu’ils sont d’une des deux tailles extrêmes possibles, c’est-à-dire soit des petits projets qui ne demandent pas de maintenance significative (comme dans l’exemple de Arash Payan et Appirater), soit de très gros projets qui reçoivent un soutien important de la part d’entreprises (comme Linux).

Cependant, beaucoup de projets sont coincés quelque part entre les deux : assez grands pour avoir besoin d’une maintenance significative, mais pas d’une taille suffisante pour que des entreprises déclarent leur offrir un soutien. Ces projets sont ceux dont l’histoire passe inaperçue, ceux dont on ne parle pas. Des deux côtés, on dit aux développeurs de ces projets « moyens » qu’ils sont le problème : du côté des « petits projets », on pense qu’ils devraient simplement mieux s’organiser et du côté des « gros projets », on pense que si leur projet était « assez bon », il aurait déjà reçu l’attention des soutiens institutionnels.

Il existe aussi des intérêts politiques autour de la question du soutien financier qui rendent encore plus difficile la prospection d’une source de financement fiable. On peut imaginer qu’une entreprise seule ne souhaite pas sponsoriser le développement d’un travail qui pourrait également bénéficier à son concurrent, qui lui n’aurait rien payé. Un mécène privé peut exiger des privilèges spécifiques qui menacent la neutralité d’un projet. Par exemple, dans les projets en lien avec la sécurité, le fait d’exiger d’être le seul à qui sont révélées les potentielles failles (c’est-à-dire payer pour être le seul à connaître les failles de sécurité plutôt que de les rendre publiques) est un type de requête controversé. Des gouvernements peuvent également avoir des raisons politiques pour financer le développement d’un projet en particulier, ou pour demander des faveurs spéciales comme une « backdoor » (une porte dérobée, c’est-à-dire un accès secret qui permet d’outrepasser les authentifications de sécurité), même si le projet est utilisé dans le monde entier.

Les récents démêlés légaux entre le FBI et Apple sont un bon révélateur des tensions qui existent entre technologie et gouvernement, au-delà même des projets open source.
Le FBI a, de manière répétée, et à l’aide d’assignations en justice, demandé l’aide d’Apple pour déverrouiller des téléphones afin d’aider à résoudre des enquêtes criminelles. Apple a toujours refusé ces requêtes. En février 2016, le FBI a demandé l’aide d’Apple pour déverrouiller le téléphone d’un des tireurs d’une attaque terroriste récente à San Bernardino, en Californie. Apple a également refusé de les aider, et a publié une lettre sur son site, déclarant :

Tout en croyant que les intentions du FBI sont bonnes, nous pensons qu’il serait mauvais pour le gouvernement de nous forcer à ajouter une « backdoor » dans nos produits. Et finalement, nous avons peur que cette demande mette en danger les libertés que notre gouvernement est censé protéger.

 

En mars 2016, le FBI a trouvé une tierce partie pour l’aider à déverrouiller l’iPhone et a laissé tomber l’affaire.

Une des plus grandes forces de l’open source est que le code est considéré comme un bien public, et beaucoup de projets prennent la gestion de ces projets au sérieux.  Il est important à titre personnel, pour beaucoup de développeurs de projets, que personne ne puisse prendre seul le contrôle d’une chose que le public utilise et dont il bénéficie. Toutefois, cet engagement à rester neutre a un prix, puisque beaucoup de ressources disponibles pour les développeurs de nos jours (comme les capitaux-risques ou les donations d’entreprises) attendent en contrepartie d’influer sur le projet ou des retours sur investissement.

Le logiciel open source est créé et utilisé de nos jours à une vitesse jamais vue auparavant. Beaucoup de projets open source sont en train d’expérimenter la difficile transition d’une création désintéressée à une infrastructure publique essentielle.
Ces dépendances toujours plus nombreuses signifient que nous avons pour responsabilité partagée de garantir à ces projets le soutien dont ils ont besoin.

eye-larger-banknote
Crédits pour les 2 images Eelke (CC BY 2.0)




Il a choisi Linux et s’en félicite

Dan Gillmor, qui avait l’an dernier expliqué pourquoi il disait au revoir à google, Microsoft et Apple dans un article que nous avons publié, fait aujourd’hui le point sur ses choix et constate qu’il ne regrette rien. D’autres bonnes raisons de migrer sont apparues, comme l’accélération de la re-centralisation du Web, l’hégémonie croissante des grands acteurs et bien sûr la surveillance généralisée.

Dan Gillmor évoque avec précision les matériels et logiciels qu’il a adoptés progressivement, fait état également sans à priori des avancées et des faiblesses des produits open source. Il reconnaît la difficulté relative du passage au Libre intégral (il peine encore à se dégoogliser 😉 ) mais les valeurs qu’il défend sont celles de l’indépendance, du choix libre pour l’utilisateur de ses usages et de ses produits…

Je suis passé à Linux et c’est encore mieux que ce que j’espérais

Dire adieu à Microsoft et Apple n’a jamais été aussi facile, ni aussi satisfaisant

par Dan Gillmor

Article original sur Medium : I Moved to Linux and It’s Even Better Than I Expected
Traduction Framalang : line, goofy, Sphinx, r0u, david_m, Manegiste, sebastien, teromene, galadas, roptat, Omegax, didimo

danGillmorUn beau jour du printemps 2012, j’ai refermé mon MacBookAir pour la dernière fois. À partir de ce moment, mon environnement informatique (en tout cas, en ce qui concerne mon portable) était GNU/Linux. J’ai abandonné, autant que possible, les environnements propriétaires et obsédés du contrôle qu’Apple et Microsoft ont de plus en plus imposés aux utilisateurs d’ordinateurs personnels.

Presque quatre ans plus tard, me voici, et j’écris cet article sur un portable qui tourne sous le système d’exploitation Linux, avec LibreOffice Writer, et non sur une machine Mac ou Windows avec Microsoft Word. Tout va bien.

Non, c’est même mieux que ça, tout est sensationnel.

Je recommanderais ce changement à beaucoup de personnes (pas à tout le monde, ni à n’importe quel prix, mais à quiconque n’est pas effrayé à l’idée de poser une question à l’occasion, et plus particulièrement quiconque réfléchit à la trajectoire prise par la technologie et la communication au 21ème siècle). Plus que tout, aux gens qui se soucient de leur liberté.

Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! »

L’informatique personnelle remonte à la fin des années 1970. Elle a défini une ère de la technologie où les utilisateurs pouvaient adapter ce qu’ils achetaient de toutes sortes de manières. Lorsque l’informatique mobile est arrivée sous la forme de smartphones, la tendance s’est inversée. Les constructeurs, en particulier Apple, ont gardé bien plus de contrôle. Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! ».

Il y a quelques mois, lorsque Apple a annoncé son iPad Pro, une grande tablette avec un clavier, son président Tim Cook l’a appelée « la plus claire expression de notre vision pour le futur de l’informatique personnelle ». « Ouh là, ça craint » me suis-je dit à ce moment-là. Entre autres, dans l’écosystème iOS, les utilisateurs ne peuvent obtenir leurs logiciels que sur l’Apple store, et les développeurs sont obligés de les vendre au même endroit seulement. C’est peut-être la définition de l’informatique personnelle pour Apple, mais pas pour moi.

Pendant ce temps-là, Windows 10 de Microsoft (sur presque tous les points, une grande avancée en termes de facilité d’utilisation par rapport à Windows 8) ressemble de plus en plus à un logiciel espion déguisé en système d’exploitation (une appellation qui pourrait être injuste, mais pas de beaucoup). Oui, la mise à jour depuis les versions précédentes, extrêmement répandues, est gratuite, mais elle prend des libertés extraordinaires avec les données des utilisateurs et le contrôle de ceux-ci, d’après ceux qui en ont analysé le fonctionnement interne.

Ce n’est pas exactement un duopole commercial. Le système d’exploitation Chrome OS de Google fait tourner un nouvel arrivant : le Chromebook, vendu par différents constructeurs. Mais il comporte plus de limites et oblige ses utilisateurs à être totalement à l’aise (je ne le suis pas) sous l’emprise d’une entreprise qui repose sur la surveillance pour soutenir son modèle économique basé sur la publicité.

Ainsi, pour ceux qui ont le moindre intérêt à garder une indépendance substantielle dans l’informatique mobile ou de bureau, Linux semble être le dernier refuge. Sur toute une gamme de machines, des super-ordinateurs aux serveurs, en passant par les téléphones portables et les systèmes embarqués, Linux est déjà incontournable. Je suis content d’avoir franchi le pas.

Avant d’expliquer le comment, il est vital de comprendre le contexte de ma petite rébellion. La re-centralisation est la nouvelle norme dans les technologies et les communications, une tendance qui m’a préoccupé il y a quelque temps sur ce site, quand je décrivais de manière plus générale mes efforts pour me sevrer des produits et services d’entreprises fournis par Apple (c’est fait), Microsoft (fait en grande partie) et Google (encore difficile). Le gain en confort, comme je le disais à l’époque, ne vaut pas les compromis que nous concédons.

Un duopole mobile ?

Comme j’en discuterai plus bas, je dois me demander à quel point il est pertinent de déclarer son indépendance sur son ordinateur personnel, puisque l’informatique évolue de plus en plus vers les appareils mobiles. Qu’on le veuille ou non, Apple et Google en ont plus ou moins pris le contrôle avec iOS et Android. Apple, comme je l’ai dit, est un maniaque obsédé du contrôle. Même si Google distribue gratuitement une version ouverte d’Android, de plus en plus de pièces essentielles de ce système d’exploitation sont intégrées en un amas logiciel terriblement verrouillé qui emprisonne les utilisateurs dans le monde de Google contrôlé par la publicité. Peut-on parler de « duopole » mobile ?

La re-centralisation est particulièrement terrifiante au vu du pouvoir croissant de l’industrie des télécommunications, qui se bat bec et ongles pour contrôler ce que vous et moi faisons des connexions que nous payons, malgré le jugement bienvenu de la FCC (commission fédérale des communications aux États-Unis) en faveur de la « neutralité du net » en 2015. Comcast détient le monopole du véritable haut débit sur la vaste majorité de son territoire, même si l’on distingue quelques concurrents ici et là. Les fournisseurs d’accès par câble avancent rapidement pour imposer des limites d’utilisation qui n’ont rien à voir avec la capacité disponible et tout à voir avec l’extension de leur pouvoir et de leurs profits, comme l’expliquait en détail Susan Crawford. Et les fournisseurs de téléphonie mobile piétinent allègrement la neutralité du net avec leurs services « zero-rated » (où l’accès à certains services spécifiques n’est pas décompté du volume de données du forfait), que la FCC considère de manière incompréhensible comme innovants.

Pendant ce temps, pour la simple et bonne raison que les utilisateurs préfèrent souvent le confort et la simplicité apparente d’un outil à la garantie de leurs libertés, des acteurs centralisés comme Facebook se constituent des monopoles sans précédents. Comme pour Google et son outil de recherche, ils recueillent les bénéfices grandissants des effets du réseau, que des concurrents vont trouver difficile sinon impossible à défier.

Goulets d’étranglement

N’oublions pas le gouvernement, qui a horreur de la décentralisation. Les services centralisés créent des goulots d’étranglement et rendent le travail facile aux services de police, espions, contrôleurs et service des impôts. L’état de surveillance raffole de la collecte de données sur ces goulots d’étranglement, ce qui met finalement en danger les communications et libertés de tous.

Les goulots d’étranglement permettent aussi de soutenir des modèles économiques qui génèrent beaucoup d’argent pour les campagnes politiques. Hollywood en est un excellent exemple ; la quasi prise de contrôle du Congrès par les lobbies du copyright a conduit à l’adoption de lois profondément restrictives comme dans le système du copyright en vigueur.

Les droits d’auteur sont la clé de ce que mon ami Cory Doctorow appelle « la prochaine guerre civile dans l’informatique générique », une campagne, parfois agressive, pour empêcher les gens qui achètent du matériel (vous et moi, de manière individuelle et dans nos écoles, entreprises et autres organisations) de réellement en être propriétaires. Les lois sur le droit d’auteur sont l’arme des maniaques du contrôle, puisqu’elles les autorisent à nous empêcher par des moyens légaux de bricoler (ils diraient trafiquer) les produits qu’ils vendent.

Les perspectives ne sont pas toutes aussi sombres. Le mouvement des makers ces dernières années est l’un des antidotes à cette maladie du contrôle total. Il en est de même avec les composantes-clés de la plupart des projets de makers : les projets de logiciel libre et open source dont les utilisateurs sont explicitement encouragés à modifier et copier le code.

linuxpenguinFighter

Image par Ian Burt via Flickr | CC BY 2.0

C’est là que Linux entre en scène. Même si nous nous servons davantage de nos appareils mobiles, des centaines de millions d’entre nous travaillent encore beaucoup avec leurs ordinateurs mobiles et de bureau. Linux et les autres logiciels développés par la communauté ne représentent peut-être qu’une solution partielle, mais clairement utile. Il vaut mieux commencer avec quelque chose et l’améliorer, que d’abandonner directement.

J’ai installé Linux un bon nombre de fois au cours des dernières années, depuis qu’il est devenu un véritable système d’exploitation. Mais je suis toujours retourné sous Windows ou Mac, en fonction de mon système principal de l’époque. Pourquoi ? Il restait encore trop d’aspérités et, pendant longtemps, Linux n’avait pas assez d’applications pour réaliser ce dont j’avais besoin. Les inconvénients étaient trop importants pour ma patience limitée, en utilisation quotidienne.

Mais cela s’est progressivement amélioré et, en 2012, j’ai décidé qu’il était temps. J’ai demandé à Cory Doctorow quelle version de Linux il utilisait. C’était une question fondamentale, car Linux se décline en de nombreuses variantes. Les développeurs ont pris le noyau essentiel du code et ont créé différentes versions, adaptées aux divers besoins, goûts et genres d’informatique. Bien que tous utilisent les composants essentiels, sur le modèle du logiciel libre, certains ajoutent du code propriétaire, comme Flash, pour mieux s’adapter aux pratiques informatiques des utilisateurs. Le matériel représentait également une question cruciale, car les ordinateurs ne sont pas tous gérés de manière fiable par Linux, à cause des incompatibilités matérielles.

Cory m’a dit qu’il utilisait Ubuntu sur un Lenovo ThinkPad. J’étais déjà convaincu par les ThinkPads, grâce à la fiabilité du matériel et le bon service après-vente du constructeur, sans oublier la possibilité de mettre à jour les composants matériels internes. Comme j’ai tendance à acheter des modèles récents, je rencontre parfois des problèmes de compatibilité avec le matériel Lenovo le plus récent. J’ai bricolé mon modèle actuel, un T450s, par tous les moyens, en remplaçant le disque dur mécanique par un disque SSD rapide et en ajoutant autant de mémoire vive (RAM) que j’ai pu.

Je penchais également pour Ubuntu, une version de Linux créée par une entreprise appelée Canonical, avec à sa tête un ancien entrepreneur informatique du nom de Mark Shuttleworth, que je connais aussi depuis longtemps. Ubuntu est connu pour son excellente gestion des ThinkPads, surtout s’ils ne sont pas flambants neufs. J’ai utilisé Ubuntu sur quatre ThinkPads différents depuis ma conversion. On apprécie Ubuntu à l’usage parce que Canonical a une vision bien définie de la façon dont les choses doivent fonctionner.

Libre à vous de tester une autre « distribution » Linux, comme on appelle les différentes versions. Il y en a trop pour les nommer toutes, ce qui est à la fois le meilleur et le pire atout de l’écosystème Linux. Les nouveaux utilisateurs devraient presque toujours essayer une des distributions les plus populaires, qui aura été testée de manière plus poussée et offrira la meilleure assistance de la part de la communauté ou de l’entreprise qui l’a créée.

linuxMint

L’une de ces distributions est Linux Mint. Elle est basée sur Ubuntu (qui est elle-même basée sur Debian, une version encore plus proche de la version de base de Linux). Mint m’est apparue comme à beaucoup d’autres personnes comme probablement la meilleure distribution Linux pour ceux qui ont utilisé des systèmes propriétaires et souhaitent la transition la plus simple possible. Je suis parfois tenté de changer moi-même, mais je vais garder Ubuntu, à moins que Canonical ne le foire complètement, ce que je n’espère pas.

Avant de faire le grand saut, j’ai demandé à bon nombre de personnes des conseils sur la façon migrer au mieux mes usages informatiques depuis des programmes propriétaires vers des programmes open source. Plusieurs m’ont suggéré ce qui s’est avéré être un bon conseil : j’ai cessé d’utiliser l’application Mail d’Apple et j’ai installé Thunderbird de Mozilla sur mon Mac, et après un mois, je me suis tellement habitué à cette manière différente (pas si différente non plus) de gérer mon courrier électronique (non, je n’utilise pas Gmail, sauf pour un compte de secours). J’ai aussi installé LibreOffice, une sorte de clone open source de Microsoft Office, qui est moins courant mais adéquat pour arriver à ses fins dans la plupart des cas.

Comme la plupart des gens qui utilisent un ordinateur personnel, je passe mon temps presque exclusivement sur tout petit nombre d’applications : navigateur internet, client courriel, traitement de texte. Sous Linux, j’ai installé Firefox et Chromium, une variante open source du Chrome de Google. Comme déjà mentionné, Thunderbird faisait bien son job pour gérer mes courriels, et LibreOffice était satisfaisant en tant que logiciel de traitement de texte.

Mais j’avais encore besoin d’utiliser Windows pour certaines choses. En particulier, le logiciel de cours en ligne que j’utilisais à mon université refusait de fonctionner sous Linux, quel que soit le navigateur utilisé. J’ai donc installé Windows dans une machine virtuelle, afin de faire tourner Windows et ses programmes à l’intérieur de Linux. J’ai aussi installé Windows sur une partition séparée de mon disque dur pour les occasions encore plus rares où j’aurais besoin d’utiliser un Windows natif, contrairement à un Windows virtuel ce qui réduit les performances.

Aujourd’hui je n’ai presque plus jamais besoin de Windows. LibreOffice s’est énormément amélioré. Pour l’édition collaborative, Google Docs (hum… j’ai déjà dit que se passer de Google est difficile, hein ?) est difficile à battre, mais LibreOffice progresse. Le logiciel utilisé dans mon université pour les cours en ligne fonctionne maintenant avec Linux. Le seul programme pour lequel j’ai encore besoin de Windows est Camtasia, pour le « screencasting » – enregistrer (et diffuser) ce qu’affiche l’écran, ainsi que le son. Plusieurs programmes de screencasting existent sous Linux, mais ils sont limités. Et parfois, je suis obligé d’utiliser MS PowerPoint pour lire les rares diaporamas qui hoquètent avec le logiciel de présentations de LibreOffice (Impress).

Étrangement, le plus compliqué, dans cette transition, fut de m’adapter aux différentes conventions utilisées pour les claviers : désapprendre le style Apple et réapprendre les combinaisons Windows, équivalentes pour la plupart à celles utilisées par Linux. Au bout de quelques mois, tout était rentré dans l’ordre.

La fréquence de mise à jour des logiciels est un des aspects que je préfère avec Linux. Ubuntu et de nombreuses autres versions proposent régulièrement des mises à jour même si je préfère choisir les versions qui disposent d’un support étendu (aussi appelées versions « LTS » soit Long Term Support en anglais). Ils corrigent rapidement les failles de sécurité qui sont trouvées et il se passe souvent moins d’une semaine entre deux mises à jour, un rythme beaucoup plus élevé que celui auquel j’étais habitué avec Apple.

migrationSimple

Ce que j’aime le moins avec Linux, c’est qu’il faut parfois faire quelque chose qui pourrait paraître intimidant pour un nouvel utilisateur. Personne ne devrait avoir à ouvrir une interface en ligne de commande pour saisir sudo apt-get update ou autre. Personne ne devrait avoir à faire face à un avertissement indiquant que l’espace disque est insuffisant pour que la mise à jour du système puisse être appliquée (ce qui nécessitera alors de retirer les composants obsolètes du système d’exploitation, une opération qui n’est pas à la portée de tout le monde). Personne ne devrait découvrir, après une mise à jour, qu’un composant matériel a cessé de fonctionner, ce qui m’est arrivé avec mon trackpad, inutilisable jusqu’à ce que je trouve une solution grâce à un forum (oui, cela peut arriver avec Windows mais les fabricants testent beaucoup plus le fonctionnement de leur matériel avec les logiciels Microsoft. Quant à Apple, ça arrive également, mais il a l’avantage de produire du matériel et des logiciels qui sont associés de façon harmonieuse).

gillmordesktop

Le bureau de Dan Gillmor sous Ubuntu

Lorsqu’il y a un problème, les communautés apparues autour du logiciel libre et open source s’avèrent incroyablement utiles. Poussant toujours un peu les limites pour adopter ce système, je demande souvent de l’aide. Je reçois toujours des réponses. Certains experts super pointus de ces forums peuvent être condescendants voire irrespectueux si on ose poser une question qui leur semblera simplissime ou qui a déjà reçu une réponse par ailleurs. On trouve également cette aide précieuse (et cette éventuelle intempérance) pour Windows, Mac et les autres systèmes mobiles (certains fanatiques d’Apple sont parfois étonnamment violents avec les hérétiques) mais il existe une atmosphère unique lorsqu’il s’agit de personnes œuvrant sur des technologies ouvertes, pour tous.

Si vous souhaitez essayer Linux sur votre ordinateur, c’est plutôt simple. Ubuntu, ainsi que d’autres distributions, vous permettent de créer un DVD ou une clé USB contenant le système d’exploitation et de nombreuses applications et vous pouvez démarrer votre ordinateur en utilisant ce support de test. C’est une bonne technique pour savoir si le matériel que vous avez à votre disposition fonctionnera avec. Ce sera vraisemblablement le cas si vous n’utilisez pas un ordinateur flambant neuf. Linux brille particulièrement par son support des ordinateurs déjà anciens.

Pour éviter les soucis d’installation de Linux, on peut acheter un ordinateur avec le système d’exploitation pré-installé et obtenir des mises à jour régulières, adaptées au matériel. J’ai réfléchi à différents modèles fabriqués par des entreprises comme Dell, System76, ZaReason entre autres. Je viens de visiter une entreprise appelée Purism, qui vend des ordinateurs portables construits uniquement avec du matériel et du logiciel non-propriétaire, du moins autant qu’il est possible à l’heure actuelle. Le modèle Librem 13 est impressionnant, Purism a adapté Linux pour ce matériel ergonomique et j’ai hâte de l’essayer.

Je voyage beaucoup et penche plutôt en faveur d’une entreprise qui dispose de point de dépôt dans différents pays et qui (avec le coût que ça implique) pourra dépêcher un technicien chez moi, à mon bureau ou à mon hôtel si ma machine tombe en panne. Si je dois abandonner Lenovo (et les dernières affaires à leur sujet me font douter), je me dirigerai probablement vers les machines Dell fournies avec Linux.

Vous avez pu remarquer que je n’ai presque pas abordé la question du coût. Pour le système d’exploitation, ce n’est plus nécessaire car Microsoft et Apple ont fait fondre le prix apparent de leur système d’exploitation et il apparaît comme nul. Bien entendu, vous le payez toujours quand vous achetez un ordinateur. Cela dit, même les mises à jour importantes sont devenues gratuites, un changement fondamental si on regarde en arrière. Cependant, en ce qui concerne Microsoft, la « gratuité » semble exister au détriment de la collecte intrusive des données.

En revanche, pour les applications, c’est une autre histoire. Vous pouvez économiser beaucoup d’argent en utilisant des logiciels libres et open source. Comparé à LibreOffice, Microsoft Office reste cher même si les versions de base « Famille et Étudiant » sont abordables et que beaucoup de personnes utilisent MS Office grâce à la version fournie par leur école ou leur entreprise.

Mais voilà, j’apprécie de payer pour certains logiciels, car je veux être sûr, autant que possible, que j’aurai de l’aide si besoin et que les développeurs auront une source de motivation pour continuer à corriger et à améliorer le logiciel. Je serais heureux de pouvoir payer pour des versions de Camtasia et Scrivener sur Linux (ce dernier possède une version communautaire pour Linux). En attendant, je fais des dons à différents projets dont j’utilise les logiciels régulièrement, qu’ils soient créés par des entreprises ou intégralement développés par des bénévoles. Ubuntu a beau être une entreprise qui gagne de l’argent en fournissant des services (une approche populaire et éprouvée dans le monde du logiciel libre et open source), je continue d’y donner. Avec moi, LibreOffice a gagné un utilisateur, mais aussi un donateur. Il en va de même pour d’autres projets.

Linux reste en arrière, enfin « officiellement », quand il s’agit de lire des DVD. Il faut installer certains logiciels jugés illégaux par le cartel du divertissement afin de pouvoir lire les disques que vous avez achetés (Apple a l’air d’un parangon de liberté par rapport à Hollywood). L’utilisation de services de streaming comme Netflix ou Amazon peut également être source d’ennuis. Enfin ça devient plus simple grâce à… humpf l’ajout de verrous numériques (NdT : DRM ou Digital Rights Management) dans certains navigateurs.

Est-ce que tous ces ajustements en valent la peine ? Je dirais que oui. Tout ce qui améliore ou préserve notre capacité à utiliser les technologies comme nous l’entendons en vaut la chandelle par rapport aux voies imposées par des pouvoirs centralisés. Et si nous ne sommes pas plus nombreux à essayer, ces monstres du contrôle verront leur victoire assurée.

Il est probablement presque trop tard pour que Linux devienne un système d’exploitation extrêmement populaire, dans les pays développés tout au moins. Mais il n’est pas trop tard pour que suffisamment d’entre nous l’utilisent afin de garantir des libertés informatiques pour ceux qui les veulent.

Que pouvons-nous faire à propos des écosystèmes mobiles, si nous ne voulons pas leur laisser l’hégémonie sur toute l’informatique personnelle, voilà bien le problème. Des versions tierces d’Android ont émergé au travers de communautés dynamiques telles que XDA Developers, qui veulent plus de liberté. Ubuntu travaille sur un système d’exploitation mobile parmi d’autres nombreux acteurs de la communauté open source ; des années ont été dédiées à tendre vers un système d’exploitation qui puisse fonctionner sur tous les appareils. Mais la domination d’Apple et Google sur le monde mobile en intimide plus d’un.

nous avons vraiment le choix

J’essaie en ce moment beaucoup d’options parmi les appareils possibles dans l’espoir que j’en trouverai un qui soit suffisamment bon pour une utilisation au quotidien, même s’il devait ne pas être aussi pratique que les propriétés privées bien gardées des géants de l’internet (un de mes téléphones est actuellement sous un système d’exploitation appelé Cyanogenmod). Bientôt, je vous en dirai plus sur la façon dont ça se passe.

En attendant, souvenez-vous : nous avons vraiment le choix – nous pouvons faire des choix qui repoussent les limites des libertés technologiques. Récemment, mon choix a consisté à me détacher libérer de l’emprise de ceux qui veulent tout contrôler. J’espère vous donner à réfléchir pour faire de même. En fonction de ce que nous choisissons, nous avons beaucoup à gagner, et à perdre.

(1) Même si cela va vexer certaines personnes, j’ai fait référence à GNU/Linux par son nom de loin le plus couramment utilisé – Linux, tout simplement – après la première occurrence. Pour en savoir plus à ce propos, les Wikipédiens ont rassemblé tout un tas de sources pertinentes.

Merci à Evan Hansen et Steven Levy.

Biographie et plus d’informations : http://dangillmor.com/about (Photo par Joi Ito)




Debian perd son Ian

L’année 2015 n’a pas été la meilleure année du monde, et elle s’est malheureusement conclue avec un énième triste événement : le décès de Ian Murdock, célèbre créateur de Debian. Alors qu’une nouvelle année qu’on espère plus joyeuse commence, voici une petite BD pour lui rendre hommage.

dm_008_debian_perd_son_ian

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Accord Microsoft-Éducation nationale : le Libre offre déjà des alternatives.

Mise à jour 3 décembre 2015 : Framasoft co-signe, avec de nombreuses associations et syndicats, un communiqué de presse dénonçant un partenariat indigne des valeurs affichées par l’Education Nationale.

C’est depuis les années 1970-1971 que le gouvernement français élabore et met en œuvre des plans informatiques (« numériques » dit-on aujourd’hui) pour l’Éducation Nationale. L’année la plus marquante, qui a fini par introduire vraiment des ordinateurs entre les murs de nos écoles, ce fut 1985 avec le lancement du plan Informatique Pour Tous (IPT) par L. Fabius.

La firme Microsoft a petit à petit avancé ses pions au cœur de l’Éducation nationale et, depuis lors, nous assistons à des accords réguliers entre le ministère et Microsoft, chiffrant l’usage de ses produits à plusieurs millions d’euros à chaque fois… avec un succès pour le moins mitigé. À tel point que les citoyens se sont récemment mobilisés autour de cette question en plébiscitant l’usage de logiciels libres dans les services publics lors de la consultation numérique initiée par la ministre Axelle Lemaire.

Et pourtant, comme un pied de nez à cette consultation, la ministre de l’Éducation nationale Najat Vallaud-Belkacem a signé pas plus tard qu’hier un énième accord avec Microsoft. 13 millions d’euros pour s’assurer que les collégiens et collégiennes utilisent quotidiennement des logiciels et comptes Microsoft (quitte à fournir les tablettes). Cet argent servira donc à épier le comportement des élèves (pour leur fournir un « service personnalisé ») ainsi qu’à la formation de leurs enseignant-e-s à ces logiciels privateurs.

Tweet (im)pertinent et parodique de JcFrog en réaction à cette annonce
Tweet (im)pertinent et parodique de JcFrog en réaction à cette annonce
https://twitter.com/jcfrog/status/671394109974814720

En somme, un pas supplémentaire est donc effectué par Microsoft dans le monopole de l’informatique à l’école, jusqu’à saturer les élèves et les enseignants de solutions exclusives, centralisant et analysant les données des élèves selon des algorithmes dont le ministère n’a pas réclamé les clés (pas d’engagement à l’interopérabilité, ni à l’ouverture du code source).

Or, les enseignants ne manquent pas pour expérimenter et mettre en œuvre des solutions basées sur des logiciels libres. Des solutions plus ouvertes, plus malléables, et plus efficaces pour atteindre les objectifs d’un réel apprentissage de l’informatique par les élèves et une appropriation des outils dans leurs diversités et leurs logiques. Par exemple, les tablettes Tabulédu sont une solution pensée pour les classes de primaire dans le respect des données et des libertés des élèves.

Tabulédu en image.
Tabulédu en image.

Pour le collège, c’est en Espagne qu’on peut trouver de l’inspiration. En Mai 2014, le Framablog publiait Fin du support XP, un collège espagnol migre vers Ubuntu. Ce samedi 24 novembre 2015, Fernando Lanero, l’enseignant à l’origine de cette migration était invité à l’Ubuntu party parisienne pour y donner une conférence, interprétée dans sa version Francophone par Framasoft en la personne de Genma.

Dans son discours, Fernando nous montre que la migration n’est pas une question technique (une personne ayant les compétences et le temps peut le faire), mais bel et bien un enjeu d’éducation. Quel modèle d’éducation voulons-nous pour les enfants? Quelles valeurs souhaitons nous leurs transmettre? Les valeurs du logiciel propriétaire et privateur, pour lequel copier c’est voler, comprendre c’est tricher ? Ou bien celles du logiciel libre, celle du partage et de l’appropriation des connaissances ?

Le texte ci-dessous est une synthèse de son discours, reprenant les principales idées.

Ubuntu pour libérer les écoles – Linux pour l’éducation

Utiliser Ubuntu au sein d’une école augmente grandement les ressources éducatives et emmène les élèves au sein d’une nouvelle dimension éducative.

Capture du 2015-12-01 21:03:28

Pourquoi choisir le logiciel libre ?

Le logiciel libre, c’est non seulement une question technique ; mais il s’agit avant tout d’une question d’éthique, sociale, et politique. Ces aspects-là sont beaucoup plus importants que l’aspect technique.

Pour des raisons techniques :

  • auditable : toute personne qui en a les connaissances peut lire le code source du logiciel libre;
  • résistant aux malwares : en optant pour Linux, les virus informatiques, la dégradation du système et de nombreux problèmes techniques divers ont disparu instantanément;
  • sain et sécurisé : parfait pour un usage par des enfants;
  • il permet de réutiliser du matériel. Ubuntu est en général bien plus performant que Windows sur du vieux matériel, nous n’avons pas de nécessité à être constamment en train d’acheter du nouveau matériel;
  • un grand support via sa communauté.

Ce changement permet également à l’école économiser de l’argent. Ne pas avoir à acheter des licences pour les systèmes d’exploitation propriétaires, les suites bureautiques et des outils anti-virus a déjà permis à l’école d’économiser environ 35 000 euros dans l’année 2014-2015.

« Évidemment, il est beaucoup plus intéressant d’investir cet argent dans l’éducation. »

Pour des raisons non-techniques :

  • augmentation de la dimension éducative de l’Informatique;
  • la liberté du logiciel joue un rôle fondamental dans l’éducation ; le logiciel libre diffuse la connaissance humaine;
  • le logiciel libre soutient l’éducation, le logiciel propriétaire au contraire l’interdit;
  • il y a transmission d’un esprit de collaboration et de coopération;
  • le code source et les méthodes du logiciel libre font partie de la connaissance humaine. Au contraire, le logiciel propriétaire est secret, la connaissance restreinte, ce qui est à l’opposé de la mission des établissements d’enseignement;
  • pour plus de cohérence avec les valeurs de l’école. Le choix du logiciel libre est non seulement une question technique ; il est également une question d’éthique, sociale et politique.

« La liberté et la coopération sont des valeurs essentielles du logiciel libre. Le système GNU implémente la valeur du partage ; le partage étant bon et bénéfique au progrès humain. »

Avec quoi ?

  • les logiciels libres permettent de comprendre notre environnement technique quotidien;
  • les logiciels libres sont une forme d’éducation en eux-mêmes, d’une certaine façon;
  • Ubuntu offre une large gamme de logiciels éducatifs et de matériels certifiés;
  • Ubuntu fournit un accès sécurisé et accessible aux étudiants, enseignants et administrateurs scolaires.

Quand changer ?

Maintenant.

  • Windows XP est un système propriétaire et obsolète;
  • la majorité des problèmes rencontrés avant la migration étaient liées à la transmission des virus via les clefs USB utilisées pour les documents.

« Pourquoi amener Ubuntu à l’école? Parce que les enfants sont l’avenir d’une société. S’ils savent ce qu’est Ubuntu, ils seront plus « ouverts » et plus « libres » quand ils deviendront adultes. »

Pour qui ?

  • pour les élèves les enfants sont naturellement curieux, ils ne sont pas du tout réticents au changement car ils cherchent la nouveauté et le changement;
  • pour les enseignants et professeurs

« Quand un professeur enseigne avec une application propriétaire, il est face à un véritable choix. Il oblige les élèves à acheter des logiciels ou à les copier illégalement. Avec les logiciels libres, les professeurs ont le contrôle de la situation et ils peuvent alors se concentrer sur l’éducation. »

Capture du 2015-12-01 21:03:53

Comment migrer ?

  • impliquer au sein du projet les personnes qui croient dans ce modèle d’éducation globale;
  • solliciter la communauté du logiciel libre;
  • utiliser toutes les ressources disponibles.

Quelles étapes ?

  • prendre une grande inspiration : une migration ce n’est pas facile et vous trouverez face à beaucoup plus de problèmes que vous n’imaginiez au début ;
  • évaluer les besoins, les coûts, les économies ;
  • commencer les migrations doucement, très doucement. Commencer en remplaçant programmes propriétaires sur Windows par du logiciel libre. Le changement pour Ubuntu se fera de façon naturelle ;
  • former les enseignants à l’utilisation d’Ubuntu et des nouvelles applications ;
  • faire de la pub (beaucoup) Vous devez expliquer ce que vous faites et pourquoi c’est une bonne chose.

Construire ?

Choisir la bonne option pour les besoins de votre école n’est pas facile, mais la mettre en œuvre est encore plus difficile :

  • évaluer les machines que vous allez migrer et la prise en charge du matériel ;
  • choisir la bonne version d’Ubuntu (envisager par exemple l’usage de la version dédiée à l’éducation, Edubuntu) ;
  • utiliser la même interface graphique sur chaque ordinateur ; l’interface utilisateur doit être homogène ;
  • il faut adapter la distribution aux besoins scolaires et toujours garder à l’esprit les besoins de l’école. Le plus important est l’expérience de l’utilisateur final ;
  • il faut toujours garder en tête que les utilisateurs finaux, ce sont les élèves. Ce qui compte vraiment, c’est leur éducation. Les changements doivent donc se concentrer sur eux. Le passage au logiciel libre doit permettre d’améliorer leur éducation.

Rappelez-vous, nous ne nous battons pas contre Microsoft. Nous nous battons contre une mauvaise expérience éducative. Notre mission est de diffuser la connaissance humaine et de préparer les élèves à être de bons membres de leur communauté.

Résultats de cette migration

Ce sont :

  • plus de 120 ordinateurs migrés durant 2014-2015;
  • plus de 1 200 étudiants ayant un contact avec Ubuntu par an;
  • autour de 35 000€ qui ont pu être investis dans l’éducation, et non plus dans des licences Microsoft ;
  • des ordinateurs plus fiables et donc cela laisse plus de temps pour faire de l’éducatif.

« L’open source est une puissante alternative aux logiciels propriétaires. La preuve en est que de nombreuses municipalités, de gouvernements et d’entreprises sont en train d’adopter les solutions open source. Il est donc temps que les écoles et les universités fassent de même. »

Capture du 2015-12-01 21:07:10

Merci à Fernando Loreno pour son partage d’expérience,

Et à Genma pour la traduction.

Chère Éducation nationale…

Via son fil Twitter, le ministère incite le monde du Libre à proposer des solutions… en feignant d’oublier que cela fait des années que les acteurs du Libre s’échinent à se faire entendre des décideurs politiques.

Cher ministère… mais surtout chères académies, rectorats, enseignant-e-s et personnel encadrant : ces solutions existent déjà et vous êtes à l’origine de nombre d’entre elles. Nous nous permettrons simplement d’en énumérer quelques unes avec ces liens :

Cette liste est loin d’être exhaustive.

Il faut changer de paradigme

« Il faut changer de logiciel », dirait-on dans la novlangue actuelle. Au-delà de la question – importante – de l’usage des logiciels libres à l’école, et des coûts de migration, l’Éducation Nationale doit se poser la question de son rôle : former de futurs citoyens éclairés libres de leurs opinions et de leurs choix, ou de futurs travailleurs-consommateurs ? Sous-traiter à Microsoft (ou Apple, ou Google) le champ du numérique éducatif, c’est refuser aux élèves la capacité d’être acteurs du numérique de demain, en leur proposant uniquement une place de figurants.

L’enjeu central se porte aujourd’hui sur les valeurs que l’école souhaite porter : le Ministère de l’Éducation Nationale est il prêt à encourager réellement le développement des ressources libres à l’école ? En accompagnant les enseignants à publier sous licence Creative Commons, en travaillant avec les communautés pour améliorer les logiciels existants ou en créer de nouveaux, en se positionnant clairement du côté du bien commun et du partage de la connaissance, etc.

Ou préfère-t-elle laisser la place à des acteurs – spécialistes de « l’optimisation fiscale » – dont l’objectif n’est pas l’émancipation des élèves et enseignants, mais au contraire leur enfermement dans des usages et des formats leur permettant de faire perdurer une économie de la rente ?




Une contributrice du noyau Linux jette l’éponge

Sarah Sharp a de multiples passions sympathiques comme on peut le voir sur la page où elle se présente : développeuse, cycliste, jardinière… et geek. Si nous choisissons aujourd’hui de lui donner un écho francophone, c’est parce qu’elle est libriste de longue date et qu’elle a travaillé pendant sept ans dans l’équipe qui gère et maintient le kernel Linux, c’est-à-dire le noyau du système.

Dans un billet sans acrimonie ni attaque ad hominem, elle explique nettement pourquoi elle a cessé d’apporter sa contribution à ce haut niveau de programmation : lassée d’un mode de communication qui tolère et justifie la brutalité entre ses membres, elle regrette que l’équipe du kernel n’ait pas su évoluer vers des rapports humains plus acceptables.

Elle soulève ici une question désagréablement lancinante, celle du délicat respect de chacun ; il n’est pas indifférent qu’une fois encore ce soit une femme qui estime n’avoir plus sa place au sein d’une équipe de développement. Puisse cet exemple nourrir la réflexion et contribuer à faire évoluer un peu les esprits.

Notez que ce texte critique qui a eu un certain retentissement a été suivi d’un volet plus « constructif » de Sarah Sharp, dans lequel elle propose cinq niveaux et appelle à un changement culturel de fond dans les communautés libristes , ce qui est certes plus complexe que de s’abriter derrière l’alibi d’un code de conduite…

 

Tourner la page

par Sarah Sharp, article original sur son blog : Closing a door.
Traduction Framalang : Sphinx, audionuma, r0u, goofy, line

Sarah Sharp, programmeuse
Voilà un an que ce billet est dans mon répertoire de brouillons. Ce n’était jamais le bon moment pour le publier. je m’inquiétais toujours des contrecoups. Cela fait un bon moment que je tourne autour de l’idée d’évoquer ce sujet en public, mais mon propre refus de reconnaître ce problème a fini par me ronger complètement. Alors le voici.

En un mot : je ne suis plus développeuse du noyau Linux. J’ai transféré en douceur la maintenance du pilote du contrôleur USB 3.0 en mai 2014. En juin 2015, j’ai mis fin à mon rôle de coordinatrice du programme d’ouverture aux femmes du logiciel libre (OPW), et j’ai évolué pour aider à coordonner le programme Outreachy. Le 6 décembre 2014, j’ai animé ce que j’espère être ma dernière présentation sur le développement du noyau Linux. On m’a demandé de coordonner la conférence Linux Plumbers à Seattle en août 2015 et j’ai refusé. La fin de mon mandat au Linux Advisory Board approche et je ne serai pas candidate à ma réélection.

Si j’avais le choix, je n’enverrai jamais plus un correctif, un rapport de bug ou une proposition sur les listes de discussion du noyau Linux. Mes boîtes de réception personnelles ont regorgé de messages de cette liste et je les ai ignorés. Mon travail actuel sur l’activation des modes graphiques dans l’espace utilisateur nécessitera peut-être que j’envoie occasionnellement des correctifs du noyau, mais je sais que je vais passer au moins une journée à craindre les éventuels retours destructeurs de l’interaction avec la communauté qui gère le noyau avant d’envoyer quoi que ce soit.

Je ne fais plus partie de la communauté du noyau Linux.

C’est le résultat d’une longue période de réflexion, et de beaucoup de temps passé à planifier ma succession. Je n’ai pas pris à la légère cette décision de me retirer. Je me suis sentie coupable, pendant longtemps, de ce retrait. Quoi qu’il en soit, j’ai finalement pris conscience que je ne pouvais plus contribuer à une communauté au sein de laquelle j’étais respectée sur le plan technique, mais où je ne pouvais pas demander à être respectée en tant que personne. Je ne pouvais plus travailler avec des gens qui encouragent les nouveaux venus à envoyer des correctifs, et réclament ensuite le droit pour les « mainteneurs » de cracher n’importe quelle grossièreté qu’ils considèrent nécessaire pour conserver une honnêteté affective radicale. Je ne voulais plus travailler professionnellement avec des gens qui s’en sortent malgré leurs blagues subtilement sexistes ou homophobes. Je me sens désarmée devant une communauté qui a un « code de résolution des conflits » qui ne contient même pas une liste explicite de comportements à éviter et une communauté qui n’a pas la volonté de faire appliquer ce code.

J’ai le plus grand respect pour les efforts techniques accomplis par la communauté du noyau Linux. Elle a développé un projet qui se concentre sur le respect des meilleurs standards de code qui existent. La focalisation sur l’excellence technique, la surcharge de travail des mainteneurs et la collaboration entre personnes qui proviennent de différentes cultures et normes sociales sont trois facteurs qui expliquent que les mainteneurs du noyau Linux sont souvent directs, grossiers voire brutaux pour que le travail soit fait. Les meilleurs développeurs du noyau Linux se crient souvent dessus pour corriger mutuellement leur comportement.

Ce type de communication ne me convient pas du tout. J’ai besoin d’une communication qui puisse être brutale sur le plan technique tout en étant respectueuse sur le plan personnel. J’ai besoin que quelqu’un puisse me corriger lorsque je fais une erreur (qu’elle soit technique ou sur le plan social) sans pour autant me faire descendre en tant que personne. Nous sommes humains, nous commettons des erreurs et nous les corrigeons. Nous nous énervons envers quelqu’un, nous sur-réagissons, et puis nous nous excusons et essayons de travailler ensemble pour trouver une solution.

J’aurais préféré que la communication au sein de la communauté du noyau Linux se passe de manière plus respectueuse. J’aurais préféré que les mainteneurs du noyau Linux communiquent de façon plus saine quand ils sont contrariés. J’aurais préféré que davantage de personnes assurent la maintenance du noyau Linux, ainsi ils n’auraient pas eu à être aussi brusques et directs.

Malheureusement, les changements de comportement que j’aimerais voir dans la communauté du noyau Linux ne se produiront sans doute pas de sitôt. Plusieurs développeurs seniors du noyau Linux approuvent le fait que les mainteneurs puissent être durs sur les plans technique et personnel. Même si à titre personnel ce sont des gens charmants, ils ne veulent pas que le mode de communication du noyau Linux change.

Cela veut dire qu’ils font passer les besoins affectifs des autres développeurs du noyau Linux (faire tomber la pression en se défoulant sur les autres, en étant brutal, impoli ou grossier) avant mes propres besoins affectifs (le besoin d’être respectée en tant que personne, et de ne pas être la cible de violence psychologique ou d’injures). C’est une dynamique perverse qui privilégie la position des mainteneurs établis au mépris du respect fondamental de l’être humain.

Je ne publie pas ce message à l’attention des développeurs du noyau. Je ne publie pas ce message pour pointer du doigt des personnes précises. Je publie ce message parce que je suis affligée pour la communauté dont je ne souhaite plus faire partie. Je poste ce message car je suis triste à chaque fois que quelqu’un me remercie de revendiquer de meilleures normes pour la communauté, parce que j’ai finalement abandonné l’idée de changer la communauté du noyau Linux. Le changement de culture est un processus long et douloureux et je n’ai plus l’énergie pour prendre une part active à ce changement de mentalité dans la communauté du noyau.

J’ai l’espoir que la communauté du noyau Linux évoluera avec le temps. J’ai participé à cette évolution, et la documentation, les tutoriels et les programmes que j’ai initiés (comme les stages noyau Outreachy) continueront à se développer en mon absence. Je reviendrai peut-être un jour, lorsque les choses iront mieux. J’ai une carrière de plusieurs décennies devant moi. Je peux attendre. En attendant, il existe d’autres communautés du logiciel libre, plus amicales, où je peux jouer ma partition.

Lorsqu’une porte se ferme, une autre s’ouvre, mais souvent nous restons si longtemps et avec tant de regrets devant la porte fermée que nous ne voyons même pas celle qui vient de s’ouvrir devant nous.

— Alexander Graham Bell

 

________

Crédits image :

  • Photo  © Sarah Sharp licence CC-BY-NC-SA



Windows 10, GNU Linux et Framapack : passez à la vitesse Libre !

La sortie d’un nouveau windows est toujours une belle nouvelle pour nous… C’est l’occasion de dire à notre entourage « quitte à devoir changer vos habitudes, pourquoi ne pas passer sous GnuNux ? »

Cet argument a beau faire mouche, il ne fonctionne pas tout le temps auprès des Dupuis-Morizeau (ça faisait longtemps qu’on n’avait pas parlé de notre sympathique famille-témoin Normande, hein ?). Qu’à cela ne tienne, on est parés à tous niveaux.

Image : blog de rmarquez
Image : blog de RMarquez 22

Microsoft, vous nous avez gâtés <3 !

Vous avez probablement lu une pléthore d’articles sur cette nouvelle sortie et les aberrations fonctionnalités qui l’accompagnent. Il faut dire que les arguments de vente et les choix stratégiques de la firme de Redmond sont autant de raisons de passer au Libre. Plutôt que de tout réécrire, voici un petit inventaire à la Prévert des raisons qui peuvent faire mouche…

Mais si vous voulez malgré tout rester sous Windows…

…on peut l’entendre ! Y’a des moments où on n’a pas le choix, pas l’envie, où on se sent pas les épaules… Essayer de vous culpabiliser sur ce point, ce serait juste créer un dogme, une morale, un « bien » et un « mal » se substituant à votre esprit critique.

Néanmoins, quitte à réinstaller Windows, pourquoi ne pas en profiter pour y utiliser un maximum de logiciels Libres ? Et ce n’est pas compliqué, pour cela, il y a Framapack !

L’équipe de Framasoft tient à chaleureusement remercier Pyves, un de nos framacolibris pour ce magnifique boulot réalisé sur RevealJS via les dessins de Gee. Cette présentation est sous licence CC-BY-SA, n’hésitez donc pas à la partager largement et librement autour de vous.

La voie est Libre !

Chez Framasoft, nous croyons à la politique du meilleur effort. Il peut être difficile d’effacer le M de GAFAM de sa vie, et d’arrêter Windows. Pourtant, les arguments contre son utilisation ne manquent pas… et si l’envie vous en prend, vous trouverez certainement une communauté près de chez vous pour vous aider à passer sous GNU/Linux et installer un système d’exploitation qui respecte VOS libertés.

Néanmoins, il est aujourd’hui très facile d’installer un maximum de logiciels Libres (donc qui respectent vos libertés à vous) sur votre ordinateur… C’est souvent le premier pas qui a permis à nombre de Linuxien-ne-s de cheminer sur cette route parfois longue, mais dont la voie est, et reste, Libre 😉