MyPads point de la semaine 19

img-mypads-ulule2Travaux effectués

Comme prévu, le travail a été poursuivi du côté des groupes de pads. Plus en détail :

  • la modification des groupes existants, avec la conservation du mot de passe en mode privé (pas besoin de le saisir à nouveau) ;
  • la suppression des groupes ;
  • la gestion d’étiquettes par groupe : créées et supprimées à la volée pendant la modification ou la création de groupe ;
  • un début de gestion des favoris par utilisateur avec le marquage des groupes souhaités ;
  • les tests fonctionnels allant de pair avec ces développements.

Suite

Il y aura peu d’avancées cette semaine, le programmeur étant indisponible quelques jours pour des raisons médicales. Le prochain point concernera donc la semaine 21 avec au programme la recherche par filtres, étiquettes et texte brut sur les groupes et, enfin, le début de la gestion des pads privés.

MyPads, week 19

img-mypads-ulule2

Work done

As expected, tasks have covered groups of pads management. In detail :

  • edition of existing groups, with password keeping where in private visibility (no need to fill it again);
  • group removal;
  • tags management per group : created on the fly and removed during group creation or edition;
  • beginning of bookmarks management per user with group marking;
  • functional testing around these developments.

Suite

There won’t be much progress this week because the developer is absent for a few days for medical reason. Next point will be done week 21. We expect search by filters, tags and plain text over the groups. Also, finally, private pads management start.




Brevets logiciels : la position de Donald Knuth en 1995

En 1995, l’un des plus brillants informaticiens au monde, le professeur Donald Knuth, écrivait une lettre au bureau américain des brevets (USPTO) que nous vous proposons traduite ci-dessous.

Les arguments pour refuser les brevets sur le logiciel sont déjà là et fort bien exposés. Ce qui n’empêche pas de devoir se battre régulièrement depuis contre cette néfaste tentation.

No Software Patents

Lettre à l’Office des Brevets, par le professeur Donald Knuth

Donald Knuth – 1995
(Traduction : rocherd, audionuma, r0u, FMy1, simon, Omegax)

Letter to the Patent Office From Professor Donald Knuth

Chers membres de la commission,

De même que beaucoup d’autres chercheurs en informatique, je voudrais vous demander de reconsidérer la politique actuelle de cession de brevets sur les processus informatiques (NdT : computational processes). J’ai pu en effet constater une inquiétude considérable parmi la communauté des chercheurs en informatique, la peur que les décisions des tribunaux spécialisés dans le droit des brevets et du Bureau des Brevets et des Marques Déposées (NdT : Patent and Trademark Office) rendent la vie des programmeurs bien plus difficile.

Durant la période 1945-1980, il était communément admis que les lois sur les brevets n’étaient pas appliquables au logiciel. Cependant, certaines personnes auraient apparemment obtenues des brevets sur des algorithmes d’une importance capitale — par exemple, la compression Lempel-Ziv et le chiffrement par clé RSA publique — et aujourd’hui ils interdisent en toute légalité aux autres programmeurs d’utiliser ces algorithmes.

C’est un changement radical par rapport aux pratiques précédentes qui ont rendu possible la révolution informatique, et je crains que ce changement ne soit dommageable pour la société. Cela aurait pu avoir un fort impact négatif sur mon propre travail : par exemple, j’ai développé un logiciel appelé TeX qui est actuellement utilisé pour la conception de plus de 90 % des livres et revues de mathématiques et physique mais aussi de centaines de milliers de rapports techniques dans toutes les disciplines scientifiques. Si les brevets logiciels avaient été monnaie courante en 1980, je n’aurais jamais pu créer un tel système, ou penser à le créer, ni même imaginer que quelqu’un puisse le faire.

On me dit que les tribunaux essaient de faire une distinction entre les algorithmes mathématiques et les algorithmes non-mathématiques. Pour un informaticien, c’est un non-sens, car chaque algorithme est un objet mathématique s’il en est. Un algorithme est un concept abstrait sans relation avec les lois physiques de l’Univers.

Il n’est pas non plus possible de faire la distinction entre des algorithmes « numériques » et « non-numériques », comme si les nombres étaient en quelque sorte différents des autres formes d’information exacte. Toutes les données sont nombres, et tous les nombres sont données. Les mathématiciens travaillent bien plus avec des entités symboliques qu’avec des nombres.

L’idée d’adopter des lois affirmant que certains algorithmes sont mathématiques et d’autres ne le sont pas me parait tout aussi absurde que la tentative de l’Assemblée Générale de l’Indiana, au XIXème siècle, d’adopter une loi stipulant que le rapport de la circonférence d’un cercle à son diamètre est exactement 3 ou que l’Église médiévale décidant que le Soleil tourne autour de la Terre. Les lois des Hommes peuvent être significativement utiles, mais pas lorsqu’elles contredisent les vérités fondamentales.

Il y a bien longtemps, le Congrès avait judicieusement décidé que les objets mathématiques ne pouvaient pas être brevetés. Il est certain que personne ne pourrait utiliser les mathématiques s’il fallait payer un droit de licence à chaque utilisation du théorème de Pythagore. Les idées de base de l’algorithmique que certaines personnes poussent à faire breveter sont si fondamentales, que le résultat menace d’être similaire à ce qui arriverait si on autorisait les auteurs à breveter les mots et expressions. Les romanciers ou les journalistes ne pourraient plus écrire sans que leurs éditeurs n’obtiennent les permissions des propriétaires des mots. Les algorithmes sont au logiciel ce que les mots sont pour les écrivains, parce qu’ils sont les briques fondamentales nécessaires pour construire quelque chose d’intéressant. Qu’arriverait-il si les juristes pouvaient breveter leurs méthodes de défense ou si les juges de la Cour Suprême pouvaient breveter leurs jurisprudences ?

J’ai bien conscience que les tribunaux de brevets essaient de faire de leur mieux pour servir la société. Le Bureau des Brevets a ainsi admirablement rempli cette mission en ce qui concerne les aspects de technologies reposant sur les lois concrètes de la physique plutôt que les lois abstraites de la pensée. Je suis moi-même titulaire de quelques brevets sur des dispositifs matériels. Mais je pense fermement que cette récente tendance à breveter les algorithmes ne profite qu’à un petit nombre d’avocats et d’inventeurs alors qu’elle entrave la grande majorité de personnes qui veulent faire des choses utiles avec les ordinateurs.

Quand je songe aux programmes informatiques dont j’ai besoin quotidiennement pour travailler, je ne peux m’empêcher de réaliser qu’aucun d’entre eux n’existerait aujourd’hui si les brevets logiciels avaient prévalu dans les années 60 et 70. Changer les règles aujourd’hui aura pour conséquence de geler le progrès à peu près à son niveau actuel. Si cette tendance se confirme, la seule alternative pour la majorité des brillants développeurs américains de logiciels sera d’abandonner ou émigrer. Les États-Unis perdront alors leur position dominante.

Merci de faire votre possible pour inverser cette tendance alarmante. Il existe de bien meilleures façons de protéger les droits de propriété intellectuelle des développeurs de logiciels que de les empêcher d’utiliser des briques fondamentales.

Sincèrement,
Donald E. Knuth
Professeur émérite




Geektionnerd : Firefox 29

geektionnerd_191-1_simon-gee-giraudot_cc-by-sa.jpg

geektionnerd_192-1_simon-gee-giraudot_cc-by-sa.jpg

Sources :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Un magazine Linux décide de libérer son contenu après 9 mois de publication

Linux Voice est un nouveau projet de magazine anglophone autour de GNU/Linux et du logiciel libre. Il ne verra le jour que si son financement par crowfunding sur Indiegogo est couronné de succès (il est d’ores et déjà en passe de l’être).

Lors du lancement de la campagne, il avait été annoncé que le contenu du magazine serait rendu « free » au bout d’un certain temps.

Le problème c’est que ce terme est très flou a priori. Ils ont levé tous les doutes en adoptant la libre licence CC By-SA et s’en expliquent dans l’article traduit ci-dessous.

Un exemple à suivre pour notre presse spécialisée francophone ? (si, oui, nous sommes preneurs pour faire connaître et diffuser les articles en tout cas :))

Linux Voice (cover)

Licence libre après neuf mois

Free licence after nine months

Ben Everard – 18 novembre 2013 – LinuxVoice.com
(Traduction : Isammoc, Lordphoenix, Marie-Lou, Penguin, Mooshka, Sky, Zergy + anonymes)

Nous avons annoncé il y a une semaine que nous essayions de lancer un nouveau magazine Linux qui rendrait tous ses contenus « free » (NdT : free peut vouloir dire à la fois « libre » ou « gratuit ») après une période maximum de neuf mois. La réponse jusqu’à présent a été phénoménale et les fonds sont arrivés bien plus vite que nous l’avions prévu.

Nous en avons discuté sur Hacker News, Reddit, Shashdot, The Register, The Guardian et des forums partout sur le web. Une question remontait régulièrement : Qu’entendez vous par « free » ? Tout le monde dans la communauté open source sait que ce simple mot peut être compris de différentes façons.

De toutes parts sur Internet, on nous a poussé à être fidèle à la liberté (NdT : au sens de « free as in freedom » comme le dirait Stallman). Clem, bien connu dans le projet Linux Mint, a même laissé entendre qu’il créera une app pour afficher le contenu libre, si tel était le cas.

Nous avons attendu avant de faire une déclaration précise car nous voulions débattre du sujet avec les différents contributeurs et les auteurs indépendants qui nous aideront à faire le magazine. La semaine dernière, nous avons compris qu’il était nécessaire de clarifier ce que nous allions faire. Il serait injuste, vis-à-vis de nos donateurs souscripteurs, de maintenir l’équivoque plus longtemps.

Il y a toujours la tentation d’ajouter des clauses aux licences. Celles qui, selon vous, n’affecteront pas vraiment la liberté mais vous protégeront un peu. Dans notre cas, ce fut la clause non commerciale. Que se passerait-il, imaginons, si un éditeur décidait de réimprimer nos articles et de gagner de l’argent avec notre travail ? Les autres magazines GNU/Linux pourraient publier nos articles sans avoir à débourser un centime.

Cependant, nous parlons des quatre libertés depuis assez longtemps pour savoir qu’elles signifient réellement quelque chose, et il est temps d’accorder nos actions avec nos paroles. Oui, les quatre libertés ont été écrites pour s’appliquer au code, mais leur esprit est facilement transférable, et une clause de non-commercialisation va clairement à l’encontre de ces libertés.

Aujourd’hui, nous pouvons annoncer que nous allons passer tout notre contenu sous licence Creative Commons Paternité – Partage à l’identique version 3.0 «unported» (CC By-SA) au plus tard 9 mois après sa publication. Pour ceux qui ne seraient pas familiers de cette licence, elle est dans l’esprit comparable à la GPL v2. C’est-à-dire que vous pouvez distribuer le contenu de la manière que vous souhaitez, et le modifier comme vous le souhaitez tant que vous mettez ces modifications sous la même licence (« unported » signifie simplement que c’est une licence internationale). Pour plus d’informations sur la licence, voyez le texte Creative Commons en anglais ou la version complète de la licence.

Vous avez peut-être remarqué que nous avons dit « après neuf mois maximum ». Nous prévoyons de rendre disponibles des articles plus tôt, spécialement ceux qui ont, d’après nous, une valeur pour la communauté. Donc, si vous voyez quelque chose qui devrait être disponible plus vite, faites-le nous savoir. Si vous êtes un enseignant désirant distribuer nos contenus à vos étudiants, ou un mainteneur de logiciels open source voulant inclure nos tutoriels dans vos pages d’aide, parlez-nous en, et nous essayerons de faire quelque chose.




Comment Isaac Asimov voyait 2014 en 1964

En 1964, le célèbre écrivain de science-fiction Isaac Asimov visitait l’Exposition Universelle de New York. Il se mit alors à imaginer, dans l’article traduit ci-dessous, ce qu’il pourrait bien advenir dans 50 ans, c’est-à-dire en 2014.

Force est de constater que bon nombre de ses hypothèses étaient prémonitoires…

Abode of Chaos - CC by

Visite de l’Exposition Universelle de New York de 2014

Visit to the World’s Fair of 2014

Isaac Asimov – 16 août 1964
(Traduction : Jeff, hilde, k, anonyme1, karec, Sky, pyro, aKa, Chloé, MalaLuna, tchevengour, simplementNat, bl0fish, pyro, @zessx, Underrated, lordgun, Beij, goofy, greygjhart, HgO, zer0chain, GregR, Asta + anonymes)

L’Exposition Universelle de New York de 1964 est consacrée à « La paix par la compréhension » (NdT : Peace Through Understanding). L’aperçu qu’elle donne du monde de demain écarte l’hypothèse d’une guerre nucléaire. Et pourquoi pas ? Si une telle guerre a lieu le futur ne mérite pas d’être évoqué. Laissons donc les missiles sommeiller éternellement dans leurs silos et observons ce qui pourrait advenir d’un monde qui ne serait pas atomisé.

Ce qui est à venir, du moins au travers de la lunette de l ‘Exposition, est merveilleux. Le futur vers lequel l’Homme se dirige est vu avec un espoir plein d’entrain, nulle part mieux montré qu’au pavillon de la General Electric. Ici les spectateurs tourbillonnent parmi quatre scènes, chacune contenant des mannequins souriants, quasiment vivants, qui bougent et parlent avec une telle aisance que, pendant près d’une minute et demie, ils vous convainquent qu’ils le sont vraiment.

Ces scènes, qui se déroulent en 1900, 1920, 1940 et 1960, montrent les progrès des appareils électriques et les changements qu’ils apportent à la vie quotidienne. J’y ai pris énormément de plaisir et je regrette seulement qu’ils n’en aient pas imaginé de semblables dans le futur. Que sera la vie, par exemple en 2014, dans 50 ans ? À quoi ressemblera l’Exposition Universelle de 2014 ?

Je ne sais pas, mais je peux essayer de deviner.

Une pensée qui me traverse l’esprit est que les hommes continueront à fuir la nature pour créer un environnement plus à leur convenance. D’ici 2014 les panneaux électroluminescents seront communément utilisés. Les murs et les plafonds brilleront doucement, dans une variété de teintes qui changera à la pression d’un bouton.

Les fenêtres seront devenues archaïques, et quand bien même présentes elles seront polarisées pour bloquer les rayons du soleil les plus durs. Le degré d’opacité du verre étant même fait pour varier automatiquement selon l’intensité de la lumière.

On trouve une maison souterraine à l’Exposition qui semble être un signe du futur. Si ses fenêtres ne sont pas polarisées, elles peuvent en revanche changer le « paysage » en modifiant l’éclairage. Les maisons en périphérie des villes, avec variateur de température, air filtré, et contrôle de la lumière, seront monnaie courante, libérées ainsi des vicissitudes de la météo. À l’Exposition Universelle de 2014, le « Futurama » de General Motors (NdT : attraction populaire réalisée par General Motors pour l’Exposition Universelle de 1939) présentera sans doute des visions de cités souterraines pleines de potagers sous lumière artificielle. La surface ainsi gagnée, expliquera General Motors, sera dédiée à l’agriculture à grande échelle, aux pâturages et parcs, avec moins d’espace gaspillé pour l’occupation humaine.

Des appareils continueront de soulager l’humanité des travaux fastidieux. Les cuisines seront conçues de manière à préparer des « auto-repas », chauffant l’eau et la transformant en café ; grillant le pain et le bacon ; cuisant, pochant ou brouillant des œufs, etc. Le petit-déjeuner sera « commandé » la veille afin d’être prêt à l’heure spécifiée le lendemain matin. Des repas et dîners entiers, avec des aliments semi-préparés, seront conservés au congélateur jusqu’au moment de leur préparation. Je soupçonne, cependant, que même en 2014, il sera bon d’avoir un petit coin dans la cuisine où des repas plus individuels pourront être préparés à la main, en particulier lorsque l’on reçoit des invités.

En 2014 les robots ne seront ni courants ni très élaborés mais ils existeront. L’exposition IBM n’a pas de robots aujourd’hui mais elle est dédiée aux ordinateurs, qui sont montrés dans toute leur incroyable complexité, notamment dans la tâche de traduction du russe vers l’anglais. Si les machines sont si intelligentes aujourd’hui, qui sait ce qu’elles feront dans 50 ans ? Ce seront des ordinateurs beaucoup plus miniaturisés qu’aujourd’hui, qui serviront de « cerveaux » aux robots. L’une des principales attractions du pavillon IBM à l’Exposition Universelle de 2014 pourrait être une femme de ménage robotique, gauche et grosse, bougeant lentement mais cependant capable de ramasser, ranger, nettoyer et manipuler divers appareils. Cela amusera sans aucun doute les visiteurs de disperser des débris sur le sol afin de voir cette ménagère robotique les enlever maladroitement et les classer entre « à jeter » et « mettre de côté ». (Des robots jardiniers auront aussi fait leur apparition.)

General Electric à l’Exposition Universelle de 2014 montrera des films en 3D de ses « Robots du Futur » élégants et profilés et ses appareils de ménage intégrés effectuant toutes les tâches promptement. (Il y aura une file d’attente de trois heures pour voir le film, il y a certaines choses qui ne changent jamais.)

Bien sûr les appareils de 2014 n’auront besoin d’aucun câble électrique. Ils seront alimentés par des batteries longue durée à énergie nucléaire (radioisotope). Le combustible ne sera pas cher car il sera le sous-produit des centrales à fission qui, en 2014, fourniront plus de la moitié des besoins énergétiques de l’humanité. Mais, une fois ces batteries à isotopes épuisées, elles ne seront éliminées que par des agents autorisés par le fabricant.

Et une ou deux centrales expérimentales à fusion nucléaire existeront déjà en 2014 (même aujourd’hui, une petite mais véritable fusion nucléaire est présentée régulièrement par la General Electric, à l’Exposition Universelle de 1964). De grandes centrales d’énergie solaire seront aussi en fonction dans plusieurs zones désertiques et semi-désertiques telles que l’Arizona, le Néguev ou le Kazakhstan. Dans les zones plus fréquentées, mais plus nuageuses et brumeuses, l’énergie solaire sera moins efficace. Une présentation à l’Exposition Universelle de 2014 montrera des modèles de centrales énergétiques dans l’espace, collectant les rayons solaires à l’aide d’immenses paraboles, renvoyant l’énergie ainsi collectée sur Terre.

Le monde d’ici 50 ans aura encore rétréci. À l’Exposition Universelle de 1964, la présentation de General Motors décrit, entre autres choses, des « usines de construction de routes » dans les tropiques et, plus près de chez nous, des autoroutes surchargées avec de long bus se déplaçant sur des voies centrales réservées. Il y a de fortes chances que l’utilisation de routes, du moins dans les régions du monde les plus avancées, aura passé son pic en 2014 ; l’intérêt se portera alors de plus en plus sur les transports réduisant au maximum le contact avec la surface terrestre. Il y aura l’aviation, bien sûr, mais les transports terrestres seront de plus en plus aériens (environ 50 cm au-dessus du sol). Les visiteurs de l’Exposition Universelle de 1964 peuvent s’y déplacer dans un « hydroptère », qui s’élève sur quatre pylônes et glisse sur l’eau avec un minimum de frictions. Ceci n’est sûrement que temporaire. En 2014, les quatre pylônes auront été remplacés par quatre jets d’air comprimé afin que le véhicule n’ait plus aucun contact avec les surfaces liquides ou même solides.

Les jets d’air comprimé serviront également à soulever les véhicules terrestres au-dessus des routes, ce qui, entre autres choses, réduira les problèmes de pavage. Une terre damée ou une pelouse tondue feront tout aussi bien l’affaire. Les ponts auront aussi une moindre importance dès lors que les voitures seront capables de traverser l’eau à l’aide de leurs jets d’air comprimé, bien que les arrêtés locaux décourageront cette pratique.

Beaucoup d’efforts seront consacrés à la conception de véhicules munis de « cerveaux-robot » qui pourront être configurés pour une destination particulière et s’y rendront sans l’interférence des lents réflexes d’un conducteur humain. Je soupçonne qu’une des attractions majeures de l’exposition 2014 sera la balade sur des petites voitures robotisées qui manœuvreront dans la foule 50 cm au-dessus du sol, avec dextérité et en s’évitant automatiquement.

Pour les voyages de courte distance, des trottoirs mobiles surélevés (avec des bancs de chaque côté, des places debout au centre) feront leur apparition dans les sections du centre-ville. Le trafic continuera (sur plusieurs niveaux dans certains endroits) uniquement parce que tout les parkings seront hors voirie et qu’au moins 80 % des livraisons par camion seront effectuées dans des centres précis en périphérie de la ville Des tubes à air comprimé transporteront biens et matériaux sur des distances locales, et les aiguillages qui achemineront les cargaisons spécifiques vers les destinations correspondantes seront une des merveilles de la ville.

Les communications se feront par visioconférence et vous pourrez à la fois voir et entendre votre interlocuteur. L’écran, en plus de vous permettre de voir les gens que vous appelez, vous permettra également daccéder à des documents, de voir des photographies ou de lire des passages de livres. Une constellation de satellites rendra possible les appels directs vers n’importe quel point de la terre, même la station météorologique en Antarctique (visible dans toute sa splendeur glacée sur le stand de General Motors en 64).

D’ailleurs, vous serez en mesure de joindre quelqu’un sur les colonies sélènes (sur la Lune), pour lesquelles General Motors présente une gamme de véhicules impressionnants (sous forme de maquettes) avec de larges pneus tendres prévus pour les terrains accidentés qui peuvent exister sur notre satellite naturel.

Quantités de conversations simultanées entre la Terre et la Lune pourront être facilement traitées par des faisceaux laser modulés, lesquels seront très faciles à manipuler dans l’espace. Sur Terre, par contre, les rayons laser devront être enfermés dans des tubes en plastique pour éviter les interférences atmosphériques, problème sur lequel les ingénieurs continueront à travailler.

Converser avec la Lune sera simple mais inconfortable à cause des 2,5 secondes de délai entre les questions et les réponses (le temps nécessaire pour que la lumière fasse l’aller-retour). Le même genre de communication avec Mars prendra 3,5 minutes même lorsque Mars est au plus près de la Terre. Cependant, en 2014, seules des sondes téléguidées s’y seront posées, mais une expédition habitée sera en préparation et, dans le Futurama de 2014, on pourra trouver une maquette de colonie martienne élaborée.

Quant à la télévision, des murs-écrans auront pris la place de l’équipement habituel, mais des cubes transparents feront leur apparition, dans lesquels la vision tri-dimensionnelle sera possible. En fait, une des présentations populaires à l’Exposition Universelle de 2014 sera une télévision 3D, grandeur nature, dans laquelle on verra des spectacles de ballet. Le cube tournera lentement pour montrer la vision sous tous les angles.

Nous pouvons poursuivre indéfiniment cette joyeuse extrapolation, mais tout n’est pas aussi rose.

Dans la file d’attente pour la présentation de la General Electric à l’Exposition Universelle de 1964, je me suis retrouvé face au menaçant panneau d’Equitable Life (NdT : une compagnie d’assurance américaine), égrenant l’augmentation de la population des États-Unis (plus de 191 000 000) d’une unité toutes les 11 secondes. Pendant le temps que j’ai passé à l’intérieur du pavillon de la General Electric, la population américaine a presque gagné 300 âmes, et la population mondiale environ 6 000.

En 2014, il est fort probable que la population mondiale sera de 6,5 milliards et que les États-Unis compteront 350 millions d’habitants. La zone de Boston à Washington, la plus dense de cette taille sur Terre, sera devenue une mégalopole avec une population de plus de 40 millions d’habitants.

La pression démographique va forcer l’urbanisation croissante des déserts et des régions polaires. Le plus surprenant, et d’une certaine manière le plus réconfortant, est que 2014 marquera le début des grands progrès dans la colonisation des plateaux continentaux. Le logement sous-marin sera prisé par les amateurs de sports nautiques, et encouragera sans aucun doute une meilleure exploitation des ressources maritimes, nutritives et minérales. La General Motors a exposé, dans sa présentation de 1964, une maquette d’hôtel sous-marin d’un luxe alléchant. L’Exposition Universelle de 2014 présentera des villes de fonds marins, avec des lignes de bathyscaphes transportant hommes et matériel dans les abysses.

L’agriculture traditionnelle aura beaucoup de difficultés à s’adapter. Des fermes se spécialiseront dans la culture de micro-organismes plus efficaces. Les produits à base de levures et d’algues transformées seront disponibles dans de multiples saveurs. L’Exposition Universelle de 2014 comportera un bar à algues, dans lequel des imitations de dinde et des pseudo-steaks seront servis. Ce ne sera pas mauvais du tout (si vous pouvez supporter ces prix élevés), mais il y aura une barrière psychologique importante à lever face à une telle innovation.

En 2014 la technologie continuera à suivre la croissance démographique au prix d’immenses efforts et avec un succès incomplet. Seule une partie de la population mondiale profitera pleinement de ce monde gadgétisé. L’autre, plus grande encore qu’aujourd’hui en sera privée et, en attendant de pouvoir accéder à ce qui se fait de mieux, matériellement parlant, sera en retard comparée aux parties du monde les plus développées. Ils auront même régressé.

La technologie ne peut plus continuer à suivre la croissance démographique si celle-ci reste incontrôlée. Pensez au Manhattan de 1964, avec une densité de population de 32 000 habitants au kilomètre carré la nuit, et de plus de 40 000 pendant la journée de travail. Si la Terre entière, y compris le Sahara, l’Himalaya, le Groenland, l’Antartique et chaque kilomètre carré des fonds marins, au plus profond des abysses, était aussi peuplée que Manhattan à midi, vous conviendrez sûrement qu’aucun moyen pour subvenir à une telle population (et encore moins pour lui apporter un certain confort) ne serait envisageable. En fait, ces moyens deviendraient insuffisants bien avant que ce Manhattan géant ne soit atteint.

Et bien, la population de la Terre approche maintenant des 3 milliards et double tous les 40 ans. Si cette croissance se confirme, le monde deviendra un Manhattan géant d’ici seulement 500 ans. Toute la Terre ne sera qu’une unique ville comme Manhattan d’ici l’année 2450 et la société s’écroulera bien avant cela !

Il n’y a que deux façon d’éviter cela: (1) élever le taux de mortalité (2) baisser le taux de natalité. Indubitablement, le monde de 2014 se sera mis d’accord sur la deuxième méthode. En effet, l’utilisation croissante des appareils mécaniques pour remplacer les cœurs et les reins défaillants, et le soin de l’arteriosclérose et de la rupture d’anévrisme auront repoussé le taux de mortalité encore plus loin et auront rehaussé l’espérance de vie dans certaines parties du monde à l’âge de 85 ans.

Il y aura, par conséquent, une propagande mondiale en faveur du contrôle de la natalité par des méthodes rationnelles et humaines et, en 2014, elles auront sans aucun doute de sérieux effets. L’inflation démographique aura sensiblement baissé, je suppose, mais pas suffisamment.

L’une des présentations les plus importantes de l’Exposition de 2014 sera donc une série de conférences, de films et de matériel documentaire au Centre de Contrôle de la Population Mondiale (pour adultes uniquement ; projections spéciales pour les adolescents).

La situation empirera du fait des progrès de l’automatisation. Seuls quelques emplois de routine persisteront pour lesquels les machines ne remplacent pas l’être humain. En 2014 l’humanité leur sera asservie. Les écoles devront être réorientées dans cette direction. Une partie de la présentation de la General Electric d’aujourd’hui est une école du futur dans laquelle les réalités actuelles comme la télé en circuit-fermé et les bandes pré-enregistrées facilitent le processus d’apprentissage. Cependant, ce ne sont pas uniquement les techniques qui évolueront dans l’enseignement, mais également les contenus. Tous les élèves de l’enseignement secondaire apprendront les fondamentaux de la programmation, deviendront des as en arithmétique binaire, et seront formés à la perfection à l’utilisation des langages informatiques qui auront été développés, comme le Fortran (NdT pour « Formula Translator », un langage utilisé en calcul scientifique).

Même ainsi l’humanité souffrira sévèrement d’ennui, un mal se propageant chaque année davantage et gagnant en intensité. Cela aura de sérieuses conséquences aux niveaux mental, émotionnel et social. La psychiatrie sera de loin la spécialité médicale la plus importante en 2014. Les rares chanceux qui auront un travail créatif seront la vraie élite de l’humanité, car eux seuls feront plus que servir une machine.

L’hypothèse la plus sombre que je puisse faire pour 2014 est que dans une société de loisirs forcés, le mot travail sera le plus valorisé du vocabulaire !

Crédit photo : Abode of Chaos (Creative Commons By)




La délicate question du modèle économique (Libres conseils 39/42)

Bientôt la dernière séance… rejoignez-nous jeudi prochain sur le framapad de traduction

Traduction Framalang : Ouve, tcit, Julius22, goofy, merlin8282, lamessen, Jej, Alpha

Sous-estimer la valeur d’un modèle économique pour le logiciel libre

Frank Karlitschek

Frank Karlitschek est né en 1973 à Reutlingen, en Allemagne, et a commencé à écrire des logiciels à l’âge de 11 ans. Il a étudié l’informatique à l’université de Tübingen et s’est impliqué dans le logiciel libre et les technologies de l’internet dans le milieu des années 1990. En 2001, il a commencé à contribuer à KDE en lançant KDE-Look.org, un site communautaire d’œuvres qui deviendrait plus tard le réseau openDesktop.org. Frank a initié plusieurs projets et initiatives open source comme Social Desktop, Open Collaboration Services, Open-PC et ownCloud. En 2007, il a fondé une société appelée hive01 qui offrait des services et des produits autour de l’open source et des technologies de l’internet. Aujourd’hui, Frank est membre du conseil et vice-président de KDE e.V. et c’est un intervenant habitué des conférences internationales.

Introduction

Il y a dix ans, j’ai sous-estimé la valeur d’un modèle économique. Logiciel libre et modèle économique ? Deux concepts incompatibles. Du moins, c’est ce que je pensais lorsque j’ai commencé à contribuer à KDE en 2001. Le logiciel libre, c’est pour le plaisir et pas pour l’argent. N’est-ce pas ? Les libristes veulent un monde où chacun peut écrire du logiciel et où les grandes entreprises, telles que Microsoft ou Google, sont superflues. Tout logiciel devrait être libre et tous ceux qui souhaitent développer du logiciel devraient en avoir la possibilité — même les développeurs du dimanche. Donc, gagner de l’argent importe peu. N’est-ce pas ? Aujourd’hui, j’ai une opinion différente. Les développeurs devraient parfois être rémunérés pour leurs efforts.

Les raisons d’être du logiciel libre

La plupart des développeurs de logiciels libres ont deux principales motivations pour travailler sur le logiciel libre. La première motivation est le facteur plaisir. C’est une expérience fantastique de travailler avec d’autres personnes très talentueuses du monde entier et de créer des technologies exceptionnelles. KDE, par exemple, est une des communautés les plus accueillantes que je connaisse. C’est tellement amusant de travailler avec des milliers de contributeurs du monde entier pour créer des logiciels qui seront utilisés par des millions de personnes. Pour faire simple, tout le monde est expert dans un ou plusieurs domaines et nous collaborons pour créer une vision partagée. Pour moi, c’est toujours génial de rencontrer d’autres contributeurs de KDE, d’échanger des idées ou de travailler sur nos logiciels ensemble, que nous nous rencontrions en ligne ou dans la vie réelle à une des nombreuses conférences ou événements. Et il s’agit aussi d’amitié. Au fil des années, je me suis fait beaucoup de bons amis au sein de KDE.

Mais les contributeurs de KDE ne sont pas uniquement motivés par le plaisir de rejoindre KDE. Il y a aussi l’idée que chacun de nous peut rendre le monde meilleur par nos contributions. Le logiciel libre est essentiel si vous vous souciez de l’accès à la technologie et à l’informatique pour les pays en voie de développement. Cela permet aux personnes pauvres d’avoir leur place dans l’ère de l’information sans acheter des licences coûteuses pour des logiciels propriétaires. Il est essentiel pour les personnes qui se soucient de la confidentialité et de la sécurité, parce que le logiciel libre est le seul et unique moyen de savoir exactement ce que votre ordinateur fait avec vos données privées. Le logiciel libre est important pour un écosystème informatique sain, parce qu’il permet à tout le monde de bâtir à partir du travail des autres et de vraiment innover. Sans le logiciel libre, il n’aurait pas été possible à Google ou Facebook de lancer leurs entreprises. Il n’est pas possible d’innover et de créer la nouvelle technologie marquante si vous dépendez de logiciels propriétaires et que vous n’avez pas accès à toutes les parties du logiciel.

Le logiciel libre est aussi indispensable pour l’éducation, parce que tout le monde peut voir les entrailles du logiciel et étudier son fonctionnement. C’est comme cela que le logiciel libre contribue à faire du monde un endroit meilleur et c’est pourquoi je participe à des projets de logiciel libre comme KDE.

La nécessité d’un écosystème

Voilà les principales raisons pour lesquelles je veux que le logiciel libre et particulièrement le bureau libre soient largement répandus. Pour y parvenir, il nous faut bien plus de contributeurs qu’aujourd’hui. Par contributeurs, j’entends des gens qui écrivent les infrastructures centrales, le bureau et les grandes applications. Nous avons besoin de gens qui travaillent sur l’utilisabilité, sur les illustrations, sur la promotion et sur bien d’autres aspects importants. KDE est déjà une grande communauté avec des milliers de membres. Mais nous avons besoin de davantage de gens pour aider à rivaliser de manière sérieuse avec le logiciel propriétaire.

La communauté du logiciel libre est minuscule comparée au monde du logiciel propriétaire. D’un côté, ce n’est pas un problème car le modèle de développement logiciel distribué du monde du logiciel libre est bien plus performant que la façon d’écrire du logiciel à sources fermées. Un grand avantage est, par exemple, la possibilité de mieux réutiliser du code. Mais même avec ces avantages, nous avons besoin de bien plus de contributeurs qu’aujourd’hui si nous voulons réellement conquérir le marché de l’ordinateur de bureau et celui du mobile.

Nous avons aussi besoin d’entreprises pour nous aider à apporter notre travail sur le marché de masse. Bref, nous avons besoin d’un grand écosystème en forme permettant de vivre en travaillant sur le logiciel libre.

La situation actuelle

J’ai commencé à contribuer à KDE il y a plus de 10 ans et, depuis, j’ai vu d’innombrables volontaires très motivés et talentueux rejoindre KDE. C’est vraiment génial. Le problème, c’est que j’ai aussi vu beaucoup de contributeurs expérimentés abandonner KDE. C’est vraiment triste. Parfois, c’est simplement la marche normale du monde : les priorités changent et les gens se concentrent sur autre chose. Le problème, c’est que beaucoup abandonnent aussi à cause de l’argent. Il arrive un moment où les gens décrochent leur diplôme et veulent bouger de leur chambre d’étudiant.

Plus tard, ils veulent se marier et avoir des enfants. À partir de là, ils doivent trouver du travail. Il y a quelques entreprises dans l’écosystème de KDE qui proposent des postes liés à KDE. Mais cela ne représente qu’une petite part des emplois disponibles dans le secteur informatique. Du coup, beaucoup de membres chevronnés de KDE doivent travailler dans des entreprises où ils doivent utiliser des logiciels propriétaires qui n’ont rien à voir avec KDE ou le logiciel libre. Tôt ou tard, la plupart de ces développeurs abandonnent KDE. J’ai sous-estimé cette tendance il y a 10 ans, mais je pense que c’est un problème pour KDE sur le long terme, parce que nous perdons nos membres les plus expérimentés au profit des entreprises de logiciel propriétaire.

Le monde de mes rêves

Dans le monde idéal que j’imagine, les gens peuvent payer leur loyer en travaillant sur les logiciels libres et ils peuvent le faire de telle sorte que ça n’entre pas en conflit avec nos valeurs. Ceux qui contribuent à KDE devraient avoir tout le temps qu’ils veulent pour contribuer à KDE et au monde libre en général. Ils devraient gagner de l’argent en aidant KDE. Leur passe-temps deviendrait leur travail. Cela permettrait à KDE de se développer de manière spectaculaire, parce que ce serait super de contribuer et de fournir en même temps de bonnes perspectives d’emploi stables et à long terme.

Quelles possibilités avons-nous ?

Du coup, quelles sont les solutions possibles ? Que pouvons-nous faire pour que ça arrive ? Y a-t-il des moyens pour que les développeurs paient leur loyer tout en travaillant sur du logiciel libre ? Je voudrais exposer ici quelques idées que j’ai rassemblées au cours de plusieurs discussions avec des contributeurs au logiciel libre. Certaines d’entre elles sont probablement polémiques, parce qu’elles introduisent des idées complètement neuves au sein du monde du logiciel libre. Mais je pense qu’il est essentiel pour nous de voir au-delà de notre monde actuel si nous voulons mener à bien notre mission.

Du développement sponsorisé

Aujourd’hui, de plus en plus d’entreprises apprécient l’importance du logiciel libre et contribuent à des projets de logiciels libres, ou sortent même leurs propres projets de logiciel libre. C’est une chance pour les développeurs de logiciels libres. Nous devrions parler à davantage d’entreprises et les convaincre de s’associer au monde du logiciel libre.

Des dons de la part des utilisateurs

Il devrait y avoir une manière facile pour les utilisateurs de donner de l’argent directement aux développeurs. Si un utilisateur d’une application populaire veut soutenir le développeur et promouvoir ses développements à venir pour cette application, donner de l’argent devrait ne tenir qu’à un clic de souris. Le système de dons peut être construit au sein même de l’application pour rendre le don d’argent aussi facile que possible.

Des primes

L’idée derrière les primes est qu’un ou plusieurs utilisateurs d’une application peuvent payer pour le développement d’une fonctionnalité particulière. Un utilisateur peut soumettre la liste de ses demandes de nouvelles fonctionnalités sur un site web et annoncer combien il est prêt à payer pour cela. D’autres utilisateurs qui apprécient ces propositions pourraient ajouter de l’argent à la demande de fonctionnalité. Au bout d’un moment, le développeur commence à mettre au point la fonctionnalité et récupère l’argent des utilisateurs. Cette possibilité de primes n’est pas facile à introduire dans le processus. Des gens ont déjà essayé de mettre en place quelque chose de similaire, sans succès. Mais je pense que ça peut marcher si on s’y prend bien.

Du support

L’idée est que le développeur d’une application vende directement du support aux utilisateurs de l’application. Par exemple, les utilisateurs d’une application achètent du support pour, supposons, 5 € par mois et obtiennent le droit d’appeler directement le développeur à des plages horaires spécifiques de la journée, ils peuvent poser des questions à une adresse de courriel spécifique, ou le développeur peut  même aider les utilisateurs par le biais d’un bureau à distance. J’ai bien conscience que beaucoup de développeurs n’aimeront pas l’idée que les utilisateurs puissent les appeler et leur poser des questions bizarres. Mais si cela signifie qu’ils gagnent suffisamment avec le système de support pour travailler à plein temps sur leurs applications, alors c’est certainement une bonne chose.

Des soutiens

L’idée c’est que les utilisateurs finaux puissent devenir les soutiens d’une application. Le bouton « Soutenez ce projet » pourrait être intégré directement dans l’application. L’utilisateur devient alors un soutien par un paiement mensuel de, par exemple, 5 € qui vont directement au développeur. Tous les soutiens sont listés dans la fenêtre « À propos de l’application » avec leurs photos et leurs noms réels. Une fois par an, tous les soutiens sont aussi invités à une fête spéciale avec les développeurs. Il est possible qu’un développeur puisse devenir capable de travailler à plein temps sur une application, si assez d’utilisateurs deviennent des soutiens.

Des programmes de fidélité

Certaines applications ont intégré des services web, et certains de ces services Web exécutent des programmes affiliés. Par exemple, un lecteur multimédia peut être intégré à la boutique en ligne de MP3 Amazon ou un lecteur PDF peut être intégré à une boutique en ligne de livres numériques. À chaque fois qu’un utilisateur achète du contenu via cette application, le développeur obtient un peu d’argent.

Des magasins d’applications sous forme de binaires

Beaucoup de gens ne savent pas qu’il est possible de vendre des binaires de logiciels libres. La licence GPL exige simplement de fournir également le code source. Il est donc parfaitement légal de vendre des binaires bien empaquetés de notre logiciel. En réalité, les sociétés comme Red Hat et Novell vendent déjà notre logiciel dans leurs distributions commerciales. Mais les développeurs n’en bénéficient pas directement. Tous les revenus vont aux sociétés et rien ne va aux développeurs. On devrait donc permettre aux développeurs de logiciels libres de vendre à l’utilisateur final des applications bien empaquetées, optimisées et testées. Cela pourrait particulièrement bien fonctionner pour Mac ou Windows. Je suis sûr qu’un tas de gens seraient prêts à payer quelque chose pour des binaires d’Amarok pour Windows ou de digiKam pour Mac, si tout l’argent allait directement au développeur.

Conclusion

La plupart de ces idées ne sont pas faciles à mettre en œuvre. Cela nécessite de modifier notre logiciel, nos méthodes de travail et même nos utilisateurs, qu’il faut encourager à montrer qu’ils apprécient le logiciel que nous créons, en nous aidant à financer son développement. 

Cependant, les bénéfices potentiels sont énormes. Si nous pouvons assurer des sources de revenus pour notre logiciel, nous pouvons conserver nos meilleurs contributeurs et peut-être en attirer de nouveaux. Nos utilisateurs auront une meilleure expérience avec un développement logiciel plus rapide, la possibilité d’influencer directement le développement par le biais de primes et un meilleur support.

Le logiciel libre n’est plus seulement un loisir sur votre temps libre. Il est temps d’en faire un business.




Préparer un logiciel à sa diffusion (Libres conseils 29/42)

Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.

Traduction Framalang : merlin8282, Sphinx, Julius22, goofy, lerouge, lamessen, Asta, peupleLà, okram

Packager : la voie royale du logiciel libre

Thorn May

Thom May est développeur Debian et membre émérite de la fondation Apache. Il a été parmi les premiers à être engagés chez Canonical, l’entreprise mère d’Ubuntu. Il vit aujourd’hui à Londres et dirige l’unité de développement chez MacMillan Digital Science.

Introduction

Ça fait plus de dix ans que j’ai débuté dans le monde du logiciel libre. J’avais utilisé Debian pendant quelques années à l’université et décidé que je voulais donner quelque chose en retour. J’ai donc commencé un long voyage à travers les étapes permettant de devenir un « nouveau responsable Debian » sans avoir jamais vraiment contribué au logiciel libre auparavant et inquiet qu’un manque d’expérience en C pourrait se révéler être un gros problème.

Il s’avéra que cette inquiétude était largement infondée. En commençant à travailler avec des paquets que j’utilisais régulièrement, j’ai pu contribuer efficacement. En même temps que mon expérience avec la myriade d’outils et de systèmes que Debian fournit à ses mainteneurs s’accroissait, je devenais plus efficace pour gérer mon temps et j’étais capable de travailler sur un ensemble de paquets plus étendu.

M’occuper de davantage de paquets m’amena à travailler avec un ensemble plus important de systèmes de compilation, de langages de programmation et de boîtes à outils. Cela m’aida également à m’intégrer à la communauté Debian. Aussi rugueuse et dogmatique soit-elle, le fait que la communauté Debian repose sur des mainteneurs doués et expérimentés est l’une des raisons principales pour lesquelles Debian a maintenu son excellence technique sur une si longue période.

À peu près à ce moment, le projet Apache httpd approchait enfin des premières versions bêta de httpd 2.0 qui était restée des années en chantier et était sur le point de subir une mise à jour majeure. L’équipe Apache de Debian avait été plutôt inactive depuis quelques temps — les paquets de la version 1.3 étaient stables et changeaient peu — et n’avait pas prévu d’empaqueter la version 2.0. J’avais un intérêt majeur à garantir que les paquets httpd étaient bien maintenus. Je travaillais comme administrateur système en charge de nombreux serveurs web Apache, il tombait donc sous le sens que je devais relever le défi de la production de paquets pour la nouvelle version.

Avec un ami, nous avons commencé le travail sur les paquets et nous avons rapidement découvert que, alors que le code approchait le niveau de qualité d’une bêta toute fraîche, l’outillage autour de la compilation et de la personnalisation de httpd était hélas manquants, ce qui est assez représentatif de bien des projets logiciels complexes.

Au cours de la majeure partie de l’année — alors que les développeurs en amont stabilisaient leur code et qu’un nombre croissant d’utilisateurs précoces commençaient à tester et à déployer la nouvelle version — nous avons travaillé dur pour garantir que le système de compilation soit suffisamment flexible et robuste pour satisfaire aux rigoureux prérequis de la politique de Debian. Nous devions non seulement garantir que nos paquets étaient techniquement corrects, mais également nous assurer que notre relation avec les développeurs en amont nous permettait de leur faire remonter des correctifs dès que possible, de les avertir dès que des problèmes de sécurité faisaient surface et de leur transmettre les tests préliminaires des versions candidates.

Mes interactions avec Apache pendant l’empaquetage et la maintenance de httpd 2.0 m’ont amené à m’engager en amont du projet, ce qui signifiait que je pouvais directement contribuer au code. C’est, en général, la dernière étape avant de passer de l’empaquetage d’un logiciel à son développement actif à destination d’un public plus large que celui de votre distribution. À titre personnel, cette reconnaissance m’a donné la confiance pour contribuer à bien plus de projets libres puisque je savais que mon code était de qualité suffisante pour être bien accueilli.

L’évolution, du packager au développeur

Comment est-ce arrivé ? La création de paquets, dans sa forme la plus simple, permet d’assurer qu’un projet logiciel donné se conforme à la politique de la distribution ; dans mon cas, Debian. De manière générale, cela signifie configurer le logiciel au moment de la compilation afin qu’il soit installé dans les répertoires idoines spécifiés par le Filesystem Hierarchy Standard, ou FHS (NdT : Norme de la hiérarchie des systèmes de fichiers), que les dépendances aux autres paquets soient correctement spécifiées et que les logiciels fonctionnent normalement sur la distribution.

La création de paquets complexes peut nécessiter la division d’un projet en amont en de multiples paquets. Par exemple, les bibliothèques et les fichiers d’en-tête permettant à l’utilisateur de compiler le logiciel avec leur bibliothèque sont fournis dans des paquets distincts, et des fichiers dépendant de la plate-forme peuvent être fournis séparément de ceux qui en sont indépendants. S’assurer que le logiciel en amont se déploie correctement dans ces situations nécessitera souvent des changements dans le code. Ces changements sont la première étape vers un travail actif sur un projet, plutôt que le travail parfois passif de création de paquet.

Une fois que votre paquet est disponible dans la distribution, il est exposé à des millions d’utilisateurs potentiels. Ces utilisateurs vont sans aucun doute exécuter votre logiciel selon des pratiques que ni vous, en tant que packager, ni vos développeurs en amont n’aviez prévues. Sans surprise, avoir de nombreux utilisateurs implique l’arrivée de nombreux rapports de bogue. Debian, comme la plupart des distributions, encourage ses utilisateurs à lui soumettre directement les rapports de bogue plutôt qu’à chacun des projets individuels en amont. Ceci permet aux mainteneurs de trier les rapports de bogue et d’assurer que les modifications effectuées lors du processus de création de paquet ne sont pas la cause du problème rapporté. Souvent, il peut y avoir un grand nombre d’interactions entre le rapporteur du problème et le mainteneur du paquet avant que les développeurs en amont ne soient impliqués.

Au fur et à mesure que le mainteneur du paquet accroît sa connaissance du projet, il sera en mesure de résoudre directement la plupart des problèmes. Le mainteneur publiera souvent des correctifs de bogue directement dans Debian tout en les faisant remonter en amont, permettant ainsi à la fois une résolution rapide des problèmes et de nombreux tests de correctifs. Une fois qu’un correctif est validé, le mainteneur travaillera alors avec le projet amont pour s’assurer que les changements requis y ont bien lieu, de manière à ce qu’ils soient disponibles aux autres utilisateurs du logiciel.

Fournir des correctifs de bogue réussis pour des distributions telles que Debian relève souvent d’une forme complexe d’art. Debian fonctionne sur de nombreuses plates-formes, allant des gros serveurs IBM aux smartphones, et la gamme ainsi que la largeur de ces plates-formes révèlent rapidement les approximations dans le code. L’empaqueteur a, la plupart du temps, un accès plus aisé à une gamme de plates-formes plus étendue que les développeurs en amont et constitue, de ce fait, le premier point d’appel quand un problème épineux de portage apparaît. On apprend rapidement à reconnaître les symptômes d’une approximation de la taille d’un pointeur, les problèmes avec les endianness et bien d’autres problèmes ésotériques ; cette expérience permet de devenir un programmeur à la fois plus polyvalent et plus prudent.

Lorsqu’un paquet reçoit des corrections de bogues et des améliorations, il est essentiel que ces changements remontent en amont. Trop souvent, la différence entre un paquet et le logiciel définitif en amont peut s’accroître énormément, avec pour conséquence que les deux bases de code deviennent presque entièrement distinctes. Non seulement, cela alourdit la tâche de la maintenance des deux côtés, mais cela peut aussi créer une immense frustration et faire perdre beaucoup de temps en amont dans le cas où un utilisateur de votre paquet rapporte un bogue lié à l’un des changements dans la version empaquetée en amont. Il est en conséquence vital que s’établissent une relation de travail étroite avec la branche amont et une compréhension de la meilleure façon de collaborer entre les deux parties.

La collaboration entre les développeurs et le packager peut prendre bien des formes. Que ce soit trouver la bonne voie pour communiquer les rapports de bogue, s’assurer de l’utilisation du bon style de codage, du même usage du système de contrôle de version ou des interactions qui provoquent le moins de frictions possible. Tout ceci amène une bien meilleure relation avec l’amont et accroît grandement la probabilité que ceux qui y travaillent prendront le temps de vous aider quand vous en aurez besoin.

Une fois que la relation de travail entre l’amont et vous est établie, il devient facile de contribuer plus directement en amont. Ceci peut également se faire de bien des façons différentes. Les premières étapes, simples, peuvent impliquer la synchronisation de n’importe quel rapport de bogue en amont avec ceux de votre distribution, afin d’être sûr que ce double effort impacte la cause primaire et résolve des bogues. Une implication plus directe consiste à développer des fonctionnalités et à changer plus largement que ce qui serait acceptable dans le cadre d’une version empaquetée.

Conclusion

Je pense que les deux choses essentielles que j’aurais aimé connaître lorsque j’ai commencé sont le sens de la communauté que le logiciel libre fait naître et la merveilleuse voie que le packaging de logiciel libre ouvre vers le plus vaste monde du logiciel libre

La communauté est essentielle au succès du logiciel libre. Elle se présente sous différentes formes, de la multitude d’utilisateurs souhaitant investir du temps dans l’amélioration de votre logiciel, jusqu’aux pairs d’une distribution ou d’un projet logiciel, qui investissent leur temps et leur énergie à affûter vos compétences et à s’assurer que vos contributions sont aussi bonnes que possible.

La voie qui part du packaging pour aller vers le développement est l’une des plus empruntées. Elle présente une courbe d’apprentissage moins raide qu’aborder directement le développement et permet d’acquérir des compétences à un rythme moins soutenu qu’en suivant d’autres chemins.




Débat : 9 points (ou tabous ?) jamais (ou rarement) discutés dans le logiciel libre

Nous traduisons souvent Bruce Byfield, libre penseur du logiciel libre, sur le Framablog.

A-t-il raison d’affirmer qu’il est des sujets pour ainsi dire tabous dans la communauté et surtout que la situation a évolué, n’en déplaise à certains ?

Laëtitia Dulac - CC by

Neuf choses dont on ne discute jamais sur l’open source

9 Things That Are Never Admitted About Open Source

Bruce Byfield – 22 janvier 2013 – Datamation
(Traduction : Moosh, brandelune, Sky, ehsavoie, Astalaseven, petit bonhomme noir en haut à droite, mike, goofy, KoS, Mowee, arcady, maxlath, Astalaseven, mariek, VifArgent, Rudloff, VIfArgent, Penguin, peupleLa, Vilrax, lamessen + anonymous)

Quels sont les sujets tabous dans l‘open source de nos jours ? Certains peuvent se deviner mais d’autres pourraient bien vous surprendre.

On pourrait penser qu’un groupe de personnes intelligentes comme les membres de la communauté des logiciels libres et open source (NdT : FOSS pour Free and Open Source Software) seraient sans tabous. On pourrait s’attendre à ce qu’un tel groupe d’intellectuels juge qu’aucune idée n’est interdite ou gênante – mais ce serait une erreur.

Comme toute sous-culture, la communauté FOSS est cimentée par des croyances. Ces croyances contribuent à bâtir une identité commune : par conséquent, les remettre en cause revient à remettre en cause cette identité.

Certains de ces sujets tabous peuvent saper des évidences admises depuis vingt ans ou plus. D’autres sont nouveaux et contestent des vérités communément acceptées. Quand on les examine, on s’aperçoit que chacun d’entre eux peut être aussi menaçant que la déclaration de valeurs communes peut être rassurante.

Pourtant, même s’il est inconfortable d’interroger ces tabous, il est souvent nécessaire de le faire. Les croyances peuvent perdurer longtemps après le temps où elles s’appliquaient, ou après avoir dégénéré en semi-vérités. Il est utile de temps en temps de penser l’impensable, ne serait-ce que pour mettre ces croyances en phase avec la réalité.

Suivant cette logique, voici neuf observations sur l‘open source qui nécessitent selon moi un nouvel examen.

1. Ubuntu n’est plus le dernier grand espoir de l’open source

Quand Ubuntu est apparue il y a neuf ans, nombreux sont ceux qui l’ont considérée comme la distribution qui mènerait la communauté à dominer le monde. Débarquant de nulle part, Ubuntu s’est immédiatement concentrée sur le bureau comme aucune autre distribution avant elle. Des outils et des utilitaires furent ajoutés. De nombreux développeurs Debian trouvèrent un travail chez Canonical, la branche commerciale d’Ubuntu. Des développeurs virent leurs frais payés pour des conférences auxquelles ils n’auraient pas pu se rendre autrement.

Au fil du temps, une bonne partie de l’enthousiasme initial est retombée. Personne ne semble s’être intéressé à la demande de Mark Shuttleworth, le fondateur d’Ubuntu, à ce que les principaux projets coordonnent leurs cycles de livraison ; ils l’ont tout simplement ignorée. Mais on a vu des sourcils se froncer lorsqu’Ubuntu a commencé à développer sa propre interface plutôt que de contribuer à GNOME. Canonical a commencé à contrôler ce qui se passait dans Ubuntu, apparemment pas pour l’intérêt général mais surtout pour la recherche de profits. Nombreux, aussi, furent ceux qui n’apprécièrent pas l’interface d’Ubuntu, Unity, à sa sortie.

Pourtant, à écouter les employés de Canonical, ou les bénévoles Ubuntu, on aurait presque l’impression qu’il ne s’est rien passé pendant ces neuf dernières années. Lisez notamment le blog de Shuttleworth ou ses déclarations publiques : il se donne le rôle de figure de proue de la communauté et déclare que les « hurlements des idéologues » finiront par cesser devant son succès.

2. Le « cloud computing » sape les licences libres

Il y a sept ans, Tim O’Reilly affirmait que les licences libres étaient devenues obsolètes. C’était sa manière un peu dramatique de nous prévenir que les services en ligne mettent à mal les objectifs du logiciel libre. Comme le logiciel, le cloud computing offre aux utilisateurs l’usage gracieux des applications et du stockage, mais sans aucune garantie ou contrôle quant à la vie privée.

La Free Software Foundation (NdT : Fondation pour le Logiciel Libre) répondit à la popularité grandissante du cloud computing en dépoussiérant la GNU Affero General Public License, qui étend les idéaux du FOSS au cloud computing.

Après cela, pourtant, les inquiétudes à propos de la liberté logicielle au sein du cloud ont faibli. Identi.ca fut créé comme une réponse libre à Twitter, et MediaGoblin développé comme l’équivalent libre d’Instagram ou de Flickr, mais ce genre d’efforts est occulté par la compétition. On n’a pas mis l’accent sur l’importance des licences libres ou du respect de la vie privée dans le cloud.

Par conséquent, les avertissements de O’Reilly sont toujours aussi pertinents de nos jours.

3. Richard Stallman est devenu un atout contestable

Le fondateur de la Free Software Foundation et le moteur derrière la licence GNU GPL, Richard M. Stallman, est une des légendes des logiciels libres et open source. Pendant des années, il a été l’un des plus ardents défenseurs de la liberté du logiciel et la communauté n’existerait probablement pas sans lui.

Ce que ses supporters rechignent à admettre, c’est que la stratégie de Stallman a ses limites. Nombreux sont ceux qui disent que c’est un handicapé social, et que ses arguments se basent sur la sémantique — sur les mots choisis et comment ils influencent le débat.

Cette approche peut être éclairante. Par exemple, lorsque Stallman s’interroge sur l’analogie entre le partage de fichiers et les pillages perpétrés par les pirates, il révèle en fait le parti-pris que l’industrie du disque et du cinéma tente d’imposer.

Mais, malheureusement, c’est à peu près la seule stratégie de Stallman. Il dépasse rarement ce raisonnement qu’il utilise pour fustiger les gens, et il se répète même davantage que des personnes qui passent leur temps à faire des discours. Il est perçu de plus en plus, par une partie de la communauté, comme quelqu’un hors de propos voire même embarrassant. Comme quelqu’un qui fut efficace… mais ne l’est plus. Il semble que la communauté a du mal à admettre l’idée que Stallman a eu un impact certain pendant des années, mais qu’il est moins utile aujourd’hui. Soit il est défendu férocement pour son passé glorieux, soit il est attaqué comme un usurpateur parasite. Je crois que les affirmations concernant ce qu’il a accompli et son manque d’efficacité actuel sont vraies toutes les deux.

4. L’open source n’est pas une méritocratie

L’une des légendes que les développeurs de logiciels libres aiment à se raconter est que la communauté est une méritocratie. Votre statut dans la communauté est censément basé sur vos dernières contributions, que ce soit en code ou en temps.

L’idée d’une méritocratie est très attirante, en cela qu’elle forme l’identité du groupe et assure la motivation. Elle encourage les individus à travailler de longues heures et donne aux membres de la communauté un sentiment d’identification et de supériorité.

Dans sa forme la plus pure, comme par exemple au sein d’un petit projet où les contributeurs ont travaillé ensemble pendant de nombreuses années, la méritocratie peut exister.

Mais le plus souvent, d’autres règles s’appliquent. Dans de nombreux projets, ceux qui se chargent de la documentation ou bien les graphistes sont moins influents que les programmeurs. Bien souvent, vos relations peuvent influencer la validation de votre contribution au moins autant que la qualité de votre travail.

De même, la notoriété est plus susceptible d’influencer les décisions prises que le grade et les (surtout si elles sont récentes) contributions. Des personnes comme Mark Shuttleworth ou des sociétés comme Google peuvent acheter leur influence sur le cours des choses. Des projets communautaires peuvent voir leurs instances dirigeantes dominées par les sponsors privés, comme c’est de fait le cas avec Fedora. Bien que la méritocratie soit l’idéal, ce n’est presque jamais la seule pratique.

5. L’open source est gangrené par un sexisme systémique

Une autre tendance qui plombe l’idéal méritocratique est le sexisme (parfois sour la forme de la misogynie la plus imbécile) que l’on trouve dans quelques recoins de la communauté. Au cours des dernières années, les porte-parole du FOSS ont dénoncé ce sexisme et mis en place des règles officielles pour décourager quelques uns de ses pires aspects, comme le harcèlement pendant les conférences. Mais le problème demeure profondément ancré à d’autres niveaux.

Le nombre de femmes varie selon les projets, mais 15 à 20 pour cent peut être considéré comme un chiffre élevé pour un projet open source. Dans de nombreux cas, ce nombre est en dessous des cinq pour cent, même en comptabilisant les non-programmeurs.

De plus les femmes sont sous-représentées lors des conférences, à l’exception de celles où les femmes sont activement encouragées à faire part de leurs propositions (ces efforts entraînent, inévitablement, leur lot d’accusations quant à des traitements spéciaux et des quotas, quand bien même aucune preuve ne peut être avancée).

La plus grande évidence de sexisme se produit quotidiennement. Par exemple, Slashdot a récemment publié un entretien avec Rikki Ensley, membre de la communauté USENIX. Parmi les premiers commentaires, certains se référaient à une chanson populaire dont le refrain mentionne le prénom Rikki. D’autres discutent de son apparence et lui donnent des conseils pour avoir l’air plus « glamour ».

On assiste à des réactions du même ordre, et bien d’autres pires encore sur de nombreux sites dédiés au monde du libre ou sur IRC, dès qu’une femme apparaît, surtout s’il s’agit d’une nouvelle venue. Voilà qui dément les affirmations d’une communauté qui prétend ne s’intéresser qu’aux seules contributions, ou encore l’illusion que la sous-représentation des femmes serait simplement une question de choix individuels.

6. Microsoft n’est plus l’ennemi irréductible du logiciel libre

Il y a à peine plus d’une dizaine d’années, vous pouviez compter sur Microsoft pour traiter le monde du Logiciel Libre de « communiste » ou « anti-Américain », ou sur leurs intentions parfois divulguées dans la presse de vouloir détruire la communauté.

Une grande partie de la communauté s’accroche encore à ces souvenirs. Après tout, rien ne rassemble plus les gens qu’un ennemi commun, puissant et inépuisable.

Mais ce dont la communauté ne se rend pas compte, c’est que la réaction de Microsoft est devenue plus nuancée, et qu’elle varie d’un service à l’autre au sein de l’entreprise.

Nul doute que les dirigeants de Microsoft continuent de voir le logiciel libre comme un concurrent, bien que les dénonciations hautes en couleur aient cessé.

Cependant, Microsoft a pris conscience que, compte-tenu de la popularité du logiciel libre, les intérêts à court terme de l’entreprise seraient mieux servis si elle s’assurait que les outils libres (en particulier les langages de programmation les plus populaires) fonctionnent correctement avec ses propres produits. C’est d’ailleurs la mission principale du projet Microsoft Open Technologies. Récemment, Microsoft est même allé jusqu’à publier une courte déclaration faisant l’éloge de la dernière version de Samba, qui permet l’administration des serveurs Microsoft depuis Linux et les systèmes Unix (NdT : Voir aussi cette FAQ en français publiée par Microsoft).

Bien sûr, il ne faut pas non plus s’attendre à voir Microsoft devenir une entreprise open source ou faire des dons désintéressés d’argent ou de code à la communauté. Mais, si vous faites abstraction des vieux antagonismes, l’approche égoïste de Microsoft à l’égard du logiciel libre n’est pas très différente de nos jours de celle de Google, HP, ou n’importe quelle autre entreprise.

7. L’innovation des interfaces stagne

En 2012, nombreux furent ceux qui n’ont pas adopté GNOME 3 et Unity, les deux dernières interfaces graphiques majeures. Cet abandon fut largement lié à l’impression que GNOME et Ubuntu ignoraient les préoccupations des utilisateurs et qu’ils imposaient leur propre vision, sans concertation.

À court terme, cela a mené à la résurrection de GNOME 2 sous des formes variées.

En tant que prédécesseur de GNOME 3 et de Unity, GNOME 2 fut un choix évident. C’est une interface populaire qui n’impose que peu de restrictions aux utilisateurs.

Quoi qu’il en soit, cela risque d’être, à long terme, étouffant pour l’innovation. Non seulement parce que le temps passé à ressuciter GNOME 2 n’est pas mis à profit pour explorer de nouvelles voies, mais parce que cela semble être une réaction à l’idée même d’innovation.

Peu sont ceux, par exemple, qui sont prêts à reconnaître que GNOME 3 ou Unity ont des fonctionnalités intéressantes. Au contraire, les deux sont condamnés dans leur ensemble. Et les développements futurs, tels l’intention de GNOME de rendre la sécurisation et la confidentialité plus simples, n’ont pas reçu l’attention qu’ils méritaient.

Au final, au cours des prochaines années, l’innovation en sera probablement réduite à une série de changements ponctuels, avec peu d’efforts pour améliorer l’ergonomie dans son ensemble. Même les développeurs hésiteront à tenter quoi que ce soit de trop différent, afin d’éviter le rejet de leurs projets.

Je me dois d’applaudir le fait que les diverses résurrections de GNOME 2 marquent le triomphe des requêtes des utilisateurs. Mais le conservatisme qui semble accompagner ces aboutissements m’inquiète : j’ai bien peur que cette victoire n’engendre d’autres problèmes tout aussi importants.

8. L’open source est en train de devenir une monoculture

Ses partisans aiment à revendiquer que l’un des avantages du logiciel libre et open source, c’est d’encourager la diversité. À la différence de Windows, les logiciels libres sont supposés être plus accueillants pour les idées nouvelles et moins vulnérables aux virus, la plupart des catégories de logiciels incluant plusieurs applications.

La réalité est quelque peu différente. À la lecture d’une étude utilisateurs vous remarquerez un modèle plutôt constant : une application ou technologie recueille 50 à 65% des votes, et la suivante 15 à 30%.

Par exemple, parmi les distributions, Debian, Linux Mint et Ubuntu, qui utilisent toutes le format de packet en .DEB, recueillent 58% du choix des lecteurs 2012 du Linux Journal, que l’on peut comparer aux 16% recueillis par Fedora, openSUSE, et CentOS, qui utilisent quant à elles le format .RPM.

De même, Virtualbox atteint 56% dans la catégorie « Meilleure solution de virtualisation », et VMWare 18%. Dans la catégorie « Meilleure gestion de versions », Git recueille 56% et Subversion 18%. La catégorie la plus asymétrique est celle des « Suites bureautiques » dans laquelle LibreOffice recueille 73% et (sic) Google Docs 12%.

Il n’y avait que deux exceptions à cette configuration. La première était la catégorie « Meilleur environnement de bureau », dans laquelle la diversification des dernières années était illustrée par les scores de 26% pour KDE, 22% pour GNOME 3, 15% pour GNOME 2 et 12% pour Xfce. La deuxième catégorie était celle de « Meilleur navigateur web »dans laquelle Mozilla Firefox recueillait 50% et Chromium 40%.

De manière générale, les chiffres ne rendent pas compte d’un monopole, mais dans la plupart des catégories, la tendance est là. Au mieux, on pourrait dire que, si la motivation n’est pas le profit, le fait d’être moins populaire n’implique pas que l’application va disparaître. Mais si la concurrence est saine, comme tout le monde aime à le dire, il y a tout de même des raisons de s’inquiéter. Quand on y regarde de près, les logiciels libres sont loin d’être aussi diversifiés que ce que l’on croit.

9. Le logiciel libre est bloqué si près de ses objectifs

En 2004, les logiciels libres et open source en étaient au stade où ils couvraient la plupart des usages de base des utilisateurs : envoi de courriels, navigation sur internet et la plupart des activités productives sur ordinateur. En dehors des espoirs de disposer un jour d’un BIOS libre, il ne manquait plus que les pilotes pour les imprimantes 3D et les cartes WiFi pour atteindre l’utopie d’un système informatique entièrement libre et open source.

Neuf ans plus tard, de nombreux pilotes libres de carte WiFi et quelques pilotes libres de cartes graphiques sont disponibles – mais nous sommes loin du compte. Pourtant la Free Software Foundation ne mentionne que rarement ce qui reste à faire, et la Linux Foundation ne le fait pratiquement jamais, alors même qu’elle sponsorise l’OpenPrinting database, qui liste les imprimantes ayant des pilotes libres. Si l’on combinait les ressources des utilisateurs de Linux en entreprise, on pourrait atteindre ces objectifs en quelques mois, pourtant personne n’en fait une priorité.

Admettons que certaines entreprises se préoccupent de leur soi-disant propriété intellectuelle sur le matériel qu’elles fabriquent. Il est possible également que personne ne veuille courir le risque de fâcher leurs partenaires commerciaux en pratiquant la rétroingénierie. Pourtant, on a bien l’impression que l’état actuel de statu quo persiste parce que c’est déjà bien assez, et que trop peu de personnes ont à cœur d’atteindre des objectifs dont des milliers ont fait le travail de leur vie.

Des discussions, non des disputes

Certains ont peut-être déjà conscience de ces sujets tabous. Cependant, il est probable que chacun trouvera dans cette liste au moins un sujet pour se mettre en rogne.

Par ailleurs, mon intention n’est pas de mettre en place neuf aimants à trolls. Même si je le voulais, je n’en aurais pas le temps.

Ces lignes sont plutôt le résultat de mes efforts pour identifier en quoi des évidences largement admises dans la communauté devraient être remises en question. Je peux me tromper. Après tout, je parle de ce que j’ai pris pour habitude de penser, moi aussi. Mais au pire, cette liste est un bon début.

Si vous pensez qu’il y a d’autres sujets tabous à aborder et à reconsidérer au sein de la communauté des logiciels libres et open source, laissez un commentaire. Cela m’intéresse de voir ce que je pourrais avoir oublié.

Crédit photo : Laëtitia Dulac (Creative Commons By)