Des ponts entre les hommes (Libres conseils 42/42)

Voici traduit en français le dernier épisode du recueil de conseils OpenAdvice, Notre expérience collaborative sur le pads de traduction s’est avérée un marathon (presque 42 kilomètres aussi) parcouru quelquefois au grand galop par une quasi-centaine de relayeurs. Merci à tous ceux qui sont passés parfois pour risquer un mot ou une phrase, parfois pour dévorer des paragraphes entiers, voire pour devenir des habitués indispensables d’une séance à l’autre.

L’aventure toutefois n’est pas terminée, des membres de Framalang vont maintenant réviser l’ensemble des traductions réunies sur la plateforme Booktype, et préparer un .PDF qui sera lui-même révisé avant le Framabook qui devrait paraître… quand il sera prêt.

Il est un peu tôt pour annoncer les dates avec certitude, mais Paris en mai et Bruxelles en juillet auront la primeur de la publication. Restez tunés !

* * * * *

Traduction Framalang : Ouve, Julius22, Sphinx, AC!63, jcr83, goofy, peupleLà, merlin8282, Sinma, tcit, SaSha_01, lamessen, Sky, jpierre03

Lancer des ponts

Shane Coughlan

Shane Coughlan est un expert en méthodes de communication et en développement d’affaires. Il est surtout connu pour créer des passerelles entre les différentes parties, commerciales et non commerciales, dans le secteur des technologies. Au plan professionnel il a œuvré avec succès pour la création d’un département juridique pour la Free Software Foundation Europe (FSFE), la principale organisation non gouvernementale pour la promotion du logiciel libre en Europe. Il a également contribué à l’établissement d’un réseau professionnel de plus de 270 experts juridiques et techniques à travers 27 pays, à la fondation d’un projet d’outil de conformité de code binaire. Il a travaillé à rapprocher intérêts privés et communautaires pour le lancement du premier examen critique d’une loi dédiée au logiciel libre et open source. Shane a une connaissance étendue des technologies de l’Internet, des bonnes pratiques de gestion, de la construction de communautés et du logiciel libre et open source.

Lorsque j’ai commencé à travailler dans le logiciel libre, j’ai été frappé par ce qui était perçu comme une différence entre les parties prenantes « communautaires » et « commerciales » dans ce domaine. Selon l’opinion largement admise à l’époque, les développeurs s’intéressaient au bidouillage du code  et les commerciaux utilisaient leur travail de manière contestable s’ils n’étaient pas surveillés de près. C’était une supposition relativement infondée et presque entièrement défendue par des gens qui s’identifiaient à la communauté plutôt qu’à ceux qui se préoccupaient davantage des intérêts commerciaux. Mais elle était très répandue.

Bien que je sois principalement associé à la partie communautaire des choses, j’ai résisté à l’idée selon laquelle il y aurait deux camps intrinsèquement ennemis se faisant face à propos de l’avenir du logiciel libre. Cela semblait trop simple pour décrire les dynamiques de contribution, d’utilisation et de support comme une interaction entre les nobles créateurs et les sournois téléchargeurs de gratuit. Cela semblait en effet plus être une situation dans laquelle la complexité, les changements et l’incertitude avaient conduit à la création de récits simplistes destinés à rassurer un peu ceux qui sortaient de leur position confortable. Je pouvais ressentir la tension ambiante, entendre les querelles autour des stands lors des rencontres et les commentaires acerbes ou bien les montées en pression dans les conférences. Mais que signifiait tout cela ?

Que nous parlions de contribution à des projets de logiciels libres, de gestion de projet ou de respect des licences, les relations entre les parties prenantes s’accompagnaient souvent de préjugés, d’un manque de communication et d’émotions négatives. Ceci conduisait ensuite à une plus grande complexité, à une augmentation proportionnelle de la difficulté à prendre des décisions unifiées ainsi qu’à résoudre les problèmes. Je savais que l’un des plus grands défis était de jeter des ponts entre les individus, les projets et les entreprises. C’est une étape nécessaire pour assurer une compréhension commune et une communication croisée des règles, des normes et des raisons qui sous-tendent les licences et autres mesures officielles qui régissent ce domaine. Mais le savoir ne suffit pas à trouver le moyen de s’attaquer efficacement au problème.

C’était la période charnière où la GPLv3 était en cours de rédaction. Les technologies fondées sur Linux commençaient à apparaître dans toutes sortes de produits électroniques grand public et le logiciel libre était sur le point de se démocratiser. Il y avait du changement dans l’air et les investissements commerciaux autour des principaux projets de logiciel libre atteignaient des sommets. Tout à coup, on voyait des employés de grandes entreprises s’atteler à des tâches complexes, on avait des fonds importants pour les événements. De nombreux logiciels cessaient d’être une simple question de plaisir et commençaient à connaître les jalons, les livrables, l’assurance qualité et l’ergonomie.

Ce fut probablement un sérieux bouleversement pour ceux qui réalisaient du logiciel libre depuis longtemps : la majeure partie de l’évolution du logiciel libre ne concernait pas seulement l’exploration et la perfection technique, mais aussi l’interaction sociale. C’était un bon moyen pour des gens intelligents bien que parfois bizarres de partager un intérêt commun, de se lancer des défis et de coopérer au sein de projets bien définis et prévisibles. Tout comme collectionner des timbres, compter les trains ou connaître (par coeur) l’univers de Star Trek, c’était quelque chose qui fédérait des gens avec des centres d’intérêt bien particuliers en leur offrant de surcroît le bénéfice d’une agréable socialisation. Les premiers contributeurs ne s’attendaient sûrement pas à rencontrer là des cadres moyens et un développement orienté vers le volume de production. Pas étonnant que certains s’y soient cassé le nez.

Et pourtant… Tout s’est bien passé. Le logiciel libre est partout et sa position paraît être inexpugnable en tant que composant majeur de l’industrie des technologies de l’information. Des projets comme le noyau Linux ou le serveur Web Apache ont continué à se développer, à innover et à attirer de nouvelles parties prenantes, tant commerciales que non commerciales. L’équilibre des pouvoirs entre les individus, les projets et les entreprises a changé, parfois avec des conflits et des perturbations, mais jamais au détriment d’une coopération sur le long terme, ni en portant préjudice aux valeurs fondamentales du logiciel libre.

De mon point de vue, dans le domaine juridique — qui n’est après tout qu’un langage formel qui fournit un contexte pour l’interaction au travers de règles mutuellement comprises et applicables — la tension dans le logiciel libre ne s’est pas formée avec l’introduction d’une activité commerciale accrue, ni avec la participation grandissante d’employés dans des projets, ni avec le changement lui-même. Le vrai problème réside dans l’écart entre une élite précédente en perte de vitesse et de nouveaux venus parfois très différents.

Le défi était de créer un terrain de jeu équitable où les différents intérêts pourraient coexister dans un respect mutuel. Le logiciel libre devait devenir un point de rencontre où n’importe qui pouvait à tout moment obtenir des informations comme les compétences appropriées, les obligations d’une licence ou les pré-requis pour la soumission de code à un projet. La subjectivité et l’imprécision devaient être mises de côté pour permettre l’émergence de transactions plus formelles, ce qui agit alors comme le précurseur essentiel d’une forte activité économique, en particulier dans le contexte d’une communauté internationale voire mondiale.

Ce qui a fonctionné dans les premiers jours — qu’il s’agisse de la confiance de quelques-uns ou de l’entente mutuelle d’un groupe homogène ayant des intérêts communs — ne pouvait plus agir en tant que facteur social ou économique pour l’avenir du domaine. Parfois, il semblait que c’était une barrière insurmontable et que les tensions entre les contributeurs de longue date au logiciel libre et les nouveaux acteurs devaient conduire à un effondrement de la coopération et, peut-être, à celui des progrès accomplis. Mais un résultat aussi sombre supposait des conditions qui n’existaient tout simplement pas.

Le logiciel libre a apporté beaucoup de choses à des tas de personnes et d’organisations, en se fondant sur quelques concepts très simples comme la liberté d’utiliser, de modifier, d’améliorer et de partager la technologie. Ces concepts ont permis beaucoup de flexibilité. Et tant que les gens reconnaissaient leur valeur et continuaient à les respecter, les conflits portants sur des points secondaires comme la gouvernance ou les zones d’ombre des licences étaient plutôt sans importance — à long terme. Le reste est principalement du bruit. Les communications habituelles sont dérangées par tous ces pièges dramatiques qui arrivent inévitablement lorsqu’un groupe social est rejoint par un autre. Cela s’applique à toutes les discussions, que l’on parle d’un coin de pêche, d’un pays accueillant (ou non) les immigrants ou de deux entreprises fusionnant.

Les changements au sein du logiciel libre semblaient tous un peu confus à l’époque, mais ils se décomposent principalement en trois leçons utiles qui seront familières aux étudiants d’histoire ou de sciences politiques. Premièrement, chaque fois qu’il existe une élite, elle cherchera à préserver son statut et parlera du conflit perçu comme une évolution négative dans le but de l’ébranler. Deuxièmement, malgré la tendance inhérente de chaque base de pouvoir à être conservatrice, la participation statique dans un domaine en évolution aura pour seul effet de déplacer la possibilité d’une amélioration des parties existantes vers de tierces parties. Enfin, si quelque chose a de la valeur, alors les difficultés rencontrées en matière de gouvernance sont peu susceptibles de porter atteinte à cette valeur, mais fourniront au contraire une méthode pour redéfinir à la fois les mécanismes de gouvernance et les personnes en mesure de les appliquer.

Le développement du logiciel libre en tant que technologie démocratisée a connu une professionnalisation croissante parmi les développeurs comme dans la gestion de projets. Nous avons aussi vu s’accroître le respect envers les licences de la part des individus, des projets et des entreprises. Ce ne fut pas une mauvaise chose, et malgré quelques moments houleux le long du chemin — que l’on peut choisir parmi les querelles inter-communautaires, les entreprises qui ne tiennent pas compte des termes des licences ou l’agacement causé par un éloignement de l’esprit décontracté habituel — notre position en est consolidée, plus cohérente et de plus grande valeur.




Geektionnerd : Ogooglebar

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Les réalités économiques du logiciel libre (Libres conseils 40/42)

* Aujourd’hui 28 mars, dernière séance de traduction collaborative sur ce projet avec l’épisode n°42 !

Traduction Framalang : tcit, Julius22, Sphinx, goofy, peupleLà, merlin8282, lamessen, BAud, Jej, Alpha

Modèles économiques basés sur le libre et l’open source

Carlo Daffara

Carlo Daffara est chercheur dans le domaine des modèles économiques basés sur l’open source, le développement collaboratif d’objets numériques et l’utilisation de logiciels open source dans les entreprises. Il fait partie du comité éditorial de relecture du journal international des logiciels et processus open source (International Journal of Open Source Software & Processes : IJOSSP), est membre du comité technique de deux centres régionaux de compétences open source et est également membre du réseau juridique européen FSFE (fondation européenne pour le logiciel libre). Il a pris part aux comités SC34 et JTC1 pour la branche italienne de l’ISO, UNINFO et a travaillé au sein du groupe de travail de la société Internet du logiciel public (Internet Society Public Software) ainsi que pour beaucoup d’autres initiatives liées à la normalisation.

Auparavant, Carlo Daffara était le représentant italien dans le groupe de travail européen sur le logiciel libre, la première initiative de l’Union européenne afin de soutenir l’open source et le logiciel libre. Il a présidé le groupe de travail SME du groupe d’étude de l’UE sur la compétitivité et le groupe de travail IEEE des intergiciels open source du comité technique sur le calcul évolutif. Il a travaillé en tant qu’examinateur du projet pour la commission Européenne dans le domaine de la coopération internationale, l’ingénierie logicielle, l’open source et les systèmes distribués et a été directeur de recherche dans plusieurs projets de recherche de l’Union européenne.

Introduction

« Comment gagner de l’argent avec le logiciel libre ? » était une question très courante, il y a encore seulement quelques années. Désormais, cette question s’est transformée en « Quelles sont les stratégies commerciales pouvant être mises en œuvre en se basant sur le logiciel libre et open source ? ». Cette question n’est pas aussi gratuite qu’elle peut paraître, puisque de nombreux chercheurs universitaires écrivent encore ce genre de textes : « le logiciel open source est délibérément développé hors de tout mécanisme de marché… il échoue à contribuer à la création de valeur aux développements, contrairement au marché du logiciel commercial… il ne génère pas de profit, de revenus, d’emplois ou de taxes…

Les licences open source sur les logiciels visent à supprimer les droits d’auteurs sur le logiciel et empêchent d’établir un prix pour le logiciel. Au final, les logiciels développés ne peuvent être utilisés pour générer des profits. » [Koot 03] ou [Eng 10] indiquent que « des économistes ont montré que les collaborations open source dans le monde réel s’appuient sur plusieurs incitations différentes telles qu’enseigner, se démarquer et se créer une réputation » (sans parler des incitations économiques). Cette vue purement « sociale » du logiciel libre et open source est partiale et fausse. Et nous démontrerons qu’il y a des raisons économiques liées au succès des métiers du libre et de l’open source qui vont au-delà des collaborations purement bénévoles.

Le logiciel libre et open source face aux réalités économiques

Dans la plupart des domaines, l’utilisation d’un logiciel libre et open source apporte un avantage économique substantiel, grâce aux développements partagés et aux coûts de maintenance, déjà décrits par des chercheurs comme Gosh, qui a estimé une réduction de coût de 36 % en R&D (« Recherche et Développement », NdT). La vaste part de marché des déploiements « internes » de logiciels libres et open source explique pourquoi certains des bénéfices économiques ne sont pas directement visibles sur le marché des services commerciaux.

L’étude FLOSSIMPACT a montré, en 2006, que les entreprises qui contribuent au code de projets de logiciels libres et open source ont, au total, au moins 570 000 employés et un chiffre d’affaires annuel de 263 milliards d’euros [Gosh 06], faisant ainsi du logiciel libre et open source l’un des phénomènes les plus importants des NTIC. Il est important aussi de reconnaître qu’un pourcentage non négligeable de cette valeur économique n’est pas directement perceptible du marché, vu que la majorité du logiciel n’est pas développée dans l’intention de le vendre (le soi-disant logiciel « prêt à l’emploi ») mais uniquement à usage interne. Comme le réseau thématique FISTERA EU l’a identifié, en réalité, la majorité du logiciel est développée seulement pour un usage interne.

Région Licences de logiciels propriétaires Services logiciel (développement personnalisation) Développement interne
Union européenne 19 % 52 % 29 %
États-Unis 16 % 41 % 43 %
Japon N/A N/A 32 %

Il est clair que ce qui est appelé « le marché logiciel » est en réalité bien plus réduit que le vrai marché du logiciel et des services et que 80 % restent invisibles. Nous verrons que le FLOSS tient une place économique importante de ce marché, directement grâce à ce modèle de développement interne.

Modèles économiques et proposition de valorisation

L’idée de base d’un modèle économique est assez simple : j’ai quelque chose ou je peux faire quelque chose (la « proposition de valeur ») et c’est plus rentable de me payer ou d’obtenir ce quelque chose plutôt que de le faire soi-même (il est même parfois impossible de trouver des alternatives, comme dans le cas de monopoles naturels ou créés par l’homme, et l’idée même de le produire par soi-même n’est pas envisageable). Il y a deux sources possibles de valeur : une propriété (quelque chose qui peut être échangé) et l’efficacité (quelque chose propre à ce que fait une entreprise et la manière dont elle le fait).

Avec l’open source, la « propriété » est généralement non exclusive (à l’exception de ce qui est nommé « cœur ouvert », où une partie du code n’est pas libre du tout et cela sera abordé plus loin dans cet article). D’autres exemples de propriété concernent le droit des marques, les brevets, les licences… tout ce qui peut être transféré à une autre entité par contrat ou par une transaction légale. L’efficacité est la capacité à effectuer une action avec un coût moindre (qu’il soit tangible ou intangible) et cela correspond à la spécialisation dans un domaine d’application ou apparaît grâce à une nouvelle technologie.

Pour le premier cas, les exemples sont simplement la réduction du temps nécessaire pour réaliser une action quand vous augmentez votre expertise concernant ce sujet. La première fois que vous installez un système complexe, cela peut demander beaucoup d’efforts et cet effort diminue d’autant plus que vous connaissez les tâches nécessaires pour réaliser l’installation elle-même. Pour le second, cela peut être l’apparition d’outils qui simplifient le processus (par exemple, avec le clonage d’images) et introduisent une importante rupture, un « saut » dans la courbe efficacité-temps.

Ces deux aspects sont la base de tout modèle économique que nous avons analysé par le passé ; il est possible de montrer que tout ceux-ci échouent afin de garantir une continuité entre les propriétés et l’efficacité.

Parmi les résultats de notre précédent projet de recherche, nous avons trouvé que les projets basés sur un modèle propriétaire ont tendance à obtenir moins de contributions extérieures car cela nécessite une opération juridique pour faire partie des propriétés de l’entreprise, pensez par exemple aux licences doubles : afin que son code fasse partie du code du produit, un contributeur extérieur doit signer l’abandon des droits sur son code afin que l’entreprise puisse vendre la version commerciale ainsi que la version open source.

D’un autre côté, les modèles totalement orientés sur l’efficacité ont tendance à avoir plus de contributions et de visibilité mais des résultats financiers plus faibles. Je l’ai écrit plusieurs fois : il n’y a pas de modèle économique idéal mais un éventail de modèles possibles et les entreprises devraient s’adapter elles-mêmes pour changer les conditions du marché et aussi adapter leur modèle. Certaines entreprises débutent par des modèles entièrement axés sur l’efficacité puis construisent, avec le temps, une propriété en interne, d’autres ont commencé avec un modèle orienté vers la propriété et ont évolué différemment pour augmenter les contributions et réduire les efforts d’ingénierie (ou développer la base d’utilisateurs afin de créer d’autres moyens d’avoir un retour financier grâce aux utilisateurs).

Une typologie des modèles économiques

L’étude EU FLOSSMETRICS des modèles économiques basés sur le logiciel libre a identifié, après analyse de plus de 200 entreprises, une taxonomie des principaux modèles économiques utilisés par les entreprises open source ; les principaux modèles identifiés sur le marché sont :

  • la double licence : le même code source logiciel distribué sous GPL et sous une licence propriétaire. Ce modèle est principalement utilisé par les producteurs de logiciel et outils pour développeurs et fonctionne grâce à une forte association de la GPL, qui requiert que les travaux dérivés et logiciels liés directement soient distribués sous la même licence. Les entreprises ne souhaitant pas distribuer leur propre logiciel sous GPL peuvent obtenir une licence propriétaire leur octroyant une exemption des conditions de la GPL, ce qui semble souhaitable à certains. L’inconvénient de cette licence double est que les contributeurs externes doivent accepter des conditions similaires et cela a révélé des réductions de contributions externes, se limitant à des corrections de bogues et des ajouts mineurs ;
  • le modèle « cœur ouvert » (précédemment appelé « valeur ajoutée propriétaire » ou « séparation entre libre et propriétaire » \* ? *\) : ce modèle se distingue entre un logiciel libre basique et une version propriétaire, basée sur la version libre mais avec l’ajout de greffons propriétaires. La plupart des entreprises qui suivent un tel modèle adoptent la Mozilla Public Licence, car elle permet explicitement cette forme de mélange et permet une plus grande participation des contributions externes sans les mêmes contraintes de consolidation du droit d’auteur comme dans l’usage de doubles licences. Ce modèle a l’inconvénient intrinsèque que le logiciel libre doit être de grande valeur pour être attractif pour les utilisateurs, i.e. il ne doit pas être réduit à une version aux possibilités limitées, tout comme, dans le même temps, il ne doit pas « cannibaliser » le produit propriétaire. Cet équilibre est difficile à atteindre et à maintenir dans la durée ; en outre, si le logiciel est de grand intérêt, les développeurs peuvent essayer d’apporter les fonctionnalités manquantes dans le logiciel libre, réduisant ainsi l’intérêt de la version propriétaire et donnant potentiellement naissance à un logiciel concurrent entièrement libre qui ne souffrira pas des mêmes limitations ;
  • les experts produits : des entreprises qui ont créé ou maintiennent un projet logiciel spécifique et utilisent une licence libre pour le distribuer. Les principaux revenus viennent du service, comme la formation ou l’expertise, et suivent la classification EUWG d’origine « le meilleur code vient d’ici » et « les meilleures compétences sont ici » [DB 00]. Cela conforte l’impression, courante, que les experts les plus compétents sur un logiciel sont ceux qui l’ont développé et qu’ils peuvent ainsi fournir des services au prix d’un démarchage minimal, s’appuyant sur la fourniture gratuite du code. L’inconvénient de ce modèle est que le coût d’entrée pour des concurrents potentiels est faible, vu que le seul investissement nécessaire est l’acquisition des compétences sur le logiciel lui-même ;
  • les fournisseurs de plateforme :des entreprises qui apportent un ensemble de services, avec support et intégration de certains projets, constituant une plateforme cohérente et testée. En ce sens, même les distributions GNU/Linux sont classées en tant que plateforme ; une observation intéressante est que ces distributions sont distribuées en grande partie sous licence libre pour maximiser les contributions externes et s’appuyer sur la protection du droit d’auteur pour empêcher la copie sauvage sans empêcher les « déclinaisons » (suppression des particularités soumises à droit d’auteur comme les logos ou droit des marques, pour créer un nouveau produit). Des exemples de clones de Red Hat sont CentOS et Oracle Linux. La valeur ajoutée provient d’une qualité garantie, de la stabilité et de la fiabilité ainsi que d’une garantie de support pour les applications métier critiques ;
  • les entreprises de conseil et de recrutement : les entreprises de cette catégorie ne font pas vraiment de développement mais fournissent des conseils de sélection et des services d’évaluation pour un large éventail de projets, d’une manière qui est proche du rôle de l’analyste. Ces entreprises ont tendance à avoir un impact très limité sur les communautés car les résultats de l’évaluation et du processus d’évaluation sont généralement des données propriétaires ;
  • les fournisseurs de support global : des entreprises qui proposent un support centralisé pour un ensemble de produits de logiciel libre, généralement en employant directement les développeurs ou en remontant les demandes de support ;
  • la validation juridique et l’expertise : ces entreprises n’apportent pas de développements de code source mais fournissent une aide à la vérification de conformité aux licences, parfois en apportant une garantie et une assurance contre les attaques juridiques ; certaines entreprises utilisent des outils pour assurer que le code n’est pas réutilisé ;
  • la formation et la documentation : des entreprises qui proposent de la formation, en ligne et en présentiel, des documentations et des manuels supplémentaires. Cela est généralement fourni dans le cadre d’un contrat de support, mais, récemment, quelques réseaux de centres de formation ont lancé des cours orientés spécifiquement vers le logiciel libre ;
  • le partage des coûts de R&D : une entreprise ou une société peut avoir besoin d’une nouvelle version ou d’une amélioration d’un paquet logiciel et financer un consultant ou un développeur pour réaliser le travail. Plus tard, le logiciel développé est redistribué en open source pour bénéficier de l’ensemble des développeurs expérimentés pouvant le déboguer et l’améliorer. Un bon exemple est la plateforme Maemo, utilisée par Nokia pour ses smartphones (comme le N810) ; au sein de Maemo, seul 7,5 % du code est propriétaire, apportant une réduction des coûts estimée à 228 millions de dollars (et une réduction du temps de mise sur le marché d’un an). Un autre exemple est l’écosystème Eclipse, un environnement de développement intégré (EDI) distribué à l’origine par IBM comme logiciel libre puis ensuite géré par la fondation Eclipse. De nombreuses entreprises ont choisi Eclipse comme socle pour leur produit et ont ainsi réduit le coût global pour la création d’un logiciel fournissant une fonctionnalité pour les développeurs. Il y a un grand nombre d’entreprises, d’universités et de personnes qui participent à l’écosystème Eclipse. Comme récemment constaté, IBM contribue aux alentours de 46 % au projet, les contributeurs à titre personnel représentant 25 % et un grand nombre d’entreprises comme Oracle, Borland, Actuate et de nombreuses autres ayant des participations allant de 1 à 7 %. Ceci est semblable aux résultats obtenus grâce à l’analyse du noyau Linux et qui montre que, lorsqu’il y a un écosystème sain et de grande taille, le partage des tâches réduit de manière significative les coûts de maintenance, dans [Gosh 06], on estime qu’il est possible de faire des économies de l’ordre de 36 % dans la recherche et la conception logicielle grâce à l’utilisation du logiciel libre, ces économies constituent en elles-mêmes le plus gros « marché » réel pour le logiciel libre, ce qui est démontré par le fait qu’au moins une partie du code des développeurs est basé sur du logiciel libre (56,2 % comme mentionné dans [ED 05]). Un autre excellent exemple de « coopétition » inter-entreprises est le projet WebKit, le moteur de rendu HTML à la base du navigateur Google Chrome ainsi que d’Apple Safari et qui est utilisé dans la majorité des appareils mobiles. Dans ce projet, après un délai initial d’un an, le nombre de contributions externes a commencé à devenir significatif et, après un an et demi, il surpasse largement les contributions d’Apple — réduisant de fait les coûts de maintenance et d’ingénierie grâce à la répartition des tâches entre les co-développeurs ;
  • les revenus indirects : une entreprise peut choisir de financer des projets de logiciel libre si ces projets peuvent créer une source de revenus importante pour des produits dérivés, non liés directement au code source ou au logiciel. L’un des cas les plus courants correspond à l’écriture de logiciel nécessaire au fonctionnement de matériel, par exemple, les pilotes d’un système d’exploitation pour un matériel spécifique. En fait, de nombreux fabricants de matériel distribuent déjà gratuitement leurs pilotes logiciels. Certains d’entre eux distribuent déjà certains de leurs pilotes (surtout ceux pour le noyau Linux) sous une licence libre. Le modèle du produit d’appel est une stratégie commerciale traditionnelle, répandue même à l’extérieur du monde du logiciel : dans ce modèle, les efforts sont consacrés à un projet de logiciel libre et open source afin de créer ou d’étendre un autre marché dans des conditions différentes. Par exemple, les fournisseurs de composants matériels investissent dans le développement de pilotes logiciels pour des systèmes d’exploitation open source (comme GNU/Linux) pour s’étendre sur le marché spécifique des composants. D’autres modèles de revenus auxiliaires sont ceux, par exemple, de la fondation Mozilla qui réunit une somme d’argent non négligeable grâce à un partenariat avec Google sur le moteur de recherche (estimé à 72 millions de dollars en 2006), tandis que SourceForge/OSTG est financé en majorité par les recettes des ventes en ligne du site partenaire ThinkGeek.

Certaines entreprises ont plus d’un modèle principal et sont, par conséquent, comptées en double ; notamment, la plupart des entreprises pratiquant une licence double vendent aussi du service de support. En outre, les experts d’un produit ne sont comptés que s’ils ont une partie visible de leur entreprise qui contribue au projet en tant que « commiter principal ». Autrement, le nombre d’experts serait bien plus élevé, du fait que certains projets sont au cœur du support commercial de nombreuses entreprises (de bons exemples sont OpenBravo et Zope).

Il faut aussi tenir compte du fait que les fournisseurs de plateforme, même s’ils sont limités en nombre, tendent à avoir des taux de facturation plus élevés que les experts ou que les entreprises à cœur ouvert. De nombreux chercheurs essaient d’identifier s’il y a un modèle plus « efficace » parmi ceux pris en compte ; ce que nous avons trouvé est que le futur le plus probable sera l’évolution d’un modèle à l’autre, avec une consolidation sur le long terme des consortiums de développement (comme les fondations Eclipse et Apache) qui fournissent une forte infrastructure légale et des avantages de développement ainsi que des spécialistes apportant des offres verticales pour des marchés spécifiques.

Conclusion

Le logiciel libre et open source permet non seulement une présence pérenne, et même très large, sur le marché (Red Hat est déjà proche du milliard de dollars de revenus annuels), mais aussi plusieurs modèles différents qui sont totalement impossibles avec le logiciel propriétaire. Le fait que le logiciel libre et open source est un bien non concurrent facilite aussi la coopération entre entreprises, tant pour accroître sa présence mondiale et pour signer des contrats à grande échelle pouvant demander des compétences multiples que sur le plan géographique (même produit ou service, région géographique différente) ; « verticalité » (entre produits) ou « horizontalité » (des domaines d’application). Cet adjuvant à créer de nouveaux écosystèmes est l’une des raisons expliquant que le logiciel libre et open source fait partie intégrante de la plupart des infrastructures informatiques dans le monde, enrichissant et aidant les entreprises et administrations publiques à réduire leurs coûts et à collaborer pour de meilleurs logiciels.

Bibliographie

  • [DB00] Daffara, C.Barahona, J.B. Free Software/Open Source: Information Society Opportunities for Europe working paper,http://eu.conecta.it paper, OSSEMP workshop, Third international conference on open source. Limerick 2007
  • [ED05] Evans Data, Open Source Vision report, 2005
  • [Eng10] Engelhardt S. Maurer S. The New (Commercial) Open Source: Does it Really Improve Social Welfare Goldman School of Public Policy Working Paper No.GSPP10-001, 2010
  • [Gar06] Gartner Group, Open source going mainstream. Gartner report, 2006
  • [Gosh06] Gosh, et al. Economic impact of FLOSS on innovation and competitiveness of the EU ICT sector. http://bit.ly/cNwUzû
  • [Koot03] Kooths, S.Langenfurth, M.Kaiwey,N.Open-Source Software: An Economic Assessment Technical report, Muenster Institute for Computational Economics (MICE), University of Muenster



Ouvert et fermé, par Evgeny Morozov

L’écrivain Evgeny Morozov n’aime pas les visions bisounours des nouvelles technologies.

On se souvient qu’il y a deux ans il avait vertement critiqué le soit-disant pouvoir libérateur d’Internet, ce qui lui avait valu réponse de Cory Doctorow traduite par nos soins.

Il s’en prend aujourd’hui à l’usage immodéré de l’expression « open » qui, à force d’être utilisé à tous les sauces, prend le risque d’être vidé de son (noble ?) sens.

Pumpkincat210 - CC by

Ouvert et fermé


Open and Closed

Evgeny Morozov – 17 mars 2013 – NewYorkTimes.com (Opinion)
(Traduction Framalang)


« L’impression 3D peut-elle être subversive ? » demande une voix dans la vidéo la plus terrifiante que vous puissiez trouver sur Internet ce mois-ci. Il s’agit de la bande-annonce pour Defcad.com, un moteur de recherche pour des modèles imprimables en 3D de choses que les « institutions et les industries ont pour intérêt commun de garder loin de nous », incluant des « appareils médicaux, médicaments, biens, pistolets ».

La voix appartient à Cody Wilson, un étudiant en droit du Texas qui a fondé l’année dernière Defense Distributer, une initiative controversée visant à produire une « arme wiki » imprimable. Avec Defcad, il s’étend au-delà des armes, autorisant, par exemple, des passionnés de drones à rechercher des pièces imprimables.


M. Wilson joue la carte de « l’ouverture » de Defcad jusqu’à dire qu’elle est l’opium des masses armées d’iPad. Non seulement le moteur de recherche Defcad sera placé sous le signe de l’« open source » — la bande-annonce le clame à deux reprises — mais également de « l’open data  ». Avec une telle ouverture, Defcad ne peut pas être le Mal, n’est-ce pas ?


Personne n’a besoin de voir des projets tels que Defcad pour constater que « l’ouverture » est devenue un terme dangereusement vague, avec beaucoup de sex-appeal mais peu de contenu un tant soit peu analytique. Certifiées « ouvertes », les idées les plus odieuses et suspectes deviennent soudain acceptables. Même l’Église de Scientologie vante son « engagement envers la communication ouverte ».


L’ouverture est aujourd’hui un culte puissant, une religion avec ses propres dogmes. « Posséder des gazoducs, personnes, produits, ou même la propriété intellectuelle n’est plus la clef du succès. L’ouverture l’est », clame l’éditorialiste Jeff Jarvis.

La fascination pour « l’ouverture » provient principalement du succès des logiciels open source, du code informatique publiquement accessible auquel tout le monde peut contribuer. Mais aujourd’hui ce principe est en train d’être appliqué à tout, de la politique à la philanthropie ; des livres intitulés « The Open-Source Everything Manifesto » (le Manifeste du Tout Open Source) et « Radical Openness » (L’Ouverture Radicale) ont récemment été publiés. Il existe même « OpenCola » — un vrai soda pour le peuple.


Pour de nombreuses institutions, « ouvert » est devenu le nouveau « vert ». Et de la même façon que certaines entreprises « verdissent » (greenwash) leurs initiatives en invoquant une façade écolo pour cacher des pratiques moins recommandables, un nouveau terme vient d’émerger pour décrire ce besoin d’introduire « l’ouverture » dans des situations et environnements où elle existe peu ou pas : « openwashing » (« ouvertisation »).

Hélas, « l’ouvertisation », aussi sympathique que cela puisse sonner, ne questionne pas l’authenticité des initiatives « ouvertes » ; cela ne nous dit pas quels types « d’ouverture » valent le coup, s’il en est. Toutes ces ouvertures, ou prétendues ouvertures, ne se valent pas et nous devons les différentier.


Regardez « l’ouverture » célébrée par le philosophe Karl Popper, qui a défini la « société ouverte » comme l’apothéose des valeurs politiques libérales. Ce n’est pas la même ouverture que celle du monde de l’open source. Alors que celle de Popper concernait principalement la politique et les idées, l’open source concerne avant tout la coopération, l’innovation, et l’efficacité — des résultats utiles, mais pas dans toutes les situations.


Regardez comme George Osborne, le chancelier britannique a défini les « politiques open source » récemment. « Plutôt que de se baser sur le fait que des politiciens » et des « fonctionnaires aient le monopole de la sagesse, vous pouvez vous engager via Internet » avec « l’ensemble du public, ou du moins les personnes intéressées, pour résoudre un problème particulier ».

En tant qu’ajout à la politique déjà en place, c’est merveilleux. En tant que remplacement de la politique en place, en revanche, c’est terrifiant.

Bien sûr, c’est important d’impliquer les citoyens dans la résolution des problèmes. Mais qui décide des « problèmes particuliers » auxquels les citoyens doivent s’attaquer en premier lieu ? Et comment peut-on définir les limites de ce « problème » ? Dans le monde du logiciel open source, de telles décisions sont généralement prises par des décideurs et des clients. Mais en démocratie, les citoyens tiennent la barre (plutôt en délèguent la tenue) et rament simultanément. En politique open source, tout ce qu’ils font, c’est ramer.


De même, un « gouvernement ouvert » — un terme autrefois réservé pour discuter de la responsabilité — est aujourd’hui utilisé plutôt pour décrire à quel point il est facile d’accéder, manipuler, et « remixer » des morceaux d’informations du gouvernement. Ici, « l’ouverture » ne mesure pas si de telles données augmentent la responsabilité, mais seulement combien d’applications peuvent se baser dessus, et si ces applications poursuivent des buts simples. L’ambiguïté de l’ouverture permet au Premier Ministre britannique David Cameron de prôner un gouvernement ouvert, tout en se plaignant que la liberté d’expression « bouche les artères du gouvernement ».


Cette confusion ne se limite pas aux gouvernements. Prenez par exemple cette obsession pour les cours en ligne ouvert et massif (NdT : MOOC). Que signifie le mot ouvert dans ce cas? Eh bien, ils sont disponibles en ligne gratuitement. Mais il serait prématuré de célébrer le triomphe de l’ouverture. Un programme d’ouverture plus ambitieux ne se contenterait pas d’étendre l’accès aux cours mais donnerait aussi aux utilisateurs la possibilité de réutiliser, modifier et d’adapter le contenu. Je pourrais prendre les notes de conférence de quelqu’un, rajouter quelques paragraphes et les faire circuler en tant qu’élément de mon propre cours. Actuellement, la plupart de ces cours n’offrent pas cette possibilité : le plus souvent leurs conditions d’utilisation interdisent l’adaptation des cours.


Est-ce que « l’ouverture » gagnera, comme nous l’assurent ces Pollyanas numériques? Probablement. Mais une victoire pour « l’ouverture » peut aussi marquer la défaite de politiques démocratiques, d’une réforme ambitieuse et de bien d’autres choses. Peut-être faudrait-il mettre en place un moratoire sur le mot « ouvert ». Imaginez les possibilités que cela pourrait ouvrir !

Crédit photo : Pumpkincat210 (Creative Commons By)




Mobilisons-nous ! Pas de DRM dans le HTML5 et les standards W3C

La question de savoir si oui ou non il y a aura des DRM dans le HTML5 est absolument fondamentale pour le Web de demain. Ce n’est pas une question tehnique, c’est une question de partage (ou pas).

C’est pourquoi nous vous avions proposé la cinglante réponse de Cory Doctorow à Tim Berners-Lee. C’est pourquoi aussi nous avons traduit cet article très clair de l’Electronic Frontier Foundation qui en appelle à se mobiliser, par exemple en signant la pétition lancée par la Free Software Foundation.

Stop DRM en HTML5

Défense du web ouvert : pas de DRM dans les standards W3C

Defend the Open Web: Keep DRM Out of W3C Standards

Peter Eckersley et Seth Schoen – 20 mars 2013 – EFF.org
(Traduction : tcit, ZeHiro, audionuma, goofy, audionuma, Asta)

Un nouveau front est ouvert dans la bataille contre les DRM. Ces technologies, qui sont censées permettre le respect du copyright, n’ont jamais permis de rémunérer les créateurs. Par contre, que ce soit volontairement ou par accident, leur véritable effet est d’interférer avec l’innovation, l’usage légitime, la concurrence, l’interopérabilité et notre droit légitime à posséder nos biens.

C’est pourquoi nous avons été consternés d’apprendre qu’une proposition est actuellement à l’étude au sein du groupe de travail HTML5 du World Wide Web Consortium (W3C) pour intégrer les DRM dans la prochaine génération de standards fondamentaux du Web. Cette proposition est dénommée Encrypted Media Extensions (Extensions pour les médias chiffrés, EME). Son adoption représenterait une évolution catastrophique et doit être stoppée.

Durant les deux dernières décennies, il y a eu un combat continu entre deux visions de la manière dont les technologies d’Internet doivent fonctionner. L’une des philosophies est que le Web doit être un écosystème universel basé sur des standards ouverts et que quiconque peut implémenter sur un pied d’égalité, n’importe où, n’importe quand, sans permissions ni négociations. C’est cette tradition technologique qui a produit HTML et HTTP pour commencer, et des innovations qui ont marqué leur époque comme les wikis, les moteurs de recherche, les blogs, les messageries sur le Web, les applications écrites en JavaScript, les cartes en ligne réutilisables, et une centaine de millions de sites Web que ce paragraphe serait trop court pour énumérer.

L’autre vision est incarnée par les entreprises qui ont essayé de s’approprier le contrôle du Web avec leurs propres extensions propriétaires. Cela s’est manifesté avec des technologies comme Flash d’Adobe, Silverlight de Microsoft, et des pressions venant d’Apple, des fabricants de téléphonie, et d’autres, en faveur de plateformes hautement restrictives. Ces technologies sont conçues pour n’être disponibles qu’auprès d’une seule source ou nécessiter une autorisation pour toute nouvelle implémentation. À chaque fois que ces techniques sont devenues populaires, elles ont infligé des dommages aux écosystèmes ouverts qui les entourent. Les sites Web qui utilisent Flash ou Silverlight ne peuvent en général pas être référencés correctement, ne peuvent pas être indexés, ne peuvent être traduits automatiquement, ne peuvent être consultés par les personnes en situation de handicap, ne fonctionnent pas sur tous les terminaux de consultation, et posent des problèmes de sécurité et de protection de la vie privée à leurs utilisateurs. Les plateformes et les équipements qui restreignent la liberté de l’utilisateur freinent inévitablement des innovations importantes et entravent les compétitions sur le marché.

La proposition EME est entachée par plusieurs de ces problèmes car elle abandonne explicitement la responsabilité de la question de l’interopérabilité et permet aux sites Web de requérir des logiciels propriétaires de tierces-parties, voire du matériel ou un système d’exploitation spécifiques (tout cela mentionné sous le nom générique de « content decryption modules » (« modules de déchiffrage du contenu », CDM), dont aucun n’est spécifié par EME). Les auteurs d’EME soutiennent que les CDM, ce qu’ils font et d’où ils viennent, est totalement hors du champ d’EME, et qu’EME ne peut être considéré comme un DRM puisque tous les CDM ne sont pas des DRM. Néanmoins, si l’application client ne peut prouver qu’elle exécute le module propriétaire spécifique que le site réclame, et n’a donc pas de CDM qualifié, elle ne peut afficher le contenu du site. De manière perverse, c’est exactement à l’opposé des raisons qui font que le W3C existe. Le W3C est là pour créer des standards lisibles, qui soient implémentables par le public et qui garantissent l’interopérabilité, et non pas pour favoriser une explosion de nouveaux logiciels mutuellement incompatibles et de sites et services qui ne sont accessibles qu’à certains équipements ou applications. Mais la proposition EME va justement apporter cette dynamique anti-fonctionelle dans HTML5, risquant même un retour au « bon vieux temps d’avant le Web » où l’interopérabilité était volontairement restreinte.

Étant donné l’extrême méfiance de la communauté des standards ouverts à l’encontre des DRM et de leurs conséquences sur l’interopérabilité, la proposition de Google, Microsoft et Netflix affirme que « aucun DRM n’est ajouté à la spécification HTML5 » par EME. C’est un peu comme dire « nous ne sommes pas des vampires, mais nous allons les inviter chez vous ».

Les promoteurs d’EME semblent affirmer que ce n’est pas un modèle de DRM. Mais l’auteur de la spécification Mark Watson a admis que « effectivement, nous nous intéressons aux cas d’utilisation que la plupart des gens appellent DRM » et que les implémentations nécessiteront par nature des aspects secrets qui sont hors du champ de la spécification. Il est difficile de soutenir que EME n’a rien à voir avec les DRM.

Les propositions sur les DRM au W3C sont là pour une raison simple : il s’agit d’une tentative d’apaiser Hollywood, qui est irrité par Internet au moins depuis que le Web existe, et a toujours réclamé qu’une infrastructure technique avancée permette de contrôler ce qui se passe sur l’ordinateur du public. Le sentiment est que Hollywood ne permettra jamais la distribution des films sur le Web s’il n’est pas possible de les accompagner de DRM. Mais la crainte que Hollywood puisse récupérer ses billes et quitter le Web est illusoire. Chaque film que Hollywood distribue est déjà disponible pour ceux qui veulent réellement pirater une copie. Une énorme quantité de musique est vendue par iTunes, Amazon, Magnatunes et des dizaines d’autres sites sans qu’il n’y ait besoin de DRM. Les services de streaming comme Netflix et Spotify ont réussi parce qu’ils proposent une expérience plus pratique que le piratage, pas parce que les DRM favorisent leur modèle économique. La seule explication raisonnable pour que Hollywood réclame des DRM est que les producteurs de films veulent contrôler comment les technologies grand public sont conçues. Les producteurs de films ont utilisé les DRM pour faire respecter des restrictions arbitraires sur leurs produits, comme l’interdiction de l’avance rapide ou des restrictions géographiques, et ont créé un système complexe et onéreux de « mise en conformité » pour les entreprises technologiques qui donnent à un petit groupe de producteurs de contenu et aux grandes sociétés du secteur des technologies un droit de veto sur l’innovation.

Trop souvent, les entreprises technologiques se sont lancées dans une course l’une contre l’autre pour bâtir un fouillis logiciel qui corresponde aux caprices de Hollywood, abandonnant leurs utilisateurs dans cette course. Mais les standards ouverts du Web sont un antidote à cette dynamique, et ce serait une terrible erreur pour la communauté du Web de laisser la porte ouverte à la gangrène anti-technologique de Hollywood dans les standards W3C. Cela minerait l’objectif principal de HTML5 : créer un éco-système ouvert alternatif à toutes les fonctionalités qui manquaient dans les standards Web précédents, sans les problèmes de limitations des équipements, d’incompatibilité entre plateformes et l’absence de transparence qui fut créée par des plateformes comme Flash. HTML5 était censé être mieux que Flash, et en exclure les DRM est exactement ce qui le rendrait meilleur.




Autos, téléphones… nous devrions pouvoir déverrouiller tout ce qui nous appartient

Vous venez de crever et vous vous retrouvez malencontreusement sur le bord de la route pour changer votre pneu. Tout d’un coup un policier arrive et vous verbalise parce que vous enfreignez je ne sais quel copyright de la marque de votre véhicule stipulant que vous n’avez pas le droit d’y changer quoi que ce soit. C’est surréaliste et pourtant c’est bien la situation actuelle des téléphones portables.

Quid d’un monde sous contrôle où les objets ne nous appartiennent plus faute d’avoir le droit de les bidouiller ?

Håkan Dahlström - CC by

Oubliez la bataille du téléphone portable – Nous devrions pouvoir déverrouiller tout ce qui nous appartient

Forget the Cellphone Fight — We Should Be Allowed to Unlock Everything We Own

Kyle Wiens – 18 mars 2013 – Wired Opinion
(Traduction : Alpha, Sphinx, aKa, marc, lgodard, M0tty, jtanguy, Moosh, Floréal, K4ngoo, Texmix + anonymes)

Alors que le Congrès des Etats-Unis travaille sur une loi visant à ré-autoriser le déverrouillage des téléphones portables, regardons le vrai problème en face : les lois issues du copyright qui ont d’abord fait que le déverrouillage devienne illégal. À qui appartiennent les objets que nous possédons ? La réponse avait pour habitude d’être évidente. Dorénavant, avec l’électronique, omniprésente dans tous les objets que nous achetons, la réponse a changé.

Nous vivons dans une ère numérique, et même les produits matériels que nous achetons sont complexes. Le copyright impacte plus de monde qu’auparavant car la frontière entre logiciel et matériel, ente monde physique et numérique, s’amenuise.

Le problème ne se réduit pas seulement au déverrouillage des téléphones portables ; quand on achète un objet, n’importe lequel, nous devrions le posséder. Nous devrions être en mesure de soulever le capot, l’ouvrir, le modifier, le réparer, etc… sans demander la permission au fabriquant.

Sauf que nous ne possédons pas vraiment nos objets (enfin pas dans la totalité), les fabricants sont les vrais propriétaires. Parce que la modification d’un objet moderne requiert un accès à de l’information : du code, des documents de conception, des codes d’erreur, des outils de diagnostic… Les voitures modernes sont des mécaniques puissantes mais également des ordinateurs sophistiqués. Les fours à micro-ondes sont une combinaison de plastique et de microcode. Le silicium imprègne et alimente presque tout ce que nous possédons.

C’est un problème de droits de propriété, et les lois actuelles sur le copyright prennent ce problème à l’envers, transformant les gens ordinaires, comme les étudiants, les chercheurs et les patrons de petites entreprises, en délinquants. Par exemple l’entreprise de télécoms Avaya, qui fait partie du top 500 de Fortune, est connue pour poursuivre des entreprises de services en justice, les accusant de violer le copyright simplement parce qu’elles utilsent un mot de passe pour se connecter à leurs systèmes téléphoniques. Vous avez bien lu : rentrer un mot de passe est considéré comme : une « reproduction de matériel soumis au copyright ».

Les fabricants ont systématiquement utilisé le copyright en ce sens ces 20 dernières années pour limiter notre accès à l’information. La technologie a avancé trop vite par rapport aux lois sur le copyright, les sociétés ont exploité cette latence pour créer des monopoles de l’information à nos dépens et à leur bénéfice. Après des années d’expansion et de soi-disantes améliorations, le copyright a transformé Mickey Mouse en un monstre immortel.

Cela n’a pas toujours été ainsi. Les lois sur le copyright ont été créés à l’origine pour protéger la créativité et promouvoir l’innovation. Mais maintenant, elles font exactement le contraire. Elles sont utilisées pour empêcher les entreprises indépendantes de réparer les nouvelles voitures. Elles rendent presque impossible aux agriculteurs de réparer leur matériel. Et, comme nous l’avons vu ces dernières semaines, elles empêchent les particuliers de déverrouiller leurs propres téléphones portables.

Ce n’est pas juste un problème qui affecte seulement les spécialistes en informatique ; les fermiers sont également touchés. Kerry Adams, un agriculteur dans une ferme familiale de Santa Maria en Californie, a récemment acheté deux machines de transplantation pour la modique somme de 100000$ pièce. Elles sont tombées en panne juste après, et il a dû faire venir un technicien de l’usine pour les faire réparer.

Comme les constructeurs ont mis un copyright sur les notices techniques, les techniciens locaux ne peuvent pas réparer les appareils récents. De plus, les appareils actuels, remplis de capteurs et d’électronique, sont trop complexes pour être réparés sans la notice technique. C’est un problème pour les agriculteurs qui n’ont pas les moyens de payer les frais d’entretien élevés pour de l’outillage qui se détériore assez vite.

Adams a abandonné l’idée de faire réparer ses repiqueurs, c’était tout simplement trop cher de faire venir les techniciens en déplacement jusqu’à son exploitation. À présent, les deux repiqueurs sont à l’arrêt et il ne peut pas s’en servir pour subvenir aux besoins de son exploitation et de sa famille.

Dieu a peut-être donné vie à un fermier, mais les lois sur le copyright ne lui permettent plus de gagner sa vie.

Dans le proche domaine de la mécanique automobile, le copyright est aussi vu comme un étau, restreignant leur capacité à résoudre des problèmes. Les erreurs de code dans votre voiture ? Protégés. Les outils de diagnostic pour y accéder ? Des logiciels propriétaires.

Les nouvelles voitures se sophistiquent année après année, et les mécaniciens ont besoin d’un accès aux informations systèmes pour rester dans la course. Sous la protection du copyright, les constructeurs automobiles ont empêché l’accès des garagistes indépendants aux outils de diagnostic et aux schémas de fonctionnement dont ils ont besoin.

Les mécaniciens n’abandonnent pas pour autant. En septembre dernier, le Massachusetts a acté une loi sur le Droit à Réparer destinée à niveler le champ d’action entre les concessions et les garagistes indépendants. Sous le cri de ralliement de « C’est votre voiture, vous devriez avoir la possibilité de la réparer où vous le souhaitez », la loi a été adoptée à une très large majorité de 86%. Cette loi contourne le copyright, forçant les constructeurs à publier toutes les informations techniques aux propriétaires de véhicules du Massachusetts et aux techniciens système. L’agitation populaire se propage : les législateurs du Maine viennent de mettre en place une législation similaire.

Pendant ce temps, des progrès sont faits vers la légalisation du déverrouillage des téléphones portables. Avec des groupes locaux menant le combat, l’administration Obama a annoncé son soutien à l’annulation de cette interdiction la semaine dernière. Les membres du Congrès ont depuis rédigé pas moins de quatre projets de loi pour légaliser le déverrouillage.

C’est un pas dans la bonne direction mais ce n’est pas assez. Que les choses soient claires : réparer nos voitures, tracteurs, et téléphones portables ne devrait rien avoir à faire avec le copyright.

Tant que le Congrès se concentre simplement sur le déverrouillage des mobiles, il passera à côté du vrai problème. Les sénateurs peuvent adopter cents projets de loi sur le déverrouillage ; dans cinq ans, les grandes entreprises trouveront d’autres revendications de copyright pour limiter le choix des consommateurs. Pour vraiment résoudre le problème, le Congrès doit promulguer une réforme du copyright qui soit significative. Les bénéfices économiques potentiels sont significatifs, étant donné que l’information libre crée des emplois. Les informations techniques sont accessibles librement sur internet pour de nombreux smartphones sur iFixit (mon organisation) et d’autres sites. Ce n’est pas par hasard que des milliers d’entreprises de réparation de mobiles ont fleuri ces dernières années, exploitant les connaissances techniques pour éloigner les téléphones portables cassés des décharges.

Tant que nous serons limités dans notre faculté à modifier et réparer les choses, le copyright, pour tous les objets, entravera la créativité. Il nous en coûtera de l’argent. Il nous en coûtera des emplois. Et cela nous coûte déjà notre liberté.

Crédit photo : Håkan Dahlström (Creative Commons By)




Le plus vieux torrent de The Pirate Bay est une copie (illégale) de « Revolution OS »

Réalisé en 2001 par J.T.S. Moore, le documentaire « Revolution OS » retrace l’histoire des mouvements GNU, Linux, Open Source et des logiciels libres. Plusieurs personnalités de l’informatique sont interviewées, comme Richard Stallman, Linus Torvalds, Eric S. Raymond ou encore Bruce Perens.

Il n’est pas anodin de remarquer que c’est le plus vieux torrent encore activement partagé sur The Pirate Bay, avec la paradoxale ironie du partage illégal d’un film traitant d’un tel sujet !

PS : Nous avons choisi de faire comme si le lecteur était familier de Bittorrent et que les termes seeder, celui qui met à disposition le fichier, ou leecher n’avaient pas de secret pour lui (sinon c’est clic Wikipédia).

PS2 : Le film est également disponible dans son intégralité (anglais sous-titré anglais) en streaming sur YouTube (et toujours illégalement bien entendu).

Revolution OS

Le torrent le plus vieux de The Pirate Bay est « Revolution OS »

The Pirate Bay’s Oldest Torrent is “Revolution OS”

Ernesto – 17 mars 2013 – TorrentFreak.com
(Traduction : igor-d, Martin, Sakrecoer, Alpha, fcharton + anonymes)

Après presque 9 ans de distribution, le plus vieux torrent de The Pirate Bay disponible, est encore bien actif. Curieusement, ce torrent n’est ni un classique d’Hollywood ni un album de musique indémodable. La première place est attribuée à un exemplaire piraté de « Revolution OS », un documentaire qui traite de l’histoire de Linux, GNU et le mouvement du logiciel libre.

The Pirate Bay fêtera son dixième anniversaire un peu plus tard cette année. Une belle réussite, quand on sait que le site a fait l’objet de procès durant une bonne moitié de son existence.

Loin de tout ça, nous avons souhaité découvrir le plus vieux torrent ayant survécu à tous ces problèmes.

Après quelques recherches, nous avons trouvé que cette distinction revient à une copie pirate du documentaire « Revolution OS ». Le torrent en question fût mis en ligne le 31 Mars 2004.

A l’époque il n’y avait que quelques centaines de fichiers torrents stockés sur The Pirate Bay, comparé aux plus de 2 millions d’aujourd’hui. Année après année uniquement 15 personnes ont laissé un commentaire sur la page du torrent et il y a 27 seeders à l’heure où nous écrivons ces lignes.

Il y a une certaine ironie dans le fait qu’une copie « piratée » d’un film à propos de Linux, GNU et le mouvement des logiciels libres soit le torrent le plus ancien à être encore seedé (c’est-à-dire disponible et partagé). Richard Stallman, une des figures clefs du documentaire, serait fier et heureux de l’apprendre 😉

J.T.S. Moore, le réalisateur de « Revolution OS » a des sentiments contradictoires au sujet de cette réussite quand on l’interroge :

« Il y a clairement un problème de copyright, mais d’une certaine manière ça fait plaisir de savoir que « Revolution OS » intéresse certaines personnes douze ans plus tard » a-t-il confié à TorrentFreak.

Revolution OS - Torrent - The Pirate Bay

Mais « Revolution OS » est-il le plus ancien torrent encore en vie tout site confondu ?

Non, cet honneur là revient à une autre production peu connue. Le fichier torrent qui existe depuis le plus longtemps à notre connaissance est The Matrix ASCII.

Nous l’avions déjà couronné plus vieux torrent en 2005, et à ce jour il est toujours actif avec quelques téléchargeurs et seeders. Le fichier torrent en question a été créé en décembre 2003 alors que The Pirate Bay n’était âgé que de quelques mois et que Facebook et YouTube n’existaient pas encore. Jusqu’à maintenant, ce fichier a survécu une durée ahurissante de 3 333 jours.

En parlant de records, on peut aussi signaler le plus gros et le plus petit torrent de The Pirate Bay. Le plus gros torrent actif est une archive du dernier Geocities.com, fermé par Yahoo en 2010. Le torrent de 641 Go est actuellement en train de lutter pour sa survie avec un seul seeder.

Le plus petit torrent, à peine plus de 3 Ko, renvoie vers un crack d’Adobe Photoshop. Dans ce cas, le fichier du torrent prend plus d’espace disque à lui tout seul que le fichier qu’il permet de télécharger. Avec plus de 1000 seeders, ce fichier devrait rester encore disponible pour un petit moment 😉

L’an prochain, le torrent de « Revolution OS » devrait fêter ses 10 ans, et nul doute qu’il sera encore là pour souffler ses bougies.




Rassembler les gens (Libres conseils 35/42)

Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.

Traduction Framalang : Ouve, merlin8282, Julius22, Sphinx, CoudCoud, lum’, goofy, peupleLà, Alpha, Peekmoaudionuma, lamessen

Rassembler les gens

Dave Neary

Dave Neary travaille sur des projets libres et open source depuis qu’il a découvert Linux en 1996. C’est un contributeur de longue date à GNOME et à GIMP. Il travaille à plein temps depuis 2007 pour aider des entreprises à se réconcilier avec les logiciels développés de façon communautaire. Durant cette période, il a travaillé sur divers projets dont OpenWengo, Maemo et Meego, qui étaient liés à de l’événementiel, à des méthodes de travail communautaires, à de la gestion de produits ainsi qu’à de la gestion d’outils d’analyse d’une communauté. Il s’est impliqué, en tant que bénévole, dans l’organisation du GUADEC, du Desktop Summit, du Libre Graphics Meeting, de la GIMP Conference, d’Ignite Lyon, de l’Open World Forum et de la MeeGo Conference.

L’une des choses les plus importantes que vous puissiez faire dans un projet lié au logiciel libre, à part écrire du code, c’est de rassembler les principaux contributeurs aussi souvent que possible. J’ai eu la chance de pouvoir organiser un certain nombre d’événements au cours de ces dix dernières années, mais aussi d’observer les autres et d’apprendre à leur contact pendant ce temps. Voici quelques-unes des leçons que j’ai apprises au cours du temps, grâce à cette expérience.

1. Le lieu

Le point de départ pour la plupart des réunions ou des conférences, c’est le lieu. Si vous réunissez un petit groupe (moins de dix personnes), il suffit bien souvent de choisir une ville et de demander à un ami qui possède une entreprise ou qui est professeur d’université de vous réserver une salle. Vous aurez sans doute besoin d’une organisation plus formelle dès qu’il y aura plus de monde à accueillir.

Si vous ne faites pas attention, le lieu de l’événement sera une grande source de dépenses et il vous faudra trouver l’argent correspondant quelque part. Mais si vous êtes futé, vous pouvez vous débrouiller pour obtenir assez facilement une salle gratuitement.

Voici quelques-unes des stratégies qu’il serait intéressant d’essayer :

  • Intégrez-vous au sein d’un autre événement : le Linux Foundation Collaboration Summit, OSCON, LinuxTag, GUADEC et beaucoup d’autres conférences accueillent volontiers des ateliers ou des rencontres pour de plus petits groupes. Le GIMP Developers Conference en 2004 a été le premier rassemblement que j’ai organisé, et afin de ne pas avoir à subir les problèmes inhérents au fait de trouver la salle, une date qui convient à tout le monde et ainsi de suite, j’ai demandé à la GNOME Foundation si ça ne les dérangeait pas de nous laisser un peu d’espace lors de la GUADEC — et ils ont accepté. Tirez parti de l’organisation d’une conférence plus grande, et vous pourrez en plus assister à cette grande conférence par la même occasion !
  • Demandez aux universités environnantes si elles n’ont pas des salles disponibles. Ça ne fonctionnera plus une fois que vous aurez dépassé une certaine taille, néanmoins, vous pouvez vous renseigner en particulier dans les universités dont certains chercheurs sont des membres du Linux User Group (LUG) [NdT : groupe d’utilisateurs de Linux] local. Ils peuvent en parler avec leur directeur de département afin de réserver un amphithéâtre et quelques salles de classe pour un week-end. Un grand nombre d’universités vous demanderont de faire un communiqué de presse et d’être mentionnées sur le site Web de la conférence, ce qui est un juste retour des choses. Le premier Libre Graphics Meeting s’est déroulé gratuitement à CPE Lyon et le GNOME Boston Summit a été accueilli gratuitement pendant des années par le MIT.
  • Si le lieu de rendez-vous ne peut pas être gratuit, voyez si quelqu’un d’autre ne peut pas le financer. Lorsque votre conférence commence à accueillir plus de 200 personnes, la plupart des salles seront payantes. Héberger une conférence coûtera beaucoup d’argent à celui qui prête les locaux, et c’est une part importante dans le modèle économique des universités que d’organiser des conférences lorsque les étudiants sont partis. Mais ce n’est pas parce que le centre de conférence ou l’université ne peut pas vous accueillir gratuitement que cela signifie que vous devez être la personne qui paye. Les collectivités territoriales aiment bien être impliquées lorsqu’il s’agit d’organiser des événements importants dans leur région. Le GUADEC à Stuttgart, le Gran Canaria Desktop Summit et le Desktop Summit à Berlin ont tous été financés par la région d’accueil en ce qui concerne la salle. S’associer avec une région présente un avantage supplémentaire : elles ont souvent des liens avec les entreprises et la presse locale, ce qui représente des ressources que vous pouvez utiliser afin d’obtenir de la visibilité et peut-être même des sponsors pour votre conférence.
  • Faites un appel d’offres : en incitant les groupes qui souhaitent héberger la conférence à déposer une offre, vous les incitez aussi à trouver une salle et à discuter avec les partenaires locaux avant de vous décider sur l’endroit où aller. Vous mettez aussi les villes en concurrence, et comme pour les candidatures aux Jeux Olympiques, les villes n’apprécient pas de perdre les compétitions auxquelles elles participent !

2. Le budget

Les conférences coûtent de l’argent. Ce qui peut coûter le plus cher pour une petite rencontre, ce sont les frais de déplacement des participants. Pour une conférence plus importante, les principaux coûts seront l’équipement, le personnel et la salle. Chaque fois que j’ai dû réunir un budget pour une conférence, mon approche globale a été simple :

  • décider de la somme d’argent nécessaire pour réaliser l’événement ;
  • collecter les fonds jusqu’à atteindre ce montant ;
  • arrêter la collecte et passer aux étapes suivantes de l’organisation.

Lever des fonds est une chose difficile. On peut vraiment y passer tout son temps. Au bout du compte, il y a une conférence à préparer, et le montant du budget n’est pas la préoccupation principale de vos participants.

Rappelez-vous que votre objectif principal est de réunir les participants du projet afin de le faire avancer. Alors, obtenir des réponses de participants potentiels, organiser le logement, la salle, les discours, la nourriture et la boisson, les activités sociales et tous les autres aspects de ce à quoi les gens s’attendent lors d’un événement… tout cela est plus important que la levée de fonds.

Bien sûr, de l’argent est nécessaire pour être capable d’organiser tout le reste. Alors, trouver des sponsors, décider de leurs niveaux de participation et vendre la conférence est un mal nécessaire. Mais une fois que vous avez atteint le montant nécessaire pour la conférence, vous avez vraiment mieux à faire.

Il existe quelques sources potentielles de financement pour préparer une conférence — combiner ces sources semble, selon moi, la meilleure des façons pour augmenter vos recettes.

  • les participants : même si c’est un sujet de controverse dans de nombreuses communautés, je crois qu’il est tout à fait justifié de demander aux participants de contribuer en partie aux coûts de la conférence. Les participants profitent des installations ainsi que des événements sociaux et tirent parti de la conférence. Certaines communautés considèrent la participation à leur événement annuel comme une récompense pour services rendus ou comme une incitation à faire du bon travail dans l’année à venir. Mais je ne crois pas que ce soit une façon pérenne de voir les choses. Pour les participants à une conférence, il y a plusieurs façons de financer l’organisation de celle-ci :
    1. les droits d’inscription : c’est la méthode la plus courante pour obtenir de l’argent de la part des participants à la conférence. La plupart des conférences communautaires demandent un montant symbolique. J’ai vu des conférences qui demandaient un droit d’entrée de 20 à 50 euros ; et ça ne posait aucun problème à la plupart des gens de payer cela. Un règlement d’avance a l’avantage supplémentaire de réduire massivement les désistements parmi les gens qui vivent à proximité. Les gens accordent plus d’importance à la participation à un événement leur coûtant dix euros qu’à un autre dont l’entrée est gratuite, même si le contenu est identique,
    2. les dons : ils sont utilisés avec beaucoup de succès par le FOSDEM. Les participants reçoivent un ensemble de petits cadeaux fournis par les sponsors (livres, abonnements à des magazines, T-shirts) en échange d’un don. Mais ceux qui le souhaitent peuvent venir gratuitement,
    3. la vente de produits dérivés : votre communauté serait peut-être plus heureuse d’accueillir une conférence gratuite et de vendre des peluches, des T-shirts, des sweats à capuche, des mugs et d’autres produits dérivés afin de récolter de l’argent.? Attention ! D’après mon expérience, on peut s’attendre à obtenir moins de bénéfices de la vente de produits dérivés qu’on n’en obtiendrait en offrant un T-shirt à chaque participant ayant payé un droit d’inscription,
  • les sponsors : les publications dans les médias accepteront généralement un « partenariat de presse » — en faisant de la publicité pour votre conférence dans leur magazine papier ou sur leur site Web. Si votre conférence est déclarée comme émanant d’une association à but non-lucratif pouvant accepter des dons avec des déductions d’impôts, proposez à vos partenaires dans la presse de vous facturer pour les services et de vous donner ensuite une subvention de partenariat séparée pour couvrir la facture. Le résultat final est identique pour vous. Mais il permettra à la publication de compenser l’espace qu’elle vous vend par des réductions d’impôts. Ce que vous souhaitez vraiment, ce sont des parrainages en liquide. Comme le nombre de projets de logiciels libres et les conférences se sont multipliés ces dernières années, la compétition pour les parrainages en liquide s’est intensifiée. Afin de maximiser vos chances d’atteindre le budget que vous vous êtes fixé, voici les actions que vous pouvez entreprendre :
    1. une brochure de la conférence : pensez à votre conférence comme un produit que vous vendez. Que représente-t-elle, quelle attention attire-t-elle, à quel point est-elle importante pour vous, pour vos membres, pour l’industrie et au-delà ? Qu’est ce qui a de la valeur pour votre sponsor ? Vous pouvez vendre un contrat de parrainage sur trois ou quatre éléments différents : peut-être que les participants à votre conférence constituent une audience cible de grande valeur pour le sponsor, peut-être (en particulier pour les conférences de moindre importance) que les participants ne sont pas ce qui est important mais plutôt la couverture dont bénéficiera la conférence dans la presse internationale ou bien peut-être que vous vendez à l’entreprise le fait que la conférence améliore un élément logiciel dont elle dépend. En fonction du positionnement de la conférence, vous pouvez lister les sponsors potentiels. Vous devriez avoir une brochure de parrainage que vous pourrez leur envoyer. Elle devra contenir une description de la conférence, un argumentaire de vente expliquant pourquoi il est intéressant pour l’entreprise de la parrainer, éventuellement des coupures de presse ou des citations de participants à des éditions antérieures disant à quel point votre conférence est géniale et, finalement, la somme d’argent que vous recherchez,
    2. des niveaux de parrainage : ils devraient être fixés en fonction de la somme que vous voulez lever. Vous devriez attendre de votre sponsor le plus important qu’il vous fournisse entre 30 et 40 % du budget total de la conférence, pour une conférence de moindre importance. Si vous êtes chanceux et que votre conférence attire de nombreux sponsors, cela peut s’élever à seulement 20 %. Pour vos estimations, visez un tiers. Ceci signifie que si vous avez décidé que vous avez besoin de 60 000 euros, vous devriez alors mettre votre niveau de sponsor principal à 20 000 euros et tous les autres niveaux en conséquence (disons 12 000 euros pour le deuxième niveau et 6 000 pour le troisième). Pour les conférences de moindre importance et les rencontres, le processus peut être légèrement plus informel. Mais vous devriez toujours penser au processus entier comme un argumentaire de vente,
    3. un calendrier : la plupart des entreprises ont un cycle budgétaire soit annuel, soit semestriel. Si vous émettez votre demande à la bonne personne au bon moment, vous pourriez alors avoir une discussion bien plus aisée. Le meilleur moment pour soumettre des propositions de parrainage d’une conférence estivale est aux environs d’octobre ou de novembre de l’année précédente, lorsque les entreprises finalisent leur budget annuel. Si vous manquez cette fenêtre, tout n’est pas perdu. Mais tout parrainage que vous obtenez viendra des budgets de fonctionnement qui tendent à être maigres et qui sont gardés précieusement par leurs propriétaires. Sinon, vous pouvez obtenir un engagement de parrainage en mai pour votre conférence de juin, à la fin du processus budgétaire du premier semestre — ce qui est tardif dans la préparation,
    4. approcher les bonnes personnes : je ne vais pas enseigner l’art de la vente à qui que ce soit mais mon secret personnel dans les négociations avec les grandes organisations est de devenir ami avec des personnes à l’intérieur de ces organisations et de me forger une impression sur l’origine potentielle du budget pour mon événement. Votre ami ne sera probablement pas la personne qui contrôle le budget mais l’avoir à vos cotés est une chance d’avoir un allié au sein de l’organisation. Il fera en sorte que votre proposition soit mise devant les yeux de la personne en charge du budget. Les grandes organisations peuvent être aussi dures qu’une noix est dure à craquer, mais les projets de logiciels libres ont souvent des amis dans les hautes sphères. Si vous avez vu le directeur technique ou le PDG d’une entreprise classée au Fortune 500 parler de votre projet dans un article de journal, n’hésitez pas à lui envoyer quelques mots en évoquant le fait que, quand le temps sera venu de financer cette conférence, une note personnelle demandant qui est la meilleure personne à contacter fera des merveilles. Souvenez-vous que votre objectif n’est pas de vendre votre contact personnel mais de le changer en un défenseur de votre cause à l’intérieur de l’organisation et de créer la chance de, plus tard, vendre la conférence à la personne responsable du budget,
  • Souvenez-vous aussi, en vendant des contrats de parrainage, que tout ce qui vous coûte de l’argent pourrait faire partie d’un contrat de parrainage. Certaines entreprises offriront des tours de cou aux participants, la pause café, la glace de l’après-midi ou bien un événement social. Ce sont de bonnes occasions de parrainage et vous devriez exprimer clairement, dans votre brochure, tout ce qui se déroule. Vous devriez aussi définir un budget prévisionnel pour chacun de ces évènements lorsque vous écrivez le brouillon de votre budget.

3. Contenu

Le contenu d’une conférence est son élément le plus important. Des événements différents peuvent traiter différemment d’un même contenu — certains événements invitent une grande partie de leurs intervenants, tandis que d’autres comme GUADEC et OSCON font des appels à propositions et choisissent les interventions qui rempliront les salles.

La stratégie que vous choisirez dépendra beaucoup de la nature de l’événement. Si l’événement existe depuis une dizaine d’années, avec un nombre de participants toujours croissant, faire un appel à articles est une bonne idée. Si vous êtes dans votre première année, et si les personnes ne savent vraiment pas quoi faire de l’événement, alors donnez le ton en invitant de nombreux orateurs, aidant ainsi les gens à comprendre votre objectif.

Pour Ignite Lyon l’an dernier, j’ai invité environ 40 % des orateurs pour le premier soir (et j’ai souvent dû les harceler pour qu’ils me proposent une intervention). Les 60 % restants sont venus via un formulaire de candidature. Pour le premier Libre Graphics Meeting, en dehors des présentations éclairs, je pense avoir d’abord contacté chaque orateur, à l’exception de deux d’entre eux. Maintenant que l’événement en est à sa 6e année, il existe un processus d’appel à contributions qui fonctionne plutôt bien.

4. Le programme

Il est difficile d’éviter de mettre en parallèle des exposés attrayants pour les mêmes personnes. Dans chaque conférence, vous pouvez entendre des personnes qui voulaient assister à des conférences se déroulant en même temps, sur des sujets similaires.

Ma solution pour la programmation des conférences est très simple, mais elle fonctionne dans mon cas. Des post-it de couleur, avec une couleur différente pour chaque thème, et une grille vide. Le tour est joué. Écrivez les titres des exposés (un par post-it), ajoutez les quelques contraintes que vous avez pour l’orateur, puis remplissez la grille.

Mettre le programme en-dehors de l’ordinateur, et dans des objets réels, permet de voir très facilement les conflits, d’échanger les conférences aussi souvent que vous voulez, et de le publier ensuite sur une page Web quand vous en êtes satisfait.

J’ai utilisé cette technique avec succès pour GUADEC 2006 et Ross Burton l’a réutilisée avec succès en 2007

.

5. Les fêtes

Les fêtes sont un compromis à trouver. Vous voulez que tout le monde s’amuse, et s’éclater jusqu’au petit matin est une partie très importante quand on participe à une conférence. Mais la fréquentation matinale souffre après une fête. Ayez pitié du pauvre membre de la communauté devant se tirer hors du lit après trois heures de sommeil pour aller parler devant quatre personnes à 9 heures du matin après la fête.

Certaines conférences ont trop de fêtes. C’est super d’avoir la possibilité de se saouler avec des amis chaque nuit. Mais ça n’est pas génial de vraiment le faire chaque nuit. Rappelez-vous du but de la conférence : vous voulez stimuler l’avancement de votre projet.

Je préconise une grande fête, et une plus petite, au cours de la semaine. En-dehors de ça, les personnes seront tout de même ensemble et passeront de bons moments, mais ce sera à leurs frais, ce qui fait que chacun restera raisonnable.

Avec un peu d’imagination, vous pouvez organiser des événements qui n’impliquent pas l’utilisation de musique forte et d’alcool. D’autres genres d’événements sociaux peuvent faire l’affaire, et même être plus amusants.

Au GUADEC, nous organisons un tournoi de football depuis quelques années. Lors du sommet OpenWengo en 2007, nous avions embarqué les personnes pour une balade en bateau sur la Seine puis nous étions ensuite montés sur un manège du XIXe siècle. Faire manger les gens ensemble est un autre moyen de nouer des liens. J’ai de très agréables souvenirs de repas de groupe lors de nombreuses conférences. À la conférence annuelle de KDE, l’Akademy, il y a traditionnellement une grande journée de sortie durant laquelle les personnes vont ensemble à un pique-nique, quelques activités simples de plein air, une promenade en bateau, un peu de tourisme ou quelque chose de similaire.

6. Les coûts supplémentaires

Attention à ces dépenses imprévues ! Une conférence dans laquelle j’étais impliqué, et où le lieu de réunion était « sponsorisé à 100 % » nous a laissé une note de 20 000 euros pour les coûts de main-d’œuvre et d’équipement. Oui, le lieu était sponsorisé, mais la mise en place des tables et des chaises, ainsi que la location des écrans, des vidéoprojecteurs et de tout le reste ne l’était pas. Au bout du compte, j’ai estimé que nous avions utilisé seulement 60 % de l’équipement que nous avions payé.

Tout ce qui est fourni sur place est extrêmement coûteux. Une pause-café peut coûter jusqu’à 8 euros par personne pour un café et quelques biscuits, de l’eau en bouteille pour les conférenciers coûte quatre euros par bouteille, etc. La location d’un rétroprojecteur et de micros pour une salle peut coûter 300 euros ou plus pour une journée, selon que le propriétaire exige ou non que l’équipement audio-vidéo soit manipulé par son propre technicien.

Quand vous traitez avec un lieu commercial, soyez clair dès le départ sur ce pour quoi vous payez.

Les détails sur place

J’aime les conférences attentives aux petits détails. En tant qu’orateur, j’aime quand quelqu’un me contacte avant la conférence pour m’avertir qu’il me présentera. Que souhaiterais-je qu’il dise ? C’est rassurant de savoir que, quand j’arriverai, il y aura un micro sans fil et quelqu’un qui peut aider à l’ajuster.

Faire attention à tous ces détails nécessite de nombreux volontaires, et ça nécessite quelqu’un pour les organiser avant et pendant l’événement. Il faut passer beaucoup de temps à parler à l’équipe sur place, plus particulièrement aux techniciens audio/vidéo.

Lors d’une conférence, le technicien audio-vidéo avait prévu de basculer manuellement l’affichage vers un économiseur d’écran à la fin d’une conférence. Au cours d’une session de mini-conférences, nous nous sommes retrouvés dans une situation burlesque quand, après le premier conférencier, j’ai interverti l’ordre de passage : au moment où la présentation suivante s’affichait sur mon portable, nous avions toujours l’économiseur sur le grand écran. Personne n’avait parlé avec le technicien de la régie pour lui expliquer le format de la présentation ! Et c’est comme ça qu’on a fini par avoir pas moins de quatre spécialistes de Linux à s’occuper de l’ordinateur portable qui vérifiaient les connexions en psalmodiant divers mantras Xrandr, qui s’efforçaient de remettre en marche le rétroprojecteur au-dessus de nos têtes ! Nous avons fini par changer d’ordinateur portable, le technicien de la régie a compris de quel type de session il s’agissait, et ensuite tout s’est fort bien passé — la plupart des gens concernés ont accusé mon portable.

Gérer une conférence, ou parfois une plus petite rencontre, prend du temps, et nécessite beaucoup d’attention aux détails, qui pour la plupart ne seront jamais remarqués par les participants. Et je n’ai même pas évoqué des choses comme les banderoles et les affiches, la création du graphisme, la gestion de la presse ou d’autres joyeusetés qui vont de pair avec l’organisation d’une conférence.

Le résultat final est en revanche particulièrement gratifiant. Une étude que j’ai menée l’année dernière sur le projet GNOME a montré qu’il y a eu une forte augmentation de la productivité sur tout le projet juste après notre conférence annuelle et un grand nombre de membres de notre communauté mentionnent la conférence comme ayant été, pour eux, le point culminant de l’année.