Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Le logiciel libre en entreprise expliqué par un communiqué de presse

Ed Yourdon - CC by-saOn m’a envoyé aujourd’hui un communiqué de presse via le formulaire de contact du blog.

Je l’ai trouvé fort instructif et j’ai décidé de vous le reproduire ci-dessous dans son intégralité, à ceci près que j’ai effacé le vrai nom de la société et de son logiciel phare qui deviennent ici « Société-X » et « CMS-X » .

D’un simple copier/coller sur un moteur de recherche, il est facile de les retrouver, là n’est pas le propos[1].

Le propos c’est que ce communiqué illustre me semble-t-il assez bien le modèle économique choisi majoritairement par les entreprises qui intègrent du logiciel libre – ou plutôt open source – dans leur stratégie de développement. Dans le fond avec sa déclinaison du produit en version « Community » et en version « Entreprise » (elle-même en double licence, libre ou propriétaire), mais aussi dans la forme avec le ton et le style particuliers adoptés par le communiqué.

Communiqué de presse de la « Société-X »

Société-X renforce sa stratégie d’innovation et offre une nouvelle solution à ses clients professionnels.

Alors qu’aujourd’hui seuls les ingénieurs de Société-X développent le coeur du CMS-X, Société-X a annoncé à l’occasion de sa conférence annuelle des changements importants afin d’encourager et d’intégrer les contributions de sa communauté Open Source dans sa plate-forme de gestion de contenu CMS-X. A partir de la prochaine version de CMS-X sortant dans les prochains jours, Société-X ouvrira ses processus de développement à sa communauté et permettra à ses membres de contribuer directement à l’évolution de la solution CMS-X. Cette initiative est centralisée dans le cadre du projet « CMS-X Community Project ».

En parallèle, Société-X proposera à ses clients professionnels une nouvelle version de sa solution en annonçant CMS-X Enterprise, version suivant des processus qualité très stricts et officiellement supportée, maintenue par Société-X sous la forme d’une souscription annuelle. CMS-X Enterprise, tout en profitant pleinement de l’innovation accélérée dans CMS-X Community Project, sera maintenu dans une code base séparée soumise à du testing intensif et intégrant des modules très spécifiques seulement disponibles aux clients ayant souscrit à CMS-X Enterprise Subscription.

Ces améliorations permettront d’offrir une nouvelle valeur ajoutée à la communauté Open Source, aux clients et aux partenaires.

Cette annonce est une formidable opportunité pour les partenaires et membres de la communauté qui seront en mesure d’influencer largement la road map et les futures orientations de l’application CMS-X. Ainsi, les 50.000 membres de la communauté pourront contribuer simplement au développement de la solution et participer à la gouvernance du projet « CMS-X Community Project ». CMS-X est une plate-forme de CMS reposant sur les meilleurs standards du marché pour une utilisation en contexte professionnel. Elle offre pour les entreprises un haut niveau de support disponible par abonnement.

CMS-X sera donc disponible en deux versions :

  • La version communautaire développée sur la base SCRUM et dédiée aux développeurs, chercheurs…
  • La version CMS-X Enterprise conçue pour une utilisation professionnelle. Elle est disponible en deux modes GPL ou PLU (Professional User Licence). La version professionnelle est actualisée deux fois par an (mars et septembre) et disponible uniquement pour les clients professionnels.

Ce nouveau modèle de distribution sera mis en place à l’occasion de l’annonce de la prochaine version de CMS-X Enterprise délivrée dans les prochains jours.

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)




Pourquoi il nous tient à cœur de ne pas confondre Hacker et Cracker

Gregor_y - CC by-saSi vous êtes un lecteur assidu du Framablog, vous ne découvrirez probablement pas grand-chose de nouveau dans l’article qui suit. Mais il n’est pas non plus dépourvu d’intérêt, loin s’en faut : il peut être une référence pour tous ceux qui ne connaissent pas bien la différence entre les « hackers » et les « crackers », et ils sont nombreux. On dit souvent, à raison, que cette confusion est de nature médiatique, mais malheureusement ce n’est que partiellement vrai. Avec l’influence que les médias ont pu avoir, il est devenu très courant d’entendre au détour d’une conversation que des « hackers ont piraté (ou que des pirates ont hacké !) tel système ». Et même dans les GUL ! C’est pour cela qu’il m’a paru important de revenir aux sources… Pourquoi hacker n’a rien à voir avec cracker ?

Il me semble d’autant plus dommage de confondre ces deux notions qu’à mon avis le « hacking » a un grand rôle à jouer dans notre société. On a souvent beaucoup de préjugés sur Marx, à cause de la simplification de ses écrits qui a nourri le marxisme (à tel point qu’on appelle les personnes qui étudient directement Marx, les marxiens !). Sans tomber dans le marxisme, le concept de fétichisme de la marchandise me semble particulièrement intéressant pour décrire la situation actuelle : pour faire fonctionner le système économique tel qu’il est, il faut que l’acheteur se réduise à une simple fonction de consommation, sans produire par lui-même, ou pour lui-même. Le fétichisme est à la fois une admiration et une soumission. Il faut acheter des produits de marque. Apple est à mon avis un super exemple : le simple fait de poser une pomme (même pas entière) sur un produit de qualité moyenne, double son prix, et entraîne une myriade de « fans ».

Derrière ce nom barbare du fétichisme de la marchandise, se cache un double phénomène : la sacralisation de la marchandise, engendrant l’aliénation de l’homme à cette dernière. Tout cela pour dire que les produits sont pris pour plus qu’ils ne sont réellement, que par exemple l’homme est prêt à sacrifier beaucoup pour acquérir un objet. Ainsi, le fétichisme de la marchandise permet, à mon sens, de rendre compte de la situation de l’économie actuelle. Une instance économique (le plus souvent les entreprises) produit un objet ou un service qui apparaît cher aux yeux des consommateurs, qui ne doivent l’utiliser que dans le sens pour lequel il a été créé. Encore une fois Apple, cas extrême, permet de rendre compte de la situation : tout ne repose que sur leur image de marque, de haut de gamme, alors que la réalité est terrifiante (Big Brother censure, qualité de l’électronique tout à fait moyenne, matériel et logiciels fermés et propriétaires jusqu’à l’os, bidouillabilité et respect des utilisateurs faibles voire nuls, etc). Là où je veux en venir est que le fétichisme de la marchandise permet de masquer les yeux du consommateur pour que celui-ci se contente d’utiliser servilement ce qu’on lui propose tout en étant satisfait.

Pour entrer plus dans le détail du concept, selon Marx si l’objet est sacralisé c’est parce que le rapport social de production, qui est extérieur au produit, est pris comme faisant partie intégrante de la marchandise. Concrètement, un produit (ou un service) est conçu conformément à des exigences sociales, mais on croit que la valeur sociale attribuée à l’objet vient de l’objet lui-même. On croit que le produit peut exister tout seul, en dehors de tout contexte de société. Par exemple, on peut être fier d’avoir le tout dernier joujou à la mode qui en jette plein les yeux. Dans ce cas, la reconnaissance sociale liée à la possession de l’objet est prise comme étant intégralement due à l’objet que l’on achète. La marchandise est alors élevée à un statut supérieur par une opération certes magique mais inconsciente. L’objet est donc sacralisé, l’aliénation en est ensuite la conséquence : l’objet qui semble posséder des pouvoirs « magiques » doit être protégé, conservé, etc. C’est la soumission qui va de pair avec toute forme de sacré. Et c’est exactement ce qu’essaient de cultiver les entreprises.

De plus, un effet de mode étant très éphémère, l’objet devient vite un fardeau, une vieillerie, car son « pouvoir » secret se tarit. Ce qui, à mon sens, explique la frénésie du schéma achat-consommation-rejet-poubelle de notre système économique, et de nos modes de vie. Le fétichisme de la marchandise vient de là : un rapport social occulté qui entraîne une sacralisation du produit : il faut se contenter pour être heureux d’acheter, de ne pas abîmer, de préserver le produit à l’identique (pour essayer de garder ses vertus magiques que l’on a pu avoir l’impression de palper), de ne pas bidouiller, ni en faire une utilisation trop originale.

Quel est le rapport en fin de compte avec le hacking ? C’est une solution ! Je n’ai fait le rapprochement que très récemment dans une interview de la radio des RMLL de John Lejeune, un animateur du projet Hackable Devices, qui disait que « Tout ce qui est do-it-yourself, bidouille, réappropriation des connaissances, etc, est en train de revenir. L’intérêt est aussi de détourner des fonctions, savoir comment ça marche, comprendre, et désacraliser les objets ». Et effectivement, manipuler, bidouiller, faire par soi-même permet de démystifier le produit, de ne plus être dans une attitude de simple consommation, de ne pas se contenter de vivre en lecture seule[1]. On voit que ce n’est pas compliqué de créer, qu’à l’intérieur de la boîte noire du dernier joujou à la mode, il n’y a finalement rien d’extraordinaire, ni de magique. Le rapport à la marchandise s’inverse : au lieu de se soumettre à elle, on la maîtrise, la contrôle et l’adapte à ses besoins. Confondre « Hacking » et « Cracking » est donc d’autant plus dommageable que les deux notions recouvrent des modes de vie et des fonctionnements différents. Égaliser les deux notions, c’est faire réprimer le vrai « Hacking » par la société et donc en un sens se voiler la face sur des problèmes existants. Cet article me parait donc un début de solution !

Hacker vaillant, rien d’impossible 😉

Lettre ouverte aux médias sur le mauvais usage du terme « hacker »

Open letter to the media about the misuse of the term "hacker"

Matija Šuklje – 2 août 2010 – Hook’s Humble
(Traduction Framalang : Marting, Siltaar, Loque Humaine et Barbidule)

Ces derniers jours et semaines, on a beaucoup parlé dans les médias slovènes de trois Slovènes qui auraient collaboré au botnet Mariposa. Si vous ne savez pas de quoi il s’agit, vous pouvez lire ce communiqué de presse du FBI. Les médias n’ont cessé d’appeller ces présumés cybercriminels des « hackers ». Comme c’est un abus de langage et que nous sommes nombreux, au sein du groupe Slovène de la Free Software Foundation Europe, à nous définir par ce terme de « hackers », nous avons estimé que quelque chose devait être fait. Nous avons donc écrit et envoyé une lettre ouverte aux médias pour leur expliquer la différence entre « hacker » et « cracker » et les inviter aimablement à employer ces mots correctement à l’avenir. Cette action a été soutenue par plusieurs autres groupes et organismes. La suite correspond au texte entier de la lettre ouverte et à sa traduction.

Madame, Monsieur,

Ces dernières semaines, au sujet de l’action du FBI contre un cybercrime ayant abouti à l’arrestation d’un suspect en Slovénie, le mot « hacker » a été utilisé à plusieurs reprises dans les médias dans un contexte et dans un sens erronés. Ce terme ayant un sens différent pour les experts et pour le public profane, nous avons trouvé opportun de vous le signaler par cette lettre ouverte.

« Hacker » vient du verbe « to hack », « bidouiller ». Cette expression fut forgée au MIT (Massachusetts Institute of Technology) dans les années 50, et signifie résoudre un problème technique d’une manière originale. Dans le jargon de l’informatique, elle est encore utilisée pour désigner des modifications inventives ou originales d’un programme ou d’un système, basées sur une compréhension profonde et dans un but qui n’était pas celui prévu initalement.

Beaucoup d’autorités dans le domaine de l’informatique et de la sécurité entendent le terme « hacking » comme un état d’esprit, la capacité à penser hors des frontières, des façons de faire et des méthodes établies, en essayant de surmonter ces obstacles. Les exemples sont nombreux de « hackers » mettant leurs compétences et leur créativité au service de causes nobles et de l’intérêt général, en faisant en sorte que tout le monde puisse utiliser ou modifier leur programme. Des exemples de tels logiciels libres sont : GNU/Linux, Mozilla Firefox, Mozilla Thunderbird, Google Chromium, OpenOffice.org, SpamAssassin, GIMP, Scribus etc.

Ce furent les médias et l’industrie du film qui utilisèrent ensuite (à tort) le mot « hacker » pour désigner les cybercriminels, ce qui provoqua évidemment une certaine confusion. Ce désordre est encore alimenté par l’évolution de la terminologie, et par les traductions dans la langue slovène.

Pour désigner une personne qui s’introduit dans des systèmes informatiques avec une intention criminelle, il est plus approprié d’utiliser le terme « cracker ». Ce terme désigne les personnes qui contournent des systèmes de sécurité sans autorisation et/ou qui utilisent les TIC (c’est-à-dire habituellement des ordinateurs, des téléphones ou des réseaux) pour s’introduire dans des systèmes et se livrer à des activités illégales ou criminelles — vandalisme, fraudes aux cartes de crédit, usurpation d’identité, piratage, et autres types d’activités illégales.


Ainsi, le dictionnaire slovène d’informatique fait bien la distinction entre le terme « hacker », entendu comme « un passionné d’informatique orienté sur la technique » et le terme « cracker » « qui s’introduit dans les systèmes informatiques avec l’intention d’utiliser des données ou des programmes sans autorisation ».

C’est pourquoi il convient d’utiliser le terme « crackers » pour désigner ces personnes suspectées de crimes informatiques. Au cours des dernières décennies, de nombreuses avancées technologiques furent le fruit du phénomène « hacker » — les ordinateurs personnels, l’Internet, le logiciel libre — il serait donc abusif d’assimiler hackers et criminels. Cela équivaudrait à qualifier tous les pharmaciens d’empoisonneurs.

Nous comprenons que la confusion actuelle existe depuis assez longtemps et c’est d’ailleurs pour cela que nous pensons qu’il est largement temps de clarifier ce point ensemble. Aussi nous vous demandons, s’il vous plaît, de bien vouloir à l’avenir utiliser le terme approprié.

Bien cordialement,

Matija Šuklje : coordinateur du groupe slovène de la FSFE[2]

Co-signataires : Andrej Kositer (président du COKS[3]), Simon Delakorda, (directeur du INePA[4]), Andrej Vernekar (président du LUGOS[5]), Klemen Robnik (de Kiberpipa/Cyberpipe[6]) et Ljudmila[7].

Notes

[1] Crédit photo : Gregor_y (Creative Commons By-Sa)

[2] Le groupe slovène de l’association FSFE est un groupe supportant la « Free Software Foundation Europe » ainsi que le logiciel libre et open-source en général, organisé en tant que mouvement citoyen. Nous défendons le logiciel libre, les standards et les formats ouverts.

[3] Le Centre Open Source Slovène (COKS – Center odprte kode Slovenije) soutient au niveau national en Slovénie, le développement l’utilisation et la connaissance des technologies open-source ainsi que des systèmes d’exploitation libres. Nous aidons et soutenons les utilisateurs de ces systèmes d’exploitation dans le secteur public et privé, et coopérons avec les instances européennes dans le domaine de l’open-source et des politiques de gouvernance en informatique.

[4] L’Institut d’Apport en Électronique INePA (Inštitut za elektronsko participacijo) est une organisation non gouvernementale à but non-lucratif dans le domaine de l’e-democratie. L’INePA effectue aussi bien des projets applicatifs et de développement que des activités juridiques et en lien avec les ONG, les institutionsn et les individus qui supportent le consolidation de la démocratie et de la participation politique par l’usage des TIC. L’institut est membre du Réseau Pan-Européen d’eParticipation, et du Réseau de Citoyens d’Europe Centrale et de l’Est.

[5] LUGOS (Linux user group of Slovenia) est une association d’utilisateurs du système d’exploitation libre et open-source GNU/Linux. Parmi ses activités, elle propose entre autre un support aux utilisateurs et traduit des logiciels libres. Elle s’occupe aussi du réseau ouvert sans fil de Ljubljana (wlan-lj) et des lectures hebdomadaires de « Pipe’s Open Terms » (en coopération avec Cyberpipe).

[6] Kiberpipa/Cyberpipe est un collectif de défense de l’open-source et des libertés numériques. Dans le centre de Ljublljana, il crée une culture numérique, et informe experts et grand public par le biais de présentations, de lectures et d’ateliers.

[7] Ljudmila Le laboratoire de Ljubljana pour un média et une culture numérique (1994) est le premier laboratoire à but non-lucratif en Slovénie qui supporte la recherche inventive et créative, au travers de projets de travail autour de l’Internet, de la vidéo numérique, de l’art électronique, de la radio numérique, de la communication, du développement du logiciel open-source et connecte tout ceci dans une approche interdisciplinaire. Il promeut aussi aussi bien l’éducation en groupes autonomes qu’en ateliers et il est le fondateur du réseau de centres multimédia « M3C » en Slovénie.




Est-ce grave docteur quand Linux baisse et Ubuntu stagne dans Google Trends ?

Dans un récent billet intitulé Quel avenir pour Linux sur le poste de travail ?, Tristan Nitot posait la question suivante, que l’on peut aussi qualifiée de question qui tue : « Alors qu’on constate que le marché du PC est en fort déclin et que le téléphone mobile se profile comme étant le moyen d’accès à Internet premier pour une majorité de gens, Linux aura-t-il le temps de percer avant que la fenêtre d’opportunité ne se ferme ? Linux aura-t-il le temps de conquérir l’ordinateur de bureau avant que celui-ci ne devienne marginal ? »

Une chose est sûre, si l’on se fie à Google Trends, « Linux » est en spectaculaire déclin :

Google Trends - Linux

Voyez par vous-même

Pour rappel Google Trends « est un outil issu de Google Labs permettant de connaître la fréquence à laquelle un terme a été tapé dans le moteur de recherche Google, avec la possibilité de visualiser ces données par région et par langue » (source Wikipédia).

On pourrait se dire que peut-être est-ce à cause de l’irrésistible envolée d’Ubuntu. Mais non Ubuntu, quand bien même il ait rattrapé Linux, stagne aussi, jusqu’à baisser même sensiblement ces derniers temps :

Google Trends - Ubuntu

Voyez par vous-même

Les deux ensemble :

Google Trends - Linux + Ubuntu

Voyez par vous-même

Attention, cela ne signifie donc rien d’autre que le fait suivant : les internautes passant par le moteur de recherche Google tapent moins souvent les mots clés « Linux » et « Ubuntu » qu’avant. Et c’est tout.

Mais j’ai bien peur que cela soit quand même signifiant…




10 différences entre les OS libres Linux et BSD

Beastie - Logo BSDIl est trop rare que nous évoquions le système d’exploitation libre BSD (Berkeley Software Distribution). La dernière fois il s’agissait d’un billet consacré à l’histoire d’Unix, à l’occasion de son quarantième anniversaire.

Et c’est dommage parce que cela finit par laisser à penser qu’il n’existe que GNU/Linux dans le monde des OS libres. Or il y a aussi la famille BSD (FreeBSD, OpenBSD, NetBSD…), louée pour la propreté de son code, sa sécurité, sa fiabilité et sa stabilité, que l’on compare souvent à son « cousin » GNU/Linux justement, histoire de l’appréhender plus facilement et de mieux comprendre ce qui fait sa spécificité.

Si on le rencontre peu souvent sur ce blog, c’est aussi parce qu’il serait difficile de le conseiller de prime abord à un utilisateur lambda pour sa machine personnelle, surtout si ce dernier provient de l’univers Windows. La matériel est moins bien et moins vite supporté, il y a moins d’applications disponibles et il se destine surtout au monde des serveurs. Mais rien ne dit qu’un jour, vous aussi…

Ce billet s’adresse donc à tous les curieux et plus particulièrement à ceux qui se sont déjà frottés de près ou de loin à une distributions GNU/Linux. Il s’adresse également aux experts et aux aficionados de BSD qui sont cordialement invités à témoigner, compléter et surtout critiquer l’article et ses arguments dans les commentaires.

D’autant plus que l’auteur propose en conclusion une classification des OS en fonction de la maîtrise de leurs utilisateurs qui ne fera sans doute pas l’unanimité !

Remarque 1 : Le personnage ci-dessus s’appelle Beastie (bi-esse-di), c’est la mascotte BSD et il représente un charmant petit démon, oups, je veux dire daemon.

Remarque 2 : Il y a du BSD dans Mac OS X, comme aiment à la rappeler certains Macfans et les geeks qui, ayant adopté cet OS, « culpabilisent » moins ainsi 😉

10 différences entre Linux et BSD

10 differences between Linux and BSD

Jack Wallen – 4 août 2010 – TechRepublic
(Traduction Framalang : Loque huaine et Mathieu)

Malgré une tendance courante à minimiser leurs différences, Linux et BSD ont un certain nombre de caractéristiques qui les distinguent. Jack Wallen attire l’attention sur plusieurs différences importantes.

Combien de fois avez-vous déjà entendu les gens mettre Linux et n’importe quel BSD dans le même panier ? Bien sûr, il existe un grand nombre de similarités entre Linux et BSD : ils sont tous les deux basés sur UNIX. Dans l’ensemble, les deux systèmes sont développés par des organisations à but non lucratif. Et je dois dire que Linux comme les variantes BSD ont un but commun : créer le plus utile et le plus fiable des systèmes d’exploitation qui soit.

Toutefois, il y a aussi des différences significatives. Et quand les gens n’y font pas attention, c’est toute la communauté BSD qui frissonne de colère. Aussi, j’ai pensé que je pourrais aider mes frères de BSD et expliquer un peu en quoi Linux est différent de BSD.

1. Licences

Comme nous le savons tous, le système d’exploitation Linux est sous licence GPL. Cette licence est utilisée pour empêcher l’inclusion de logiciels aux sources fermées et pour assurer la disponibilité du code source. La GPL essaye d’empêcher la distribution de sources sous forme de binaires seulement.

La Licence BSD est bien moins restrictive et autorise même la distribution de source sous forme de binaires. La principale différence peut cependant être vue de la façon suivante : la GPL vous donne le droit d’utiliser le logiciel de n’importe quelle façon, mais vous DEVEZ vous assurer que le code source est disponible pour la prochaine personne qui utilisera le logiciel (ou votre variante du logiciel). La licence BSD n’exige pas que vous soyez sûr que la prochaine personne qui utilise (ou modifie votre code) rende ce code disponible.

2. Contrôle

Le code BSD n’est pas « contrôlé » par une personne en particulier, ce que beaucoup de gens voient comme un gros plus. Alors que le noyau Linux est principalement contrôlé par Linus Torvalds (le créateur de Linux), BSD n’est pas régi par une personne unique dictant ce qui peut ou ne peut pas aller dans le code. À la place, BSD utilise une « équipe centrale » (NdT : core team) pour gérer le projet. Cette équipe centrale a un droit de parole dans la direction du projet plus important que celui des autres membre de la communauté BSD.

3. Noyau contre système d’exploitation

Le projet BSD maintient un système d’exploitation entier, alors que le projet Linux se focalise principalement sur le seul noyau. Ce n’est pas aussi fondamental que ça en a l’air parce qu’un grand nombre d’applications qui sont utilisées le sont sur les deux systèmes d’exploitation.

4. UNIX-like

Il y a un vieux dicton à propos de BSD contre Linux : « BSD est ce que vous obtenez quand une poignée d’hackers UNIX se rassemblent pour essayer de porter un système UNIX sur un PC. Linux est ce que vous obtenez quand une poignée d’hackers PC se rassemblent et essaient d’écrire un système UNIX pour le PC » (NdT : BSD is what you get when a bunch of UNIX hackers sit down to try to port a UNIX system to the PC. Linux is what you get when a bunch of PC hackers sit down and try to write a UNIX system for the PC).

Cette expression en dit long. Ce que vous pourrez constater, c’est que les BSD ressemblent beaucoup à UNIX parce qu’ils sont en fait des dérivés directs du traditionnel UNIX. Linux, en revanche, était un OS nouvellement créé, vaguement basé sur un dérivé d’UNIX (Minix, pour être précis).

5. Systèmes de base

Ce point est crucial pour comprendre les différences entre BSD et Linux.

Le « système de base » pour Linux n’existe pas vraiment, puisque Linux est un conglomérat de systèmes plus petits qui s’imbriquent ensemblent pour former un tout. La plupart diront que le système de base de Linux est le noyau. Le problème c’est qu’un noyau est plutôt inutile sans aucune application utilisable. BSD en revanche, a un système de base comprenant de nombreux outils — même libc fait partie du système de base. Parce que ces pièces sont toutes traitées comme un système de base, elles sont toutes développées et packagées ensemble. D’aucun argueront du fait que cela crée un tout plus cohésif.

6. Plus à partir des sources

À cause de la façon dont BSD est développé (en utilisant le système de Ports), davantage d’utilisateurs ont tendance à installer à partir des sources plutôt que de paquets binaires pré-empaquetés.

Est-ce un avantage ou un inconvénient ? Cela dépend des individus. Si vous êtes adepte de la simplicité et de la convivialité, vous vous en détournerez. Ceci est particulièrement vrai pour les nouveaux utilisateurs. Peu de nouveaux utilisateurs veulent avoir à compiler à partir des sources. Cela peut engendrer une distribution pataude. Mais installer à partir des sources a aussi ses avantages (gestion des versions des bibliothèques, construction de paquets spécifiques au système, etc.).

7. Changements de version

Grâce à la façon dont BSD est développé (voir le point 5), vous pouvez mettre à jour l’ensemble de votre système de base vers la plus récente des versions avec une seule commande. Ou bien vous pouvez télécharger les sources de n’importe quelle version, les décompresser, et compiler comme vous le feriez pour n’importe quelle autre application. Avec Linux, vous pouvez aussi changer un système de version en utilisant le gestionnaire de paquets du système. La première façon ne mettra à jour que le système de base, la seconde mettra à jour l’ensemble de l’installation. Rappelez-vous cependant que passer à la nouvelle version du système de base ne veut pas dire que tous vos paquets supplémentaires seront mis à jour. Alors qu’avec les mises à jour de version de Linux, tous vos paquets bénéficieront du processus de mise à niveau. Est-ce que cela signifie que la façon de faire de Linux est meilleure ? Pas nécessairement. J’ai vu de mes propres yeux une mise à jour Linux qui s’est horriblement mal passée, nécessitant la réinstallation du système tout entier. Cela a beaucoup moins de chances de se produire avec un changement de version BSD.

8. Dernier cri

Il est peu probable que vous voyiez un BSD exécuter la toute dernière version de quoi que ce soit. Linux au contraire, a beaucoup de distributions qui offrent les dernières versions des paquets. Si vous êtes fan du « Si ce n’est pas cassé, ne le corrigez pas » (NdT : If it isn’t broken, don’t fix it), vous serez un grand fan de BSD. Mais si vous êtes du genre à avoir besoin que tout soit le plus récent possible, vous feriez mieux de migrer vers Linux aussi vite que possible histoire de ne pas être à la traîne.

9. Support matériel

Vous constaterez, en général, que Linux supporte le matériel bien plus tôt que BSD. Ça ne veut pas dire que BSD ne supporte pas autant de matériel que Linux. Ça veut juste dire que Linux le supporte avant BSD (dans certains cas, BIEN avant BSD). Donc si vous voulez la toute dernière carte graphique, ne pensez même pas à BSD. Si vous voulez le nouveau portable qui en jette avec un chipset sans-fil dernier cri, vous aurez plus de chance avec Linux.

10. Communauté d’utilisateurs

Je vais me risquer ici à généraliser sur les utilisateurs d’ordinateurs. En préambule je dirai qu’il y a des exceptions à TOUTES les règles (ou généralités, dans le cas présent). Mais je vous présente ma généralisation sur la répartition des distributions en fonction des utilisateurs. De la gauche vers la droite on passe des utilisateurs maîtrisant le moins un PC à ceux le maîtrisant le plus. Comme vous pouvez le constater, Linux est au milieu, alors que BSD penche plus sur la droite. Beaucoup ne seront pas d’accord ; certains en seront même offensés. Mais c’est d’après moi une généralité assez juste sur l’usage du système d’exploitation selon l’utilisateur.

Mac —–> Windows —–> Linux —–> BSD —–> UNIX

Autres différences ?

Cette liste n’est en aucune façon destinée à dire que l’un est meilleur que l’autre. Je trouve que BSD et Linux ont chacun leur place. Et vous ?

Trouvez-vous les différences entre Linux et BSD assez significatives pour préférer rester sur l’un plutôt que l’autre ? Avez-vous essayé les deux ? Qu’est-ce qui vous fait préférer l’un par rapport à l’autre ? Argumentez, et faites connaître votre opinion à vos amis lecteurs.




Le logiciel libre et ses enjeux en trois minutes chrono par Frédéric Couchet

Voici une déjà vieille intervention de Frédéric Couchet, délégué général de l’April, ayant eu lieu dans le cadre des élections municipales françaises de 2008.

Mais, d’après moi, non seulement elle est toujours d’actualité (il suffit de remplacer Dadvsi par Hadopi) mais elle peut également être une intéressante source d’inspiration lorsque nous nous retrouvons en situation de tenter d’expliquer le logiciel libre à un public non averti (tout comme par exemple la citation de Stallman et le fameux extrait Canal+).

« Le logiciel libre est un logiciel qui respecte les libertés fondamentales de l’utilisateur. Il y a quatre libertés : utilisation, étude, modification et redistribution… »

Voilà qui a le mérite de la clarté. Et d’enchaîner ensuite sur le développement coopératif et l’Internet citoyen.

—> La vidéo au format webm
—> Le fichier de sous-titres

On pourra comparer la définition donnée ici du logiciel libre à celle, plus précise mais peut-être plus complexe à appréhender, du site GNU.org (celle que nous sert généralement Richard Stallman à chacune de ses conférences) :

« L’expression Logiciel libre fait référence à la liberté pour les utilisateurs d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel. Plus précisément, cela signifie que les utilisateurs ont les quatre libertés essentielles :

  • La liberté d’exécuter le programme, pour tous les usages (liberté 0).
  • La liberté d’étudier le fonctionnement du programme, et de l’adapter à vos besoins (liberté 1). Pour ceci l’accès au code source est une condition requise.
  • La liberté de redistribuer des copies, donc d’aider votre voisin, (liberté 2).
  • La liberté d’améliorer le programme et de publier vos améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l’accès au code source est une condition requise. »



Quand le cloud computing bouleverse l’équilibre entre le matériel et le logiciel

Leonardo Rizzi - CC by-saUn court billet pour évoquer la relation entre le software et le hardware, entre le logiciel et le matériel, à l’ère où le (mal nommé) cloud computing – ou informatique dans les nuages – bouscule les habitudes et pose de nombreuses questions en particulier à ladite communauté du Libre.

Nous avons peut-être tendance à l’oublier mais cette relation ne va pas de soi, a évolué avec le temps et a de nombreuses conséquences selon que l’un prend le pas sur l’autre.

Nous achetons un ordinateur et avec plus ou moins de bonheur nous y mettons un peu, beaucoup, passionnément du logiciel libre dedans. Mais sans toujours nous rendre compte nous modifions alors le vieil équilibre entre le software et le hardware. Jusqu’à atteindre son paroxysme avec le cloud computing où l’on veut nous faire croire que cela se passe dans les nuages alors qu’il n’en est rien puisque tout est très concrètement centralisé dans des énormes (et peu écologiques) datacenters dont nous ignorons généralement tout et qui paradoxalement redonnent la main au matériel et à ceux qui les construisent[1].

Le cloud computing représente-t-il une menace pour le logiciel libre ?

Is cloud computing a threat to open source?

John Spencer – 14 avril 2009 – ComputerWorld.uk
(Traduction Framalang : Don Rico, Poupoul2 et Olivier)

Allons-nous nous libérer d’une prison logicielle pour mieux nous jeter dans celle des fabricants de matériel ?

La disparition annoncée du logiciel propriétaire laisse un vide qui va être comblé… et il se pourrait bien que nous n’aimions pas ça.

Le PC arrive sur nos bureaux

Quand j’étais à la fac, le PC – l’ordinateur personnel – n’existait pas encore. Nous achetions du temps machine (très cher) sur l’ordinateur central (NdT : mainframe) ; l’un de mes amis a ainsi gagné des sommes conséquentes en vendant du temps machine à des entreprises qui en avaient besoin.

Après mes études, alors que je travaillais pour une multinationale, nous avons vu arriver nos premiers PC, et, je ne vous mens pas, mon supérieur a apporté le sien au bureau pour utiliser SuperCalc (ce qui lui a valu d’ailleurs une méga promotion).

Les administrateurs informatiques ont vu l’arrivée du PC d’un très mauvais œil. Ils aimaient trop leurs terminaux avec leur applis tout sauf sexy ; ils avaient le pouvoir parce qu’eux seuls avaient la main le serveur. Ce qu’ils voulaient, c’était le contrôle, et ce satané PC apportait bien trop de liberté.

Arrive le réseau… et avec lui une perte de liberté

La révolution du PC a produit une explosion de créativité et des libertés, mais très vite ces libertés se sont effritées. Première étape : la mise en réseau. Le prix à payer pour accéder à une zone de partage de fichiers et pouvoir ainsi utiliser n’importe quel PC de l’entreprise en voyant toujours le même bureau a été… d’adhérer au terrible « Domaine ». Ajoutez aux restrictions du Domaine, les coûts de plus en plus exorbitants des logiciels propriétaires, et soudain la révolution du PC prenait du plomb dans l’aile.

Demandez donc à ceux qui travaillent dans les réseaux d’entreprise s’ils se sentent libres.

La deuxième vague de liberté arrive

La deuxième vague de liberté est arrivé groupée. Le World Wide Web et Linux ont émergé plus ou moins au même moment. On n’insistera jamais assez sur l’effet libérateur qu’a provoqué l’accès ouvert au Web et à des logiciels libres et open source. D’un seul coup, le logiciel propriétaire et la poigne de fer du réseau ne signifiaient plus rien. Une fois de plus, on a connu une explosion de créativité et de libertés, et qui se poursuit encore actuellement à une très forte cadence.

Aujourd’hui, je possède mon propre matériel (et pas qu’un peu), personne, que ce soit un particulier ou une entreprise, n’a le contrôle de mes logiciels, et je dispose du Web comme extraordinaire terrain de jeu. Nous vivons une ère de liberté sans précédent. Merci à vous, les gars – merci Tim B-L, merci Linus T, merci Richard S.

Je crois que cette liberté est menacée.

Ce que je crains, c’est qu’Internet soit absorbé par les serveurs des « nuages » (comme ils disent), et qu’il finisse sous le contrôle des fabricants de matériel informatique.

Le Manifeste pour l’informatique dématérialisée ouvert était bizarre (NdT : The Cloud Computing Manifesto). Parmi les signataires, on trouve Cisco, AT&T, IBM et Sun, qui produisent une sacrée part du matériel sur lequel repose l’informatique dans les « Nuages ». Rien d’étonnant alors qu’ils soient partants. Red Hat et SAP sont partantes aussi, mais pourquoi ? SAP perd ses employés comme des pellicules et Red Hat voudrait bien s’asseoir à la table des grands en tant que mini Microsoft, mais qu’est-ce qui attire ces petits joueurs ? Ce n’est pas très clair.

Ce que je sais avec certitude, c’est que, comme on pouvait s’y attendre, deux des signataires, à savoir les puissants Microsoft (MS par la suite) et Google, ont annoncé qu’ils n’étaient guère satisfaits du peu de transparence avec laquelle en coulisses on concoctait ce manifeste (le monde à l’envers, n’est-ce pas ?). Résultat : ils se sont retirés, et l’ont bien fait savoir.

C’est sans doute très significatif, et malgré l’absence de faits concrets, cela corrobore quelques conjectures.

Harware contre Software

Il est important de rappeler que le logiciel n’existe pas dans un nuage mais sur des ordinateurs. L’information n’est pas diffusée par l’action du Saint-Esprit, mais acheminée par des câbles et des commutateurs.

MS a fait fortune quand IBM a collé leur système d’exploitation sur son premier PC ; sans le hardware ce dernier n’avait aucune valeur, et vice versa. Apple n’existerait pas non plus aujourd’hui s’ils n’avaient pas associé ses logiciels à ses matériels.

MS et Apple sont à l’évidence des éditeurs de logiciels propriétaires, logiciels qui, prétendent-ils, possèdent une forte valeur intrinsèque qu’ils facturent au prix que l’on sait. Ainsi donc MS a fonctionné de façon symbiotique avec Intel et il en a été de même avec Apple et ses processeurs IBM. Pendant des années ces deux entités ont dominé le monde main dans la main.

Là où je veux en venir, c’est que hardware et software étaient liés dans une même chaîne de valeur. L’un ne prédominait pas sur l’autre. Pour Google, en revanche, c’est différent. Google est un gigantesque fournisseur de services d’information qui repose sur des logiciels libres et open source. Dans leur cas, la relation hardware/software n’est plus la même.

Le logiciel libre et open source casse la relation entre hardware et software

Sans logiciel, le matériel n’est bien sûr d’aucune utilité (même si à l’époque où j’ai acheté mon premier ZX81 je pensais simplement qu’on était censé programmer soi-même son logiciel). À présent, en revanche, avec la révolution du logiciel libre, la disponibilité du logiciel n’est plus un problème, ni en termes de coût, ni en termes de quantité. Ces logiciels sont là, on n’a qu’à se servir dans tous ces super trucs qui ne demandent qu’à être utilisés.

Mais voyez-vous les problèmes que cela soulève ?

Avec le logiciel libre et open source ne redonne-t-on pas le contrôle aux fabricants de hardware ? Les associations software/hardware ont été dissoutes… pour le meilleur ou pour le pire.

Suivra une nouvelle ère, je pense, où le vieux statu quo se rétablira. Une ère où de nouveau nous achèterons du temps sur les serveurs pour faire ce dont nous avons besoin… au prix fixé par les fournisseurs !

Je ne me souviens que trop bien de l’époque des infrastructures centralisées contrôlées par des services informatiques guidés par le totalitarisme le plus complet. Une époque aussi où le software avait beaucoup moins de valeur que le hardware (et encore, quand il y avait du software) et que tout le hardware était estampillé IBM. Je n’aimerais vraiment pas connaître de nouveau une telle époque.

La révolution du logiciel libre n’aura servi à rien si une forme d’informatique centralisée et basée sur le hardware fait main basse sur notre liberté.

Notes

[1] Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)