Framasoft annonce deux nouveaux titres dans la collection Framabook

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By SaAprès la traditionnelle mise à jour d’automne du best-seller de la collection Framabook, Christophe Masutti, notre coordinateur de collection, s’est fendu ce matin d’un fier communiqué de presse, dont je vous dévoile ici le contenu en avant-première.

En effet, après de longs mois de labeur au sein de l’association, avec les auteurs, les bénévoles et relecteurs, l’équipe technique de mise en page et l’éditeur, Christophe n’annonce pas un, mais bien deux nouveaux Framabooks, s’ajoutant à la mise à jour complète du « Simple comme Ubuntu ».

Sortir ces deux ouvrages nous a occupé un peu plus que d’habitude, notamment parce qu’il a fallu adapter notre chaîne éditoriale (la formidable application web libre “La Poule ou l’Oeuf”) car la mise en page d’un des ouvrages s’est révélée particulièrement riche et complexe à mettre en œuvre. Mais comme le rappelle avec philosophie l’éditeur Mathieu Pasquini :

Un livre s’écrit à la vitesse à laquelle poussent les arbres dont leurs pages sont faites…

Toutefois, le site Framabook a été mis à jour cette nuit pour accueillir les nouveaux ouvrages, et ces derniers sont aussi disponibles à l’achat chez InLibroVeritas.

Le 7e Framabook sera donc un manuel de formation à la programmation, proposant une méthode intense et originale pour apprendre « Le C en 20 heures ». Sous licence Creative Commons By Sa, il fut rédigé conjointement par Eric Berthomier et Daniel Schang que vous pourrez découvrir plus avant dans la reproduction du communiqué de presse qui suit. « Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Le 8e Framabook fut quant à lui rédigé par Vincent Lozano et s’intitule « UNIX. Pour aller plus loin avec la ligne de commande ». Comme le précédent livre de Vincent dans la collection Framabook, il est placé sous licence Art Libre.

Avec ces deux nouveaux Framabooks, Framasoft continue résolument sa collection d’œuvres libres, permettant à tout un chacun de soutenir ses talents d’autodidacte en informatique, pour que le monde demain regorge des bidouilleurs inventifs que l’éducation nationale peine à former avec son B2i©.

Et ce n’est pas fini. Comme annoncé avec notre campagne de don “1000 10 1”, l’équipe Framabook est toujours à pied d’œuvre sur d’autres ouvrages qui viendront rapidement compléter la collection. On retrouve ainsi parmi les plus avancés le « Producing Open Source Software » de Karl Fogel, traduit par Framalang, ainsi qu’ « Imagine there is no Copyright » traduit cet été lors d’un Traducthon mémorable aux RMLL et qui attend juste son tour pour être mis en page.

Annonçons encore un mystérieux ouvrage préparé en secret par l’ami MBen et un livre sur l’utilisation du gestionnaire de versions SVN, dont la traduction est elle aussi bien avancée.

Enfin, le comité éditorial de la collection fait actuellement le tri dans les nombreuses propositions d’ouvrages reçues par Framasoft. Tout ne cadre pas toujours avec la convention de la collection, mais déjà deux projets s’annoncent comme particulièrement prometteurs…

Pour l’heure, place au concret, avec une présentation plus détaillée des nouveaux Framabooks, issue du communiqué de presse officiel du coordinateur de la collection.

Framabook n°7 : Le C en 20 heures

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By Sa

Le langage C est un langage de programmation dont l’histoire nous ramène à l’époque de la création d’Unix, durant la première moitié des années 1970. Conçu pour permettre à un même programme de fonctionner sur plusieurs types de machines, ce langage à fois simple et efficace séduisait par la rapidité d’exécution des programmes qu’il permettait de générer, et par sa relative simplicité d’adaptation pour un nouveau type de matériel. Depuis lors, la majorité des systèmes d’exploitation des machines créés ultérieurement utilisèrent ce langage fiable, à la fois proche du matériel et des mathématiques. Il n’est donc pas étonnant de retrouver aujourd’hui ce langage partout, des super-calculateurs aux téléphones portables. Le Logiciel Libre lui doit aussi beaucoup. Quel héritage ! Et quelle longévité. Dans ces conditions, comment apprendre aujourd’hui et en 20 heures seulement, un langage porteur de presque quarante ans d’améliorations (dont le C++) et de développements spectaculaires (dont GNU/Linux) ? C’est la question à laquelle Le C en 20 heures répond, et par la pratique.

Eric Berthomier et Daniel Schang nous font ainsi partager au fil des pages le fruit de leurs expériences pédagogiques et professionnelles en accomplissant un effort de vulgarisation trop rarement rencontré dans la littérature du monde de la programmation. Destiné aux grands débutants, l’ouvrage n’est pas un manuel comme les autres. Son intérêt est d’être parcouru de A à Z en suivant l’adage : « j’apprends le code en écrivant le code ».

Ainsi, Le C en 20 heures n’est pas un ouvrage destiné à prendre la poussière sur une étagère en attendant que l’on s’y réfère un dimanche matin pluvieux. Il a été écrit pour être lu d’un bout à l’autre, dans l’ordre et pendant 20 à 30 heures d’apprentissage (en tout !) où l’on vous suggèrera, par des exercices et des exemples, de programmer tel jeu ou de tester tel calcul en mettant votre imagination au défi. En ce sens, l’ouvrage est orienté vers la pratique de la programmation et l’enseigne sans doute à la manière dont les auteurs l’ont apprise : devant un ordinateur, à essayer de programmer quelque chose.

Les auteurs

Ingénieur en Informatique, Eric Berthomier a débuté par le développement d’applications systèmes en C / C++ / Assembleur. Investi dans le Libre, il réalise alors des missions de développement, d’administration système et réseau et de formation. Depuis 2005, il travaille pour un ministère où GNU/Linux et la sécurité sont ses compagnons de tous les jours. Le C (et l’Assembleur) sont pour lui indispensables à la compréhension d’un système d’exploitation.

Docteur en informatique, Daniel Schang est enseignant-chercheur au sein du Groupe Eseo où il a acquis une longue et riche expérience de l’enseignement des langages informatiques. À l’écoute de ses élèves, c’est pour eux qu’il a pris contact avec Eric Berthomier afin de réécrire ce livre qui, sous sa forme embryonnaire, était un support de cours.

Framabook n°8 : Unix. Pour aller plus loin avec la ligne de commande

« Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander

Nous sommes désormais des habitués de la formule de Vincent Lozano qui, après son excellent ouvrage sur l’usage de LaTeX, récidive ici avec un manuel sur le système Unix (et – donc – GNU/Linux).

Lors de la création d’Unix, au début des années 70, un de ses concepteurs établit trois règles pour concevoir les composants de la « boîte à outils » qui permit à Unix de s’étendre :

  • Écrivez des programmes qui font une chose et le font bien.
  • Écrivez des programmes qui peuvent communiquer entre eux.
  • Écrivez des programmes qui traitent des flux de texte car c’est l’interface universelle.

Aujourd’hui, Vincent Lozano vous propose à la fois de découvrir ces outils situés « sous le capot » de votre distribution Unix (GNU/Linux en est une) mais aussi de concevoir les vôtres.

Si vous appréciez votre système Unix et que vous pressentez qu’il existe des outils qui rendent votre système programmable, cet ouvrage est pour vous ! Le langage de commande d’Unix vous offre en effet la possibilité de piloter votre système d’exploitation – et donc votre ordinateur – par le biais de scripts. Pour planifier des tâches aussi précises que vous le souhaitez, vous aurez donc le loisir de passer des ordres, à la fois de manière souple et puissante, à votre système informatique.

Dans cet ouvrage vous découvrirez les liens qui unissent l’histoire d’Unix et le mouvement pour les logiciels libres. Vous vous plongerez dans les utilitaires classiques de votre système et apprendrez à les assembler. Vous serez donc à même d’ajouter de nouvelles pièces à la boîte à outils. L’auteur vous guidera également pour que vous parveniez à créer vos propres programmes écrits dans le langage du système d’exploitation : le langage de commande.

L’auteur

Vincent Lozano est maître de conférences en informatique à l’école nationale d’ingénieurs de Saint-Étienne (Énise). Il y utilise GNU/Linux pour l’enseignement des systèmes d’exploitation, de la programmation et des bases de données. Il s’occupe également de l’informatisation du système d’information de l’Énise qui s’appuie sur des systèmes Unix.




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.




Prix unique du livre, même numérique ?

Michael Mandiberg - CC-by-sa Nouvel exemple du refus des tenants d’industries du siècle dernier de considérer l’ère du numérique (ouverte par l’informatique et Internet [1]) comme une opportunité nouvelle et non comme une menace passagère, les sénateurs examineront bientôt une proposition de loi visant à imposer une recette sociale adaptée à l’économie matérielle d’objets, au commerce que l’on qualifiait encore il y a peu de « virtuel », des œuvres numériques, disponibles en-ligne et à volonté.

Tel est en effet l’objectif de cette proposition de loi : appliquer le prix-unique du livre également sur Internet. Si, naïvement, l’idée peut sembler bonne de prime abord, puisqu’elle a sûrement contribué à sauver les petites librairies françaises, elle dénote surtout une incompréhension chronique par la classe politique et les marchants de culture, de la notion de fichier d’ordinateur, ce support numérique réplicable en un instant et sans véritable coût à l’échelle de la population mondiale.

Sans en arriver aux extrémités répressives qu’instaure la loi HADOPI II, ce nouveau mouvement législatif se traduit par une énième tentative de limitation des fantastiques possibilités d’une économie nouvelle, dans le but de la faire entrer dans le moule rassurant des précédents modèles. Ici encore, au lieu d’explorer et d’exploiter au mieux ce qu’Internet rend possible, le législateur s’entête à refuser le potentiel d’un réseau numérique mondial, en s’entêtant aveuglément à transposer avec le minimum de réflexion possible ce qui marchait bien avant. D’autres pays plus pragmatiques vivent avec le Net, s’y adaptent et connaissent (est-ce lié ?) les plus forts taux de croissance de la planète depuis ces dix dernières années, mais pendant ce temps, nos sénateurs ont à cœur de préserver les recettes du passé, quitte à gâcher, pour un temps, celles du futur.

Si le Framablog parle rarement d’économie, nous vous parlons plus régulièrement d’œuvres libres, partagées par leurs auteurs à grande échelle via Internet. Or, cette loi ignore tout simplement la question et entre en contradiction avec l’essence même des licences libres, confirmant pour le moins que si la voie est libre, la route semble encore bien longue avant que les paradigmes du libre ne soient connus, compris et reconnus en haut lieu.

À l’heure de la sortie imminente de deux nouveaux Framabooks, Framasoft se joint donc aux inquiétudes soulevées par ses partenaires Adullact et AFUL dans leur dernier communiqué commun :

Le prix unique du livre numérique doit-il s’opposer à la création libre ?

14/10/2010 – URL d’origine

L’ADULLACT et l’AFUL s’inquiètent de la proposition sénatoriale de loi sur le prix [unique] du livre numérique, dont la rédaction actuelle menace sans nécessité la création sous licence libre. Leurs représentants au CSPLA s’en expliquent dans ce communiqué.

Nous avons eu récemment connaissance de la proposition de loi faite au Sénat par Mme Catherine DUMAS et M. Jacques LEGENDRE [2] relative au prix [unique] du livre numérique.

Nous comprenons le souci de la représentation nationale de préserver la filière du livre dans le monde numérique [3], en reprenant une formule qui s’est montrée efficace pour le livre imprimé traditionnel [4].

Cependant le monde numérique n’est pas le monde des supports matériels traditionnels et, s’il pose les problèmes que nous connaissons depuis plusieurs années, notamment en ce qui concerne la multiplication des copies illicites, c’est précisément parce qu’il obéit à des lois économiques nouvelles. En un mot : une fois l’œuvre créée, la production de copies peut se faire à un coût essentiellement nul.

Cela n’implique nullement qu’il soit légitime de faire ces copies sans l’accord des titulaires des droits, mais cela implique la possibilité et, de fait, l’existence de nouveaux modèles de création et d’exploitation des œuvres, modèles qui sont tout aussi légitimes que les modèles traditionnels issus du monde de l’imprimé.

Pour ne citer qu’un exemple, l’association Sésamath produit des livres numériques "homothétiques" (selon la terminologie de l’exposé des motifs), disponibles sous licence Creative Commons By-Sa. Cette licence implique que ces livres peuvent être exploités commercialement par quiconque, quelle que soit la forme que pourrait prendre cette exploitation, mais que les livres sont toujours cédés avec cette même licence sans contrainte nouvelle. Cela exclut en particulier toute contrainte de prix, ce qui est essentiel à la dynamique de création mutualisée et de maximisation du public recherchée par les auteurs.

Il ne s’agit nullement d’un phénomène marginal, même s’il est ignoré par certains rapports officiels [5]. Les versions imprimées des livres de Sésamath représentent environ 15% du marché qui les concerne, ce qui est loin d’être négligeable. Ces œuvres participent déjà au rayonnement de la France dans plusieurs pays francophones. C’est manifestement un modèle de création qui se développe : il a d’ailleurs fait l’objet des travaux d’une Commission Spécialisée [6] du Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) où nous siégeons tous deux.

Il y a donc tout lieu de s’inquiéter de la compatibilité de la proposition de loi avec ces nouveaux modèles.

Ainsi l’article 2 prévoit la fixation d’un prix par le diffuseur commercial. Certes, les licences ouvertes – par exemple Creative Commons By-Sa – tout en permettant la diffusion gratuite et non commerciale, n’excluent nullement la diffusion commerciale, qu’elle soit le fait des créateurs initiaux ou de tiers. Mais le principe même de ces licences est par nature exclusif de toute fixation de prix puisqu’elles sont choisies par l’auteur précisément pour donner la liberté d’en décider, sans contrôle amont de l’aval de la chaîne de diffusion.

Cette loi n’a pas l’intention, on peut l’espérer, de tuer dans l’œuf ces nouveaux modes de création et d’exploitation, ce qui ne serait guère dans l’intérêt de notre pays, des créateurs concernés ou du public. Il faut donc préciser que la fixation du prix du livre numérique ne s’applique pas aux œuvres numériques libres ou ouvertes. Cela peut être réalisé très simplement par un amendement à l’article 2.3 qui prévoit déjà quelques cas d’exemption, sans aucunement porter atteinte aux modes d’exploitation commerciale que la loi vise à encadrer, au bénéfice des titulaires de droit qui souhaitent une telle protection.

Le monde du numérique et les modèles économiques associés sont complexes et mouvants, et la prudence doit probablement prévaloir avant d’y figer quoi que ce soit. Du moins faut-il préciser avec soin quels objets sont visés par le législateur. Il nous semble important que les nouveaux modèles de création et d’exploitation aient le droit de se faire entendre au même titre que les modèles traditionnels. Il y va de la compétitivité économique et culturelle de notre pays dans un univers bouleversé par le numérique. Le meilleur témoin de l’intérêt économique et social de ces modèles est le soutien que leur apportent les collectivités territoriales par leur adhésion à l’association ADULLACT présidée par l’un de nous.

Le rapport Patino préconise [7] de "mettre en place des dispositifs permettant aux détenteurs de droits d’avoir un rôle central dans la détermination des prix". Nous ne demandons rien d’autre.

Bernard LANG
Membre titulaire du CSPLA
Vice-président de l’AFUL
bernard.lang@aful.org, +33 6 62 06 16 93

François ELIE Membre suppléant au CSPLA
Président de l’ADULLACT
Vice-Président de l’AFUL
francois@elie.org, +33 6 22 73 34 96

Notes

[1] Crédit photo : Michael Mandiberg – Creative Commons Paternité Partage à conditions initiales

[2] http://www.senat.fr/leg/ppl09-695.html

[3] Le rapport de M. Bruno Patino, sur le livre numérique http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportpatino.pdf s’inquiéte du moyen d’étendre la loi Lang au numérique (page 45).

[4] Sur ce point, discutable, voir Mathieu Perona et Jérôme Pouyet : Le prix unique du livre à l’heure du numérique http://www.cepremap.ens.fr/depot/opus/OPUS19.pdf

[5] C’est d’autant plus regrettable que les modèles explorés par Sésamath sont cités dans le monde entier comme précurseurs et innovants.

[6] http://www.cspla.culture.gouv.fr/travauxcommissions.html, Commission sur la mise à disposition ouverte des œuvres.

[7] C’est sa quatrième recommandation.




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Pourquoi il nous tient à cœur de ne pas confondre Hacker et Cracker

Gregor_y - CC by-saSi vous êtes un lecteur assidu du Framablog, vous ne découvrirez probablement pas grand-chose de nouveau dans l’article qui suit. Mais il n’est pas non plus dépourvu d’intérêt, loin s’en faut : il peut être une référence pour tous ceux qui ne connaissent pas bien la différence entre les « hackers » et les « crackers », et ils sont nombreux. On dit souvent, à raison, que cette confusion est de nature médiatique, mais malheureusement ce n’est que partiellement vrai. Avec l’influence que les médias ont pu avoir, il est devenu très courant d’entendre au détour d’une conversation que des « hackers ont piraté (ou que des pirates ont hacké !) tel système ». Et même dans les GUL ! C’est pour cela qu’il m’a paru important de revenir aux sources… Pourquoi hacker n’a rien à voir avec cracker ?

Il me semble d’autant plus dommage de confondre ces deux notions qu’à mon avis le « hacking » a un grand rôle à jouer dans notre société. On a souvent beaucoup de préjugés sur Marx, à cause de la simplification de ses écrits qui a nourri le marxisme (à tel point qu’on appelle les personnes qui étudient directement Marx, les marxiens !). Sans tomber dans le marxisme, le concept de fétichisme de la marchandise me semble particulièrement intéressant pour décrire la situation actuelle : pour faire fonctionner le système économique tel qu’il est, il faut que l’acheteur se réduise à une simple fonction de consommation, sans produire par lui-même, ou pour lui-même. Le fétichisme est à la fois une admiration et une soumission. Il faut acheter des produits de marque. Apple est à mon avis un super exemple : le simple fait de poser une pomme (même pas entière) sur un produit de qualité moyenne, double son prix, et entraîne une myriade de « fans ».

Derrière ce nom barbare du fétichisme de la marchandise, se cache un double phénomène : la sacralisation de la marchandise, engendrant l’aliénation de l’homme à cette dernière. Tout cela pour dire que les produits sont pris pour plus qu’ils ne sont réellement, que par exemple l’homme est prêt à sacrifier beaucoup pour acquérir un objet. Ainsi, le fétichisme de la marchandise permet, à mon sens, de rendre compte de la situation de l’économie actuelle. Une instance économique (le plus souvent les entreprises) produit un objet ou un service qui apparaît cher aux yeux des consommateurs, qui ne doivent l’utiliser que dans le sens pour lequel il a été créé. Encore une fois Apple, cas extrême, permet de rendre compte de la situation : tout ne repose que sur leur image de marque, de haut de gamme, alors que la réalité est terrifiante (Big Brother censure, qualité de l’électronique tout à fait moyenne, matériel et logiciels fermés et propriétaires jusqu’à l’os, bidouillabilité et respect des utilisateurs faibles voire nuls, etc). Là où je veux en venir est que le fétichisme de la marchandise permet de masquer les yeux du consommateur pour que celui-ci se contente d’utiliser servilement ce qu’on lui propose tout en étant satisfait.

Pour entrer plus dans le détail du concept, selon Marx si l’objet est sacralisé c’est parce que le rapport social de production, qui est extérieur au produit, est pris comme faisant partie intégrante de la marchandise. Concrètement, un produit (ou un service) est conçu conformément à des exigences sociales, mais on croit que la valeur sociale attribuée à l’objet vient de l’objet lui-même. On croit que le produit peut exister tout seul, en dehors de tout contexte de société. Par exemple, on peut être fier d’avoir le tout dernier joujou à la mode qui en jette plein les yeux. Dans ce cas, la reconnaissance sociale liée à la possession de l’objet est prise comme étant intégralement due à l’objet que l’on achète. La marchandise est alors élevée à un statut supérieur par une opération certes magique mais inconsciente. L’objet est donc sacralisé, l’aliénation en est ensuite la conséquence : l’objet qui semble posséder des pouvoirs « magiques » doit être protégé, conservé, etc. C’est la soumission qui va de pair avec toute forme de sacré. Et c’est exactement ce qu’essaient de cultiver les entreprises.

De plus, un effet de mode étant très éphémère, l’objet devient vite un fardeau, une vieillerie, car son « pouvoir » secret se tarit. Ce qui, à mon sens, explique la frénésie du schéma achat-consommation-rejet-poubelle de notre système économique, et de nos modes de vie. Le fétichisme de la marchandise vient de là : un rapport social occulté qui entraîne une sacralisation du produit : il faut se contenter pour être heureux d’acheter, de ne pas abîmer, de préserver le produit à l’identique (pour essayer de garder ses vertus magiques que l’on a pu avoir l’impression de palper), de ne pas bidouiller, ni en faire une utilisation trop originale.

Quel est le rapport en fin de compte avec le hacking ? C’est une solution ! Je n’ai fait le rapprochement que très récemment dans une interview de la radio des RMLL de John Lejeune, un animateur du projet Hackable Devices, qui disait que « Tout ce qui est do-it-yourself, bidouille, réappropriation des connaissances, etc, est en train de revenir. L’intérêt est aussi de détourner des fonctions, savoir comment ça marche, comprendre, et désacraliser les objets ». Et effectivement, manipuler, bidouiller, faire par soi-même permet de démystifier le produit, de ne plus être dans une attitude de simple consommation, de ne pas se contenter de vivre en lecture seule[1]. On voit que ce n’est pas compliqué de créer, qu’à l’intérieur de la boîte noire du dernier joujou à la mode, il n’y a finalement rien d’extraordinaire, ni de magique. Le rapport à la marchandise s’inverse : au lieu de se soumettre à elle, on la maîtrise, la contrôle et l’adapte à ses besoins. Confondre « Hacking » et « Cracking » est donc d’autant plus dommageable que les deux notions recouvrent des modes de vie et des fonctionnements différents. Égaliser les deux notions, c’est faire réprimer le vrai « Hacking » par la société et donc en un sens se voiler la face sur des problèmes existants. Cet article me parait donc un début de solution !

Hacker vaillant, rien d’impossible 😉

Lettre ouverte aux médias sur le mauvais usage du terme « hacker »

Open letter to the media about the misuse of the term "hacker"

Matija Šuklje – 2 août 2010 – Hook’s Humble
(Traduction Framalang : Marting, Siltaar, Loque Humaine et Barbidule)

Ces derniers jours et semaines, on a beaucoup parlé dans les médias slovènes de trois Slovènes qui auraient collaboré au botnet Mariposa. Si vous ne savez pas de quoi il s’agit, vous pouvez lire ce communiqué de presse du FBI. Les médias n’ont cessé d’appeller ces présumés cybercriminels des « hackers ». Comme c’est un abus de langage et que nous sommes nombreux, au sein du groupe Slovène de la Free Software Foundation Europe, à nous définir par ce terme de « hackers », nous avons estimé que quelque chose devait être fait. Nous avons donc écrit et envoyé une lettre ouverte aux médias pour leur expliquer la différence entre « hacker » et « cracker » et les inviter aimablement à employer ces mots correctement à l’avenir. Cette action a été soutenue par plusieurs autres groupes et organismes. La suite correspond au texte entier de la lettre ouverte et à sa traduction.

Madame, Monsieur,

Ces dernières semaines, au sujet de l’action du FBI contre un cybercrime ayant abouti à l’arrestation d’un suspect en Slovénie, le mot « hacker » a été utilisé à plusieurs reprises dans les médias dans un contexte et dans un sens erronés. Ce terme ayant un sens différent pour les experts et pour le public profane, nous avons trouvé opportun de vous le signaler par cette lettre ouverte.

« Hacker » vient du verbe « to hack », « bidouiller ». Cette expression fut forgée au MIT (Massachusetts Institute of Technology) dans les années 50, et signifie résoudre un problème technique d’une manière originale. Dans le jargon de l’informatique, elle est encore utilisée pour désigner des modifications inventives ou originales d’un programme ou d’un système, basées sur une compréhension profonde et dans un but qui n’était pas celui prévu initalement.

Beaucoup d’autorités dans le domaine de l’informatique et de la sécurité entendent le terme « hacking » comme un état d’esprit, la capacité à penser hors des frontières, des façons de faire et des méthodes établies, en essayant de surmonter ces obstacles. Les exemples sont nombreux de « hackers » mettant leurs compétences et leur créativité au service de causes nobles et de l’intérêt général, en faisant en sorte que tout le monde puisse utiliser ou modifier leur programme. Des exemples de tels logiciels libres sont : GNU/Linux, Mozilla Firefox, Mozilla Thunderbird, Google Chromium, OpenOffice.org, SpamAssassin, GIMP, Scribus etc.

Ce furent les médias et l’industrie du film qui utilisèrent ensuite (à tort) le mot « hacker » pour désigner les cybercriminels, ce qui provoqua évidemment une certaine confusion. Ce désordre est encore alimenté par l’évolution de la terminologie, et par les traductions dans la langue slovène.

Pour désigner une personne qui s’introduit dans des systèmes informatiques avec une intention criminelle, il est plus approprié d’utiliser le terme « cracker ». Ce terme désigne les personnes qui contournent des systèmes de sécurité sans autorisation et/ou qui utilisent les TIC (c’est-à-dire habituellement des ordinateurs, des téléphones ou des réseaux) pour s’introduire dans des systèmes et se livrer à des activités illégales ou criminelles — vandalisme, fraudes aux cartes de crédit, usurpation d’identité, piratage, et autres types d’activités illégales.


Ainsi, le dictionnaire slovène d’informatique fait bien la distinction entre le terme « hacker », entendu comme « un passionné d’informatique orienté sur la technique » et le terme « cracker » « qui s’introduit dans les systèmes informatiques avec l’intention d’utiliser des données ou des programmes sans autorisation ».

C’est pourquoi il convient d’utiliser le terme « crackers » pour désigner ces personnes suspectées de crimes informatiques. Au cours des dernières décennies, de nombreuses avancées technologiques furent le fruit du phénomène « hacker » — les ordinateurs personnels, l’Internet, le logiciel libre — il serait donc abusif d’assimiler hackers et criminels. Cela équivaudrait à qualifier tous les pharmaciens d’empoisonneurs.

Nous comprenons que la confusion actuelle existe depuis assez longtemps et c’est d’ailleurs pour cela que nous pensons qu’il est largement temps de clarifier ce point ensemble. Aussi nous vous demandons, s’il vous plaît, de bien vouloir à l’avenir utiliser le terme approprié.

Bien cordialement,

Matija Šuklje : coordinateur du groupe slovène de la FSFE[2]

Co-signataires : Andrej Kositer (président du COKS[3]), Simon Delakorda, (directeur du INePA[4]), Andrej Vernekar (président du LUGOS[5]), Klemen Robnik (de Kiberpipa/Cyberpipe[6]) et Ljudmila[7].

Notes

[1] Crédit photo : Gregor_y (Creative Commons By-Sa)

[2] Le groupe slovène de l’association FSFE est un groupe supportant la « Free Software Foundation Europe » ainsi que le logiciel libre et open-source en général, organisé en tant que mouvement citoyen. Nous défendons le logiciel libre, les standards et les formats ouverts.

[3] Le Centre Open Source Slovène (COKS – Center odprte kode Slovenije) soutient au niveau national en Slovénie, le développement l’utilisation et la connaissance des technologies open-source ainsi que des systèmes d’exploitation libres. Nous aidons et soutenons les utilisateurs de ces systèmes d’exploitation dans le secteur public et privé, et coopérons avec les instances européennes dans le domaine de l’open-source et des politiques de gouvernance en informatique.

[4] L’Institut d’Apport en Électronique INePA (Inštitut za elektronsko participacijo) est une organisation non gouvernementale à but non-lucratif dans le domaine de l’e-democratie. L’INePA effectue aussi bien des projets applicatifs et de développement que des activités juridiques et en lien avec les ONG, les institutionsn et les individus qui supportent le consolidation de la démocratie et de la participation politique par l’usage des TIC. L’institut est membre du Réseau Pan-Européen d’eParticipation, et du Réseau de Citoyens d’Europe Centrale et de l’Est.

[5] LUGOS (Linux user group of Slovenia) est une association d’utilisateurs du système d’exploitation libre et open-source GNU/Linux. Parmi ses activités, elle propose entre autre un support aux utilisateurs et traduit des logiciels libres. Elle s’occupe aussi du réseau ouvert sans fil de Ljubljana (wlan-lj) et des lectures hebdomadaires de « Pipe’s Open Terms » (en coopération avec Cyberpipe).

[6] Kiberpipa/Cyberpipe est un collectif de défense de l’open-source et des libertés numériques. Dans le centre de Ljublljana, il crée une culture numérique, et informe experts et grand public par le biais de présentations, de lectures et d’ateliers.

[7] Ljudmila Le laboratoire de Ljubljana pour un média et une culture numérique (1994) est le premier laboratoire à but non-lucratif en Slovénie qui supporte la recherche inventive et créative, au travers de projets de travail autour de l’Internet, de la vidéo numérique, de l’art électronique, de la radio numérique, de la communication, du développement du logiciel open-source et connecte tout ceci dans une approche interdisciplinaire. Il promeut aussi aussi bien l’éducation en groupes autonomes qu’en ateliers et il est le fondateur du réseau de centres multimédia « M3C » en Slovénie.




10 différences entre les OS libres Linux et BSD

Beastie - Logo BSDIl est trop rare que nous évoquions le système d’exploitation libre BSD (Berkeley Software Distribution). La dernière fois il s’agissait d’un billet consacré à l’histoire d’Unix, à l’occasion de son quarantième anniversaire.

Et c’est dommage parce que cela finit par laisser à penser qu’il n’existe que GNU/Linux dans le monde des OS libres. Or il y a aussi la famille BSD (FreeBSD, OpenBSD, NetBSD…), louée pour la propreté de son code, sa sécurité, sa fiabilité et sa stabilité, que l’on compare souvent à son « cousin » GNU/Linux justement, histoire de l’appréhender plus facilement et de mieux comprendre ce qui fait sa spécificité.

Si on le rencontre peu souvent sur ce blog, c’est aussi parce qu’il serait difficile de le conseiller de prime abord à un utilisateur lambda pour sa machine personnelle, surtout si ce dernier provient de l’univers Windows. La matériel est moins bien et moins vite supporté, il y a moins d’applications disponibles et il se destine surtout au monde des serveurs. Mais rien ne dit qu’un jour, vous aussi…

Ce billet s’adresse donc à tous les curieux et plus particulièrement à ceux qui se sont déjà frottés de près ou de loin à une distributions GNU/Linux. Il s’adresse également aux experts et aux aficionados de BSD qui sont cordialement invités à témoigner, compléter et surtout critiquer l’article et ses arguments dans les commentaires.

D’autant plus que l’auteur propose en conclusion une classification des OS en fonction de la maîtrise de leurs utilisateurs qui ne fera sans doute pas l’unanimité !

Remarque 1 : Le personnage ci-dessus s’appelle Beastie (bi-esse-di), c’est la mascotte BSD et il représente un charmant petit démon, oups, je veux dire daemon.

Remarque 2 : Il y a du BSD dans Mac OS X, comme aiment à la rappeler certains Macfans et les geeks qui, ayant adopté cet OS, « culpabilisent » moins ainsi 😉

10 différences entre Linux et BSD

10 differences between Linux and BSD

Jack Wallen – 4 août 2010 – TechRepublic
(Traduction Framalang : Loque huaine et Mathieu)

Malgré une tendance courante à minimiser leurs différences, Linux et BSD ont un certain nombre de caractéristiques qui les distinguent. Jack Wallen attire l’attention sur plusieurs différences importantes.

Combien de fois avez-vous déjà entendu les gens mettre Linux et n’importe quel BSD dans le même panier ? Bien sûr, il existe un grand nombre de similarités entre Linux et BSD : ils sont tous les deux basés sur UNIX. Dans l’ensemble, les deux systèmes sont développés par des organisations à but non lucratif. Et je dois dire que Linux comme les variantes BSD ont un but commun : créer le plus utile et le plus fiable des systèmes d’exploitation qui soit.

Toutefois, il y a aussi des différences significatives. Et quand les gens n’y font pas attention, c’est toute la communauté BSD qui frissonne de colère. Aussi, j’ai pensé que je pourrais aider mes frères de BSD et expliquer un peu en quoi Linux est différent de BSD.

1. Licences

Comme nous le savons tous, le système d’exploitation Linux est sous licence GPL. Cette licence est utilisée pour empêcher l’inclusion de logiciels aux sources fermées et pour assurer la disponibilité du code source. La GPL essaye d’empêcher la distribution de sources sous forme de binaires seulement.

La Licence BSD est bien moins restrictive et autorise même la distribution de source sous forme de binaires. La principale différence peut cependant être vue de la façon suivante : la GPL vous donne le droit d’utiliser le logiciel de n’importe quelle façon, mais vous DEVEZ vous assurer que le code source est disponible pour la prochaine personne qui utilisera le logiciel (ou votre variante du logiciel). La licence BSD n’exige pas que vous soyez sûr que la prochaine personne qui utilise (ou modifie votre code) rende ce code disponible.

2. Contrôle

Le code BSD n’est pas « contrôlé » par une personne en particulier, ce que beaucoup de gens voient comme un gros plus. Alors que le noyau Linux est principalement contrôlé par Linus Torvalds (le créateur de Linux), BSD n’est pas régi par une personne unique dictant ce qui peut ou ne peut pas aller dans le code. À la place, BSD utilise une « équipe centrale » (NdT : core team) pour gérer le projet. Cette équipe centrale a un droit de parole dans la direction du projet plus important que celui des autres membre de la communauté BSD.

3. Noyau contre système d’exploitation

Le projet BSD maintient un système d’exploitation entier, alors que le projet Linux se focalise principalement sur le seul noyau. Ce n’est pas aussi fondamental que ça en a l’air parce qu’un grand nombre d’applications qui sont utilisées le sont sur les deux systèmes d’exploitation.

4. UNIX-like

Il y a un vieux dicton à propos de BSD contre Linux : « BSD est ce que vous obtenez quand une poignée d’hackers UNIX se rassemblent pour essayer de porter un système UNIX sur un PC. Linux est ce que vous obtenez quand une poignée d’hackers PC se rassemblent et essaient d’écrire un système UNIX pour le PC » (NdT : BSD is what you get when a bunch of UNIX hackers sit down to try to port a UNIX system to the PC. Linux is what you get when a bunch of PC hackers sit down and try to write a UNIX system for the PC).

Cette expression en dit long. Ce que vous pourrez constater, c’est que les BSD ressemblent beaucoup à UNIX parce qu’ils sont en fait des dérivés directs du traditionnel UNIX. Linux, en revanche, était un OS nouvellement créé, vaguement basé sur un dérivé d’UNIX (Minix, pour être précis).

5. Systèmes de base

Ce point est crucial pour comprendre les différences entre BSD et Linux.

Le « système de base » pour Linux n’existe pas vraiment, puisque Linux est un conglomérat de systèmes plus petits qui s’imbriquent ensemblent pour former un tout. La plupart diront que le système de base de Linux est le noyau. Le problème c’est qu’un noyau est plutôt inutile sans aucune application utilisable. BSD en revanche, a un système de base comprenant de nombreux outils — même libc fait partie du système de base. Parce que ces pièces sont toutes traitées comme un système de base, elles sont toutes développées et packagées ensemble. D’aucun argueront du fait que cela crée un tout plus cohésif.

6. Plus à partir des sources

À cause de la façon dont BSD est développé (en utilisant le système de Ports), davantage d’utilisateurs ont tendance à installer à partir des sources plutôt que de paquets binaires pré-empaquetés.

Est-ce un avantage ou un inconvénient ? Cela dépend des individus. Si vous êtes adepte de la simplicité et de la convivialité, vous vous en détournerez. Ceci est particulièrement vrai pour les nouveaux utilisateurs. Peu de nouveaux utilisateurs veulent avoir à compiler à partir des sources. Cela peut engendrer une distribution pataude. Mais installer à partir des sources a aussi ses avantages (gestion des versions des bibliothèques, construction de paquets spécifiques au système, etc.).

7. Changements de version

Grâce à la façon dont BSD est développé (voir le point 5), vous pouvez mettre à jour l’ensemble de votre système de base vers la plus récente des versions avec une seule commande. Ou bien vous pouvez télécharger les sources de n’importe quelle version, les décompresser, et compiler comme vous le feriez pour n’importe quelle autre application. Avec Linux, vous pouvez aussi changer un système de version en utilisant le gestionnaire de paquets du système. La première façon ne mettra à jour que le système de base, la seconde mettra à jour l’ensemble de l’installation. Rappelez-vous cependant que passer à la nouvelle version du système de base ne veut pas dire que tous vos paquets supplémentaires seront mis à jour. Alors qu’avec les mises à jour de version de Linux, tous vos paquets bénéficieront du processus de mise à niveau. Est-ce que cela signifie que la façon de faire de Linux est meilleure ? Pas nécessairement. J’ai vu de mes propres yeux une mise à jour Linux qui s’est horriblement mal passée, nécessitant la réinstallation du système tout entier. Cela a beaucoup moins de chances de se produire avec un changement de version BSD.

8. Dernier cri

Il est peu probable que vous voyiez un BSD exécuter la toute dernière version de quoi que ce soit. Linux au contraire, a beaucoup de distributions qui offrent les dernières versions des paquets. Si vous êtes fan du « Si ce n’est pas cassé, ne le corrigez pas » (NdT : If it isn’t broken, don’t fix it), vous serez un grand fan de BSD. Mais si vous êtes du genre à avoir besoin que tout soit le plus récent possible, vous feriez mieux de migrer vers Linux aussi vite que possible histoire de ne pas être à la traîne.

9. Support matériel

Vous constaterez, en général, que Linux supporte le matériel bien plus tôt que BSD. Ça ne veut pas dire que BSD ne supporte pas autant de matériel que Linux. Ça veut juste dire que Linux le supporte avant BSD (dans certains cas, BIEN avant BSD). Donc si vous voulez la toute dernière carte graphique, ne pensez même pas à BSD. Si vous voulez le nouveau portable qui en jette avec un chipset sans-fil dernier cri, vous aurez plus de chance avec Linux.

10. Communauté d’utilisateurs

Je vais me risquer ici à généraliser sur les utilisateurs d’ordinateurs. En préambule je dirai qu’il y a des exceptions à TOUTES les règles (ou généralités, dans le cas présent). Mais je vous présente ma généralisation sur la répartition des distributions en fonction des utilisateurs. De la gauche vers la droite on passe des utilisateurs maîtrisant le moins un PC à ceux le maîtrisant le plus. Comme vous pouvez le constater, Linux est au milieu, alors que BSD penche plus sur la droite. Beaucoup ne seront pas d’accord ; certains en seront même offensés. Mais c’est d’après moi une généralité assez juste sur l’usage du système d’exploitation selon l’utilisateur.

Mac —–> Windows —–> Linux —–> BSD —–> UNIX

Autres différences ?

Cette liste n’est en aucune façon destinée à dire que l’un est meilleur que l’autre. Je trouve que BSD et Linux ont chacun leur place. Et vous ?

Trouvez-vous les différences entre Linux et BSD assez significatives pour préférer rester sur l’un plutôt que l’autre ? Avez-vous essayé les deux ? Qu’est-ce qui vous fait préférer l’un par rapport à l’autre ? Argumentez, et faites connaître votre opinion à vos amis lecteurs.




Quand le cloud computing bouleverse l’équilibre entre le matériel et le logiciel

Leonardo Rizzi - CC by-saUn court billet pour évoquer la relation entre le software et le hardware, entre le logiciel et le matériel, à l’ère où le (mal nommé) cloud computing – ou informatique dans les nuages – bouscule les habitudes et pose de nombreuses questions en particulier à ladite communauté du Libre.

Nous avons peut-être tendance à l’oublier mais cette relation ne va pas de soi, a évolué avec le temps et a de nombreuses conséquences selon que l’un prend le pas sur l’autre.

Nous achetons un ordinateur et avec plus ou moins de bonheur nous y mettons un peu, beaucoup, passionnément du logiciel libre dedans. Mais sans toujours nous rendre compte nous modifions alors le vieil équilibre entre le software et le hardware. Jusqu’à atteindre son paroxysme avec le cloud computing où l’on veut nous faire croire que cela se passe dans les nuages alors qu’il n’en est rien puisque tout est très concrètement centralisé dans des énormes (et peu écologiques) datacenters dont nous ignorons généralement tout et qui paradoxalement redonnent la main au matériel et à ceux qui les construisent[1].

Le cloud computing représente-t-il une menace pour le logiciel libre ?

Is cloud computing a threat to open source?

John Spencer – 14 avril 2009 – ComputerWorld.uk
(Traduction Framalang : Don Rico, Poupoul2 et Olivier)

Allons-nous nous libérer d’une prison logicielle pour mieux nous jeter dans celle des fabricants de matériel ?

La disparition annoncée du logiciel propriétaire laisse un vide qui va être comblé… et il se pourrait bien que nous n’aimions pas ça.

Le PC arrive sur nos bureaux

Quand j’étais à la fac, le PC – l’ordinateur personnel – n’existait pas encore. Nous achetions du temps machine (très cher) sur l’ordinateur central (NdT : mainframe) ; l’un de mes amis a ainsi gagné des sommes conséquentes en vendant du temps machine à des entreprises qui en avaient besoin.

Après mes études, alors que je travaillais pour une multinationale, nous avons vu arriver nos premiers PC, et, je ne vous mens pas, mon supérieur a apporté le sien au bureau pour utiliser SuperCalc (ce qui lui a valu d’ailleurs une méga promotion).

Les administrateurs informatiques ont vu l’arrivée du PC d’un très mauvais œil. Ils aimaient trop leurs terminaux avec leur applis tout sauf sexy ; ils avaient le pouvoir parce qu’eux seuls avaient la main le serveur. Ce qu’ils voulaient, c’était le contrôle, et ce satané PC apportait bien trop de liberté.

Arrive le réseau… et avec lui une perte de liberté

La révolution du PC a produit une explosion de créativité et des libertés, mais très vite ces libertés se sont effritées. Première étape : la mise en réseau. Le prix à payer pour accéder à une zone de partage de fichiers et pouvoir ainsi utiliser n’importe quel PC de l’entreprise en voyant toujours le même bureau a été… d’adhérer au terrible « Domaine ». Ajoutez aux restrictions du Domaine, les coûts de plus en plus exorbitants des logiciels propriétaires, et soudain la révolution du PC prenait du plomb dans l’aile.

Demandez donc à ceux qui travaillent dans les réseaux d’entreprise s’ils se sentent libres.

La deuxième vague de liberté arrive

La deuxième vague de liberté est arrivé groupée. Le World Wide Web et Linux ont émergé plus ou moins au même moment. On n’insistera jamais assez sur l’effet libérateur qu’a provoqué l’accès ouvert au Web et à des logiciels libres et open source. D’un seul coup, le logiciel propriétaire et la poigne de fer du réseau ne signifiaient plus rien. Une fois de plus, on a connu une explosion de créativité et de libertés, et qui se poursuit encore actuellement à une très forte cadence.

Aujourd’hui, je possède mon propre matériel (et pas qu’un peu), personne, que ce soit un particulier ou une entreprise, n’a le contrôle de mes logiciels, et je dispose du Web comme extraordinaire terrain de jeu. Nous vivons une ère de liberté sans précédent. Merci à vous, les gars – merci Tim B-L, merci Linus T, merci Richard S.

Je crois que cette liberté est menacée.

Ce que je crains, c’est qu’Internet soit absorbé par les serveurs des « nuages » (comme ils disent), et qu’il finisse sous le contrôle des fabricants de matériel informatique.

Le Manifeste pour l’informatique dématérialisée ouvert était bizarre (NdT : The Cloud Computing Manifesto). Parmi les signataires, on trouve Cisco, AT&T, IBM et Sun, qui produisent une sacrée part du matériel sur lequel repose l’informatique dans les « Nuages ». Rien d’étonnant alors qu’ils soient partants. Red Hat et SAP sont partantes aussi, mais pourquoi ? SAP perd ses employés comme des pellicules et Red Hat voudrait bien s’asseoir à la table des grands en tant que mini Microsoft, mais qu’est-ce qui attire ces petits joueurs ? Ce n’est pas très clair.

Ce que je sais avec certitude, c’est que, comme on pouvait s’y attendre, deux des signataires, à savoir les puissants Microsoft (MS par la suite) et Google, ont annoncé qu’ils n’étaient guère satisfaits du peu de transparence avec laquelle en coulisses on concoctait ce manifeste (le monde à l’envers, n’est-ce pas ?). Résultat : ils se sont retirés, et l’ont bien fait savoir.

C’est sans doute très significatif, et malgré l’absence de faits concrets, cela corrobore quelques conjectures.

Harware contre Software

Il est important de rappeler que le logiciel n’existe pas dans un nuage mais sur des ordinateurs. L’information n’est pas diffusée par l’action du Saint-Esprit, mais acheminée par des câbles et des commutateurs.

MS a fait fortune quand IBM a collé leur système d’exploitation sur son premier PC ; sans le hardware ce dernier n’avait aucune valeur, et vice versa. Apple n’existerait pas non plus aujourd’hui s’ils n’avaient pas associé ses logiciels à ses matériels.

MS et Apple sont à l’évidence des éditeurs de logiciels propriétaires, logiciels qui, prétendent-ils, possèdent une forte valeur intrinsèque qu’ils facturent au prix que l’on sait. Ainsi donc MS a fonctionné de façon symbiotique avec Intel et il en a été de même avec Apple et ses processeurs IBM. Pendant des années ces deux entités ont dominé le monde main dans la main.

Là où je veux en venir, c’est que hardware et software étaient liés dans une même chaîne de valeur. L’un ne prédominait pas sur l’autre. Pour Google, en revanche, c’est différent. Google est un gigantesque fournisseur de services d’information qui repose sur des logiciels libres et open source. Dans leur cas, la relation hardware/software n’est plus la même.

Le logiciel libre et open source casse la relation entre hardware et software

Sans logiciel, le matériel n’est bien sûr d’aucune utilité (même si à l’époque où j’ai acheté mon premier ZX81 je pensais simplement qu’on était censé programmer soi-même son logiciel). À présent, en revanche, avec la révolution du logiciel libre, la disponibilité du logiciel n’est plus un problème, ni en termes de coût, ni en termes de quantité. Ces logiciels sont là, on n’a qu’à se servir dans tous ces super trucs qui ne demandent qu’à être utilisés.

Mais voyez-vous les problèmes que cela soulève ?

Avec le logiciel libre et open source ne redonne-t-on pas le contrôle aux fabricants de hardware ? Les associations software/hardware ont été dissoutes… pour le meilleur ou pour le pire.

Suivra une nouvelle ère, je pense, où le vieux statu quo se rétablira. Une ère où de nouveau nous achèterons du temps sur les serveurs pour faire ce dont nous avons besoin… au prix fixé par les fournisseurs !

Je ne me souviens que trop bien de l’époque des infrastructures centralisées contrôlées par des services informatiques guidés par le totalitarisme le plus complet. Une époque aussi où le software avait beaucoup moins de valeur que le hardware (et encore, quand il y avait du software) et que tout le hardware était estampillé IBM. Je n’aimerais vraiment pas connaître de nouveau une telle époque.

La révolution du logiciel libre n’aura servi à rien si une forme d’informatique centralisée et basée sur le hardware fait main basse sur notre liberté.

Notes

[1] Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




Combien de futurs hackers Apple est-il en train de tuer ?

Mark PilgrimLe succès actuel de l’écosystème Apple et de son dernier bébé l’iPad n’en finissent plus de nous interpeller.

Après Cory Doctorow, voici le vibrant témoignage du vieux développeur Mark Pilgrim qui, paradoxe, est devenu ce qu’il est grâce aux anciens ordinateurs d’Apple (cf photo ci-contre[1] en plein apprentissage).

Ces ordinateurs étaient ouverts et c’est parce qu’on pouvait les bidouiller que Mark a pu trouver sa vocation et faire de sa passion son métier.

Ce ne serait plus le cas aujourd’hui. Et de se demander alors combien de Mozart de l’informatique est-on actuellement en train de virtuellement assassiner…

L’informatique est une science jeune mais qui commence à avoir ses anciens combattants dont certains cèdent à la tentation du « c’était mieux avant ». Le problème c’est qu’ici c’était effectivement mieux avant !

Ce serait déprimant si le logiciel et le hardware libres n’existaient pas. Mais encore faudrait-il qu’ils rencontrent massivement la jeune génération. Et malheur à nous si le rendez-vous est manqué !

Le crépuscule du bidouilleur

Tinkerer’s Sunset

Mark Pilgrim – 29 janvier 2010 – DiveIntoMark
(Traduction Framalang : Loque humaine)

Quand DVD Jon fut arrêté après avoir cassé l’algorithme de chiffrement CSS, il a été inculpé « d’intrusion d’ordinateur non-autorisée ». Cela mena alors ses avocats à poser la question suivante : « sur quel ordinateur s’est-il introduit ? ». Réponse du procureur : « le sien » !

Si cette introduction ne vous a pas fait bondir mieux vaut arrêter dès maintenant la lecture de cet article.

Lorsque j’étais plus jeune, « l’intrusion » était quelque chose que vous pouviez uniquement perpétrer sur les ordinateurs des autres. Mais mettons ça de côté, nous y reviendrons plus tard.

Mon père était professeur d’université la plus grande partie de sa vie d’adulte. Une année, il prit un congé sabbatique pour écrire un livre. Il avait suffisamment économisé pour s’acheter un ordinateur et une chose super récente appelé logiciel de traitement de texte. Ainsi il écrivit, il édita, et il écrivit encore. C’était évidemment tellement mieux que de travailler sur une machine à écrire qu’il ne s’est jamais posé la question de savoir si c’était de l’argent bien dépensé ou non.

Il se trouve que sur cet ordinateur, le langage de programmation BASIC était pré-installé. Vous n’aviez même pas besoin de booter le système d’exploitation à partir d’un disque. Vous allumiez l’ordinateur, appuyiez sur Ctrl-Reset, et vous aviez une invite de commande. Et sur cette invite de commande, vous pouviez taper un programme tout entier, puis vous tapiez EXECUTE, et, bordel, ça s’exécutait.

J’avais 10 ans. C’était il y a 27 ans, mais je me souviens encore de ce que j’ai ressenti quand j’ai réalisé que vous pouviez — que je pouvais — faire faire n’importe quoi à cet ordinateur en tapant les bons mots dans le bon ordre, en lui disant EXECUTE, et que, bordel, ça s’exécutait.

Cet ordinateur était un Apple IIe.

À l’âge de 12 ans, j’écrivais des programmes BASIC si complexes que l’ordinateur n’avait plus assez de mémoire pour les contenir. À 13 ans, j’écrivais des programmes en Pascal. À 14 ans j’écrivais des programmes en assembleur. À 17 ans, je participais à l’épreuve de Programmation de l’Olympiade Nationale (et la remportais). À 22 ans, j’étais employé comme programmeur.

Aujourd’hui, je suis un programmeur, un rédacteur technique, et un hacker au sens de Hackers and Painters. Mais vous ne devenez pas hacker en programmant ; vous devenez hacker en bidouillant. C’est le bricolage qui donne ce sens de l’émerveillement.

Vous devez bondir hors du système, abattre les barrières de sécurité, enlever une à une les couches posées par l’ordinateur pour faciliter la vie des gens qui ne veulent pas savoir comment ça marche. Il s’agit d’utiliser l’éditeur de secteur Copy+ pour apprendre comment le disque du système d’exploitation démarre, puis de le modifier de manière à ce que l’ordinateur fasse du bruit à chaque fois qu’il lit un secteur sur le disque. Ou alors d’afficher une page de garde au démarrage avant qu’il liste le catalogue du disque et mène à l’invite de commande. Ou de copier une myriade de merveilleuses commandes du tableau Peeks & Pokes du magazine Beagle Bros. et d’essayer de comprendre ce que je venais de faire. Juste parce que ça me bottait. Juste parce que c’était fun. Parce que ça effrayait mes parents. Parce que je devais absolument savoir comment tout ceci marchait.

Après, il y a eu un Apple IIgs. Et encore après, un Mac IIci. MacsBug. ResEdit. Norton Disk Editor. Arrêtez-moi si ça vous rappelle quelque chose.

Apple a fait les machines qui ont fait qui je suis. Je suis devenu qui je suis en bidouillant.

Le titre de ce billet est tiré de « On the iPad » d’Alex Payne, que je vais citer maintenant dans ses grandes largeurs :

L’iPad est un objet attractif, fort bien pensé et conçu, mais profondément cynique. C’est une machine de consommation digitale. Or, comme Tim Bray et Peter Kirn l’ont fait remarquer, c’est un appareil qui ne favorise pas la créativité…

Le tragique avec l’iPad est qu’il semble offrir un meilleur modèle d’informatique pour beaucoup de personnes — peut-être la majorité des gens. Envolés les métaphores et concepts déroutants de ces trente dernières années d’informatique. Envolé la possibilité de tripatouiller et modifier sans but particulier. L’iPad est simple, va droit au but, ne demande pas d’entretien…

La chose qui me préoccupe le plus avec l’iPad est la suivante : si j’avais eu un iPad plutôt qu’un vrai ordinateur lorsque j’étais petit, je ne serais jamais devenu un programmeur aujourd’hui. Je n’aurais jamais eu la possibilité d’exécuter n’importe quel programme stupide, potentiellement dangereux, mais hautement éducatif que j’aurais pu télécharger ou écrire. Je n’aurais pas été capable de titiller ResEdit et de supprimer le son du démarrage du Mac de façon à ce que je puisse bricoler sur l’ordinateur à toute heure sans réveiller mes parents.

Maintenant, je suis conscient que vous allez pouvoir développer vos propres programmes pour l’iPad, comme vous pouvez développer pour l’iPhone aujourd’hui. Tout le monde peut développer ! Tout ce dont vous avez besoin, c’est d’un Mac, XCode, un « simulateur » d’iPhone, et de 99 dollars pour un certificat de développeur à durée limitée. Le « certificat de développeur » est en vrai une clé cryptographique vous permettant (temporairement) d’accèder (partiellement) à… votre propre ordinateur. Et c’est très bien — tout du moins exploitable — pour les développeurs d’aujourd’hui, parce qu’ils savent qu’ils sont développeurs. Mais les développeurs de demain ne le savent pas encore. Et sans cette possibilité de bidouiller, certains ne le seront jamais.

(À y réfléchir, j’avais tort et Fredrik avait raison, car il semblerait que les ordinateurs sous Chrome OS donneront bien la possibilité aux développeurs d’exécuter leur propre code en local. Je ne connais pas les détails de ce à quoi cela va ressembler, si ça sera un bouton, un interrupteur physique ou autre chose. Mais ça sera là, une plateforme officielle prenant en compte les développeurs d’aujourd’hui et, plus important, les développeurs de demain.)

Et, je sais, je sais, vous pouvez « jailbreaker » votre iPhone, pour (re)gagner l’accès administrateur, et exécuter n’importe quoi qui, bordel, puisse s’exécuter. Et je n’ai aucun doute sur le fait que quelqu’un trouvera comment « jailbreaker » l’iPad aussi. Mais je ne veux pas vivre dans un monde où il faut forcer l’entrée de son propre ordinateur avant de pouvoir bidouiller. Et je ne veux certainement pas vivre dans un monde où bidouiller son ordinateur est illégal. (Au passage, DVD Jon a été acquitté. Le procureur a fait appel et il a été acquitté à nouveau. Mais qui a besoin de la loi quand vous avez la cryptographie à clé publique de votre côté ?)

Il était une fois des machines, fabriquées par Apple, qui ont fait de moi ce que je suis.

Je suis devenu ce que je suis en bidouillant. Maintenant, il semble qu’ils fassent tout ce qui est en leur pouvoir pour empêcher mes enfants de trouver ce sens de l’émerveillement. Apple a déclaré la guerre aux bidouilleurs. À chaque mise à jour de logiciels, la génération « jailbreakée » précédente cesse de fonctionner, et les gens doivent trouver de nouvelles façons pour entrer de force dans leurs propres ordinateurs. Il n’y aura même pas de MacsBug pour l’iPad. Il n’y aura pas de ResEdit, ou un éditeur de secteur Copy ][+, ou un tableau Peeks & Pokes pour l’iPad.

Et c’est une vraie perte. Peut-être pas pour vous, mais pour quelqu’un qui ne le sait pas encore et qui pourrait même ne jamais le savoir.

Notes

[1] Crédit photo : Mark Pilgrim