Vista et MS Office 2007 – Rapport Becta – Extraits et Recommandations

Rapport Becta - CouvertureNous avons tout récemment mis en ligne notre traduction du Rapport Becta dont nous espérons beaucoup comme cela a été dit dans le billet de présentation.

Il ne s’agit nullement de faire une sorte de guerre à Microsoft aussi puérile que contre-productive. Il s’agit de faire en sorte que, comme en Grande-Bretagne, l’école française se pose de bonnes questions.

  • Mon établissement scolaire a-t-il réellement besoin de migrer vers Vista ? vers MS Office 2007 ?
  • Les coûts d’une telle opération seront-ils compensés par la qualité de ces nouveaux produits ? A l’échelle nationale, les coûts globaux d’une telle opération ne pourraient-ils pas être épargnés et affectés ailleurs ?
  • Un parc hétérogène Windows XP et Windows Vista ne va-t-il pas créer de la confusion chez mes utilisateurs ? ne va-t-il compliquer la tâche de l’administrateur du réseau ?
  • Si je me retrouve avec MS Office 2007, dois-je utiliser par défaut le nouveau format de Microsoft Open XML (OOXML) ?
  • Est-ce que tout a été fait pour garantir une bonne interopérabilité ? Est-ce je facilite la vie numérique de mes élèves dans leur liaison école/domicile ?
  • La collectivité territoriale qui me fournit en machines neuves a-t-elle prévue d’intégrer nativement une suite bureautique libre ? A-t-elle prévue que je puisse sans entraves lire et écrire par défaut au format OpenDocument ODF ?
  • Si Windows Vista et MS Office 2007 ne sont pas recommandés, n’est-il pas temps d’évaluer sérieusement si Linux (associé à OpenOffice.org) pourrait constituer une réelle alternative ?

Voici, entre autres, quelques question d’importance qu’aborde ce rapport.

Et pour vous en faire tout de suite une meilleure idée, et donner envie d’en savoir en plus en parcourant l’intégralité du rapport, nous vous proposons ci-dessous quelques extraits.

Rapport Becta - Recommandations

Les recommandations

p.18 – § 4.29 « Les nouvelles fonctions de Vista apportent une certaine valeur ajoutée mais, si l’on prend en compte les coûts de déploiement et les bénéfices potentiels, une mise à jour généralisée du parc informatique des écoles et des universités n’est pas recommandée. »

p.19 – § 4.31 « Le mélange des systèmes d’exploitation peut très bien se faire dans les écoles ou le réseau informatique fonctionne déjà avec plusieurs systèmes d’exploitation comme Windows, Mac et Linux quand cette mixité est adaptée. Nous recommandons cependant que les écoles et universités ayant un parc informatique cohérent sous Windows XP faisant l’acquisition de systèmes avec Vista préinstallé exercent, lorsque c’est possible, leur droit du choix du système d’exploitation et maintiennent la cohésion de leur installation avec Windows XP. »

p.20 – § 4.32 « Les écoles et les universités ne devraient envisager le passage à Vista seulement s’il est question d’installer un nouveau parc informatique complet et ne devraient pas envisager la mise à jour des systèmes existants ou faire cohabiter les deux environnements. »

p.21 – § 4.36 « Aucun déploiement de grande ampleur de Office 2007 ne devrait avoir lieu tant que les écoles et les universités ne sont pas certaines d’avoir mis en place tous les mécanismes permettant l’interopérabilité et permettant d’éviter toute fracture numérique possible comme celles citées plus tôt dans ce rapport. »

p.21 – § 4.37 « Les écoles et les universités qui envisagent le passage à Microsoft Office 2007 ne devrait le faire que dans un contexte de renouvellement complet pour n’utiliser qu’une seule version de la suite bureautique dans un établissement/environnement donné. »

p.35 – § 6.15 « Quand cela est possible, les écoles et les universités devraient s’assurer que les étudiants, les professeurs et les parents connaissent l’existence de l’ensemble des suites bureautiques "libres d’utilisation" disponibles, qu’ils savent comment se les procurer et comment les utiliser. Les écoles et les universités devraient configurer les outils de bureautique de manière à ne pas créer d’obstacles pour les élèves, les enseignants et les parents qui utilisent ces produits alternatifs (y compris les produits "libres d’utilisation") à domicile. »

p.36 – § 6.17 « Les entreprises des TIC devraient prendre les devants et configurer les produits qu’ils envoient aux écoles et aux universités pour faciliter l’accès à une suite bureautique « libres d’utilisation », idéalement une suite sous licence libre. Lors de l’achat de nouveaux systèmes, les écoles et les universités devraient normalement exiger qu’une suite bureautique capable d’ouvrir, d’éditer et de sauvegarder les documents au format standard international ODF soit installée et que ce format soit configuré par défaut. De tels produits devraient être choisis avec comme critère la possibilité pour les étudiants, les professeurs et les parents de s’en procurer une version sans avoir à payer de frais de licence supplémentaire. Les écoles et les universités devraient être prudentes lorsqu’elles utilisent une version d’essai d’un logiciel commercial, particulièrement lorsque les étudiants, les professeurs et les parents peuvent avoir l’impression que la seule manière pour eux d’accéder aux fichiers créés est d’acheter une copie du logiciel. »

Rapport Becta - Extraits

Morceaux choisis

p.3 – § 1.2 « Les nouvelles fonctionnalités de Microsoft Vista présentent certes un intérêt, mais ne justifient pas une implantation immédiate dans le domaine de l’éducation : les coûts seraient élevés et les avantages loin d’être évidents. »

p.3 – § 1.2 « Office 2007 n’apporte aucune fonctionnalité indispensable et il faudrait que Microsoft présente une étude d’impact bien étayée pour justifier son implémentation dans le secteur de l’éducation. »

p.3 – § 1.2 « Il existe des problèmes d’incompatibilité concernant Office 2007 ; de plus, Microsoft devrait assurer au plus vite la compatibilité de sa suite bureautique avec le format OpenDocument (ODF). »

p.4 – § 1.4 « Dans notre rapport intermédiaire nous exprimions le souhait que Microsoft facilite la conduite de quelques activités pilotes permettant de mettre plus en évidence les avantages du déploiement de Vista dans un établissement scolaire et de mieux appréhender le coût qu’aurait ce déploiement. Becta n’a pas eu connaissance d’une telle analyse de rentabilité effectuée par Microsoft.. »

p.4 – § 1.8 « Alors qu’on estime à 66% le nombre de machines du parc informatique scolaire pouvant fonctionner avec Vista (d’après la définition de Microsoft), nous estimons quant à nous à 22% le nombre de machines répondant aux critères pour faire fonctionner Vista de manière correcte. »

p.5 – § 1.10 « Notre rapport intermédiaire recommandait que Microsoft présente une étude d’impact bien étayée pour justifier l’implantation d’Office 2007 dans l’éducation nationale en Grande-Bretagne. Aucun document de ce type n’a été porté à notre connaissance. Le rapport final confirme que son déploiement n’est pas absolument nécessaire. Il confirme également que l’utilisation d’Office 2007 pourrait avoir un effet pervers sur l’interopérabilité entre l’école ou l’université et le domicile. »

p.5 – § 1.11 « Nous conseillons de ne pas effectuer de déploiement massif d’Office 2007 avant que les écoles et les universités ne soient certaines d’avoir mis en place tous les mécanismes nécessaires pour assurer l’interopérabilité et éviter un potentiel « fossé numérique » mis en évidence lors des tests. Agir à l’encontre de ce conseil entraînerait des difficultés inutiles et restreindrait le choix offert aux étudiants, aux professeurs et aux familles qui doivent échanger des documents entre le domicile et l’école. De plus, cela imposerait également aux parents une contrainte financière. »

p.5 – § 1.13 « une standardisation de fait (par l’utilisation généralisée de produits d’un même fournisseur) peut être néfaste pour la concurrence et le choix, ce qui revient à augmenter les coûts. De plus en plus, les gouvernements, les entreprises et le système d’éducation refusent de voir leurs informations contrôlées par un fournisseur unique. Il en résulte un mouvement qui tend à délaisser les formats de fichiers propriétaires pour s’intéresser aux nouveaux formats de fichiers, plus ouverts, sous le contrôle d’un organisme de normalisation efficace. »

p.5 – § 1.14 « Nous avons identifié un certain nombre de points critiques concernant les capacités d’interopératibilité d’Office 2007. Ces points sont les suivants : l’adoption par Office 2007 d’un nouveau format de fichier qui n’est compatible avec aucun autre produit, et le manque de prise en charge du format de document standard international (ODF) qui est de plus en plus utilisé par les produits concurrents. »

p.6 – § 1.16 « Microsoft n’a rien fait pour répondre aux demandes concernant l’interopérabilité exprimées dans notre rapport intermédiaire. Office 2007 ne gère toujours pas efficacement le format de document standard international ODF. Microsoft a continué à chercher à obtenir la normalisation de son format de fichier Office 2007, ce qui ferait cohabiter deux formats standards. Cette opération a soulevé une importante controverse. »

p.6 – § 1.18 « Nous ressentons une certaine incompréhension vis-à-vis de l’approche adoptée pour le support de l’ODF dans Office 2007. Alors que le produit permet de lire quasiment tous les autres formats attendus nativement, les manipulations à effectuer pour utiliser les fichiers ODF sont vraiment fastidieuses. Nous avons dénombré 10 étapes qu’un utilisateur devrait suivre pour trouver et installer le convertisseur permettant à Office 2007 d’accéder aux fichiers ODF et nous avons également noté que les procédures pour ouvrir ou enregistrer des fichiers ODF dans Microsoft Office 2007 ne sont pas intuitives car elles diffèrent des procédures familières aux utilisateurs. D’après nous, ces procédures présentent suffisamment de difficultés techniques pour la plupart des utilisateurs pour qu’ils soient découragés d’utiliser des produits concurrents, ce qui pourrait affaiblir la compétition. »

p.6 – § 1.20 « Nous pensons que les obstacles que Microsoft a placés sur le chemin des utilisateurs qui voudraient utiliser le format de fichier qui devient de plus en plus commun dans les produits de la concurrence auront pour effet de limiter l’utilisation de ces produits. La compatibilité que Microsoft propose dans Office 2007 avec les produits concurrents est moindre que celle qu’il offre pour sa propre famille de produits. Nous nous sommes plaints à l’Office of Fair Trading (OFT) du risque que cela fait courir à la concurrence et que cela constitue un abus de position dominante par Microsoft. Notre plainte est considérée par l’OFT. »

p.7 – § 1.21 « Si les établissements scolaires devaient faire la mise à jour vers Office 2007 maintenant, nous ne pensons pas que cela apporterait un plus au niveau de l’interopérabilité (indépendamment des standards) mais, au contraire, cela se ferait au détriment de l’interopérabilité et que cela introduirait des difficultés supplémentaires dans le travail quotidien. La mise en œuvre de l’interopérabilité dans un usage à domicile et à l’école ne peut pas être considéré comme facile, que ce soit pour une utilisation directe ou après configuration des éléments nécessaires (packs de compatibilité, modifications des formats de fichiers par défaut ou extensions ODF). »

p.7 – § 1.24 « Sans faire de jugement sur les avantages techniques du format de document standard international (ODF) ou du deuxième format de document proposé pour devenir un standard international (OOXML), nous pensons toujours que la cohabitation de plusieurs normes internationales incompatibles offrant globalement les mêmes fonctionnalités n’est pas dans l’intérêt des utilisateurs. Cela ne fera qu’apporter confusion et complexité et introduira un surcoût inutile. Cela constituera une formidable occasion manquée qui sera préjudiciable au marché, au monde de l’enseignement et au concept lui-même de norme internationale. »

p.9 – § 1.33 « Nous recommandions que les fournisseurs facilitent le choix aux écoles en s’assurant que les ordinateurs pour ce marché soient proposés avec un choix de suites bureautiques et que ces offres devraient idéalement comprendre une solution en logiciels libres. Nos entretiens avec l’industrie ont confirmé qu’il n’y a pas de raison concrète pour que la mise à en œuvre de cette proposition pose problème. »

p.9 – § 1.34 « Nous proposons que les écoles et les universités, lorsqu’elles établissent le cahier des charges, devraient insister pour que leurs fournisseurs leur proposent une suite bureautique capable d’ouvrir, d’éditer et de sauvegarder des documents au format ODF et permettant de définir l’ODF comme format de fichier par défaut. »

p.14 – § 4.4 « Les essais ont confirmé qu’Office 2007 fonctionne toujours bien sous Windows XP, ce qui veut dire qu’il n’est pas absolument nécessaire de migrer vers Vista avant une mise à jour vers Office 2007. »

p.15 – § 4.9 « Office 2007 introduit un nouveau format de fichier par défaut et, comme le souligne notre rapport intermédiaire, cette évolution pose quelques problèmes de compatibilité. L’interopérabilité entre Office 2007 et les versions précédentes de Microsoft Office ainsi qu’avec les suites bureautiques d’autres fournisseurs n’est pas satisfaisante. »

p.17 – § 4.22 « Le coût total du déploiement de Vista dans les écoles anglaises et galloises se situe autour de 175 millions de livres sterling (environ 230 millions d’euros). Si cette estimation n’inclut pas les cartes graphiques supplémentaires nécessaires au fonctionnement de l’interface Aero (ce qui augmenterait nettement le montant minimum) elle tient compte des mises à niveau matérielles nécessaires, du coût des licences, des tests ainsi que du coût de la configuration et du déploiement. Environ un tiers de cette somme est imputable au prix des licences Microsoft. »

p.17 – § 4.23 « Le coût d’une mise à jour de Vista sur tout le parc informatique d’une école primaire typique serait de l’ordre de £5000 (environ 6500€) (environ £125 (160€) par machine). Pour un lycée, le coût d’une mise à jour semblable serait de l’ordre de £24000 (31200€), ce qui revient à un coût par machine d’environ £75 (98€). »

p.19 – § 4.30 « Nous suggérons que les nouvelles machines achetées avec Windows Vista pré-installé soient remises sous Windows XP en attendant que tout le réseau puisse être mis à jour. »

p.19 – § 4.31 « L’interface utilisateur différente de Vista par rapport à Windows XP peut impliquer que le personnel et les élèves aient besoin d’un entraînement ou d’une familiarisation avec le nouveau système d’exploitation. Cela pourrait être source de confusion si un cours ou un enseignement clé utilise les deux systèmes. »

p.19 – § 4.31 « Les machines sous Vista pourraient ne fonctionner qu’avec une autre version d’une application voir même seulement avec des produits différents. Cela peut être source de confusion si le personnel ou les élèves doivent travailler avec les deux systèmes d’exploitation. Il pourrait aussi être nécessaire de dupliquer le travail pour certaines leçons ou pour certains projets pour les adapter à Windows Vista et Windows XP. »

p.21 – § 4.36 « Il est important de ne pas placer d’obstacles inutiles sur le chemin des élèves, des professeurs et des familles lorsque des documents doivent faire le va-et-vient entre le domicile et l’école ou l’université. De tels obstacles pourraient restreindre l’utilisation de systèmes utilisant des formats de documents différents ou aboutir à des contraintes financières inutiles. »

p.22 – § 5.2 « Une véritable interopérabilité entre documents réduit les coûts, améliore la productivité des utilisateurs et permet d’éviter de se retrouver piégé par une technologie. »

p.23 – § 5.6 « Microsoft n’a pas cherché à remédier aux préoccupations relatives à l’interopérabilité que nous avions identifiées quant au support de la norme internationale existante. Au contraire, Microsoft a continué à rechercher l’approbation pour la création d’une seconde norme internationale de documents (Office Open XML) basée sur ses propres formats de fichiers Office 2007. »

p.23 – § 5.10 « L’approche actuelle de Microsoft pour assurer l’interopérabilité avec le standard ODF est de faciliter le développement par de tierces parties de modules ou de convertisseurs pour Office 2007 plutôt que réaliser le développement elle-même et de l’intégrer complètement dans son produit. Cette approche soulève des questions en ce qui concerne les utilisateurs béotiens, comment vont-ils accéder à la fonctionnalité nécessaire et quel va être son niveau d’ergonomie. »

p.23 – § 5.11 « Sous certaines conditions, inhérentes à la date de l’étude, les utilisateurs devaient aller sur un site web tiers et effectuer une série de tâches techniques avant de pouvoir de manière satisfaisante ouvrir, modifier et enregistrer des documents au format de fichier ODF. »

p.25 – § 5.14 « Nous pensons que ces bricolages pour accéder et utiliser la possibilité d’interopérer avec les produits concurrents de Microsoft Office 2007 présentent des difficultés techniques. Ces difficultés sont susceptibles de rendre les utilisateurs moins enclins à se servir des produits concurrents et donc de fausser la compétition. »

p.26 – § 5.19 « L’interoperabilité entre Microsoft Office 2007 et des versions antérieures de Microsoft Office n’est pas supporté de façon native. Malgré tout, Microsoft a publié une mise à jour de l’ensemble de ses modules de compatibilité qui devrait permettre aux versions antérieures de Microsoft Office d’ouvrir les formats de fichiers Office 2007. Cette solution est la plupart du temps suffisante mais, en fonction de l’application bureautique utilisée et dans certaines circonstances, elle va provoquer divers degrés de dégradation ou de perte de fidélité. »

p.28 – § 5.28 « Si l’on n’intervient pas, ces évolutions vont créer, pour les utilisateurs béotiens, une vision de l’intéropérabilité des documents qui sera complexe et partisane, ce qui serait un échec de l’objectif initial d’aller vers des standards ouverts. Microsoft a une position dominante sur le segment des systèmes d’exploitation pour PC et cette position risque d’être renforcée par son approche actuelle des standards de documents ouverts. »

p.30 – § 5.33 « Les utilisateurs d’Office 2003 ou antérieur devraient installer le pack de compatibilité afin de pouvoir ouvrir n’importe quel document OOXML Office 2007. Ils ne devraient pas enregistrer leurs documents dans le format OOXML. Comme les utilisateurs d’Office 2007, ils devraient les enregistrer dans les anciens formats Microsoft (.doc pour les documents texte, .xls pour les tableurs et .ppt pour les présentations). »

p.30 – § 5.34 « Les utilisateurs d’OpenOffice.org ou de Star Office (ou d’ailleurs de n’importe quelle suite bureautique basée sur les standards libres) auront plus besoin d’être conscients de la technologie utilisée par la personne à qui ils destinent leur document pour pouvoir tenir compte des limitations d’Office 2007. Pour permettre la compatibilité, ces utilisateurs devraient toujours enregistrer leurs documents dans les anciens formats Microsoft car c’est le plus petit dénominateur commun, entre ces produits disparates, qui peut permettre l’interopérabilité . »

p.30 – § 5.36 « Les fournisseurs doivent développer des applications qui sont capables de traiter toutes les normes internationales pertinentes, en laissant aux utilisateurs le choix de savoir quel sera leur format "par défaut". »

p.31 – § 5.38 « Nous ne sommes pas convaincus que le développement de plusieurs standards internationaux traitant essentiellement du même champ d’activité soit de l’intérêt du milieu éducatif. Comme nous l’avons précédemment exprimé, nous estimons qu’une telle approche va introduire confusion, complexité et coûts inutiles. Elle constitue une formidable occasion manquée qui risque de perturber le marché, la communauté éducative et le concept même de standards internationaux. »

p.32 – § 6.4 « Ces évolutions mettent en avant le nombre grandissant de concurrents dans le domaine des suites bureautiques et montrent que des systèmes innovants basés sur des alternatives à Windows commencent à voir le jour. »

p.32 – § 6.5 « Cependant, afin que ces innovations se développent sur le marché de l’éducation il ne faut pas que des barrières réduisent la concurrence, que ce soit par des restrictions liées aux licences ou par des obstacles liés à l’interopérabilité. Ainsi, par exemple, Becta considère qu’un arrangement par lequel un appareil fonctionnant sous Linux est sujet à un paiement annuel à Microsoft selon les termes d’un programme de licence Accord School, même si cet appareil n’utilise aucun logiciel de Microsoft, n’est pas acceptable. De tels arrangements font partis des pratiques qui font l’objet de notre plainte à l’OFT. »

p.33 – § 6.9 « Contrairement à d’autres secteurs ou la demande pour des solutions en logiciels libres est visible et croissante, les estimations dans le secteur éducatif montrent une demande faible, Becta est vu comme un facteur clé dans l’instauration de cette demande. »

p.34 – § 6.11 « Au cours des douze prochains mois Becta prendra un certain nombre de mesures pour encourager un choix plus efficace dans le cadre d’un usage éducatif. Ce travail inclura la publication d’un programme de travail dont le but sera de :
– fournir plus d’informations sur le site de Becta sur ce qu’est un logiciel libre et quels sont ses avantages pour l’éducation en Grande-Bretagne
– compléter la base de recherche actuelle qui recense les usages des logiciels libres dans le secteur éducatif et identifier des déploiements modèles de logiciels libres. Cela engloberait également l’esquisse d’un tableau national des usages des logiciels libres dans les écoles et les universités
– travailler avec la communauté du logiciel libre pour établir un catalogue en ligne des logiciels libres appropriés pour l’usage dans les écoles de Grande-Bretagne. Parmi les informations disponibles on retrouvera les moyens d’obtenir une assistance dédiée à ces logiciels et comment contribuer à leur développement futur. Ce catalogue sera publié sous une licence Creative Commons afin que les fournisseurs puissent le modifier pour leur propre usage
– donner des indications aux sociétés de services en logiciels libres pour qu’elles puissent efficacement participer dans de nouvelles structures compétitives et pour qu’elles puissent proposer des logiciels libres via la structure de fournisseurs existante de Becta »

p.34 – § 6.12 « Le point de vue de certaines écoles et universités est qu’elles doivent utiliser des logiciels propriétaires particuliers car ces produits sont les plus utilisés dans l’industrie et le commerce et que, d’après cet argument, les élèves doivent se familiariser avec ce qu’ils rencontreront dans la "vraie vie". »

p.34 – § 6.13 « Les étudiants aujourd’hui sont cependant en général à l’aise avec les TIC et ils sont capables d’utiliser une large gamme de logiciels à l’école ou à l’université et certainement plus encore à leur domicile. Ils peuvent également passer sans problème de l’ordinateur de l’école à celui à la maison ou celui de la bibliothèque de quartier ou encore à celui du cybercafé. Il est très peu probable qu’ils se retrouvent démunis devant une suite bureautique particulière après leurs études parce qu’ils auront été habitués à utiliser, par exemple, OpenOffice.org à l’école. »

p.35 – § 6.14 « En résumé, l’argument de la "familiarité" est recevable pour les élèves des années 80 et 90 mais moins pour ceux du 21ème siècle. Ce serait en effet un triste constat pour l’éducation aujourd’hui en matière de TIC si, dès qu’ils s’éloignaient de leur apprentissage, les élèves n’étaient pas capables d’utiliser des programmes basiques (comme les suites bureautiques ou les navigateurs) simplement à cause de différences de fonctionnement ou entre les interfaces utilisateurs. Posséder des compétences multiples devrait faciliter la recherche d’emploi au 21ème siècle, pas la compliquer. »

Rapport Becta - Standards




Le débat sur Windows Vista et MS Office 2007 à l’école aura-t-il lieu ?

Alessandro Pucci - CC byLe Becta (British Educational Communications and Technology Agency) est une agence du Department for Children, Schools and Families du Royaume-Uni qui n’a pas d’équivalent en France[1]. Il fait office d’organe principal du gouvernement britannique pour la stratégie et le développement des technologies de l’information et de la communication pour l’éducation (TICE) auprès duquel il joue un rôle de conseil et de prescripteur.

En janvier 2008 le Becta publiait une étude détaillée sur Windows Vista et MS Office 2007. Avec son aimable autorisation, Framasoft vous en propose aujourd’hui sa traduction intégrale dont vous trouverez de larges extraits dans ce billet.

Pourquoi avons-nous pris le temps et le soin d’effectuer (bénévolement et collectivement) un tel travail[2] ?

  • Parce que nous sommes en présence d’un document dense, rigoureux et objectif, qui émane d’un organisme officiel et non d’un repaire de « libristes intégristes » comme le Framablog 😉
  • Parce que ce document n’est pas une énième pièce à charge contre Microsoft mais une étude pragmatique qui tente d’évaluer les conséquences de l’adoption de Vista et MS Office 2007 dans le contexte scolaire pour en tirer de justes recommandations.
  • Parce qu’au délà de Microsoft, ce rapport passe en revue quelques questions majeures que tout acteur du monde éducatif un tant soit peu impliqué dans les TICE devrait se poser. Parce que, enseignants, administrations, collectivités, parents d’élèves, etc. nous estimons qu’il en va de la responsabilité de chacun de se positionner sur ces questions et de faire ses choix en toute connaissance de cause.
  • Parce qu’en France, le Ministère de l’Education n’a pas jugé opportun de mener une telle étude et ne communique pas sur le sujet. Nous ne comprenons pas un tel silence. Nous pensons a contrario que ces questions sont d’importance et que les conditions d’un véritable débat sont réunies.
  • Parce que Microsoft se montre en ce moment très entreprenant à l’école. Dernier exemple en date : La mise à disposition gratuite de MS Office pour tous les enseignants. Lisez le rapport et vous comprendrez aisément le pourquoi du comment d’un tel « cadeau ».
  • Parce que plus nous serons nombreux à être informés et vigilants et plus nous aurons de chance de voir Microsoft modifier non pas ses prix mais ses pratiques. Dernier exemple en date : L’annonce de l’intégration du format ODF dans MS Office 2007 pour le premier semestre 2009, dont « Microsoft assure que sa décision n’est pas liée à la récente plainte déposée auprès de Bruxelles par l’agence gouvernementale britannique Becta » (source ZDNet).
  • Parce que tout comme le Becta nous ne sommes pas convaincus par la pertinence du format OOXML de Microsoft dont la récente standardisation ISO a posé plus de questions qu’elle n’en a résolues.
  • Parce que s’interroger sérieusement sur l’opportunité de Windows Vista et de MS Office à l’école amène à évaluer sérieusement les alternatives que proposent les logiciels libres.
  • Parce que nombreux sont les éléments exposés ici pour l’école qui valent également en dehors de l’école.
  • Parce qu’il n’y aucune fatalité à voir notre école accepter passivement une situation qui la voit simultanément dépenser inutilement ses deniers publics et prendre le risque de devenir toujours plus dépendante d’un unique éditeur de logiciels (et de formats) propriétaires. Parce que, sauf cas particuliers, les raisons qui la poussent à adopter aujourd’hui Windows Vista et MS Office 2007 ne résistent pas à l’analyse. Parce que, osons l’expression, nous ne souhaitons pas qu’elle vienne nous dire dans quelques années qu’elle ne savait pas.
  • Parce qu’il n’est pas trop tard et que nous y voyons un prétexte à enfin lancer un véritable débat en France. Parce qu’avec la magie d’internet (comprendre votre soutien et votre relai) nous avons l’espoir de sortir de notre communauté pour toucher un maximum de monde, décideurs scolaires et politiques inclus.
  • Parce que nonobstant la technicité du sujet, ce rapport demeure fort agréable à lire (si, si, je vous assure).

C’est pourquoi nous vous invitons à parcourir ce document[3], à l’évaluer pour éventuellement le partager, le diffuser (sites, blogs, listes, mails…), le rendre disponible en salle des professeurs, l’évoquer avec les enseignants de vos enfants, en parler autour de vous, etc.[4]

La période, proche des vacances, est peu propice, mais on se retrouvera à la rentrée. Et en attendant nous proposons à tous ceux qui voudraient porter ce débat avec nous de s’inscrire à une liste de diffusion spécialement créée pour l’occasion[5].

Quand bien même nous serions en phase avec les recommandations du rapport Becta, nous ne souhaitons pas vous convaincre de la pertinence de son contenu. Nous souhaitons simplement que les arguments avancés ici soient enfin discutés sérieusement sur la place publique, sachant que l’éducation nous concerne tous.

Merci de votre attention et bonne lecture…

Télécharger la traduction du rapport Becta (PDF, 370 Ko, 38 pages)

PS : Il sera beaucoup question de cette traduction lors de mon intervention intitulée « Windows Vista, accélérateur du Libre à l’école ? » qui aura lieu aux prochaines Rencontres Mondiales du Logiciel Libre de Mont de Marsan, le jeudi 3 juillet à 16h.

Notes

[1] Crédit photo : Alessandro Pucci (Creative Commons By)

[2] Cette traduction est une œuvre collaborative (et de longue haleine) de notre groupe de travail Framalang. Qu’ils en soient tout ici remerciés comme il se doit et tout particulièrement Olivier, GaeliX, Bruno, Daria, Burbumpa et enfin Vincent Lozano pour la mise en forme.

[3] Si vous manquez un peu de temps, vous pouvez retrouver de larges extraits du rapport dans ce billet.

[4] Si vous pouviez en profiter pour éventuellement évoquer au passage l’existence de Simple comme Ubuntu et Changer pour OpenOffice.org, deux livres libres de notre collection Framabook qui nous semblent être liés au sujet, nous vous en serions forts reconnaissants. Sur ce modèle, et en partenariat avec notre éditeur In Libro Veritas, nous pourrions du reste proposer une version livre du rapport si le besoin s’en faisait sentir.

[5] Pour s’inscrire à la liste de discussion et porter ce débat avec nous, il suffit d’envoyer un mail à rapport-becta@framasoft.net.




code_swarm : et le logiciel libre se construit sous vos yeux ébahis

Les programmes de gestion de versions sont indissociables des (gros) projets de logiciels libres. Ils permettent aux développeurs de coordonner leur travail et de suivre au jour le jour qui a fait quoi dans le projet.

En suivant ces programmes, Michael Ogawa a mis au point un modèle graphique de visualisation chronologique de l’élaboration d’un logiciel libre. Il appelle cela code_swarm (essaim de code), qui utilise dans sa conception le moteur libre Processing.

Le résultat est fascinant, un véritable objet mutant aussi bien esthétique que pédagogique.

Pour le moment figurent dans le catalogue : Eclipse, PostgreSQL, Apache et Python. Comme le suggère l’auteur, j’ai choisi de reproduire[1] ce dernier comme exemple d’illustration parce qu’on voit bien comment au départ et pendant plusieurs années le créateur du fameux langage de programmation Python, Guido van Rossum (alias guido), travaille quasiment seul jusqu’à l’an 2000 où le projet sort de sa niche et explose littéralement.

Pour ce que soit un peu plus clair, nous avons traduit[2] ci-dessous les explications données par Michael Ogawa sur la page présentant le projet.

code_swarm

Michael Ogawa – juin 2008

« J’étudie les projets de développement logiciel depuis un petit moment maintenant. Pas la programmation, mais les gens, la façon dont ils interagissent à travers leurs collaborations et leurs communications. Mes investigations ont toujours été visuelles : J’ai bâti des applications qui créent des images de ce qui se passe au cours de l’élaboration des projets logiciels. Mais ils ont toujours eu une structure rigide. La visualisation d’information organique, inventée par Ben Fry, est une approche différente de la visualisation de l’information. Elle évite les confinements traditionnels d’information dans l’espace, et laisse les éléments jouer librement ensemble d’une manière aléatoire.

Cette visualisation, appelée code_swarm, montre l’historique des commits d’un projet de développement logiciel. Un commit intervient lorsqu’un développeur effectue des changements dans le code ou les documents et les transfère au dépôt central du projet. Les développeurs et les fichiers sont ici représentés par des éléments mobiles. Lorsqu’un développeur commite un fichier, celui-ci s’illumine et vole en direction du développeur concerné. Si des fichiers ou des développeurs ne sont pluss actifs, ils s’estompent peu à peu. Un histogramme, au bas de la visualisation, vient rappeler ce qui s’est passé précédemment. »

Notes

[1] Les vidéos sont présentées au format flash .flv sur Vimeo.com, on peut les télécharger au format .mov en s’inscrivant sur le site.

[2] Merci à Simon Descarpentries pour la traduction.




De Linux et de l’opportunité d’une synchronisation des distributions

Voici une traduction[1] un peu technique mais qui illustre bien la problématique de la démocratisation de GNU/Linux.

Elle fait suite à la proposition récente de Mark Shuttleworth (Monsieur Ubuntu) de synchroniser les cycles et donc les sorties des principales distributions Linux (outre Ubuntu il cite celles de Red Hat, Novell et Debian ainsi que le noyau, GNOME/KDE, X et OpenOffice.org). Histoire que tout ce petit monde avance groupés, ce qui d’après lui simplifierait la vie de tout le monde à commencer par celle des utilisateurs.

Mais Ryan Paul du site Ars Technica n’est visiblement pas tout à fait de cet avis. Au ce serait bien si… de Mark Shuttleworth il répond avec des arguments précis qui évoquent souvent le quotidien collaboratif d’un développeur de logiciels libres (en particulier tout ce qui touche à la gestion de versions). Et lorsque l’on est, comme moi, utilisateur mais non développeur de logiciels libres, c’est culturellement fort enrichissant.

On notera qu’à la suite de sa proposition et du vif débat suscité, Shuttleworth a précisé voire nuancé son propos quelques jours plus tard sur son blog.

Copie d'écran - Ars Technica

Pourquoi Linux n’est pas encore prêt pour des cycles de parution synchronisés

Why Linux isn’t yet ready for synchronized release cycles

Ryan Paul – 21 mai 2008 – ars technica

Le fondateur d’Ubuntu, Mark Shuttleworth a répété son appel aux développeurs des principaux logiciels libres et des distributions Linux pour une synchronisation des développements et des cycles de publication. Il avance que l’adhésion fidèle et universelle à un modèle de parution régulier encouragerait la collaboration entre les projets, assurerait aux utilisateurs l’accès aux dernières nouveautés des applications populaires et ferait de la plateforme Linux une cible plus stable et prévisible pour les vendeurs de logiciels.

Shuttleworth souhaite organiser les principales sorties en trois vagues distinctes, chacune formant un ensemble cohérent. La première vague concernerait les composants fondamentaux comme le noyau Linux, le compilateur GCC, les boîtes à outils graphiques comme GTK+ et les plateformes de développement comme Python et Java. La deuxième vague apporterait les environnements graphiques et les applications tandis que la troisième vague serait composée des distributions.

Bien qu’un cycle de sortie unifié rendrait plus aisée la création d’une distribution Linux, ce concept apporte d’importantes difficultés et n’est que peu gratifiant pour les développeurs de logiciels. Pour parvenir à une synchronisation à grande échelle comme Shuttleworth le souhaite, certains logiciels libres devraient radicalement changer leur modèle de développement actuel et adopter une nouvelle approche qui ne sera pas viable pour nombreux d’entre eux.

Comprendre les cycles de sorties réguliers

Un cycle de sorties régulier nécessite de sortir de nouvelles versions à une fréquence donnée. Le processus de développement pour les projets qui emploient ce modèle implique en général une planification des fonctionnalités prévues et ensuite une implémentation maximale jusqu’à ce que le projet gèle le code lorsque l’échéance approche. À partir de ce moment là, les fonctionnalités qui ne sont pas terminées sont reportées. On se concentre alors sur la correction des bogues et sur l’assurance qualité jusqu’à la date butoir, quand le logiciel est officiellement sorti.

Ce modèle fonctionne bien pour de nombreux projets, en particulier pour l’environnement GNOME. Mais, une conséquence de ce modèle est que les développeurs doivent travailler par incrémentation et il décourage les modifications de grande ampleur, celles qui nécessiteraient plus de temps que n’en offre le cycle. Parfois cet intervalle n’est simplement pas suffisant pour ajouter au code principal et tester des changements d’architecture importants qui sont incubés en parallèle en dehors de l’arbre principal du code.

Quand cela se produit, les développeurs doivent se demander si les avantages de la nouvelle fonctionnalité compensent les effets néfastes de la régression (comme avec l’adoption de GVFS dans GNOME 2.22 par exemple). Ils doivent parfois décider de retirer des fonctionnalités à la dernière minute ou de repousser la date de sortie pour améliorer la stabilité. Ce sont des choix difficiles à prendre et, comme le reconnaît Shuttleworth lui-même, faire ces choix demande beaucoup de discipline.

Même si des cycles réguliers peuvent convenir à certains projets, tenter d’imposer l’adoption de cette approche à tous les projets et ensuite les faire correspondre universellement pourrait gravement endommager le processus de développement. Si les projets deviennent dépendants de la synchronisation, alors un retard à n’importe quelle étape aurait des conséquences sur toutes les autres étapes. Chaque projet subirait alors une pression énorme pour tenir les délais et ce serait néfaste pour le programme et ses utilisateurs finaux.

L’utilisation des branches pour faciliter des sorties régulières

D’après Shuttleworth, de bons outils, en particulier des systèmes de contrôle de version possédant de bonnes capacités de création de branches et de fusion, peuvent rendre ce problème obsolète. Il se réfère spécifiquement à Bazaar, un système de contrôle de version mis au point par Canonical qui s’intègre à la plateforme de développement Launchpad de l’entreprise. J’ai beaucoup testé Bazaar durant ces deux dernières semaines en cherchant des technologies de contrôle de version distribuées et je ne peux qu’être d’accord avec l’argument de Shuttleworth.

Bazaar rend très facile le portage du flot continu de petits changements, du tronc vers les branches, où les fonctionnalités importantes sont développées, afin que ces fonctionnalités puissent être fusionnées sans accroc dans la branche principale quand elles sont achevées. En utilisant cette approche, où la majeure partie du développement est faite dans des branches, le code du tronc est naturellement et systématiquement plus robuste qu’il ne le serait autrement. Shuttleworth va même plus loin encore et théorise que lorsque cette approche est employée en parallèle à des tests automatisés le code du tronc est toujours prêt à être sorti à n’importe quel moment.

« Un ensemble de tests complet vous permet d’être plus ouvert aux gros ajouts au tronc parce que les tests assurent les fonctionnalités que les gens ont avant l’ajout. Un ensemble de tests agit comme un champ de force, il protège l’intégrité du code dont le comportement était connu le jour précédent face au changement perpétuel. » écrivait ainsi Shuttleworth sur son blog.

« La plupart des projets que je finance maintenant ont adopté une politique de tests avant ajout. Les ajouts au tronc sont gérés par un robot qui refuse de valider l’ajout s’il ne satisfait pas à tous les tests. Vous ne pouvez pas discuter avec un robot ! Ce que je trouve beau là-dedans c’est que le tronc est toujours dans un état publiable. Ce n’est pas complètement vrai ; on peut toujours faire un peu plus d’assurance qualité avant de sortir quelque chose, mais vous avez cette garantie que l’ensemble de tests est toujours satisfait. Toujours. »

Les ensembles de tests et les très bons systèmes de contrôle de version peuvent simplifier le développement et améliorer la qualité du code, mais ils ne sont pas la panacée. Shuttleworth surestime largement la capacité de ces outils à pallier aux problèmes associés aux sorties régulières. Des bogues surgiront toujours quand de grosses nouveautés sont fusionnées au code existant et parfois ces bogues nécessitent un report de la date de sortie. Si les développeurs ne peuvent ou ne veulent pas faire cela, la qualité du logiciel s’en retrouvera forcément affectée.

Ubuntu 8.04 est le parfait exemple de la voie à ne pas suivre

Pas besoin de chercher très loin pour constater la baisse de qualité résultante d’un engagement sans compromis à un cycle de sorties régulières. Prenez l’exemple de la dernière version d’Ubuntu. Shuttleworth vante Ubuntu 8.04 comme l’exemple d’une gestion plus intelligente des sorties et soutient que cela démontre la capacité des développeurs à s’en tenir à un programme strict.

« 8.04 LTS représente pour nous un grand pas en avant dans notre conception de la gestion d’une sortie. Pour autant que je sache, jamais une sortie de cette envergure ne s’est faite exactement le jour prévu jusqu’à maintenant, dans le monde des OS propriétaires ou des OS libres. » commente Shuttleworth sur son blog. « Nous avons non seulement démontré que l’on peut préparer une version LTS dans les 6 mois impartis, mais cela prouve également que l’on peut s’engager par anticipation sur un tel cycle LTS. Félicitations aux preneurs de décisions techniques, aux responsables versions et à toute la communauté qui a calqué nos efforts sur le but fixé. »

Ubuntu 8.04, qui est parue le mois dernier, est une version avec support à long terme (LTS pour Long Terme Support), ce qui signifie qu’elle sera maintenue trois ans pour la version Desktop et 5 ans pour la version serveur. Depuis le début, Shuttleworth affirmait aux utilisateurs que la qualité et la fiabilité seraient les mots d’ordre pour la 8.04 et qu’elle serait faite pour durer. Malheureusement, la version n’a pas atteint ces objectifs et est sortie avec quelques bogues importants. Le problème le plus frustrant que nous avons relevé dans notre test d’Ubuntu 8.04 est la configuration défectueuse de PulseAudio, qui affecte à la fois les fonctionnalités audio et vidéo.

Un léger retard aurait permis de résoudre les problèmes de ce genre avant la sortie, mais ce n’est jamais arrivé, peut-être parce que l’engagement de faire la sortie à temps l’a emporté sur l’engagement de la qualité. Mais certains diront qu’une version défaillante n’est pas un problème parce que les bogues peuvent être réparés par des petites mises à jour après sa sortie.

« Les grands déploiements attendent la première ou la deuxième version consolidée de toute façon » fait noter Shuttleworth en réponse à un commentaire sur ton blog (NdT : La sortie de Ubuntu 8.04.1 est prevue pour le 3 juillet). Je me doute que je ne suis pas seul à avoir pensé aux Service Packs de Microsoft en voyant cette remarque. Mais une version officielle n’est-elle pas censée être un gage de qualité ? Si les sorties sont basées sur des jalons arbitraires posés sur une chronologie plutôt que sur une réelle amélioration, alors elles perdent leur sens ou leur pertinence pour les utilisateurs finaux.

D’autres approches

Les cycles de sortie devraient être flexibles et les développeurs devraient pouvoir en ajuster la durée pour qu’ils collent à leur activité. Selon les projets, la culture de développement et les buts peuvent être très différents, les stratégies de publication sont par conséquent différentes. L’appel de Shuttleworth en faveur d’une synchronisation reflète une forme d’incapacité à reconnaître la valeur et la profondeur de la diversité dans la communauté du logiciel libre. Des distributions qui visent des publics différents et qui ont des priorités différentes pourraient ne pas rentrer dans le même moule que les distributions généralistes comme Ubuntu. On retrouve également des logiciels libres multi-plateformes, comme le navigateur Web Firefox par exemple, qui réunissent beaucoup d’utilisateurs sur d’autres systèmes d’exploitation et qui peuvent avoir d’autres priorités que la fréquence de sortie des distributions Linux.

Je tiens à dire quand même que je ne rejette pas catégoriquement les idées de Shuttleworth. Même si je suis vraiment contre une approche descendante et centralisée de la planification des sorties synchronisées je pense qu’il y pourrait y avoir des bénéfices à tirer d’un meilleur alignement du calendrier de quelques distributions principales qui partagent déjà des buts, une technologie et une méthodologie similaires.

La simultanéité des sorties est déjà à l’ordre du jour (Fedora 9, Ubuntu 8.04 et OpenSolaris 2008.05 ont toutes vu le jour à quelques semaines d’intervalle) et je suis convaincu que de meilleurs résultats sont atteignables si on laisse cette tendance se développer d’elle-même. Encourager trop d’interdépendance créerait des risques sévères, on parle d’un domaine où une planification consciencieuse et un calendrier gravé dans la roche seraient à l’origine de plus de problèmes qu’ils n’en résolvent.

Aaron Seigo, développeur KDE, est l’un des détracteurs ayant exprimé des inquiétudes convaincantes et perspicaces au sujet de la proposition de Shuttleworth. Seigo met à plusieurs reprises en avant que le genre de synchronisation que souhaite Shuttleworth améliore l’efficacité d’intégration au dépend de l’efficacité des développeurs, une concession qu’il décrit comme contre-productive car c’est dans le développement que se trouve le richesse des logiciels.

« Mark parle de processus en flux tendu, mais seulement du point de vue de l’intégration ; il existe aussi des processus en flux tendu dans le développement et définir le cycle de développement à l’aune du cycle de sorties, surtout s’il n’est pas bon, érode la fluidité du flux de développement », écrit Seigo sur son blog. « Il ne faut pas oublier que c’est le processus de développement qui fait toute la valeur d’une distribution Linux. La distribution rend cette valeur accessible à grande échelle et crée un autre type de valeur ajoutée par-dessus (le support, le marketing, etc.) mais c’est le développement, pas l’intégration, qui est la source primaire de valeur. Il devrait alors être évident que le processus de développement n’est pas quelque chose qu’on peut prendre comme ça à la légère. »

Seigo propose une alternative qui faciliterait la synchronisation en aval sans nécessiter de synchronisation ou de chamboulement en amont. D’après lui, les distributions devraient gérer par elle-mêmes les sorties en créant leurs propres branches et en tenant compte des contraintes de leurs propres cycles.

« Puisqu’il y a cette volonté en aval pour des cycles de parution synchronisés… pourquoi est-ce que l’aval ne prendrait pas en charge les sorties ? Pourquoi attendre que les tarballs soient livrées devant leur porte pour mettre en place une équipe de publication ? » s’interroge Seigo. « Pourquoi ne pas demander à la communauté d’intégration (les vendeurs de systèmes d’exploitation en gros) de coordonner leur efforts pour créer une branche en vue d’une sortie à un moment donné, moment qu’ils définissent eux-mêmes, et travailler avec l’amont pour la stabilisation de cette branche ? Plutôt que d’espérer que l’amont fasse ce qu’ils désirent, pourquoi ne peuvent-ils pas regrouper un tas de gars des communautés de chez Novell, Red Hat, Debian, Mandriva, MacOS et Microsoft, de chez Canonical ou encore de chez n’importe qui qui voudrait s’impliquer et offrir un vrai processus sérieux de sortie par lequel l’amont pourrait s’intégrer naturellement ? »

Les suggestions de Seigo sont plus viables que les propositions de Shuttleworth. Elles permettraient aux distributions Linux de bénéficier des avantages pratiques de la synchronisation dont bénéficieraient également les utilisateurs finaux sans avoir à bouleverser ou synchroniser le développement en amont. Cela engendrerait cependant un coût additionnel et un défi nouveau pour les distributeurs et leur ferait porter le poids de la gestion des sorties. Seigo assure que si les distributeurs veulent vraiment des sorties synchronisées en aval autant que ça ils seront prêts à accepter cette charge supplémentaire et trouveront un bon moyen pour y parvenir.

Il est bien probable que cette discussion dure pendant encore quelques temps à mesure que les acteurs principaux pèsent le pour et le contre. La communication a déjà fait avancer le débat de bien des manières et a déjà fait émerger des alternatives attirantes et des variations de la proposition initiale. Le résultat final pourrait avoir des implications importantes sur la gestion des sorties par les logiciels libres et les distributions, mais pour l’instant aucune des idées proposées n’est suffisamment mature pour être appliquée à grande échelle.

Notes

[1] Traduction : Olivier – Relecture : Daria – Café : Framalang.




Quand Jacques Attali nuance son propos sur le logiciel libre

Jacques Attali, venu à l’AG du Syntec Informatique (le 5 juin dernier à Paris) faire le point sur sa fameuse Commission, semble n’avoir qu’un seul remord : celui de ne pas avoir assez insisté sur « l’importance de l’industrie du logiciel » (logiciel libre inclus ou exclu ?).

Et de préférer désormais l’expression logiciel ouvert ou open source à celui de logiciel libre dont il n’aime pas le mot libre : « ce n’est pas vrai, c’est pas plus libre qu’un autre, l’école libre elle n’est pas libre, elle est privée ».[1]

—> La vidéo au format webm

Un commentaire à chaud ?

Notes

[1] Source Vidéo : Dailymotion – Luc Fayard (InfoTechArt.com)




La voie négative du Net-Art par Antoine Moreau

Lorsqu’Antoine Moreau prend sa plume pour nous parler d’Art Libre c’est encore de l’Art Libre quand bien même le sujet central de cet article soit l’Art à l’heure d’Internet.

C’est avec plaisir que nous lui ouvrons nos modestes colonnes histoire de partager sa réflexion. Parce qu’il est doux et peut-être salutaire d’entendre parler de forme gracieuse de don à une époque où l’Art peut se perdre dans sa marchandisation baigné dans une Culture qui ne serait plus que de l’entertainment.

L’illustration est une photographie de N. Frespech sous licence Art Libre issue du projet Echoppe Photographique. où les visiteurs sont invités à commander une photographie en laissant un texte dans un formulaire. Il s’agit ici de la Commande 1712 : Chirac en prison. Commandée le 22-11-2007 par Coralie Fonck et reçue le 04-12-2007.

Chirac en prison - Frespech - Licence Art Libre

La voie négative du Net-Art

Un texte d’Antoine Moreau paru dans la revue Terminal, n°101, Printemps 2008.

Que peut être le Net-Art en suite d’une histoire de l’Art traversée par la négation ? Nous tenterons de montrer qu’il est une pratique précise et sensible du réseau des réseaux en intelligence avec son écosystème. Nous ferons la distinction entre « l’Art sur le Net », le « Net-Art » et « l’art du net ». Il s’agira de montrer que le Net-Art, en réalité, n’est pas autre chose que l’art du net : une pratique à la fois ordinaire et éclairée de l’internet. Celle-ci a le souci de la beauté intrinsèque du réseau, elle en observe les qualités qu’on trouve dans les principes fondateurs de l’internet et dans ceux du logiciel libre.

Net-Art : Niet-Art ?

Commençons par une observation : il y a des artistes, reconnus comme tels, qui font de l’art sur le réseau internet. Ils font de l’art avec le net, pour le net et par le net. Ils sont qualifiés de « Net-Artistes ». Les oeuvres créées s’inscrivent dans le lieu où elles évoluent, elles sont très souvent interactives et n’existent que dans le « réseau des réseaux »[1].
En quoi relèvent-elles du « Net-Art » ? Ne persiste-t-il pas, dans ce lieu bouleversant qu’est l’internet, une A.O.A.C. (« Appellation d’Origine Artistique Contrôlée ») qui donne à penser que le Net-Art est le fait d’artistes reconnus comme tels et produisant de l’art lui-même reconnu comme tel ?
Qu’est-ce que le Net-Art en suite du ready-made de Duchamp, de l’exposition du vide de Klein ou des sculptures sociales de Beuys ? De quelle nature est la qualité artistique avec l’internet ? De quelle qualité pouvons-nous parler après qu’on ait pu déceler l’art contemporain comme étant un « Art sans qualités »[2] ?

Nous n’avons pas l’intention de nier aux oeuvres qualifiées de « Net-Art » leur indéniable intérêt. Nous voulons simplement tenter de comprendre comment et pourquoi il y a de l’art par et pour le Net. Que serait-il juste de qualifier de « Net-Art » ? Nous allons commencer par prendre en compte trois constats :

– Premièrement : selon Hegel, l’art est quelque chose de révolu[3]. Après avoir accompli sa tâche, à travers les différentes étapes de son histoire, l’activité artistique laisse la place à d’autres types de productions de l’esprit. Ainsi, la philosophie est, d’après le philosophe de la fin de l’histoire, seule capable désormais de penser l’humanité et d’en former le dessein. Non pas qu’il n’y ait plus d’art possible, mais que c’est à la pensée elle-même de réaliser ce que l’art ne peut plus atteindre.

– Deuxièmement : selon les artistes eux-mêmes, le non-art est l’accomplissement ultime de l’art. Non pas l’avènement de l’iconoclasme, mais de l’art lui-même quand « l’art, c’est ce qui rend la vie plus intéressante que l’art » selon la formule célèbre de Robert Filliou[4]. Ce n’est pas la négation de l’art, mais sa voie négative qui, par un mouvement dialectique, affirme l’art par excellence comme étant l’art de vivre.

– Troisièmement : selon certains observateurs de l’art contemporain, l’art se trouve aujourd’hui « à l’état gazeux »[5]. Disséminé dans toutes activités possibles, il est nulle part et partout à la fois. En fait, selon nous, sa présence est aussi réelle que son absence est manifeste, car la dissolution de l’art dans la réalité n’est pas la disparition réelle de l’art. La réalité de l’art qui nous est contemporain n’est pas tant dans sa « forme formée » que dans sa « forme formante ». Plus que jamais, pour reprendre le mot de Léonard de Vinci, l’art est « causa mentale ». Il est une production de l’esprit qui forme. Il est formant. Sa forme est une formation de l’esprit et l’opération qu’il réalise est la transformation de notre perception où « ce sont les regardeurs qui font le tableau » comme a pu l’observer Marcel Duchamp[6].

Ce que peut être le Net-Art.

En prenant en compte l’état contemporain de l’art, nous pouvons maintenant envisager le « peut-être » du Net-Art selon trois axes. Notre approche sera dialectique, nous allons procéder à chaque fois par « affirmation, négation et négation de la négation »[7].

1/ Le Net-Art c’est l’art qui se pratique par et pour l’internet. Ce n’est pas de l’Art sur le Net.

Affirmation : Une forme d’art sur le réseau internet est une forme d’art visiblement. Une oeuvre plastique qui se trouve sur le Net est déclarée artistique car elle présente toutes les apparences convenues de l’Art reconnu comme tel. Ce sont, par exemple, toutes formes que l’on voit sur les sites web d’artistes et tous types d’objets présentant des qualité artistiques apparentes.?
Négation : Ces objets d’art ne sont pas du Net-Art. Ils ne sont pas faits par et pour le réseau internet. Ils sont en visibilité sur la surface de la Toile[8] mais ne font pas partie de la réalité du réseau. Pour qu’une oeuvre puisse être déclarée « Net-Art », il lui faut être conçue spécialement par et pour le réseau. L’oeuvre de Net-Art n’existe que dans la réalité réticulaire. Sa matière n’est pas seulement numérique, elle fait partie intégrante du flux « on-line » du réseau. C’est le fait des artistes reconnus comme tels et qui investissent l’internet comme champ d’exercice artistique.?
Négation de la négation : Il ne suffit pas que les oeuvres soient du Net-Art pour être véritablement du Net-Art. Elles sont qualifiées ainsi car elles sont réalisées par des artistes qui utilisent le Net pour faire de l’Art. Mais ce sont, la plupart du temps, toujours des objets d’Art selon les critères dévolus aux oeuvres matérielles, quand bien même ils seraient véritablement produits avec le matériau réticulaire et conçues spécialement pour le Net. Dans les faits, il ne suffit pas de réaliser des objets d’Art pour le Net pour que ces objets soient, selon nous, qualifiés de « Net-Art ».?
Pour qu’une forme d’art soit du net-art (nous ne mettons pas de majuscules[9]) il lui faut intégrer ce qui fait la nature même de l’internet et être en intelligence avec l’esprit qui lui a donné corps. Disons-le d’une formule simple : le net-art c’est l’art du net.

2/ Le net-art c’est l’art du net. Ce n’est pas le Net-Art.

Qu’est-ce que le net-art entendu comme « art du net »?
Nous qualifierons de « net-art », toutes formes d’actions et de créations conformes à la forme de l’internet. Ces formes d’actions et de créations peuvent être qualifiées de net-art si et seulement si elles observent les protocoles ouverts de l’internet et les respectent. En effet, l’internet doit son existence à des protocoles ouverts et qui en ordonnent l’architecture et les transports (Web, e-mail, usenet, FTP, IRC, etc.). Basé sur la suite de protocoles TCP/IP[10], l’internet permet ainsi l’accès à tous les ordinateurs quelles que soient leurs particularités. Grâce à ses standards ouverts,[11] l’internet est devenu un réseau non propriétaire et qui a vocation universelle. Il est ouvert à tous, il est fait par tous et pour tous : c’est cela même la réalité du réseau internet, son corps, son esprit.?
C’est la raison pour laquelle nous avançons que c’est l’observation des protocoles du net et le respect des standards ouverts qui va déterminer la qualité artistique des formes. Cette qualité artistique ne se situe pas seulement dans des effets purement formels qui, en surface, font semblant d’art. Elle est dans la prise en considération de l’écosystème du réseau. Cette prise en compte, par tout auteur, du mode d’existence de l’internet peut produire des oeuvres artistiques dans la tradition de l’histoire de l’art, mais aussi des oeuvres qui n’ont pas, à priori, les qualités artistiques pour s’y inscrire. Le net-art (l’art du net) n’est pas le seul fait des artistes reconnus comme tels de la même façon qu’il n’est pas seulement une fabrique d’objets d’art reconnus comme tels.

Le net-art c’est l’art de se conduire dans et avec le net. C’est aussi l’art de conduire le net au mieux de sa forme. Toute technique qui sera en phase avec la réalité de son « moteur » et pas seulement, comme dans de nombreuses oeuvres reconnues comme étant du Net-Art, un formalisme esthétiquement convenu.?
L’esthétique dont il s’agit avec le net-art, tel que nous en proposons la définition, est une esthétique qui procède d’une éthique[12]. Nous entendons cette esthétique comme « es-éthique ». C’est à dire une forme de connaissances et de pratiques qui procède de l’esprit du net et qui précède la mise en forme des objets s’y rattachant. Il s’agit d’une esthétique qui conserve à l’art sa puissance d’action quand, nous l’avons vu, l’art avait été jugé « chose révolue » par ailleurs[13]. Aussi, l’es-éthique du net-art est-il, selon nous, l’esprit de l’art et l’art de l’esprit à l’ère du numérique et de l’internet. La pensée est en forme et forme le dessein d’un art toujours présent quand bien même il aurait pu être révolu à un moment de son histoire.

Par exemple : une simple forme de communication (e-mail, forum de discussion, mailing-list, IRC, etc) peut avoir les qualités de net-art si elle observe la netiquette, c’est à dire l’étiquette du net qu’on trouve dans la Request For Comment n°1855.[14] La netiquette participe de l’es-éthique du réseau des réseaux.?
Pour les formes que les pratiques artistiques investissent ordinairement (textes, images, sons, etc), le net-art (c’est-à-dire : l’art du net) consistera à créer en utilisant des formats ouverts. Ainsi, une page web sera écrite en HTML ou un autre langage comme le PHP et qui tient compte des normes du W3C[15]. Elle n’utilisera pas de codes qui ne permettent pas sa visualisation par n’importe quels logiciels de navigation web. Tout format propriétaire et donc fermé sera honni pour la simple raison qu’ils contredit l’internet en son sens même, en sa forme même, en son art même.?
Il en est de même avec les droits d’auteur que nous allons aborder plus loin dans la partie consacrée au copyleft. Mais avant cela, voyons l’infini du net-art.

3/ Le net-art c’est l’art qui s’offre infini. Ce n’est pas un objet fini.

De la même façon qu’on ne peut confondre un objet d’art avec l’objet même de l’art, on ne peut se méprendre sur la finalité de l’objet de net-art. Inachevé par nature[16], celui-ci n’a pas de fin. Nous le savons par ailleurs, l’objet de l’art ne s’achève jamais dans la fabrication d’un objet d’art, mais il excède son inscription dans la matière. L’objet de l’art passe à travers l’objet d’art fini pour ainsi ne pas choir et être clos dans sa définition.
Le net-art est par excellence un art en flux et en suspens. Il se fait, après qu’il ait été conçu à un moment « t » de son invention, en interaction avec le découvreur qui l’agit sur la Toile. Il n’y a pas d’arrêt sur l’objet, il y a un objet sans fin dont la finalité n’est pas tant l’objet lui-même que ce qui est poursuivi à travers sa production : l’art infini..
Aussi, nous pouvons dire qu’il n’y a pas d’objets de net-art en réalité, mais que l’objet de l’art se manifeste avec l’internet, par et pour l’internet, à travers certaines formes conformes à l’esprit de l’internet. Ces formes ne sont pas l’expression d’un « conformisme » mais manifestent le souci d’être en intelligence avec la forme du net. D’être en phase avec le réseau comme le surfeur peut l’être avec la vague qui le transporte. C’est la raison pour laquelle nous disons que ces formes d’art forment la forme du réseau, qu’elles participent à sa bonne santé, à sa vie. Une vie suspendue entre la naissance et la mort, une vie infinie, non achevée encore dans une supposée maturité, signe avant-coureur de sa fin et de sa destruction..
Ce qui fait la vitalité du net-art, ce en quoi le net-art est vivant et vrai dans sa forme, c’est son immaturité. Cette immaturité du net-art nous l’entendons au sens où Gombrowicz a pu faire comprendre la forme où l’art et la vie sont au mieux de leur forme : ce moment « t » où le temps est suspendu dans la grâce de ce qui advient sans laisser prise au temps, sauf l’éternité.

En effet (…) un postulat erroné veut qu’un homme soit bien défini, c’est à dire inébranlable dans ses idéaux, catégorique dans ses déclarations, assuré dans son idéologie, ferme dans ses goûts, responsable de ses paroles et de ses actes, installé une fois pour toutes dans sa manière d’être. Mais regardez bien comme un tel postulat est chimérique. Notre élément, c’est l’éternelle immaturité[17].

Cette « éternelle immaturité », un présent, un don, une réalité sensible et active du temps imprenable où le net-art est offert aux affects et va se laisser former et transformer à l’infini.
Sans doute le moment est-il venu alors de présenter le copyleft, principe actif de cette immaturité formante que le net-art, quand il est l’art du net, met en pratique.

Le copyleft, principe actif de l’art du net.

Nous voulons maintenant creuser l’élément plastique du net-art. Et ceci en étendant la notion de plasticité non seulement aux arts visuels, mais à tout type d’art qui fait forme et à toute forme quand elle est aussi explosion de la forme[18]. Non pas dans l’intention de détruire la forme, mais dans celle d’en renouveler la puissance plastique grâce à toutes les altérations possibles issues de l’ouverture.
Les droits d’auteurs sont en première ligne car le net-art plastique les droits d’auteurs. Le net-art c’est l’explosion du moteur à création. Non pas, faut-il le préciser encore une fois, sa destruction, mais la remise en forme de sa puissance de transport comme de sa beauté formelle et mécanique.

Explication : le net-art ne peut faire l’économie des droits d’auteurs. L’internet n’est pas, par la vertu du numérique et de la technologie, une zone de non-droit. Dura lex sed lex[19], le droit s’applique, même sur l’internet. Pour qu’une oeuvre soit qualifiée de net-art, il lui faut respecter aussi le droit des auteurs. Mais comment faire, quand le droit d’auteur interdit la copie, la diffusion et la transformation des oeuvres ? Car si nous observons bien l’es-éthique du réseau, comme nous l’avons vu avec les standards ouverts, une oeuvre de net-art devra être librement accessible, copiable, diffusable, transformable et devra interdire, en outre, l’appropriation exclusive.

Liberté d’étudier, de copier, de diffuser, de transformer et interdiction d’appropriation exclusive, ces principes sont également ceux du logiciel libre mis en place avec le projet GNU[20] de la Free Software Foundation[21] en 1984 et formalisés dans une licence juridique, la General Public License[22]. C’est ce qu’on appelle le « copyleft ». Loin d’être une négation ou un déni des droits des auteurs, le copyleft en reformule la pertinence en fonction des pratiques et des matériaux.

Du logiciel libre à l’art libre il n’y a eu qu’un pas. Celui-ci a été franchi à notre initiative lors des rencontres Copyleft Attitude[23] qui ont eu lieu à Paris en 2000. Elles ont donné naissance à la Licence Art Libre[24], directement inspirée par la General Public License. Il s’agissait d’appliquer les principes du copyleft à tout genre de création.

L’intention est d’ouvrir l’accès et d’autoriser l’utilisation des ressources d’une oeuvre par le plus grand nombre. En avoir jouissance pour en multiplier les réjouissances, créer de nouvelles conditions de création pour amplifier les possibilités de création[25].

Là aussi, il s’agit d’un mouvement dialectique qui procède d’une négation de la négation. Le plasticage de l’art opéré par le copyleft, n’est pas sa destruction, mais sa remise en forme. Un retournement de situation quand les matériaux sont des immatériaux, quand la rareté de l’oeuvre d’art est en profusion et quand la forme est formée par des affects qui la reforment à l’infini.

Mieux : le net-art est un art par excellence pour la raison qu’il réalise cette forme qui est le signe même de l’apparition de l’art dans l’histoire : la forme gracieuse.

Négation de la pesanteur, si ce n’est un don du ciel, c’est un art qui ne doit pas paraître en être un, un art dissimulé. Le seul effort qu’il faut faire consiste à le cacher, car montrer qu’il s’agit d’un art serait le meilleur moyen d’étouffer la grâce[26].

Le net-art, une forme gracieuse.

En poursuivant l’intuition que nous avons eue il y a quelques années et qui considère que « l’oeuvre, c’est le réseau »[27], nous pouvons dire que l’internet est lui-même, par nature, une forme gracieuse. Une forme d’art, cela va sans dire.
Cet « état de grâce » propre au net se trouve également dans le logiciel libre et l’art libre car la mise à disposition, par un auteur, de données sur le réseau procède d’une beauté certaine du geste. Cette beauté du geste n’est pas gratuite, le copyleft ne s’oppose pas au commerce, elle est précisément gracieuse. Elle n’est pas non plus gratuite au sens d’arbitraire, elle est justifiée par l’éthique, l’es-éthique. Il s’agit bien d’une forme de pratiques et de productions de l’esprit qui posent la grâce comme condition d’exercice.

Ainsi, la kharis notion de la grâce antique circule entre objet et sujet. Cette idée de beauté (qui n’apparaît que tardivement dans la gratia latine) domine toute la conception grecque de la kharis. Comme faveur, la beauté est ce qui est offert aux regards – ou aux oreilles – des tiers : toute beauté est don généreux. Ce qui est remarquable dans cette notion de kharis, c’est sa capacité à exprimer en même temps une propriété des êtres (leur séduction allant jusqu’au kharisma), l’action de ces charmes sur autrui, l’état de plaisir de qui le perçoit et la gratitude ressentie pour cette faveur. Tel est « l’état de grâce »[28].

Nous affirmons, en suite de Winckelmann[29], inventeur de l’histoire de l’art et qui a su pointer le moment de sa naissance et de sa renaissance, qu’il y a art quand il y a forme gracieuse, beauté du geste et dons. Le moment où l’artiste est doué de dons, ceux qu’il donne en retour sous formes gracieuses à travers des productions librement offertes comme abandon de toute pesanteur[30].
Des données numériques qui sont librement accessibles, copiables, diffusables et transformables selon le copyleft, procèdent de cette liberté qui fait, non seulement la beauté du geste, mais rend l’art possible et existant. Lorsque cette liberté disparaît, l’art disparaît également et la forme gracieuse avec lui.

L’art, qui avait reçu la vie de la liberté elle-même, devait nécessairement, avec la perte de cette liberté, décliner et mourir au lieu même de sa plus belle floraison[31].

Ainsi, le moment politique de la naissance de l’art aura été celui où la grâce aura pu prendre forme librement. La première fois dans la Grèce antique et la deuxième fois, à la Renaissance au XVe et XVIe siècles avec la redécouverte de l’art grec classique et de sa forme gracieuse.

Nous posons qu’une troisième naissance et renaissance de l’art est à l’oeuvre, aujourd’hui, à l’ère de l’internet et du numérique. Cette re-renaissance de l’art se fait avec l’art libre selon les principes du copyleft. Le net-art, tel que nous l’avons défini, en est l’exercice par excellence car il procède d’une forme gracieuse de dons, de données et de libertés.

Antoine Moreau, « La voie négative du Net-Art », mars 2007, un texte écrit pour la revue Terminal n° 101, Printemps 2008.
Copyleft : ce texte est libre, vous pouvez le copier, le diffuser et le modifier selon les termes de la Licence Art Libre.

Bibliographie :

  • BLONDEAU Olivier, LATRIVE Florent, Libres enfants du savoir numérique, anthologie du « Libre » préparée par, L’Éclat, 2000.
  • BOURGEOIS Bernard, Le vocabulaire de Hegel, Ellipses, Paris 2000.
  • BRUAIRE Claude, La dialectique, PUF, Paris, 1985.
  • CLAVERO Bartolomé, La grâce du don, anthropologie catholique de l’économie moderne, Albin Michel, Paris, 1996.
  • COMETTI Jean-Pierre, L’Art sans qualités, farrago, Tours, 1999.
  • COUCHOT Édomond, HILLAIRE Norbert, L’Art numérique, comment la technologie vient au monde de l’art, Flammarion, Paris, 2003.
  • FOURMENTRAUX Jean-Paul, Art et Internet, les nouvelles figures de la création, CNRS Éditions, Paris 2005.
  • GOMBROWICZ Witold, Moi et mon double, Gallimard Quarto, 1996.
  • HÉNAFF Marcel, Le prix de la vérité, le don, l’argent, la philosophie, Éditions du Seuil, Paris, 2002.
  • HIMANEN Pekka, L’Éthique hacker et l’esprit de l’ère de l’information, Exils, 2001.
  • MALABOU Catherine, La plasticité au soir de l’écriture. Dialectique, destruction, déconstruction. Éditions Léo Scheer, 2005
  • MICHAUD Yves, L’art à l’état gazeux, Hachette, Paris, 2004.
  • PERLINE, NOISETTE Thierry, La bataille du logiciel libre, La Découverte, Paris, 2004.
  • POMMIER Édouard, Winckelmann, inventeur de l’histoire de l’art, Gallimard, 2003.

Webographie :

Notes

[1] Une base de données importante de Net-Art sur le site rhizome.org : (page visitée le 05/03/07)

[2] J.P. COMETTI, L’Art sans qualités, farrago, Tours, 1999.

[3] « L’art n’apporte plus aux besoins spirituels cette satisfaction que des époques et des nations du passé y ont cherchée et n’ont trouvé qu’en lui . L’art est et reste pour nous, quant à sa destination la plus haute, quelque chose de révolu. Il a, de ce fait, perdu aussi pour nous sa vérité et sa vie authentique. » HEGEL, Cours d’esthétique, Tome 1, Aubier, Paris, 1995-1997, p. 17 & 18, cité par B. BOURGEOIS, Le vocabulaire de Hegel, Ellipses, Paris 2000, p. 12.

[4] Cité par S. JOUVAL, « Robert Filliou : "Exposition pour le 3e oeil" », Robert Filliou, génie sans talent, catalogue d’exposition, Musée d’art moderne de Lille, 6 décembre 2003 au 28 mars 2004, Éditions Hatje Cantz 2003, p. 8.

[5] Y. MICHAUD, L’art à l’état gazeux, Hachette, Paris, 2004.

[6] Marcel Duchamp, Duchamp Du signe, écrits, Flammarion, 1975, p. 247.

[7] Formule rappelée par Marx dans un lettre polémique adressé à Proudhon. MARX, Misère de la philosophie, cité par Claude BRUAIRE, La dialectique, PUF, Paris, 1985, p. 8.

[8] Nom donné au World Wide Web.

[9] Pour la raison que le net n’est pas une marque, c’est un nom commun et que l’art aujourd’hui n’a plus les qualités de l’Art.

[10] Ensemble de protocoles de communication utilisé par l’internet (page visitée le 10/10/06)

[11] « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre. » Journal Officiel n° 143 du 22 juin 2004 : loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (référence NOR: ECOX0200175L). Définition trouvé dans : Titre Ier (De la liberté de communication en ligne), Chapitre Ier (La communication au public en ligne), Article 4. Sur le site formats ouverts, (page visitée le 10/10/06)

[12] P. HIMANEN, L’Éthique hacker et l’esprit de l’ère de l’information, Exils, 2001.

[13] C’est la raison pour laquelle nous parlons de « l’esprit du net » qui, comme pour l’art, ne saurait être réduit à sa seule technicité ou matérialité. L’internet, plus qu’une intelligence matérialisée est une spiritualité pratique (c.f. P. HADOT, Exercices spirituels et philosophie antique, Albin Michel, 2002).

[14] « Les règles de la Nétiquette », RFC 1855, traduction Jean-Pierre Kuypers, sur le site UCL/SGSI Infrastructures des réseaux du système d’information (SRI) (page visitée le 13/02/07)

[15] Le consortium qui se porte garant de l’interopérabilité du Web (page visitée le 13/02/07)

[16] Par la nature même du numérique, sa matérialité de fait.

[17] GOMBROWICZ, Moi et mon double, Ferdydurke, introduction à « Philidor Doublé d’enfant », Gallimard Quarto, 1996, p. 338.

[18] # « Rappelons que selon son étymologie – du grec plassein, modeler – le mot « plasticité » a deux sens fondamentaux. Il désigne à la fois la capacité à recevoir la forme (l’argile, la terre glaise par exemple sont dites « plastiques ») et la capacité à donner la forme (comme dans les arts ou la chirurgie plastiques). Mais il se caractérise aussi par sa puissance d’anéantissement de la forme. N’oublions pas que le « plastic », d’où viennent « plastiquage », « plastiquer », est une substance explosive à base de nitroglycérine et de nitrocellulose capable de susciter de violentes détonations. On remarque ainsi que la plasticité se situe entre deux extrêmes, d’un côté la figure sensible qui est prise de forme (la sculpture ou les objets en plastique), de l’autre côté la destruction de toute forme (l’explosion). » C. MALABOU, La plasticité au soir de l’écriture. Dialectique, destruction, déconstruction. Éditions Léo Scheer, 2005, note de bas de page p. 25 et 26.

[19] La loi est dure mais c’est la loi.

[20] GNU is Not UNIX, projet de la Free Software Foundation qui formalise le logiciel libre avec la licence GNU/GPL. (page visitée le 23/02/07).

[21] FSF.org (page visitée le 23/02/07).

[22] Licence libre copyleft pour les logiciels

[23] Avec des artistes regroupés autour de la revue Allotopie (page visitée le 14/02/07)

[24] Rédigée par Mélanie Clément-Fontaine et David Geraud, juristes et Isabelle Vodjdani et Antoine Moreau, artistes.

[25] Extrait du prologue de la Licence Art Libre 1.2.

[26] Éd. POMMIER, Winckelmann, inventeur de l’histoire de l’art, Éditions Gallimard, 2003, p. 59.

[27] Citée dans le numéro spécial Artpress, l’Art et la Toile, « Internet all over ? » novembre 1999, N. HILLAIRE, p. 9 et Éd. COUCHOT, N. HILLAIRE, L’Art numérique, comment la technologie vient au monde de l’art, Flammarion, Paris, 2003, p. 72.

[28] M. HÉNAFF, Le prix de la vérité, le don, l’argent, la philosophie, Éditions du Seuil, Paris, 2002, p.326.

[29] Éd. POMMIER, Winckelmann, inventeur de l’histoire de l’art, Gallimard, 2003.

[30] Nous sommes là également proche du moment mystique décrit par Simone WEIL, La pesanteur et la grâce, Plon, Agora, 1988.

[31] J.J. WINCKELMANN, Histoire de l’art de l’Antiquité, Darmstadt, 1982, cité et traduit par Éd. POMMIER, idem.




Comparaison graphique entre Windows et Linux

Un peu de mathématiques. Enfin, c’est un bien grand mot. Il s’agit d’un petit schéma trouvé sur un blog qui explique pourquoi d’un côté (temps court) ce n’est pas évident de se mettre à Linux mais d’un autre côté (temps long) pourquoi c’est un investissement plus que rentable sur la durée.

En fin d’article, l’auteur nous invite à donner notre avis sur sa petite théorie. Idem avec sa traduction[1]. D’accord, pas d’accord ? Est-ce trop simplifié ? Et le poids des habitudes Windows ? Et si l’utilisateur découvre Linux sans connaître préalablement Windows ? Et quid des nuances apportées par les différentes distributions Linux ? Et le Mac dans tout ça ? etc.

Windows - Linux

Windows vs Linux : Comprendre le fossé de la complexité

Windows vs. Linux: Understanding the Difficulty Divide

Q Hartman – 26 Mai 2008 – WorksWithU.com

Avec le temps j’ai développé une théorie généralisée des coûts que cela représente d’effectuer une tâche sous Windows et sous Linux, un corollaire de cette théorie est que beaucoup de gens pensent que Linux est trop compliqué ou "pas encore prêt pour le grand public".

L’essence de cette théorie peut être illustrée par ce graphique :

Difficulty Divide - Linux vs Windows

Evidemment, aucune donnée ne vient étayer ce graphique. C’est simplement un support visuel pour aider à expliquer un concept que j’ai déjà souvent vu illustré. L’axe des x représente la complexité de la tâche à réaliser. Ca peut être la création d’un réseau, l’ouverture d’une image, la conception d’un film, la construction et la maintenance d’un site Web, l’automatisation de la migration d’une base de données complexe ; vraiment n’importe quelle tâche qui peut être réalisée par un ordinateur, grand ou petit. Sur l’axe des y on retrouve le coût relatif pour mener cette tâche à bien. Je prends ici "coût" dans un sens très général. Ce coût peut représenter votre temps, le coût d’une licence pour un logiciel, le coût de la formation ou le coût de l’embauche d’un développeur pour écrire le programme dont vous avez besoin.

Logiquement, le coût pour mener à bien une tâche augmente, que ce soit sous Windows ou sous Linux, avec la complexité de la tâche. Je vous invite par contre à regarder l’ampleur de la différence. La courbe pour Linux est quasiment linéaire et tend même vers une asymptote à mesure que la complexité augmente. En d’autres termes, l’augmentation du coût est proportionnelle à l’augmentation de la complexité de la tâche et l’apprentissage de nouvelles compétences est immédiatement mis à profit pour des tâches plus ardues. Le coût est proportionnel à la difficulté et l’apprentissage est progressif, ce qui rend les tâches les plus dures plus accessibles. J’aime appeler cela "le juste prix de l’accès à la technologie".

Pour Windows la courbe est très plate au début. La réalisation de tâches modérément complexes ne coûte pas beaucoup plus que la réalisation de tâches triviales. Voilà qui nous amène au fossé de la complexité. C’est l’espace borné par les courbes où Windows l’emporte. Il est plus simple de compléter des tâches de ce niveau de complexité sous Windows que sous Linux. Je suis de l’avis que les gens qui abandonnent Linux sont ceux qui ne parviennent pas à franchir le fossé de la complexité. Que ce soit parce qu’ils n’ont pas le temps ou l’intérêt nécessaire pour atteindre ce niveau supérieur importe peu, le fait est qu’ils n’y parviennent pas.

Je vous invite également à observer cependant que la courbe pour Windows devient presque verticale très rapidement. Plus les besoins et les compétences de quelqu’un augmentent, plus le coût pour atteindre un nouveau pallier sous Windows augmente et ce de plus en plus vite. Vous vous retrouvez rapidement à chercher partout des logiciels parce que les outils qui vous permettent de mener à bien votre tâche ne sont pas facilement accessibles. Le plus souvent ces outils n’existent pas ou sont très coûteux. Même si vous avez le savoir-faire pour créer une solution, les outils nécessaires pour la mettre en œuvre sont souvent très chers. L’opacité relative et la nature monolithique de Windows joue également un rôle ici. Les maigres rapports, les erreurs mystérieuses et les interactions complexes cachées peuvent faire perdre beaucoup de temps pour deviner la source d’un problème, même pour un administrateur système expérimenté comme moi. Souvent, même une fois que la cause du problème est détectée il est fort probable qu’absolument aucun outil ne fera ce que vous désirez et réussir à faire fonctionner tous les outils ensemble présente encore un autre défi en lui-même. Tous ces facteurs alourdissent le coût de la réalisation d’une tâche.

C’est à ce niveau de complexité que Linux l’emporte. Grâce à la libre disponibilité de puissants outils et grâce au partage sans entraves d’informations au sein de la communauté d’utilisateurs de Linux le coût de la réalisation des tâches augmente bien plus lentement. Il est surprenant de voir à quelle vitesse les besoins et les compétences de quelqu’un peuvent atteindre ce niveau où les problèmes sont plus simples à résoudre sous Linux. Pour ceux que je classerais dans la catégorie "Technologiste Typique" il ne faut pas plus de quelques mois pour y parvenir sans connaissance préalable de Linux. J’en ai été témoin. Pour les gens qui ne sont pas aussi mordus de technologie ça peut prendre plus de temps, mais selon toute probabilité ils y parviendront. Pour ceux qui sont vraiment à fond dedans ça peut ne prendre que quelques jours ou semaines.

J’ai récemment eu à modifier ma théorie sur le fossé de la complexité, je vous ferai part de son évolution la semaine prochaine. En attendant j’aimerais savoir ce que vous en pensez. Est-ce que le fossé de la complexité existe vraiment ? Est-ce que mon explication le décrit avec précision ?

Notes

[1] Traduction Framalang : Olivier (+ Daria).




25 (bonnes) raisons de passer à Linux

Adpowers - CC byVous souhaitez convaincre votre hiérarchie, votre direction, voire votre conjoint de migrer vers GNU/Linux ? Rédigé il y a plus de deux ans par le Bellevue Linux Users Group (Seattle), ce petit inventaire vous sera peut-être utile pour fourbir quelques arguments bien sentis[1].

Les 22 trucs cools que l’on peut faire sous Linux mais pas sous Windows ou Mac avaient fait jaser dans les chaumières (comprendre dans les commentaires). En ira-t-il de même cette fois-ci ?

25 raisons de migrer sous Linux

25 Reasons to Convert to Linux

Janvier 2006 – The Linux Information Project
(Traduction Framalang : Don Rico, Daria et Olivier)

Partout dans le monde, des entreprises, des institutions scolaires ou universitaires, des agences gouvernementales et d’autres organisations abandonnent[2] de plus en plus massivement leur système d’exploitation Microsoft Windows et le remplacent par Linux. De la même façon, elles abandonnent des applications propriétaires et commerciales pour des logiciels libres (également connus sous le nom de logiciels open-source). Il existe au moins 25 raisons à ce mouvement, dont nous allons dresser la liste ici.

1. Étant enregistré sous une licence logicielle libre[3], Linux (ainsi que d’autres logiciels libres) peut être obtenu gratuitement. On peut télécharger gratuitement une distribution Linux par Internet et l’on peut l’acquérir sous forme de CD ou de boîte pour une somme modique. On peut installer sa copie du logiciel sur autant de postes qu’on le souhaite et ce sans aucune restriction. Voilà qui constitue une immense différence avec Microsoft Windows, qui coûte au bas mot 100€ par ordinateur.

2. Linux est aussi un logiciel libre dans le sens où quiconque peut le modifier, y compris son code source, comme bon lui semble. Si les versions modifiées ne sont pas redistribuées (par exemple données gratuitement ou commercialisées auprès du grand public), elles peuvent rester secrètes. La différence est là aussi énorme avec Microsoft Windows, qu’il est généralement interdit de modifier. Le code source constitue la version originale d’un programme tel qu’il a été écrit par un programmeur à l’aide d’un langage de programmation, avant d’être compilé de sorte que ses instructions puissent être comprises directement par le processeur d’un ordinateur ; la plupart du temps, il faut accéder au code source pour apporter des modifications à un programme. La possibilité de bidouiller et de modifier en toute liberté le code source, et de le faire sans être tenu de dévoiler ses modifications, a été un élément de choix très important pour de nombreuses organisations d’envergure[4].

3. Un support de qualité pour Linux est disponible gratuitement sur Internet, notamment par le biais de groupes de diffusion ou de forums. Certains considèrent que ce support est au moins aussi performant que celui fourni pour des systèmes propriétaires (c’est-à-dire commerciaux) moyennant finance. On peut aussi obtenir un support payant pour Linux si on le désire. Parmi les types de support dont on peut avoir besoin pour un système d’exploitation, on peut trouver l’aide à la personnalisation, l’assistance pour l’installation de nouveaux programmes, l’installation de mises à jour pour se préserver des nouvelles menaces de sécurité ou corriger les bogues récemment découverts (par exemple des failles). Par chance, ces deux derniers cas de figure sont relativement peu fréquents pour un système Linux.

4. Le risque que le support pour Linux soit interrompu à l’avenir, en raison d’un abandon prévu de son développement ou toute autre raison, est très faible, car son code source sera toujours disponible pour qui le souhaite, y compris ceux qui proposent un support gratuit via Internet et les entreprises qui le fournissent contre paiement. À l’opposé, avec Microsoft Windows et d’autres logiciels propriétaires pour lesquels le code source est la plupart du temps gardé secret, il devient difficile d’obtenir de l’assistance (d’un point de vue à la fois technique et légal) si le développeur décide de ne plus la fournir (par exemple pour forcer les utilisateurs à payer la mise à jour vers une version plus récente).

5. Il n’est pas à craindre que Linux devienne un jour complètement obsolète, de façon planifiée ou non, pour la simple raison que l’architecture UNIX sur laquelle il est basé est mise à l’épreuve et fignolée depuis plus de trente-cinq ans et qu’elle s’est révélée extrêmement performante, robuste et sûre. Son amélioration se poursuit à une cadence accrue, mais les nouvelles versions restent quoi qu’il arrive compatibles avec l’architecture UNIX qui constitue leurs fondations.

6. Les utilisateurs de Linux ne sont jamais poussés vers des mises à jour forcées[5], car les versions antérieures bénéficient toujours d’un support (par exemple, le développement de nouveaux correctifs de sécurité et de pilotes pour le matériel) et parce que les nouvelles versions, si on souhaite les acquérir, sont disponibles gratuitement (comme la plupart des logiciels libres) et offrent par essence une compatibilité élevée avec les précédentes. Les développeurs de logiciels propriétaires, en revanche, sont incités par de fortes motivations financières à pratiquer l’obsolescence planifiée, de façon à pousser les utilisateurs de versions antérieures à dépenser de l’argent pour acheter ou louer les nouvelles versions.

7. Lorsqu’un utilisateur décide de passer à une version plus récente de Linux, il ne devra payer aucun frais de licence et n’aura rien à dépenser en logiciels s’il choisit une distribution (version) gratuite. En outre, les conversions ou modifications d’un programme donné, l’acquisition de nouveau matériel ou autres dépenses induites par la mise à jour sont également minimes, grâce à la compatibilité avec les versions antérieures.

8. Aucun équipement onéreux n’est requis pour passer d’une version de Linux à une autre. Dans une entreprise équipée de centaines ou de milliers d’ordinateurs, il peut être nécessaire d’employer un équipe entière à temps plein pour s’assurer que tous les postes utilisés sont en régularité avec les termes complexes des CLUF (contrat de licence de l’utilisateur final) de Microsoft Windows, Microsoft Office et autres logiciels propriétaires. Qui plus est, pour les utilisateurs de Linux, il ne plane aucune menace d’audit par la BSA (Business Software Alliance)[6], pouvant déboucher sur des amendes lourdes pour des infractions mineures aux licences.

9. Linux offre une sécurité supérieure, à savoir un taux très faible d’infection par virus, chevaux de Troie, vers, espiogiciels et autres programmes malveillants, et ce parce que le système UNIX et tous ses dérivés (et parmi eux Linux) ont été conçus depuis leurs fondations en prenant en compte la sécurité, au lieu d’y ajouter après coup des mesurettes de sécurité. Par exemple, les utilisateurs ne se connectent pas à leur système en tant qu’utilisateur root (c’est-à-dire en tant qu’administrateur), protégeant ainsi les fichiers clés du système même en cas d’intrusion par un programme malveillant. Un puissant pare-feu est également intégré dans les distributions majeures et activé par défaut. Autre facteur important : l’accès libre au code source, qui permet à des milliers de personnes de par le monde d’y rechercher des failles de sécurité et de les combler[7].

10. Linux est très résistant aux crashes système et nécessite rarement un redémarrage. C’est là un atout essentiel pour les grosses organisations, pour lesquelles quelques minutes de panne seulement peuvent se traduire par des pertes financières substantielles. Linux a été intégralement bâti pour être un système d’exploitation extrêmement robuste et stable, bénéficiant de l’expérience acquise en ce domaine en plus de 35 ans de développement des systèmes d’exploitation de base UNIX.

11. Bien que les applications pour Linux ne soient pas aussi nombreuses et variées que celles disponibles pour les systèmes d’exploitation Microsoft Windows, il en existe déjà une vaste palette, et le choix continue de croître rapidement, car de plus en plus de développeurs conçoivent des programmes pour Linux. La plupart des applications Linux sont aussi des logiciels libres et gratuits (y compris la majorité des plus populaires) et nombre d’entre elles offrent des performances égales ou supérieures aux applications équivalentes sous MS Windows. D’ailleurs, les utilisateurs se rendent souvent compte que les applications dont ils sont besoin sont disponibles gratuitement sur Internet et qu’il ne leur est plus nécessaire d’acheter de logiciels propriétaires commerciaux.

12. Il existe un vaste choix de distributions Linux (plusieurs centaines), chacune possédant ses caractéristiques propres, mais d’ordre général toutes compatibles les unes avec les autres, ce qui permet aux utilisateurs de choisir les versions les mieux adaptées à leurs besoins. Cela signifie aussi que si une société proposant une distribution Linux venait à cesser ses activités, il resterait toujours un grand nombre de solutions de remplacement. Qui plus est, cette abondance de distributions favorise une émulation saine entre elles, ce qui contribue à l’amélioration constante de la qualité et des performances de Linux. Si l’on peut se sentir perdu face à une telle abondance, il est cependant difficile de se tromper en choisissant une des distributions les plus populaires, telles que RedHat ou SuSE.

13. Linux offre une grande souplesse de configuration : il est très facile de le personnaliser abondamment, et ce sans avoir à en modifier le code source. Par exemple, rien n’est plus simple que de configurer Linux au cours de l’installation d’une distribution afin de l’optimiser pour une utilisation en tant que poste de travail, sur un ordinateur de bureau, sur un ordinateur portable, un serveur Web, un serveur de base de données ou un routeur. De la même manière, l’apparence et le comportement du bureau, y compris les icônes et les menus, peuvent être configurés presque à l’infini, selon les goûts ou les besoins de l’utilisateur. On peut même lui donner l’apparence de Microsoft Windows. Si cela ne suffisait pas, la possibilité d’accéder librement au code source, de le modifier et de le recompiler, permet une souplesse de configuration quasi illimitée.

14. Linux et d’autres logiciels libres utilisent des formats de fichiers appelés formats ouverts. Parmi eux, il existe des formats pour le traitement de texte, les feuilles de calcul et d’autres types de fichiers conformes aux standards collectifs, lesquels peuvent être utilisés par tout développeur de logiciel pour créer des programmes compatibles, contrairement aux formats fermés généralement pris en charge par les logiciels propriétaires. Cela a l’avantage d’éliminer le problème de la dépendance aux standards propriétaires, laquelle engendre des difficultés et des coûts supplémentaires pour passer à un autre logiciel. Grâce à eux, l’utilisateur a donc la maîtrise complète de ses données, particulièrement dans le cas de figure où le développeur ayant créé le logiciel cesserait son activité ou interromprait le support de ses anciens logiciels.

15. De manière générale, Linux est plus rapide que ses concurrents à configuration matérielle égale, et ce grâce à une optimisation accrue de son code source, notamment en supprimant les lignes de code superflues.

16. Linux offre une grande compatibilté avec les autres systèmes d’exploitation. Par exemple, il peut lire, écrire, copier, effacer et manipuler les données présentes sur les partitions Windows d’un même disque dur (DD), se comporter comme un serveur Windows pour un réseau comprenant des postes Windows, formater des disques devant être utilisés sous Windows et même, si nécessaire, faire fonctionner des programmes Windows directement. À l’inverse, les systèmes d’exploitation Microsoft Windows sont incapables d’accéder aux partitions des DD contenant d’autres OS, ou de formater un disque pour d’autres systèmes d’exploitation, etc.

17. Linux et les logiciels libres respectent de fortes exigences éthiques, en grande partie en conséquence du caractère très ouvert de leur processus de développement et de la disponibilité de leur code source. Linux n’a jamais été condamné pour violation d’une loi anti-trust ni aucune autre infraction et n’a jamais dû payer d’amende pour la reproduction illégale d’une technologie développée par une autre entreprise. Les lois anti-trust découlent de la politique gouvernementale visant à réguler ou à briser les situations monopolistiques de façon à favoriser la libre concurrence et récolter les dividendes qu’une telle concurrence peut être bénéfique à l’économie et à la société dans son ensemble.

18. Linux réduit la nécessité de mettre à niveau ou de remplacer son matériel pour passer à une version plus récente, et ce parce que son code est aussi compact qu’efficace, permettant ainsi un fonctionnement performant sur des ordinateurs anciens trop peu puissants pour les dernières versions de Microsoft Windows.

19. Linux fonctionne sur une grande variété de plateformes (c’est-à-dire de processeurs et de types de systèmes), au lieu d’être limité aux processeurs et aux ordinateurs compatibles Intel. Il s’adapte parfaitement et convient à une utilisation sur une vaste palette d’équipements, allant des super-calculateurs aux robots industriels, du matériel médical électronique aux téléphones cellulaires (Linux peut même fonctionner sur une montre de poignet).

20. Linux est un choix plus judicieux pour une utilisation au sein des institutions scolaires, et ce pour un certain nombre de raisons. En particulier, le fait que les distributions Linux ne recèlent aucun secret (tout le contraire des logiciels propriétaires), ce qui donne aux étudiants la possibilié d’étudier comment fonctionnent vraiment les ordinateurs au lieu de se contenter d’apprendre à s’en servir. De nombreux enseignants et formateurs sont convaincus qu’il est bien plus important pour d’étudier les fondamentaux de l’informatique que de se former à l’utilisation d’applications spécifiques (telles que Microsoft Word ou Microsoft PowerPoint). Pourquoi ? Parce que les fondamentaux des sciences informatiques seront encore valables dans de nombreuses années, alors que les programmes à usage spécifique, particulièrment les logiciels propriétaires non conformes au standards collectifs, sont soumis à des modifications permanentes et que la plupart risquent de devenir obsolètes dans quelques années[8].

21. Pour les agences gouvernementales, Linux et les logiciels libres permettent la transparence des données, car ils les stockent sous des formats conformes aux standards collectifs. Cela s’oppose aux formats fermés propriétaires employés par les logiciels commerciaux. Cette transparence est primordiale pour le bon fonctionnement et la pérénité d’une démocratie efficace. Conserver des données non confidentielles sous des formats conformes aux standards permet à quiconque le souhaite d’y accéder sans devoir acquérir de coûteux logiciels propriétaires. En outre, stocker des données secrètes et confidentielles sous des formats conformes aux standards est généralement considéré comme plus sûr que de les conserver sous des formats propriétaires.

22. Avec Linux et les logiciels libres, l’existence de portes dérobées n’est quasiment pas à craindre, en grande partie parce que leur code source peut être examiné. Une porte dérobée est une méthode frauduleuse employée pour obtenir à distance l’accès à un ordinateur. De nombreux gouvernements et entreprises craignent (souvent à juste titre) que des portes dérobées aient été introduites dans des logiciels propriétaires, permettant ainsi au développeur du logiciel et aux agences d’autres gouvernements de fouiner dans leurs données les plus confidentielles.

23. Utiliser et promouvoir Linux contribue à entretenir une diversité saine et une concurrence accrue dans l’industrie des logiciels. Cette concurrence encourage les avancées technologiques, l’amélioration des performances et la baisse des coûts des logiciels libres comme des logiciels propriétaires. Les sciences économiques et des centaines d’années d’expérience empirique montrent clairement que les monopoles ont peu de raisons d’innover, ont tendance à fabriquer des produits de mauvaise qualité, à pratiquer des prix abusifs et qu’ils tendent à corrompre le système politique.

24. Linux et les logiciels libres, en plus d’avoir rattrapé – et dans certains cas surpassé – leurs équivalents propriétaires, se développent à une cadence plus soutenue[9]. Cette tendance ira croissant à mesure que la demande pour ces logiciels augmentera et que particuliers et organisations s’impliqueront de façon plus active dans leur développement.

25. Linux et les logiciels libres offrent la possibilité aux utilisateurs de contribuer à l’avancée de la technologie logicielle, car le code source est accessible à tous et peut être étudié, amélioré, enrichi et redistribué. C’est une démarche fort répandue et l’exemple le plus connu de contribution par une entreprise est celui d’IBM. En plus d’apporter leur pierre à l’édifice de la communauté du logiciel et de constituer un geste bénéfique en soi, ces contributions peuvent avoir des retombées très positives sur l’image de l’entreprise.

26. Il existe en réalité plus de 25 raisons pour que les entreprises du monde entier se convertissent à Linux et aux logiciels libres. La vingt-sixième pourrait être, par exemple, qu’avec Linux, contrairement aux systèmes d’exploitation Microsoft Windows, il est inutile de défragmenter les DD. La fragmentation, la dispersion des données à des emplacements non contigus sur les disques durs, peut affecter l’efficacité du stockage des données et ralentir le fonctionnement de l’ordinateur. Défragmenter n’a rien de difficile, mais devoir le faire régulièrement peut se révéler pénible, alors qu’il s’agit d’une opération inutile sur un système d’exploitation bien conçu.

Il existe cependant plusieurs cas de figure dans lesquels les entreprises ou d’autres organisations pourraient au contraire profiter d’abandonner leurs systèmes d’exploitation Linux pour passer à Microsoft Windows :

1. Une organisation qui réduirait ses effectifs et possèderait déjà des licences Microsoft Windows valides mais non utilisées devrait pouvoir réduire ses coûts en personnel en remplaçant ses experts Linux par des administrateurs Windows, ces derniers pouvant être engagés pour des salaires bien inférieurs à ceux des administrateurs Linux.

2. Si Microsoft proposait à une organisation une offre incitative à un coût extrêmement réduit, comprenant des licences (et des mises à jour) à long terme et à prix minime, de lui fournir du matériel neuf, des formations et du support gratuits, cette proposition pourrait se révéler des plus alléchantes. Cette proposition pourrait d’ailleurs profiter aux deux parties, grâce à la forte valeur publicitaire que pourrait récolter Microsoft si une entreprise migrait son parc informatique de Linux vers Windows.

Notes

[1] Crédit photo : Adpowers (Creative Commons By)

[2] Pour des liens vers des articles consacrés à de récentes conversions à Linux, voir Linux Success Stories, The Linux Information Project, Décembre 2005.

[3] Linux et la plupart des logiciels libres sont enregistrés sous la licence GNU General Public License (GPL). Cette licence, qui connaît un immense succès, a été spécialement conçue pour offrir autant de liberté que possible aux utilisateurs, tant du point de vue financier que celui de la souplesse d’utilisation. La GPL permet à tous d’accéder librement au code source des logiciels enregistrés sous cette licence dans le but de l’étudier, de l’utiliser, de le modifier, de l’enrichir et de le redistribuer à l’envi, en contrepartie d’un minimum de conditions exigeant qu’une copie du texte de la GPL soit incluse dans le logiciel et que le code source soit toujours accessible afin de permettre la redistribution des version modifiées. Il convient de préciser qu’il existe aussi des versions compilées de Linux payantes, ce qui est également permis par la GPL. Toutefois, ces distributions ne sont pas forcément meilleures que les versions gratuites. Les entreprises et autres organisations ont la possibilité de choisir entre une version gratuite ou payante et, s’ils optent pour la première, un grand choix de distributions s’offre à eux.

[4] C’est là une des raisons majeures pour laquelle Google a choisi Linux, d’après des sources internes.

[5] Les mises à jour forcées se produisent quand le développeur cesse le support d’une version précédente de son logiciel et que les patches de sécurité protégeant le système des virus et autres programmes malveillants les plus récents ne sont plus disponibles et que les pilotes pour le nouveau matériel ne sont plus développés. Par conséquent, de nombreux utilisateurs n’ont d’autre choix que d’acheter ou de louer la version la plus récente du logiciel. Cela peut se révéler très coûteux à cause des frais de licence et des autres prestations à régler au développeur ou au revendeur. S’ajoutent à ces coûts la nécessité fréquente de renouveler son matériel pour faire fonctionner correctement ces nouvelles versions du logiciel au code hypertrophié. En outre, installer le logiciel et résoudre les problèmes induits par cette mise à jour peut prendre beaucoup de temps aux administrateurs système et perturber la bonne marche de l’entreprise.

[6] La BSA est une organisation internationale très controversée créée à l’initiative des plus grands développeurs de logiciels propriétaires. Les CLUF obligatoires qui accompagnent ces logiciels donnent à la BSA le pouvoir de procéder à des audits surprise chez les utilisateurs et à leur imposer des amendes colossales en cas d’infraction aux licences.

[7] C’est le même principe qui est utilisé par le chiffrement asymétrique, qui est la forme de chiffrement de données la plus sûre. Et c’est à l’opposé des pratiques des éditeurs de logiciels propriétaires, qui tentent de garder le secret sur leur code source afin d’en dissimuler les failles de sécurité.

[8] Pour en savoir davantage sur les raisons qui font de Linux le choix idéal pour les institutions scolaires, se reporter à Linux and Education, The Linux Information Project, Mars 2004.

[9] On peut citer de nombreux exemples. Par exemple, Apache est le système de serveur le plus utilisé, qui héberge bien plus de sites Web que ses concurrents propriétaires. De la même façon, tout le monde s’accorde à reconnaître que le navigateur libre Firefox est bien plus performant (en termes de sécurité, d’ergonomie, etc.) que l’Internet Explorer de Microsoft. Internet Explorer a beau être distribué gratuitement, ce n’est pas un logiciel libre, parce que son code source n’est pas ouvert et qu’il est interdit de le modifier.