Informatique à l’école : Tout ne va pas très bien Madame la Marquise

La France est-elle numériquement sous-éduquée ? Et si oui doit-on faire quelque chose pour modifier la donne en particulier à l’école ? Ce n’est pas tout à fait ainsi que Jean-Pierre Archambault[1] et Maurice Nivat exposent la problématique dans l’article que nous reproduisons ci-dessous mais cela y ressemble un peu.

Que l’on soit ou non d’accord avec leur exposé des faits et leurs propositions, cela mérite selon nous au moins un débat. Or, de la même manière que la présence de Microsoft à l’école n’est pas discutée, la présence d’un éventuelle discipline informatique à part entière n’est pas à l’ordre du jour (quand bien même uniquement en lycée et uniquement dans les sections scientifiques comme il est pragmatiquement suggéré dans un premier temps par nos auteurs).

Et si ce n’est pas à l’ordre du jour c’est que notre vénérable institution scolaire a fait le choix de l’informatique en tant qu’outil sur l’informatique en tant qu’objet d’enseignement en arguant que tout va très bien Madame la Marquise puisqu’existe le Brevet Informatique et Internet (B2i) décliné et distillé de l’école élémentaire jusqu’au lycée en passant par le collège.

Le problème c’est qu’on se retrouve en face d’un double échec. Le premier échec c’est que l’on passe alors à côté d’une certaine culture informatique tout en ne formant pas les développeurs de demain dont nous aurons nécessairement besoin (sauf à se mettre à tout externaliser en Asie ou ailleurs). Développeurs en général mais aussi, ça coule de source, développeurs de logiciels libres en particulier (dont on ne s’étonnera pas de trouver trace dans leur projet de programme pour les sections scientifiques des lycées).

Le second échec, et ceci n’engage que moi et ma petite expérience, c’est que le B2i est globalement une mascarade qui ne veut pas dire son nom. Des enseignants juqu’aux directions académique en passant par les chefs d’établissement, tout le monde a intérêt à dire que le B2i fonctionne dans une logique de remontée hypocrite et enjolivée des informations dont l’Éducation Nationale a le secret. Mais dans la réalité, j’en mets ma main à couper, on est loin des objectifs et on se retrouve le plus souvent avec une parodie de B2i, les élèves de plus en plus sensibilisés hors de l’école commencent d’ailleurs à s’en rendre bien compte. Vous aurez beau me sortir la dizaine d’établissements où les B2i est une réelle réussite collective (exemples toujours mis en exergue par l’institution), vous ne m’ôterez pas de l’idée que depuis le temps qu’on parle du B2i, c’est-à-dire 8 ans, ça ne marche pas bien voire pas du tout (sauf parfois en collège là où les enseignants de technologie organisent quasiment en solitaire le B2i de par la proximité des compétences à valider avec leur propres programmes d’enseignement mais alors ça ne valait pas la peine dépenser autant d’énergie pour créer le B2i). Ne reste donc-t-il plus que les blogs de profs d’en bas pour dire que le roi B2i est nu ?

Il n’est pas question de nier les problèmes liés par exemple aux emplois du temps souvent surchargés des élèves que la création d’une nouvelle discipline ne risque pas d’améliorer. Simplement il faut savoir ce que l’on veut. D’accord pour que les hommes politiques nous fassent de beaux discours sur la fracture numérique[2], les nouvelles générations à l’ère du numérique, etc. Mais alors il faudrait joindre réellement les actes à la parole en cessant quelque peu de se voiler la face.

Ulaanaatar Mongolia - OLPC - CC-By

Pour un enseignement de l’informatique et des TIC

Maurice Nivat et Jean-Pierre Archambault
1er septembre 2008t
URL d’origine sur le site de l’EPI

Dans sa leçon inaugurale au Collège de France, Gérard Berry indiquait que « tout le monde le voit et le dit, notre civilisation est en train de devenir numérique », mais que « les fondements de la locution "monde numérique" restent largement ignorés du public ». Et Il ajoutait que « ce n’est pas étonnant car l’information synthétique est encore pauvre dans ce domaine qui ne repose pas sur des bases enseignées classiquement ».[3]

L’informatique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques.

C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes.

L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. En effet, s’il fut abondamment question de copie privée, de propriété intellectuelle… ce fut sur fond d’interopérabilité, de DRM, de code source.

Il y a de plus en plus d’informatique dans la société, mais les entreprises ont du mal à recruter les informaticiens qualifiés dont elles ont besoin, et cela vaut pour l’ensemble des pays développés. Le Syntec se plaint du manque d’attractivité chez les jeunes pour les métiers de l’informatique. Gilles Dowek, professeur d’informatique à l’École Polytechnique, fait le constat du faible niveau en informatique des ingénieurs généralistes en France, et de « nos étudiants, comparés à leurs camarades indiens et chinois, bien entendu, mais aussi européens »[4]. Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet citent, parmi les obstacles qui freinent l’adaptation de notre pays à cette économie nouvelle et constituent un handicap majeur pour l’innovation, « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ». Ils insistent sur le fait que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Nous sommes manifestement en présence d’un enjeu de culture générale, correspondant aux missions traditionnelles de l’École, former « l’homme, le citoyen et le travailleur ». Il faut donc se tourner résolument vers le système éducatif.

Si un consensus s’est dégagé au fil des ans sur la nécessité de donner une culture informatique aux élèves, des divergences sérieuses subsistent quant aux modalités pour y parvenir. Pas de problème pour considérer que l’ordinateur est un outil pédagogique aux vertus et potentialités reconnues, auquel il faut recourir avec pertinence, et un outil de travail personnel et collectif de la communauté scolaire. Ou pour intégrer les évolutions engendrées dans les disciplines par l’informatique qui modifie pour une part leur « essence », à savoir leurs objets et leurs méthodes.

En revanche, à aucun moment les élèves ne rencontrent dans leur formation générale une approche conceptuelle et disciplinaire de l’informatique, sous la forme d’un enseignement en tant que tel. Les conséquences en sont pour le moins fort dommageables.

Il y a eu dans les années quatre-vingts une option dans les lycées. Elle a été supprimée par deux fois pour de mauvaises raisons. En effet, deux approches pédagogiques s’affrontent. Pour les uns, les apprentissages doivent se faire exclusivement à travers les utilisations de l’outil dans les disciplines existantes. Une discipline informatique serait inutile. Ainsi, point besoin de savoir quoi que ce soit, ou peu s’en faut, pour se servir de logiciels. Étrange propos. Depuis que l’« homo faber » fabrique des outils et s’en sert, une bonne intelligence de l’outil (matériel ou conceptuel) est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! Autre argument avancé, celui selon lequel on ne va quand même pas faire de tous les enfants des informaticiens ! Comme si l’enseignement des mathématiques ou du français, dont tout le monde admet la nécessité, avait pour but de faire de tous les élèves des mathématiciens ou des écrivains.

Pour les autres, dont nous sommes, lorsqu’un champ de la connaissance est partout, il doit être quelque part en particulier dans la culture générale scolaire, pour tous les élèves, sous la forme d’une discipline, avec ses professeurs, ses contenus, ses horaires. C’est la solution la plus efficace que l’on ait trouvée, la plus rationnelle, et la plus économique. C’est le cas par exemple des mathématiques, outil conceptuel au service de l’ensemble des disciplines, omniprésentes dans la société et, à ce titre, objet d’enseignement pour elles-mêmes. Il doit en aller à l’identique pour l’informatique. La culture scolaire est ainsi faite que des disciplines apparaissent en fonction de nouveaux savoirs et des besoins de la société, d’autres disparaissent, toutes évoluent.

« Objet » et « outil » d’enseignement, loin de s’opposer, sont complémentaires et se renforcent mutuellement. L’expérience montre que l’approche exclusive par l’utilisation de l’outil ne fonctionne pas, aussi bien dans l’enseignement scolaire que dans les classes préparatoires aux grandes écoles. Or, malheureusement, le B2i (Brevet informatique et internet) relève de cette démarche : les acquisitions doivent se faire dans des contributions multiples et partielles des disciplines, à partir de leurs points de vue, sans le fil conducteur de la cohérence didactique des outils et notions informatiques. Passe encore à l’école primaire où, et c’est fondamental, il y a un enseignant unique qui maîtrise donc ses progressions pédagogiques et leurs cohérences, l’organisation du temps scolaire et qui se coordonne facilement avec lui-même ! Mais ce n’est pas le cas au collège ou au lycée : là résident pour une bonne part les difficultés constatées de mise en oeuvre du B2i. On conviendra effectivement du caractère ardu de la tâche au plan de l’organisation concrète. Ainsi, un rapport de l’IGEN soulignait-il que « si différentes circulaires précisaient les compétences devant être validées, elles laissaient néanmoins dans l’ombre de l’autonomie des établissements les modalités concrètes de mise en oeuvre »[5]. Pour se faire une idée de la difficulté de l’exercice, il suffit d’imaginer l’apprentissage du passé composé et du subjonctif, du pluriel et de la subordonnée relative qui serait confié à d’autres disciplines que le français, au gré de leurs besoins propres (de leur « bon vouloir »), pour la simple raison que l’enseignement s’y fait en français.

De plus, comment organiser des apprentissages progressifs sur la durée lorsque les compétences recherchées sont formulées de manière très générale (par exemple : « maîtriser les fonctions de base » ou « effectuer une recherche simple »), éventuellement répétitives à l’identique d’un cycle à l’autre, et que les contenus scientifiques, savoirs et savoir-faire précis permettant de les acquérir, ne sont pas explicités. Sans oublier des conditions matérielles, accès, maintenance, gestion des parcs de machines… ne répondant pas forcément aux besoins. S’ajoute une formation des enseignants insuffisante. On n’envisage pas de faire enseigner la littérature française, ou les sciences de la vie, ou l’histoire par quelqu’un dont les connaissances ne dépasseraient pas celles qu’on peut acquérir en quelques semaines ou mois de stage. C’est pourtant le cas en ce qui concerne l’informatique et les technologies de l’information et de la communication. Certes, cela rend d’autant plus méritoires les efforts de tous les professeurs d’autres disciplines qui, en plus de leur matière principale, enseignent de l’informatique, souvent avec enthousiasme. Mais ils ne sont qu’une minorité. La boucle est bouclée : on retombe sur l’absence d’une discipline scientifique et technique avec des connaissances spécifiques et des méthodes identifiées et nommées.

L’association EPI (Enseignement public et informatique) a créé au sein de l’ASTI (fédération des Associations françaises des Sciences et Technologies de l’Information) un groupe de travail, de réflexion et d’action, sur l’enseignement de l’informatique et des TIC[6]. Ce groupe a élaboré un projet de programme pour les sections scientifiques des lycées[7]. Selon l’EPI et l’ASTI, qui ont notamment été reçues à l’Élysée, à Matignon et au Ministère de l’Éducation nationale, les réponses apportées par le système éducatif en matière de culture générale informatique de l’« honnête homme du XXIe siècle » ne sont pas à la hauteur des enjeux et des exigences de la société de l’immatériel. Enseigner l’informatique est une nécessité, par ailleurs de nature à lutter contre la crise des vocations scientifiques. Il serait temps qu’en particulier cesse ce paradoxe qui voit les futurs scientifiques, les générations à venir d’ingénieurs de la société de la connaissance, ne pas rencontrer dans leur scolarité l’informatique en tant que telle : théorie de l’information, algorithmique, programmation, réseaux… et autres notions et concepts, tous indispensables à une culture informatique et TIC permettant des usages raisonnés.

Maurice Nivat
Professeur émérite à l’Université Paris 7
Membre correspondant de l’Académie des Sciences

Jean-Pierre Archambault
Professeur agrégé de mathématiques
Président de l’association Enseignement Public et Informatique (EPI)

Notes

[1] Á plus d’un an d’intervalle, c’est le deuxième article du Framablog sur le sujet. Comme quoi Jean-Pierre Archambault est persévérant et nous aussi !

[2] Crédit photo : Ulaanbaatar, Mongolia par OLPC sous licence Creative Commons BY.

[3] http://www.college-de-france.fr/default/EN/all/inn_tec/p1200929441219.htm

[4] « Quelle informatique enseigner au lycée ? », intervention à l’Académie des Sciences du 15 mars 2005 http://www.lix.polytechnique.fr/~dowek/lycee.html

[5] http://lesrapports.ladocumentationfrancaise.fr/BRP/074000125/0000.pdf en page 17

[6] http://www.epi.asso.fr/blocnote/blocsom.htm

[7] http://asti.ibisc.univ-evry.fr/groupe-itic/Programme-04-03-2008.pdf




OpenStreetMap : Quand on partait sur les chemins…

C’est Raphaël Jacquot qui m’a fait découvrir l’extraordinaire projet OpenStreetMap il y a un an aux Rencontres Mondiales du Logiciel Libre d’Amiens.

Le voici arpentant les rues de sa bonne ville de Grenoble dans ce reportage de France 3 réalisé en octobre 2007.

—> La vidéo au format webm




Largage de liens en vrac #7

Marcodede - CC byQuelques petites news logicielles qui ont retenu mon attention cette semaine. Rappel : si vous voulez toute la série, c’est ici[1].

Cet article fait partie de la série Softs en Vrac, sorte d’antichambre de l’annuaire Framasoft.

  • OpenGoo : Projet très ambitieux, puisqu’il s’agit d’une suite bureautique complète en ligne (traitement de texte, tableur…). Un Google Docs ou Zoho mais en version libre que l’on peut installer sur son propre serveur (histoire de garder aussi ses fichiers en sécurité). Il est fort opportun d’occuper aussi ce terrain-là histoire de ne pas laisser s’imposer lentement mais sûrement une situation Google everywhere.
  • Zimplit : Un exemple de ce que seront peut-être nos futurs CMS : pas d’interface admin, pas de php/mysql (pas de base de données), édition ultra simple à même la page, ajax à tous les étages. C’est assez impressionnant. Petit bémol avec la présence d’une licence commerciale dont le principal intérêt serait d’ôter toute référence à Zilmplit.
  • Indywiki : Une manière non seulement originale mais à l’usage fort pratique de lire, rechercher et se promener sur Wikipédia. Dans plusieurs fenêtre différentes on voit ainsi textes, photos, liens, etc …. se rapportant à votre recherche, après analyse des liens sortants et entrants de l’article en cours.
  • Circular Application Menu (CAM) : Comme son nom l’indique un spectaculaire menu circulaire pour votre bureau GNOME. Entre le magnifique gadget et la réelle utilité, mon cœur chavire.
  • Jubler : Une application Java pour faire du sous-titrage vidéo. Encore jeune mais à suivre d’autant plus que le libre est assez peu présent dans ce domaine.
  • Plex : Pour Mac OS X, un media center libre (basé sur XBMC) qui fera la joie de votre télécommande et viendra avantageusement remplacer Apple Front Row.
  • Sweetcron : Un CMS, pour l’instant en état de buzz, spécialisé dans le lifestreaming c’est-à-dire permettant d’agréger tous vos fils RSS, toutes vos photos Flickr, vos liens delicious, vos vidéos YouTube, votre profil Facebook et que sais-je encore. Un peu comme Netvibes mais chez vous.
  • How-To: Install Ubuntu Linux With No Optical Drive : Si vous êtes fatigué de graver des CD pour installer Ubuntu, voici comment faire pour s’en passer et n’utiliser qu’une clé USB. Pratique lorsque l’on passe chez sa belle-mère et qu’on souhaite lui faire voir un peu de liberté.
  • Code Reuse in Google Chrome Browser : Instructif petit passage en revue des nombreux petits bouts de code utilisés par Google pour son nouveau navigateur. Comme il est rappelé dans l’article : "good coders code, great reuse".
  • VRMS : Pour ceux, comme Stallman (d’où l’hommage dans le nom), qui recherchent la liberté absolue sur leur ordinateur. Un petit script qui va chercher vos paquets qui ne respectent pas la liberté au sens du Contrat Social Debian. Pour Debian donc et ses dérivés comme Ubuntu.

Notes

[1] Crédit photo : Marcodede (Creative Commons By)




Un bon anniversaire au projet GNU !

Le logiciel libre ne serait pas devenu ce qu’il est aujourd’hui sans le projet GNU.

C’est pourquoi nous nous associons à Stephen Fry[1], grande célébrité outre-Manche, pour lui souhaiter un joyeux vingt-cinquième anniversaire[2].

—> La vidéo au format webm

Au train où vont les choses le prochain quart de siècle promet d’être tout aussi passionnant…

Notes

[1] Au delà de sa notoriété le choix de Stephen Fry est tout sauf un hasard tant il dit souvent tout le bien qu’il pense du logiciel libre sur son blog ou dans les colonnes du Guardian où il tient chronique.

[2] Vidéo sous licence Creative Commons BY-ND.




La Framakey fait sa rentrée

La Framakey fait elle aussi sa rentrée, et comme tout élève, elle grandit et murit.

Ainsi, la taille du pack est aujourd’hui plutôt destinée aux clés de 1Go (5 à 10€ dans toutes les bonnes crémeries), mais pour ce poids là, vous trouverez non plus 6 mais 35 logiciels !

OpenOffice.org et Firefox sont bien entendu de la partie, mais aussi Gimp (retouche photo), Inkscape (dessin vectoriel), InfraRecorder (gravure de CD/DVD), Audacity (manipulation sonore), SumatraPDF (visualisation de PDF) ou MoneyManagerEx (comptabilité) et bien d’autres (jeux, utilitaires, P2P, outils d’accessibilité, etc).

À découvrir et télécharger depuis http://www.framakey.org/Pack/PackFull

Cette version ouvre aussi la voie vers la Framakey 2.0, prévue pour la fin de l’année (enfin, si les moyens sont là !) qui proposera (qui a dit enfin ?) un outil simple pour choisir vous-même les logiciels que vous souhaitez avoir dans votre clé, sans passer par un navigateur web.

En moins de 5 clics, vous pourrez installer, légalement et gratuitement, plusieurs centaines de logiciels d’un seul coup, mais aussi des applications web prêtes à l’emploi (par exemple Dotclear, WordPress, Drupal, Spip, Joomla ou Mediawiki), ainsi que des contenus libres (video, musique, textes…).

« La Framakey, c’est une arme de diffusion massive de contenus et logiciels libres. » C’est ainsi que s’amuse parfois à la qualifier son principal pygmalion Pierre-Yves Gosset, à qui nous devons cette présentation vidéo[1] qui donne plus détails sur tous ces changements présents et à venir.

Téléchargement de la vidéo au format AVI (30 Mo)

Notes

[1] Vidéo réalisée avec les moyens du bord, mais uniquement à base de logiciels libres.




10 différences fondamentales entre Linux et Windows

Ce n’est pas la première fois que le Framablog verse dans les différences Windows/Linux.

On croit avoir déjà tout dit. Et pourtant on arrive encore (selon nous) à trouver des articles apportant un éclairage si ce n’est nouveau en tout cas bien construit et argumenté.

10 différences fondamentales entre Linux et Windows

10 fundamental differences between Linux and Windows

Jack Wallen – 26 août 2008 – TechRepublic.com
(Traduction Framalang : Yonnel et Daria)

Cela fait maintenant plus de 10 ans que je suis dans la communauté Linux. Depuis le tout début, je sais qu’il y a des différences basiques entre Linux et Windows qui les distinguera toujours. Cela ne veut pas dire, pas le moins du monde, que l’un est meilleur que l’autre. Cela veut dire qu’ils sont fondamentalement différents. Beaucoup, selon la perspective d’un système d’exploitation ou de l’autre, ne saisissent pas vraiment les différences entre ces deux moteurs. J’ai donc décidé qu’il pourrait être bien utile pour le public de faire la liste des différences primaires entre Linux et Windows.

1. Accès total vs pas d’accès

L’accès au code source est probablement LA différence la plus significative entre Linux et Windows. Le fait que Linux soit sous licence publique GNU garantit que les utilisateurs (de tout type) peuvent avoir accès (et droit de modification) au code jusqu’au noyau qui sert de fondement au système d’exploitation Linux. Vous voulez jeter un coup d’œil au code de Windows ? Bonne chance. À moins d’être membre d’un groupe trié sur le volet (et pour beaucoup une élite), vous ne verrez jamais le code qui constitue le système d’exploitation Windows.

Vous pouvez interpréter ceci depuis chaque rive du fleuve. Certains disent que le fait de donner un accès public au code ouvre le système d’exploitation (et les logiciels qui s’y exécutent) aux développeurs mal intentionnés qui se serviront de chaque faille qu’ils trouveront. D’autres disent que le fait d’avoir un accès total au code aide à générer des améliorations et des corrections de bugs plus rapides pour empêcher à ces développeurs mal intentionnés de venir à bout du système. Occasionnellement, je me suis plongé dans le code de quelques applications Linux, et au bout du compte, j’ai été heureux du résultat. Est-ce que j’aurais pu le faire avec une application Windows sans accès aux sources ? Non.

2. Liberté de licences vs restriction de licences

Avec l’accès au code, nous avons la différence entre les licences. Je suis sûr que chaque professionnel de l’informatique pourrait parler des heures des licences de logiciels pour PC. Regardons juste les aspects clés des licences (sans rentrer dans le jargon juridique). Avec un système d’exploitation Linux à licence GPL, vous êtes libre de modifier ce logiciel et de l’utiliser, même de le republier ou de le vendre (tant que vous mettez le code à disposition). Également, avec la GPL, vous pouvez télécharger une seule copie d’une distribution (ou application) Linux et l’installer sur autant de machines que vous le souhaitez. Avec la licence Microsoft, vous ne pouvez faire aucune de ces choses. Vous êtes limité au nombre de licences que vous achetez, donc si vous achetez 10 licences, vous ne pouvez légalement installer ce système d’exploitation (ou cette application) que sur 10 machines.

3. Support en ligne assuré par des groupes d’utilisateurs vs support payant

C’est un point qui fait fuir la plupart des entreprises. Mais ce n’est vraiment pas nécessaire. Avec Linux, vous avez du support grâce à une énorme communauté, via des forums, les moteurs de recherche, et plein de sites web spécialisés. Et bien sûr, si vous en ressentez le besoin, vous pouvez acheter des contrats de support à une des grosses entreprises Linux (par exemple Red Hat ou Novell).

Il est vrai que, quand vous utilisez le support de la communauté inhérent à Linux, vous y perdez pas mal de temps. Vous pourriez avoir un problème quelconque, poster sur une liste de diffusion ou sur un forum, et en dix minutes être noyé sous les suggestions. Ou alors ces suggestions pourraient prendre plusieurs heures avant d’arriver. Parfois, cela semble ne dépendre que du hasard. Mais, quand même, généralement, la plupart des problèmes avec Linux ont déjà été rencontrés, et sont documentés. Il y a donc beaucoup de chances pour que vous trouviez votre solution assez rapidement.

Côté face, le support pour Windows. Oui, vous pouvez prendre le même chemin avec Microsoft et vous fiez aux utilisateurs pour trouver des solutions. Il y a juste autant de sites d’aide/listes/forums pour Windows qu’il y en a pour Linux. Et vous pouvez acheter du support à Microsoft-même. La plupart des responsables d’entreprise sont des proies faciles pour le filet de sécurité apporté par un contrat de support. Mais la plupart des responsables n’ont pas eu à faire appel au dit contrat de support. Des diverses personnes que je connais, et qui ont utilisé soit un contrat de support payant Linux soit un contrat de support payant Microsoft, je ne peux pas affirmer que les uns étaient plus satisfaits que les autres. Cela amène bien sûr la question « pourquoi tellement de gens disent-ils que le support pour Microsoft est meilleur que celui pour Linux ? »

4. Support matériel complet vs partiel

Un point qui peu à peu tend à disparaître est le support matériel. Il y a des années, si vous vouliez installer Linux sur une machine, il vous fallait vous assurer de bien sélectionner chaque pièce, sinon votre installation n’aurait pas fonctionné à 100%. Je me souviens, vers 1997, d’avoir essayé de comprendre pourquoi je n’arrivais pas à détecter mon modem avec Caldera Linux ou Red Hat Linux. Après bien des recherches, j’ai découvert que j’étais l’heureux propriétaire d’un Winmodem. J’ai donc dû aller acheter un modem externe US Robotics, parce que c’était le seul modem dont je savais qu’il fonctionnerait. Ce n’est plus aussi fréquent à présent. Vous pouvez prendre un PC (ou un portable) et il y a toutes les chances qu’une ou plusieurs distributions Linux puisse s’installer et fonctionner presque à 100%. Mais il reste toujours des exceptions. Par exemple, la fonction hiberner/suspendre reste problématique sur beaucoup de portables, même si cela s’est beaucoup amélioré.

Avec Windows, vous savez que quasiment tout le matériel fonctionnera avec le système d’exploitation. Bien sûr, parfois (et je n’arrête pas d’en faire l’expérience) vous vous retrouvez à passer la majeure partie de la journée à la recherche des bons pilotes pour ce matériel dont vous n’avez plus le disque d’installation. Mais vous pouvez aller acheter cette carte Ethernet à dix centimes, en sachant qu’elle fonctionnera sur votre machine (pour autant que vous ayez ou que vous trouviez les pilotes). Vous pouvez aussi être assuré que quand vous achetez cette carte graphique incroyablement puissante, vous pourrez probablement l’exploiter au maximum.

5. Ligne de commande vs pas de ligne de commande

Peu importe ce qu’est advenu le système d’exploitation Linux et que l’environnement graphique de bureau soit désormais si extraordinaire, la ligne de commande sera toujours un outil précieux pour qui a besoin d’administrer sa machine. Rien ne remplacera jamais mon éditeur de texte préféré, ssh, et n’importe quel outil de ligne de commande donné. Je n’imagine pas l’administration d’une machine Linux sans la ligne de commande. Mais pour l’utilisateur de base il en va différemment. Vous pourriez utiliser une machine Linux des années sans jamais toucher à la ligne de commande. Pareil pour Windows. Vous pouvez quand même utiliser la ligne de commande dans Windows, mais très loin des possibilités sous Linux. De plus, Microsoft a tendance à cacher à ses utilisateurs l’invite pour utiliser la ligne de commande. Sans aller dans Exécuter et taper cmd (ou command, ou je ne sais trop quoi maintenant), l’utilisateur ne saura même pas que l’outil de ligne de commande existe. Et si un utilisateur réussit à atteindre la ligne de commande Windows, que pourrait-il vraiment en faire ?

6. Installation des applications centralisée vs non centralisée

Le titre de ce point pourrait vous laisser complètement baba. Mais réfléchissons-y une seconde. Sous Linux vous avez (avec presque toutes les distributions) un endroit central, où vous pouvez rechercher, ajouter ou supprimer des logiciels. Je parle des systèmes de gestion de paquets, comme Synaptic. Avec Synaptic, vous pouvez ouvrir un outil, chercher une application (ou un groupe d’applications), et installer cette application sans avoir à chercher quoi que ce soit sur le web (ou à acheter quoi que ce soit).

Sous Windows, rien de la sorte. Vous devez savoir où trouver le logiciel que vous voulez installer, le télécharger (ou mettre le CD dans votre machine), et exécuter setup.exe ou install.exe grâce à un simple double clic. Pendant longtemps, on pensait qu’il était de loin plus facile d’installer des applications sous Windows que sous Linux. Et pendant longtemps, on pensait bien. Plus vraiment maintenant. L’installation sous Linux est simple, sans effort, et centralisée.

7. Flexibilité vs rigidité

Je compare toujours Linux (surtout le bureau) et Windows à une pièce dont le plancher et le plafond sont soit fixes soit mobiles. Sous Linux, vous avez une pièce où vous pouvez rehausser ou abaisser le plancher et le plafond, à volonté, aussi haut ou bas que vous le voulez. Sous Windows, impossible de bouger ce plancher et ce plafond. Vous ne pouvez pas aller plus loin de ce que Microsoft a jugé nécessaire.

Prenez, par exemple, le bureau. À moins que vous ne soyez prêt à payer et à installer une application non-Microsoft qui peut changer l’apparence du bureau, sous Windows vous êtes coincé dans ce que Microsoft a déclaré être le meilleur bureau pour vous. Sous Linux, vous pouvez pratiquement adapter l’apparence et le comportement de votre bureau exactement à ce que vous voulez/ce dont vous avez besoin. Vous pouvez avoir autant ou aussi peu sur votre bureau que vous le voulez. D’un Fluxbox simple et plat à une expérience 3D Compiz extrême, le bureau Linux est l’environnement le plus flexible qui soit sur un ordinateur.

8. Les fans vs les entreprises

Je voulais ajouter ceci parce que même si Linux a dépassé de beaucoup ses racines universitaires, les utilisateurs de Linux ont tendance à être des fans qui occupent la tribune et sont prompts à débiter toutes sortes de raisons de choisir Linux plutôt que Windows. Je m’en rends coupable quotidiennement (je fais de mon mieux pour recruter de nouveaux fans), et c’est une étiquette que je revendique. Bien sûr, cela est perçu par certains comme moins professionnel. Après tout, pourquoi est-ce que quelque chose qui est désormais de digne d’un environnement d’entreprise a ou aurait besoin de pom-pom girls ? Le logiciel ne devrait-il pas se diffuser massivement tout seul ? De par la nature ouverte de Linux, celui-ci doit se débrouiller sans l’aide des budgets marketing et du gros portefeuille de Microsoft. En conséquence, les fans ont besoin de prêcher la bonne parole. Et le bouche à oreille est le meilleur allié de Linux.

Certains associent ce fanatisme au chahut universitaire qui confine Linux aux sous-sols des réunions de LUGS. Permettez-moi d’être en désaccord. Une autre entreprise, grâce à son simple lecteur de musique et à son téléphone, est tombée dans le même fanatisme, et pourtant l’image de cette entreprise n’a pas été écornée par ce fanatisme. Windows n’a pas ces fans. À la place, Windows a un bataillon d’administrateurs officiels qui croient au battage médiatique des parts de marché, des chiffres trompeurs qui les rassurent qu’ils seront employés jusqu’à la nuit des temps.

9. Médias amovibles automatiquement vs pas automatiquement

Je me souviens de cette époque où il vous fallait monter sa disquette pour pouvoir l’utiliser, et la démonter pour la sortir. Eh bien, ces jours sont presque terminés (mais pas complètement). Un problème qui nuit aux nouveaux utilisateurs est l’utilisation des médias amovibles. L’idée d’être obligé de « monter » manuellement un lecteur de CD pour accéder au contenu du disque est complètement étrangère aux nouveaux utilisateurs. Il y a une raison pour que ce soit ainsi. Parce que Linux a toujours été une plate-forme multi-utilisateurs, on pensait qu’en forçant un utilisateur à monter un média pour l’utiliser, cela empêcherait les fichiers de cet utilisateur d’être remplacés par un autre utilisateur. Pensez-y : sur un système multi-utilisateurs, si tout le monde avait instantanément accès à un disque qui venait d’être inséré, qu’est-ce qui les empêcherait de supprimer ou de remplacer un fichier qui venait juste d’être ajouté au média ? Les choses ont maintenant évolué au point que les sous-systèmes de Linux sont paramétrés pour pouvoir utiliser un périphérique amovible de la même façon que sous Windows. Mais ce n’est pas la norme. Et en plus, qui refuse d’éditer manuellement le fichier /etc/fstab ?

10. Les niveaux d’exécution superposés vs un seul niveau d’exécution

Je n’ai pas pu trouver un meilleur titre pour ce point, c’est donc une description. Ce dont je parle est la capacité inhérente à Linux de s’arrêter sur différents niveaux d’exécution. Ainsi, vous pouvez travailler soit en ligne de commande (niveau d’exécution ou runlevel 3) soit avec l’interface graphique (runlevel 5). Cela peut vraiment sauver votre chemise, quand votre serveur graphique est vraiment bien dézingué, et que vous devez régler le problème. Vous pouvez y arriver en démarrant sur le niveau d’exécution 3, en vous identifiant en tant que propriétaire du système, pour identifier/résoudre le problème.

Sous Windows, vous vous contentez d’une ligne de commande en mode sans échec, et là vous n’êtes pas sûr d’avoir les utilitaires qu’il vous faut pour régler le problème. Sous Linux, même en runlevel 3, vous pouvez quand même réussir à installer un utilitaire pour vous aider (tapez apt-get install application-de-votre-choix via la ligne de commande). Il y a de plus une autre utilité. Mettons que la machine en question est un serveur web ou un serveur de mails. Vous voulez lui allouer toute la mémoire dont vous disposez, donc vous ne voulez pas que la machine démarre sur une session graphique. Toutefois, il y a des moments où vous voulez vraiment l’interface graphique pour l’administration de votre machine (même si vous pouvez pleinement administrer un serveur Linux depuis la ligne de commande). Parce que vous pouvez exécuter la commande startx depuis la ligne de commande en runlevel 3, vous pouvez tout de même démarrer votre serveur graphique et avoir également votre interface habituelle. Sous Windows, vous êtes coincé sur une session graphique, à moins de rencontrer un gros problème.

C’est vous qui voyez…

Ce sont là 10 différences fondamentales entre Linux et Windows. À vous de décider si ces différences avantages l’un ou l’autre système d’exploitation. Moi ? Eh bien je pense être précédé par ma réputation (et mes opinions), je n’ai donc probablement pas besoin de dire que je suis convaincu que la balance penche du côté de Linux.




Pas si FACIL pour Microsoft au Québec

Arturo de Albornoz - CC by-saPlus de dix millions de dollars attribués sans appels d’offres à Microsoft par l’administration québécoise principalement pour cause de… passage à Vista de ses postes informatiques, c’était sans compter sur l’association FACIL qui à juste titre ne l’entend pas de cette oreille et a déclenché la procédure juridique.

Tout ceci est très bien expliqué dans cette dépêche de LinuxFr. Je me suis juste permis d’y ajouter ci-dessous le tout frais petit extrait du journal télévisé local de Radio-Canada (ne serait-ce que parce que c’est pas tous les jours qu’on peut voir notre manchot préféré apparaitre ainsi à l’écran à côté du présentateur).

Cette scandaleuse malheureuse histoire m’a fait penser aux recommandations du rapport Becta (il n’est pas conseillé de migrer vers Windows Vista, les coûts sont importants et les bénéfices incertains, idem pour MS Office 2007 qui n’est pas capable en l’état d’offrir une convaincante interopérabilité, etc.). Elles étaient certes destinées au secteur éducatif mais elles demeurent selon moi pertinentes pour l’administration publique dans son ensemble[1].

Quoiqu’il en soit nous soutenons sans réserve la FACIL dans son initiative, quand bien même je ne puis m’empêcher de penser aux administrations de tous les pays qui n’ont pas de FACIL pour leur ouvrir les yeux.

Ceci dit il faut également reconnaître qu’il n’est pas toujours évident pour le logiciel libre d’apparaitre dans ces fameux appels d’offres des marchés publics si il n’est pas soutenu par des structures (le plus souvent des sociétés de services) qui soient capables de bien communiquer dessus et de monter des projets solides qui donnent confiance aux décideurs pressés. Mais heureusement expérience, maturité et, comme ici, activisme citoyen font évoluer favorablement une situation qui ne pourra plus se permettre de l’oublier.

Dans le communiqué de presse, reproduit ci-dessous, on remarquera qu’ils prennent exemple sur la situation de l’administration française. C’est un honneur mais même chez nous il reste encore beaucoup à faire notamment dans l’éducation.

—> La vidéo au format webm

URL d’origine du communiqué de presse

Montréal, le 28 août 2008 – FACIL, association à but non lucratif, qui prône l’appropriation collective de l’informatique libre, dénonce les pratiques d’achats de logiciels nécessaires à l’administration publique sans appel d’offres de la part du Gouvernement du Québec. FACIL a déposé une requête en Cour supérieure du Québec pour faire cesser ces agissements car elle considère ces pratiques comme contraire au Règlement sur les contrats d’approvisionnement, de construction et de services des ministères et des organismes publics (R.Q. c. A-6.01, r.0.03) et à l’intérêt du Québec.

Au Québec, l’accès aux marchés publics est la règle alors que l’attribution de contrat sans appel d’offres est l’exception. En principe, un marché doit être ouvert à tous, de manière transparente et équitable. Les solutions et les propositions déposées doivent être évaluées objectivement à partir de critères reconnus et acceptés de tous. De plus, la loi impose que les marchés publics doivent favoriser le développement économique local et les technologies québécoises.

FACIL a constaté que des contrats d’achats de logiciels qui totalisent plus de 25 millions de dollars durant la période de février à juin 2008, ont été obtenus par de grandes multinationales par avis d’attribution sans passer par le processus normal d’appel d’offres. Ces achats se font au détriment de l’industrie du service en logiciel basée sur le logiciel libre au Québec et sont un obstacle au développement des entreprises québécoises dans le secteur des technologies de l’information. FACIL dénonce cette façon de procéder qu’elle considère intolérable, illégale et contraire à l’intérêt de la société québécoise.

Une politique rigoureuse et déterminée d’utilisation de logiciels libres dans les administrations publiques permettrait la création de très nombreux emplois durables, ainsi que des économies substantielles en licences de logiciels et inutiles mises à jour. Cependant, trop souvent l’administration québécoise refuse d’envisager et même d’évaluer l’option du logiciel libre.

Alors que la plupart des pays industrialisés ont débuté, depuis plusieurs années, la migration de leurs infrastructures technologiques en utilisant des logiciels libres, l’administration publique québécoise accuse déjà un retard prononcé. Parmi de nombreux exemples, en France, des centaines de milliers de postes de travail de fonctionnaires migrent vers des logiciels libres et, au Pays-Bas, l’administration publique, l’une des plus modernes du monde, a décidé d’interdire l’utilisation de logiciels propriétaires dans le secteur public.

Malgré de nombreuses initiatives, et devant le refus de dialogue et de concertation des responsables de l’administration publique, FACIL a décidé d’en appeler à la justice afin d’exiger que la loi sur les marchés publics soit respectée par le Gouvernement.

Notes

[1] Crédit photo : Arturo de Albornoz (Creative Commons By-Sa)




Créatifs Culturels et Mouvement du Logiciel Libre

Riza - CC byLes Créatifs Culturels vous connaissiez ? Moi non, jusqu’à cet été où quelqu’un est venu m’en parler avec une certaine passion pour ne pas dire une passion certaine[1].

De quoi s’agit-il exactement ? L’expression n’est pas forcément heureuse mais ce serait une nouvelle catégorie sociologique regroupant des personnes dont la première caractéristique est d’ignorer qu’elles en font partie !

Viennent ensuite les caractéristiques de fond et, comme souvent, Wikipédia est ton ami :

« Les Créatifs Culturels auraient en commun de favoriser la faible dépendance vis-à-vis des modes de consommation industrialisés, de chercher à favoriser le développement personnel et spirituel, de remettre l’humain au cœur de la société, de refuser les dégradations environnementales, notamment celles induites par l’exploitation des ressources naturelles et de rechercher des solutions nouvelles aux problèmes personnels ou sociaux (par exemple sans fausse antinomie entre engagement et vie personnelle). »

Cette absence d’antinomie entre engagement et vie personnelle, ce serait ce qui les distingue des Bobos (selon Sauveur Fernandez sur Novethic.fr) :

« Les Bobos et autres Nonos ont une réelle part de sincérité, mais sont pétris de contradictions, car encore au premier stade de sensibilisation. Viennent ensuite les consom’acteurs avec des degrés plus ou moins fort d’implication. Puis les alternatifs, c’est à dire les personnes qui s’impliquent réellement dans leurs engagements qu’ils essaient de vivre concrètement. Ils sont à la fois consom’acteurs et citoyens engagés, mariant à la fois la connaissance et la pratique concrète. Ils représentent, en fait, l’ensemble des gens sensibles à l’éthique, au social, à l’environnement. Ce sont eux les créatifs culturels, même s’ils n’aiment pas trop ce terme, le trouvant un peu trop "mode" ou "gadget". »

Ekopedia se montre quant à lui un peu plus précis voire engagé :

« Ce terme désigne une famille sociologique occupant une part importante des populations occidentales : 17% en France et 25% aux Etats-Unis. Il est la traduction de l’américain cultural creatives, créé par le sociologue Paul H. Ray et la psychologue Sherry Ruth Anderson.

Le courant porté par les créatifs culturels, ou "créateurs de culture", est perçu par les sociologues comme l’avènement d’une nouvelle culture. Elle serait d’après ces deux chercheurs «la manifestation d’une lente convergence de mouvements et de courants jusqu’alors distincts vers une profonde modification de notre société», l’éveil d’une civilisation post-moderne, aussi importante que celle qui, il y a cinq cents ans, marqua la fin du moyen-âge.

Les créateurs culturels vivent d’ores et déjà dans un système de valeur et de comportement nouveaux : mode de consommation fondé sur le respect et la reconnaissance de la valeur de l’environnement (consommation d’aliments biologiques, utilisation de la médecine naturelle), conscience des valeurs féminines (place des femmes dans la sphère publique, coopération et préoccupation par rapport à la violence), prédominance de l’être sur l’avoir et le paraître, quête humaine tournée vers l’intérieur et l’extérieur (connaissance de soi, ouverture aux autres, dimension spirituelle), implication individuelle et solidaire dans la société, dans le social avec une dimension locale, ouverture culturelle (respect des différences et de la multiculturalité). »

Déjà 17% en France… Et comme ils n’ont pas encore conscience de leur appartenance, on peut envisager des évolutions socio-économiques intéressantes le jour où ils réaliseront leur force potentielle et agiront véritablement ensemble. Sinon c’est le marketing qui récupèrera tranquillement tout ça.

Soit. Mais deux modestes petites questions en passant.

La première est d’interroger le concept même de Créatifs Culturels. Est-ce un groupe socio-culturel pertinent, qui représente réellement un phénomène palpable et durable ?

Personnellement, à parcourir quelques liens sur le sujet, je dois avouer que j’ai eu très souvent l’impression d’en être (sauf lorsque l’on insiste trop sur le côté spirituel ou développement personnel qui dérive parfois sur du new-age de mauvais aloi). Et puis, ça fait plus chic dans les diners mondains de se débarasser de l’étiquette péjorative de Bobo pour arborer fièrement celle de Créatif Culturel 😉

La seconde question est plus originale mais en relation avec le sujet principal de ce blog. En admettant que le concept soit valide, y aurait-il une quelconque affinité entre les Créatifs Culturels et le mouvement du logiciel libre ?

Vous me direz que cela oblige à définir le mouvement du logiciel libre, ce qui est déjà une difficulté en soi. Mais, admettons qu’on adhère peu ou prou à ce qui sous-tend cette citation de Stallman : « Le mouvement du logiciel libre est un mouvement social », peut-on alors envisager des convergences et autres synergies entre les deux mouvements (dans la manière d’appréhender l’économique et le relationnel par exemple) ?

En fait il me faudrait un peu plus de temps pour me pencher sérieusement sur la question (procrastination quand tu nous tiens !). Piteux et confus, je m’aperçois donc que je n’ai donc pas rempli la promesse du titre de mon billet. Ce qui ne m’empêche pas d’attendre avec impatience… vos propres réponses dans les commentaires !

Ce qui est à mon avis presque certain c’est que si un Créatif Culturel (digne de ce nom) se met à s’intéresser de près ou de loin à l’informatique il se tournera naturellement et effectivement vers les logiciels libres. À la différence du Bobo qui lui adoôore les logiciels libres mais souffre encore du syndrome Bayrou 😉

Notes

[1] Crédit photo : Riza (Creative Commons By)