Vu à la télé – Le logiciel libre pour nos enfants demain ?

Le logiciel libre pour nos enfants demain ?

C’est la question que l’on se pose depuis des années, en se désespérant de constater que l’Éducation nationale ne fait pas grand chose pour que ce demain devienne aujourd’hui.

Mais nous ne sommes pas les seuls, parce que c’est aussi la question que posait le 17 mars dernier le titre de la chronique « Clair et Net » d’Emma Rota dans l’émission Les Maternelles de France 5 (reproduite et transcite ci-dessous).

Elle y mettait en avant les trois projets éducatifs libres bien connus ici que sont Abuledu, Sésamath et OOo4Kids.

Pour ce dernier projet, elle pointait directement vers un billet « énervé » du Framablog : 0,01% du budget licences Microsoft pour soutenir et déployer OOo4Kids à l’école ! Force est de constater que l’argument du manque de soutien a été bel et bien repris et de quelle manière :

« Si ces enseignants optent pour le logiciel libre à l’école c’est parce qu’ils adhèrent à une éthique que personne ne peut décemment rejeter : notre école publique n’est pas un lieu marchand ; donc il devrait être interdit de laisser toute la place à des logiciels propriétaires type ceux de Microsoft (…) Ce qui ne veut pas dire que ces initiatives n’ont pas un coût (…) Et vous serez d’accord avec moi pour décréter que c’est au ministère de l’éducation nationale de les financer un minimum. »

Après merci Emmanuelle, merci Emma !
😉

—> La vidéo au format webm

Le logiciel libre pour nos enfants demain ?

URL d’origine du document

Emma Rota – 17 mars 2010 – Clair et Net / Les Maternelles

Il y a un mois est sorti dans le silence le plus total un rapport de 326 pages commandé par le ministère de l’éducation nationale intitulé « Réussir l’école numérique ». Il s’agit d’un recueil de 12 000 contributions et témoignages d’enseignants, d’élèves, de parents d’élèves qui démontrent combien l’usage de l’ordinateur et d’internet à l’école est un facteur d’égalité des chances et de réussite scolaire. Le rapport préconise la connexion en haut débit pour 100% des écoles d’ici 2012.

Pour rappel, lorsque je faisais cette même chronique il y a maintenant 8 ans à cette même place (ça ne nous rajeunit pas) je rapportais déjà les mêmes genres de vœux pieux de la part du ministère de l’éducation nationale… 😉

Et nous on aime les vœux pieux. Surtout lorsqu’on reçoit en parallèle des mails d’instituteurs excédés qui disent en substance – et c’est la réalité du terrain, tous les chiffres le démontrent - : « nous ne recevons pas le moindre centime de l’état, ce que nous bâtissons de numérique dans nos écoles c’est avec notre énergie toute personnelle et les deniers de notre collectivité locale ».

D’où, vous l’aurez compris, l’énorme disparité du matériel, des logiciels et du savoir numérique selon l’école primaire que fréquente ou que va fréquenter votre enfant…

C’est pourquoi aujourd’hui j’ai décidé de mettre à l’honneur trois belles initiatives numériques montées par des instits, avec leur passion et sur leur temps personnel.

1 – Allons d’abord sur le fantastique site www.abuledu.org, né en 1998 – il y a déjà 12 ans, par un instit passionné de Pessac.

C’est aujourd’hui un site qui propose une liste énorme de logiciels éducatifs scolaires pour les élèves de la maternelle à l’université. Pour y accéder, on clique sur ce qu’ils appellent « le Terrier » et regardez la liste : je vous propose de tester « A nous les nombres » par exemple : un petit logiciel de maths qui permet à l’enfant de dénombrer des barques ou des éléphants en s’amusant. Ou encore le logiciel « Associations » qui lui est pour les enfants dès la fin de la maternelle : il permet d’entendre le son associé à un mot et associé à une image, des exercices pour débuter l’apprentissage de la lecture.

Tous ces logiciels sont des logiciels libres : c’est à dire que leur créateur a voulu dès le départ que tous les enseignants et élèves de la France entière puisse en profiter s’ils le désirent ; chacun de ces logiciels est copiable, distribuable et même modifiable si on veut y apporter des changements soi même ! C’est la différence d’avec un logiciel propriétaire du type Word qui, en plus d’être payant ne va pouvoir être partagé avec personne…

2 – Seconde initiative qui elle aussi connaît actuellement une adhésion phénoménale dans le milieu enseignant : www.sesamath.net Des logiciels libres pour les enseignants ET les élèves pour rendre plus ludique l’apprentissage des mathématiques à tous les âges. Tenez vous bien, quasi 9000 profs de maths ont abonnés à ce site, c’est à dire le quart des profs de maths en France ! Ils profitent des exercices interactifs, des cours et des corrections animés tout en échangeant sur leur manière d’enseigner. Car il est là le principal attrait du logiciel libre éducatif?: partager son savoir, évoluer dans sa manière d’enseigner et donc forcément enrichir ses élèves qui je le rappelle, sont nos enfants. Et personnellement je rêve que mon fils lorsqu’il sera à l’école primaire puisse bénéficier de la curiosité d’enseignants de la trempe de ceux qui sont sur ces sites là…

3 – Enfin troisième initiative à encourager car elle est en train de se construire, on la voit sur cette vidéo.

il s’agit d’une suite bureautique spécialement conçue pour les 7/12 ans avec un design simplifié et adapté aux enfants, avec un traitement de texte et un tableur aux outils simplifiés eux aussi.

Si ces enseignants optent pour le logiciel libre à l’école c’est parce qu’ils adhèrent à une éthique que personne ne peut décemment rejeter : notre école publique n’est pas un lieu marchand ; donc il devrait être interdit de laisser toute la place à des logiciels propriétaires type ceux de Microsoft alors qu’il existe d’autres solutions plus neutres.

Ce qui ne veut pas dire que ces initiatives n’ont pas un coût. Elles ont un coût comme toute chose sur cette Terre, au moins le coût de la sueur et du temps de celui qui le fabrique.

Et vous serez d’accord avec moi pour décréter que c’est au ministère de l’éducation nationale de les financer un minimum. Surtout lorsque l’on se souvient à quel point il s’extasie depuis 10 ans sur les prouesses des outils numériques dans ses écoles.

Ah les vœux pieux, les vœux pieux…




Paul Ariès et le logiciel libre ont-ils des choses à se dire ?

Un internaute a eu l’idée de compiler les interventions de Paul Ariès (et uniquement celles-ci), lors de l’émission Ce soir ou jamais du 1er avril dernier consacrée à l’actualité économique : bouclier fiscal, taxe carbone. situation de la Grèce, etc. Vous trouverez cette vidéo à la fin du billet.

Montage oblige, il n’y a plus ni dialogue ni débat, et on mouche ainsi facilement l’autre invité qu’était Alain Madelin (ce qui, je le confesse, ne m’a pas dérangé). Mais j’ai néanmoins trouvé cela fort intéressant et parfois très proche de certains articles parus dans la rubrique « Hors-sujet ou presque » du Framablog, où il s’agit souvent, avec moult précautions, de voir un peu si le logiciel libre et sa culture sont solubles dans le politique, l’économique, l’écologique ou le social.

Paul Ariès était ainsi présenté sur le site de l’émission :

Paul Ariès est politologue, directeur du journal Le Sarkophage qui se veut un journal d’analyse critique de la politique de Nicolas Sarkozy, rédacteur au mensuel La Décroissance, collaborateur à Politis et organisateur du « Contre-Grenelle de l’Environnement ». Paul Ariès est considéré par ses adversaires comme par ses défenseurs comme « l’intellectuel de référence » du courant de la décroissance. Auteur d’une trentaine d’essais, il vient de publier « La simplicité volontaire contre le mythe de l’abondance » (La Découverte), et un pamphlet intitulé « Cohn Bendit, l’imposture » (Max Milo).

Extrait (autour de la 13e minute) :

On peut reprocher tout ce que l’on veut au système capitaliste et à cette société d’hyper-consommation, mais il faut reconnaître que c’est une société diablement efficace. Pourquoi ? Parce qu’elle sait susciter le désir et le rabattre ensuite sur la consommation de biens marchands. Or, comme le désir est illimité, on va désirer toujours plus de consommation.

Donc, si on veut être a la hauteur il ne s’agit pas de vouloir faire la même chose mais en moins. Il faut avoir un principe aussi fort à opposer. Et à mes yeux la seule chose aussi forte que l’on peut opposer au toujours plus, c’est la gratuité. Parce que la gratuité, on l’a chevillée au corps. C’est le souvenir du paradis perdu, c’est le sein maternel, c’est les relations amoureuses, amicales, associatives, c’est les services publics, c’est le bien commun.

Le bon combat pour les XXIe siècle, ce n’est pas de manifester pour l’augmentation du pouvoir d’achat, c’est de manifester pour la défense et l’extension de la sphère de la gratuité.

Sémantiquement parlant, on se méfie beaucoup sur ce blog et ailleurs de cette notion de « gratuité ». Alors j’ai eu envie d’en savoir plus et je suis tombé sur ce tout aussi intéressant article (issu du site du NPA) : La révolution par la gratuité de Paul Ariès.

Extrait :

Il ne peut y avoir de société de la gratuité sans culture de la gratuité, comme il n’existe pas de société marchande sans culture marchande. Les adversaires de la gratuité le disent beaucoup mieux que nous. John H. Exclusive est devenu aux Etats-Unis un des gourous de la pensée « anti-gratuité » en publiant Fuck them, they’re pirates (« Qu’ils aillent se faire foutre, ce sont des pirates »). Il y explique que le piratage existe parce que les enfants sont habitués à l’école à recopier des citations d’auteurs, à se prêter des disques, à regarder des vidéos ensemble, à emprunter gratuitement des livres dans les bibliothèques, etc. L’école (même américaine) ferait donc l’éducation à la gratuité.

Les milieux néoconservateurs proposent donc de développer une politique dite de la «gratuité-zéro» qui serait la réponse du pouvoir aux difficultés des industries « culturelles » confrontées au développement des échanges gratuits, via les systèmes « peer-to-peer ». La politique à promouvoir sera totalement à l’opposé et passera par la généralisation d’une culture de la (quasi)gratuité. Nous aurons besoin pour cela de nouvelles valeurs, de nouveaux rites, de nouveaux symboles, de nouvelles communications et technologies, etc. Puisque les objets sont ce qui médiatisent le rapport des humains à la nature quels devront être le nouveau type d’objets de la gratuité ?

L’invention d’une culture de la gratuité est donc un chantier considérable pour lequel nous avons besoin d’expérimenter des formules différentes mais on peut penser que l’école sera un relais essentiel pour développer une culture de la gratuité et apprendre le métier d’humain, et non plus celui de bon producteur et consommateur. Parions que la gratuité ayant des racines collectives et individuelles beaucoup plus profondes que la vénalité en cours, il ne faudrait pas très longtemps pour que raison et passion suivent…

Je ne sais pas ce que vous en penserez mais j’ai comme eu l’impression que l’auteur ignorait tout simplement l’existence du logiciel libre, qui n’est pas cité une seule fois dans ce long article.

Est-ce que la « gratuité » de Paul Ariès ne ressemble pas finalement à la « liberté » du logiciel libre (dont la gratuité n’est qu’une éventuelle conséquence) ? Cette liberté du logiciel libre n’est-elle pas plus forte, subversive, et au final plus pertinente et efficace pour étayer les arguments de Paul Ariès ?

Voici quelques unes des questions qui me sont donc venues en tête à la lecture du passage vidéo ci-dessous[1] :

—> La vidéo au format webm

Une vidéo qui fait écho, plus ou moins directement, aux billets suivants du Framablog :

Notes

[1] Merci à Dd pour la conversion de la vidéo au format Ogg sur Blip.tv.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Avec Thibaud, 9 ans, la relève est assurée !

D Sharon Pruitt - CC byLa semaine dernière, le message suivant est tombé dans notre boîte à mails :

« Bonjour, je suis un enfant de 9/10ans que s’intéresse à l’informatique (je programme php/html/js/… tous les langages Web). Je souhaite vous remercier pour cette suite de logiciels libres et portables Framakey, mais je n’ai pas d’argent (10€ en tout). Je ne souhaite pas poster ce message sur le forum car j’aurais le honte (je pense). Merci pour tout et bonne continuation. J’espère que vous deviendrez riches (c’est pas tout de suite…). Thibaud »

Effectivement c’est pas pour tout de suite ! Mais sache que ça n’est pas le but non plus 😉

Par contre, un tel message vaut bien tout l’or du monde ! Pas courant de programmer si jeune (et d’utiliser notre Framakey), alors en le remerciant à mon tour pour sa gentille missive, j’ai eu envie d’en savoir plus en lui posant quelques questions[1].

Voici ses réponses. Elles n’ont pas été retouchées, si ce n’est quelques petites fautes d’orthographe de-ci de-là.

Entretien avec Thibaud

Bonjour Thibaud, peux-tu te présenter rapidement ?

Je m’appelle Thibaud, j’ai 9 ans, presque 10. Je suis en CM1 et j’habite dans une maison à 2 étages à Blanquefort (Gironde).

Tu nous as écrit pour nous signaler que tu était passionné d’informatique. D’où te vient cette passion : de l’école ? de ta famille ?

Cela vient de moi, personne ne m’a aidé au début.

Tu développes en PHP, Javascript et HTML. Où as-tu appris ces langages ? Dans des livres ? Sur Internet ? A l’école ? Parce que d’autres personnes t’ont initié ?

Le Html, c’est mon père. Le Javascript, le PHP et le CSS, c’est moi (avec l’aide de Google).

Peux-tu nous décrire quelques uns des programmes que tu as créé ?

En fait j’ai plutôt créé des menus car le reste je le dois au site de scripts EditeurJavascript.com : HTML (10%), Javascript (65%), PHP (20%) et CSS (5%).

Aussi, je modifie les jeux pour les rendre compatibles avec tous les navigateurs (surtout ceux des consoles et téléphones portables).

Quels sont les sites internet que tu fréquentes et que tu préfères ?

Google.com, framakey.org, dsi.fr.nf (mon site à moi) et donc editeurjavascript.com.

Comment as-tu découvert la Framakey ?

J’ai rencontré la Framakey sur un forum en cherchant « logiciel pour clé USB ». J’était très content car je change souvent de maison (2/3 fois par semaine).

Comment l’utilises-tu (tu bootes sur Linux ou uniquement avec Windows) ? Sur plusieurs ordinateurs ?

Je l’utilise uniquement sur Windows car tout ma famille a Windows et mon portable (à moi) ne marche avec aucun Linux (ni avec Windows…), c’est dommage.

Utilises-tu l’ordinateur à l’école et si oui comment et pourquoi ? Cela t’intéresse ou bien tu t’ennuies un peu, à cause de tes connaissances au dessus de la moyenne ?

On utilise que Firefox et Open Office pour les exposés et les rédactions. Remarque : il n’y a pas autre chose… à part le système d’exploitation (Windows XP). À l’école ça ne m’ennuie pas car le maître me dit d’aider les autre qui en ont besoin (tout le monde :)).

Aider les autre ça fait passer le temps qui lui n’est pas long… une demi-heure par semaine. C’est vrai, je suis « largement » au dessus de la moyenne de la classe (la moyenne est basse, hi!hi!hi!)

Quelle est ta configuration matérielle et logicielle ?

J’ai tous les logiciels portables Framakey et ça me suffit. Ma mère me prête son ordinateur fixe maintenant qu’elle a un portable. Chez mon père, je programme pas trop car son ordi est sur Vista et il y a un mot de passe administrateur…

Tu as une connexion à Internet dans ta chambre ? Tes parents te laissent-ils surfer autant que tu veux sans regarder ce que tu visites ?

Dans mes deux maisons il y a une connexion wi-fi avec mots de passe, dans des endroits « libres » de la maison.

Oui mes parent me laissent mais JE NE TCHATE JAMAIS. Je joue aux jeux sur mon site pour mobile depuis ma Nintendo DS(i). Mes parent surveillent juste l’heure du coucher (max 21h30/22h).

Cela t’arrive de télécharger des choses « illégalement » ? (de la musique, des films, des jeux, des logiciels, etc.)

JAMAIS !!! (mais mon père…)

Sais-tu ce qu’est un logiciel libre ? Comprends-tu pourquoi un site comme Framasoft souhaite que l’on utilise plus de logiciels libres ?

Un logiciel libre est un logiciel public sur lequel tout le monde a tous les droits. La différence est que le logiciel non libre, tout le monde n’a pas tous les droits ! Oui je comprends : c’est pour qu’on puisse s’entraider sans avoir à demander a une quelconque personne et qu’on n’ait pas à payer 150€ pour taper du texte et dessiner sur l’ordinateur.

Quels conseils donnerais-tu à un camarade qui voudrait lui aussi se mettre à programmer ?

Prends Framakey et Linux !

Penses-tu qu’Internet puisse participer à rendre le monde meilleur et si oui pourquoi ?

Oui car on peut partager nos connaissances et nos avis.

Notes

[1] Crédit photo : D Sharon Pruitt (Creative Commons By)




Logiciel libre et économie de la contribution : le temps de la déprolétarisation

Le 6 mars dernier Philippe Aigrain et Jérémie Zimmermann étaient invités par Alain Giffard et Bernard Stiegler dans le cadre des rencontres du Théâtre de la Colline de l’association Ars Industrialis.

Le titre était alléchant : Logiciel libre et économie de la contribution : le temps de la déprolétarisation.

Et la présentation tout autant :

Nous y accueillerons Philippe Aigrain et Jeremie Zimmermann, avec lesquels nous débattrons des enjeux du logiciel libre du point de vue d’une économie de la contribution, dans un contexte industriel marqué par une extraordinaire croissance des technologies numériques, qui pénètrent désormais pratiquement tous les aspects de la vie quotidienne. Mais nous examinerons aussi cette question dans le souci de réfléchir aux possibilités et aux spécificités du modèle contributif dans d’autres secteurs que l’économie numérique elle-même.

Plus généralement, nous mettrons à l’épreuve l’hypothèse selon laquelle le mouvement culturel, social et professionnel du logiciel libre et des creative commons constituent un précédent historique avec lequel, pour la première fois dans l’histoire industrielle, une tendance qui conduisait à ce que les processus de prolétarisation, c’est à dire de pertes de savoirs, affectant progressivement tous les acteurs de la société industrielle (producteurs, consommateurs, concepteurs, mais aussi investisseurs devenus spéculateurs), semble se renverser en une tendance contraire, où la technologie industrielle est mise au service de la reconstitution de communautés de savoirs.

C’est comme extension de ce mouvement et des nouvelles caractéristiques organisationnelles sur lesquelles il repose que le modèle du logiciel libre, qui constitue la matrice de l’économie de la contribution, annoncerait le dépassement des modèles industriels productivistes et consuméristes.

Quelle frustration de ne pouvoir en être !

Mais merci à Christian Fauré d’avoir enregistré ce débat de haute volée (ce dernier précise : « la discussion qui a suivi a été vraiment exceptionnelle, par exemple lors de l’intervention d’Alain Pierrot, vous la retrouverez bientôt sur le site d’Ars Industrialis »).

Bernard Stiegler

—> La vidéo au format webm

Philippe Aigrain

—> La vidéo au format webm

Jérémie Zimmermann

—> La vidéo au format webm

Alain Giffard

—> La vidéo au format webm




Mardi 4 mai 2010 : Journée Mondiale contre les DRM

Martin Krzywinski - CC byLe 21 mars 2010 aura lieu la dixième édition de l’initiative Libre en Fête, permettant de faire découvrir le logiciel libre sur tout le territoire français.

Mais il n’y a pas que des journées de promotion. Dicté par le contexte actuel, il existe également des journées de résistance.

Ainsi en va-t-il du 4 mai prochain que la Free Software Foundation et l’Open Rights Group ont décidé d’ériger en « Journée Mondiale contre les DRM », (ou GDN en français, pour Gestion des Droits Numériques).

Il faut dire que le sujet est malheureusement toujours, voire plus que jamais, d’actualité. Pour s’en convaincre il suffit de parcourir cette longue chronologie non exhaustive de faits et de méfaits qui courent sur une décennie sur le site Defective by Design (la lecture de l’article dédié de Wikipédia étant également particulièrement instructive)[1].

Il y a un choix à faire (ou tout du moins accepter les alternatives). Soit contraindre la technologie actuelle pour la forcer artificiellement à rentrer dans les cases de la production de valeur de l’économie d’avant (fondée principalement sur la captation du client et la rareté du produit). Soit s’adapter et tirer parti des formidables possibilités de création et d’échanges liées à l’interopérabilité des fichiers, leur copie et leur remix à coût marginal, ainsi que leur diffusion massive et rapide sur le réseau.

En 1997, Richard Stallman écrivait sa nouvelle Le droit de lire. De la pure science-fiction (ou du délire paranoïaque) a-t-on pu alors penser. Sauf qu’en 2009, Amazon a décidé, sans préavis et sans accord préalable, de s’introduire dans le Kindle de ses clients pour en effacer tous les romans 1984 de George Orwell (notes des lecteurs incluses). La réalité peut toujours dépasser la fiction…

Journée mondiale contre les DRM : mardi 4 mai 2010

Day Against DRM: Tuesday, May 4th 2010

Holmes Wilson- 25 février 2010 – Communiqué FSF
(Traduction Framalang : Don Rico)

« Chaque fois qu’une entreprise conçoit des produits destinés à limiter nos libertés, nous devons nous organiser afin de déjouer ses projets » — Richard Stallman, président de la FSF.

Le 25 février, des groupes pour la défense de la justice sociale et les droits en ligne ont annoncé que le mardi 4 mai 2010 aura lieu la Journée Mondiale contre les DRM.

La Journée contre les DRM réunira de nombreux acteurs — organisations pour l’intérêt public, sites Internet et citoyens —, qui mettront sur pied une opération destinée à attirer l’attention de l’opinion publique sur les dangers d’une technologie qui restreint l’accès des utilisateurs aux films, à la musique, à la littérature, aux logiciels, et d’ordre plus général à toutes les formes de données numériques. De nombreux dispositifs de DRM enregistrent les activités de l’utilisateur et transmettent leurs données aux grosses entreprises qui les imposent.

Dans le cadre de sa campagne anti-DRM, Defective by Design, la Free Software Foundation (FSF) participera à la coordination des activistes anti-DRM de par le monde pour mobiliser l’opinion publique contre cette technologie antisociale. Il a aussi été publié un billet offrant un bref historique d’une Décennie de DRM (NdT : Decade in DRM).

« Les DRM s’en prennent à votre liberté à deux égards. Leur but est d’attaquer votre liberté en limitant l’utilisation que vous pouvez faire de vos copies d’œuvres numériques. Pour cela, ils vous obligent à utiliser des logiciels privateurs, dont vous ne contrôlez pas les actions. Chaque fois qu’une entreprise conçoit des produits destinés à limiter nos libertés, nous devons nous organiser afin de déjouer ses projets, » a déclaré Richard Stallman, le président de la FSF.

Jim Killock, le directeur exécutif de l’Open Rights Group, précise quant à lui que « les dispositifs de DRM sont une catastrophe pour les usages légaux de musique, de films et de livres. Ils sont conçus pour enchaîner les utilisateurs à des logiciels et à des appareils particuliers, et anéantissent vos droits à l’usage de la liberté d’expression tels que l’information, l’enseignement et la critique. À cause des DRM, vous n’avez plus la maîtrise des données et êtes à la merci des fabricants. »

Richard Esguerra, de l’Electronic Frontier Foundation, partenaire de la Journée contre les DRM, explique que « Les activistes et les utilisateurs de technologie bien informés ont joué un rôle clé dans la dénonciation des méfaits des DRM à l’époque où les mesures techniques consistaient en programmes anticopie. À présent, les DRM évoluent car les entreprises cherchent à limiter les utilisateurs bien au-delà de leur capacité à copier des fichiers. La Journée mondiale contre les DRM est une nouvelle occasion de relever le défi et de se battre pour la liberté technologique. »

Les évènements, partenaires et partisans qui s’ajouteront à la « Journée contre les DRM » seront annoncés à mesure que la date approchera. Les organisations et les particuliers qui souhaitent s’impliquer peuvent contacter info@defectivebydesign.org ou se rendre sur le site http://defectivebydesign.org/ pour s’inscrire et suivre la campagne.

La Free Software Foundation

La Free Software Foundation, fondée en 1985, se consacre à la défense des droits des utilisateurs à utiliser, étudier, copier, modifier et redistribuer les programmes informatiques. La FSF promeut la conception et l’utilisation des logiciels libres — en particulier du système d’exploitation GNU et de ses dérivées GNU/Linux —, et d’une documentation libre pour les logiciels libres. La FSF contribue aussi à informer le public sur les questions éthiques et politiques qui sont en jeu dans la liberté d’utilisation des logiciels ; ses sites Web, que l’on trouve aux adresses fsf.org et gnu.org, offrent d’importantes sources d’information sur GNU/Linux. Si vous souhaitez soutenir financièrement l’action de la FSF, vous pouvez faire un don sur la page http://donate.fsf.org. Son siège se trouve à Boston, Massachusetts, aux États-Unis.

L’Open Rights Group

L’Open Rights Group est un groupe de défense des droits numériques basé au Royaume-Uni, qui vise à attirer l’attention sur les questions des droits numériques, à favoriser l’activité citoyenne, ainsi qu’à protéger et étendre les libertés civiques à l’ère numérique.

Notes

[1] Crédit photos : Martin Krzywinski (Creative Commons By) et Martin Krzywinski (Creative Commons By)




L’Éclaternet ou la fin de l’Internet tel que nous le connaissons ?

Raúl A. - CC byUne fois n’est pas coutume, nous vous proposons aujourd’hui une traduction qui non seulement ne parle pas de logiciel libre mais qui en plus provient de CNN, et même pire que cela, de sa section Money !

Et pourtant il nous semble pointer du doigt une possible évolution d’Internet, celle de son éclatement sous la pression des smartphones et autres objets connectés tels ces nouvelles liseuses et tablettes dont on vante tant les futurs mérites.

Une évolution possible mais pas forcément souhaitable car c’est alors toute la neutralité du Net qui vacille puisque les trois couches qui définissent le réseau d’après Lessig se trouvent ensemble impactées.

l’iPad ou le Kindle en sont des exemples emblématiques car ce sont des ordinateurs (la couche « physique ») dont Apple et Amazon contrôlent à priori les protocoles et les applications (la couche « logique ») et peuvent filtrer à leur guise les fichiers (la couche des « contenus »).

L’article s’achève sur une note optimiste quant au HTML5 et au souci d’interopérabilité. Encore faudrait-il avoir affaire à des utilisateurs suffisamment sensibilisés sur ces questions[1].

Hier encore on nous demandait : T’es sous quel OS, Windows, Mac ou Linux ? Aujourd’hui ou tout du moins demain cela pourrait être : T’es sous quel navigateur, Firefox, Internet Explorer ou Chrome ?

Et après-demain on se retrouvera à la terrasse des cafés wi-fi, on regardera autour de nous et on constatera, peut-être un peu tard, qu’à chaque objet différent (netbook, smartphone, iPad, Kindle et leurs clones…) correspond un Internet différent !

La fin de l’Internet tel que nous le connaissons, grâce à l’iPad et aux autres

End of the Web as we know it, thanks to iPad and others

Julianne Pepitone – 3 février 2010 – CNNMoney.com
(Traduction Framalang : Martin et Goofy)

Pendant plusieurs années, l’Internet a été relativement simple : tout le monde surfait sur le même réseau.

Plus on s’avance vers 2010, plus l’idée d’un même Internet « taille unique » pour tous devient un souvenir lointain, à cause de l’arrivée de l’iPhone, du Kindle, du BlackBerry, d’Android, et bien sûr du fameux iPad.

La multiplication des gadgets mobiles allant sur Internet s’accompagne à chaque fois d’un contenu spécifique pour chaque appareil. Par exemple, l’application populaire pour mobile Tweetie permettant de se connecter à Twitter n’est disponible que pour l’iPhone, alors que l’application officielle pour Gmail ne l’est que pour Android. Et si vous achetez un e-book pour le Kindle d’Amazon, vous ne pourrez pas forcément le lire sur d’autres lecteurs électroniques.

En même temps de plus en plus de contenus en ligne sont protégés par un mot de passe, comme la plupart des comptes sur Facebok et certains articles de journaux.

C’est un Internet emmêlé qui est en train de se tisser. Simplement, le Web que nous connaissions est en train d’éclater en une multitude de fragments. C’est la fin de l’âge d’or, selon l’analyste de Forrester Research Josh Bernoff, qui a récemment formulé le terme de « éclaternet » pour décrire ce phénomène (NdT : the splinternet).

« Cela me rappelle au tout début d’Internet la bataille de fournisseurs d’accès entre AOL et CompuServe » dit Don More, du fond de capital risque Updata, une banque d’investissement conseillère dans les technologies émergentes de l’information. « Il y aura des gagnants et des perdants ».

Dans ces premiers temps du Web, les utilisateurs accédaient aux contenus en utilisant des systèmes spécifiques ; ainsi les abonnés de chez AOL ne pouvaient voir que les contenus AOL. Puis le World Wide Web est devenu une plateforme ouverte. Maintenant les appareils nomades sont à noueau en train de morceler le Web.

D’après Bernoff, « Vous ne pouvez plus recoller les morceaux, la stabilité qui a aidé le Web à prendre forme s’en est allée, et elle ne reviendra plus ».

Des angles morts

Quand les utilisateurs d’appareils mobiles choisissent d’acheter un iPhone, un Motorola avec Android, un BlackBerry ou d’autres, ils sont effectivement en train d’opter pour certains types de contenus ou au contraire d’en abandonner d’autres, puisque toutes les applications ne sont pas disponibles sur tous ces gadgets.

D’après Don More de Updata, ce phénomène est en train de mettre le contenu dans des « communautés fermés ». Les fabricants de ces appareils peuvent (et ils le font) prendre et choisir quelles applications fonctionneront avec leur machine, en rejetant celles qui pourraient être en concurrence avec leurs propre produits, ou bien celles qu’ils estiment n’être pas à la hauteur.

Par exemple, Apple a rejeté l’application Google Voice sur l’iPhone, qui aurait permis aux utilisateurs d’envoyer gratuitement des messages et d’appeler à l’étranger à faible coût.

Et les limitations ne s’arrêtent pas seulement aux applications. Une affaire d’actualité : Le nouvel iPad ne prend pas en charge le lecteur Flash d’Adobe, ce qui empêchera les utilisateurs d’accéder à de nombreux sites.

Bernoff ajoute : « bien que (cette tendance) ne soit pas nécessairement mauvaise pour les consommateurs, ils devraient prendre conscience qu’ils sont en train de faire un choix. Quoi qu’ils choisissent, certains contenus ne leur seront pas disponibles ».

Des choix difficiles

Les entreprises qui créent les applications sont maintenant confrontées à des choix difficiles. Quels appareils choisiront-elles de prendre en charge ? Combien d’argent et de temps devront-elles prendre pour que leurs contenus fonctionnent sur ces gadgets ?

Quel que soit le choix des développeurs, il leur manquera toujours une partie des consommateurs qu’ils pouvaient auparavant toucher lorsque le Web était un seul morceau.

Sam Yagan, co-fondateur du site de rencontres OKCupid.com, ajoute : « quand nous avons commencé notre projet, jamais nous avons pensé que nous aurions à faire face à un tel problème. Réécrire un programme pour un téléphone différent c’est une perte de temps, d’argent, et c’est un vrai casse-tête ».

D’après Yagan, OkCupid emploie 14 personnes, et son application pour l’iPhone a nécessité 6 mois de travail pour être développée. L’entreprise envisage de créer une application pour Android, ce qui prendra environ 2 mois.

« C’est un énorme problème de répartition des ressources, surtout pour les petites entreprises », explique Yagan, « Nous n’avons tout simplement pas assez de ressources pour mettre 5 personnes sur chaque appareil qui sort ».

Chris Fagan, co-fondateur de Froogloid, une société qui propose un comparateur pour le commerce électronique, dit que son entreprise a choisi de se spécialiser sur Android, car il marche avec plusieurs téléphones comme le Droid, Eris, ou G1.

Selon Fagan « les consommateurs sont en train de perdre des choix possibles, et les entreprises sont en train de souffrir de ces coûts supplémentaires ». Mais il ajoute que la popularité en plein essor des applications signifie que les entreprises continueront à en concevoir malgré leur coût.

Et après ?

Comme un Internet plus fragmenté devient chose courante, Bernoff de Forrester pense qu’il y aura un contrecoup : une avancée pour rendre le contenu sur mobile plus uniforme et interopérable.

La solution pourrait bien être la nouvelle version du langage Web qui arrive à point nommé, le HTML5, qui d’après Bernoff pourrait devenir un standard sur les appareils nomades dans quelques années. Par exemple, le HTML5 permet de faire fonctionner des animations sur les sites Web sans utiliser le Flash.

Mais l’arrivée de n’importe quelle nouvelle technologie déclenchera une lutte pour la contrôler. Don More de Updata s’attend à voir « une bataille sans merci entre les entreprises (pas seulement Apple et Google, mais aussi Comcast, Disney et tous ceux qui s’occupent des contenus). Que ce soit les applications, les publicités, les appareils… tout le monde est en train d’essayer de contrôler ces technologies émergentes ».

Évidemment, personne ne peut prévoir le futur du Web. Mais Bernoff est au moins sûr d’une chose.

« Nous ne connaissons pas ce que seront les tous nouveaux appareils en 2011. Mais ce qui est certain, c’est que l’Internet ne fonctionnera plus comme on l’a connu. »

Notes

[1] Crédit photo : Raúl A. (Creative Commons By)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)