La libération du savoir est un travail de fourmis

AntWeb - CC by-saUn peu de storytelling aujourd’hui sur le Framablog, avec cette histoire de fourmis qui n’avaient pas d’images dans Wikipédia.

Nous le savons, l’encyclopédie libre est très certainement l’une des plus belles aventures humaines jamais imaginées.

Mais son influence est telle qu’elle a aujourd’hui également la capacité d’influencer directement ou indirectement la politique de licences des contenus produits par les organismes publics, universités en tête[1].

AntWeb passe sous licence Creative Commons BY-SA

AntWeb goes CC-BY-SA

Waldir Pimenta – 6 novembre 2009 – All The Modern Things
(Traduction Framalang : Poupoul2)

Saviez vous que l’insecte le plus venimeux au monde est une fourmi ? En effet, une piqûre de la fourmi Maricopa Harvester équivaut à douze piqures d’abeilles, ce qu’il faut pour tuer un rat de plus de deux kilos.

J’ai découvert cela il y a plus d’un an dans le livre des insectes de l’Université de Floride. Je me suis immédiatement tourné vers Wikipedia pour savoir ce qu’on en disait, mais à ma grande surprise, aucun article n’existait. J’en ai donc commencé un à partir d’un page blanche, en utilisant des informations glanées sur plusieurs sites consacrés aux fourmis. Finalement, les gens ont commencé à enrichir l’article, jusqu’à ce qu’il contienne une somme d’informations de bonne qualité à propos de cette espèce fascinante. Mais il y manquait toujours quelque chose, qui à lui seul pouvait rendre l’article dix fois meilleur : Une image.

Ainsi, en cherchant des images afin d’illustrer cet article, j’ai découvert les fantastiques images d’AntWeb, un projet de l’Académie des Sciences de Californie, qui a pour objectif d’illustrer l’énorme diversité des fourmis dans le monde. J’étais particulièrement heureux qu’ils utilisent une licence Creative Commons, mais j’ai rapidement déchanté en constatant que celle qu’ils utilisaient (la licence Creative Commons BY-NC) n’était pas appropriée pour Wikipédia, ou plus généralement pour ce que les Creative Commons appellent elles-mêmes les « œuvres culturelles libres » (Ndt : voir à ce sujet ce billet du Framablog).

Je leur ai donc envoyé un courriel, suggérant de changer la licence. Lorsqu’ils m’ont répondu, j’ai découvert qu’en fait, des discussions internes à propos de la licence étaient déjà en cours. Je suis resté en contact avec eux, et me suis assuré de leur parler des avantages de voir leurs travaux placés dans des vitrines telles que Wikipédia, Commons ou Wikispecies.

J’aime à penser que ma modeste intervention a participé à leur prise de décision, quelque temps plus tard, non seulement de changer de licence pour une Creative Commons BY-SA, mais également de téléverser leurs images dans Commons eux-mêmes. Il s’agissait d’une partie de leur mission globale : « L’accès universel aux informations sur les fourmis ». Auparavant, le projet AntWeb, se concentrait sur la numérisation de contenus et le développement d’un portail web : ils ont désormais décidé d’exporter le contenu d’AntWeb pour en améliorer l’accès. Mettre les images et les méta-données associées dans Commons fut un exemple en matière d’organisation.

Cette initiative a été saluée par la communauté, et il y a eu de nombreuses contributions à ce massif téléversement, afin de rendre les images plus faciles à trouver et à utiliser pour illustrer des articles, et autres pages pertinentes. Le processus a pris plusieurs jours, mais au final ce sont pas moins de 30 000 images qui auront été téléversées, intégralement associées à leurs données EXIF, mais également aux informations taxonomiques et géographiques, chaque fois qu’elles étaient disponibles.

Tout ceci n’est pourtant quelque part qu’une première pierre. Puisque, comme d’habitude dans le monde des wikis, vous pouvez contribuer. Il existe des articles à illustrer dans toutes les langues de Wikipedia (l’outil de recherche d’images libres FIST de Magnus arrive à point nommé pour cela). Il y a des pages à illustrer sur Wikispecies. Il y a des catégories à créer dans Commons, afin de faciliter la navigation dans l’arbre des catégories des fourmis et d’y rendre chaque image de fourmi accessible. Et plus important, il y a cette nouvelle fantastique à diffuser, afin de faire savoir à tous ceux qui sont intéressés par les fourmis qu’ils peuvent désormais compter sur ce qui est sans doute la plus importante ressource en ligne d’images de fourmis, toutes de grandes qualité.

Un grand merci à Brian Fisher, chef de projet AntWeb, qui a coordonné le processus de changement de licence, Dave Thau, ingénieur logiciel AntWeb, qui a écrit le script de téléversement et réalisé cette opération, et à toute l’équipe d’AntWeb pour leur formidable travail.

Notes

[1] Crédit photo : AntWeb (Creative Commons By-Sa)




Educatice 2009 : Demandez le programme libre, avec Jean-Pierre Archambault

Styeb - CC by-saJean-Pierre Archambault œuvre depuis des années pour le logiciel libre à l’école, contribution au pluralisme technologique..

Il ne le fait pas « de l’extérieur », en se contenant de chausser ses gros sabots pour crier haro sur le baudet dans un blog (suivez mon regard !).

Il le fait « de l’intérieur » et par petites touches, au sein même des arcanes de l’Éducation nationale, dans le cadre de l’accord signé en octobre 1998 par le Ministère de l’Education nationale et l’AFUL, ce qui suppose patience, tactique et diplomatie.

Avec le temps c’est toute une petite équipe qui s’est agrégée autour de lui : le pôle de compétences logiciels libres du SCEREN, qui a pris la bonne habitude de venir chaque année nombreux représenter dignement le logiciel libre au Salon Educatec-Educatice (manifestation parallèle au Salon de l’Education mais réservée aux professionnels de l’éducation).

L’occasion était belle pour rencontrer Jean-Pierre Archambault[1], lui demander le programme 2009 de cette manifestation (du 18 au 20 novembre à Paris) et en profiter au passage pour évoquer le situation actuelle du libre dans l’éducation.

Rencontre avec Jean-Pierre Archambault

CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN


Comme chaque année depuis 2004, le pôle de compétences logiciels libres du SCEREN sera présent au salon Educatec-Educatice.

Oui. Les organisateurs de ce salon ont toujours considéré comme allant de soi, dans leur vision marquée du sceau du pluralisme, qu’il devait y avoir une composante libre dans leur manifestation consacrée à l’informatique pédagogique dans toute sa diversité. Je tiens à les en remercier à nouveau.

Cette année, nous organisons une table ronde – conférence « Logiciels et ressources libres pour l’éducation ». Elle se déroulera le jeudi 19 novembre, de 15h45 à 17h15 en salle 1. Nous ferons un état des lieux en termes de solutions et ressources utilisées. Nous verrons les coopérations de l’institution éducative avec les associations, les collectivités locales et les entreprises. Nous verrons également en quoi le libre est la réponse appropriée à la question de « l’exception pédagogique ».

Nous participerons à deux autres tables rondes : « L’Ecole numérique, de la théorie à la pratique », le mercredi 18 novembre, de 14h à 17h15, en salle 3 ; et « CRDP : valoriser la diffusion multi-support des documents éditoriaux », le jeudi 19 novembre, de 9h30 à 11h, en salle 3[2].


Et il y a bien sûr le village du pôle dont j’ai le souvenir, les années où je suis venu à Educatice, qu’il était une véritable « ruche ».

Ce village s’inscrit dans la mise en oeuvre de l’une des missions du pôle, à savoir fédèrer les initiatives, les compétences et les énergies, ce qui l’amène à coopérer avec de nombreux acteurs, institutionnels ou partenaires de l’Education nationale, ainsi les collectivités locales, les entreprises, les associations.

Le village accueillera différents exposants, institutionnels et associatifs. Le CRDP de Lyon présentera OSCAR, lauréat aux Trophées du libre 2009, un ensemble d’outils qui permet aux administrateurs réseaux d’installer et de gérer facilement une salle informatique. Le CRDP de Paris présentera lui ses différentes activités en matière de logiciels et de ressources libres : partenariats éditoriaux avec Sésamath, réalisation de clés USB, démonstration de Freemind… La présence du CDDP de Seine-Maritime sera centrée sur l’opération du Conseil général qui a consisté à doter tous les collégiens du département d’un bureau virtuel.

Le Réseau Ecole et Nature, dont le but est de développer l’éducation à l’environnement, fera visiter son site réalisé à partir de logiciels libres, et qui vient de faire peau neuve. On connaît bien Sugar, plate-forme pédagogique libre, née du projet One Laptop Per Child (OLPC). Aujourd’hui utilisée sur le XO par plus d’un million d’enfants dans le monde entier, elle sera sur le village.

Les visiteurs pourront faire connaissance avec la toute jeune association EducOoo (un an juste), liée au projet OpenOffice.org Éducation. Elle sert de ressource et vise à faciliter la mise en place et l’accompagnement de projets entre OpenOffice.org et le monde de l’enseignement.

Les visiteurs pourront mieux connaître deux chaînes éditoriales libres, La Poule ou l’Oeuf et Scenari. La Poule ou l’Œuf est une chaîne éditoriale Web dédiée à l’édition de documents longs (monographies, cours, mémoires, thèses, actes…), à destination électronique aussi bien que papier. Elle s’adresse à toute institution éditrice de contenus académiques pour une production structurée sémantiquement et intégrée au réseau, en vue d’une exploitation dynamique et évolutive des savoirs. Scenari, elle, est une chaîne éditoriale générique, basée sur la séparation des formats de stockage et des formats de publication : les formats de stockage décrivent la structure du fonds documentaire et les formats de publication la forme physique du document vue par l’utilisateur.

Seront également présents l’AFUL (Association francophone des utilisateurs de Linux et des logiciels libres) et Scidéralle (les logiciels du Terrier, AbulÉdu, AbulEduLive…).


Educatice est un moment important de l’année scolaire pour le pôle de compétences logiciels libres du SCEREN.

Effectivement. Il s’inscrit aussi dans ce qui est la mission première du pôle qui est d’informer la communauté éducative, afin d’aider les uns et les autres à faire leurs choix. Les modalités sont diverses : organisation et/ou participation à des journées, séminaires, colloques, salons mais aussi textes et articles. Les initiatives sont multiples. Pour les dernières années scolaires, on peut mentionner, entre autres : depuis 2000, la présidence du cycle Education du salon Solutions Linux ; Paris Capitale du Libre ; le Forum Mondial du Libre ; les journées Autour du libre coorganisées par le CNDP et les ENST ; les colloques et séminaires d’ePrep ; les Rencontres de l’Orme, les Trophées du libre ; la Semaine de la Science ; les Rencontres mondiales des logiciels libres…


Comment ces actions d’information sont-elles reçues ?


En général très bien ! Il faut dire qu’est tellement évidente la convergence entre les principes du libre et les missions du système éducatif, la culture enseignante de libre accès à la connaissance et de sa diffusion à tous, de formation aux notions et non à des recettes. L’enseignement requiert la diversité des environnements scientifiques et techniques. La compréhension des systèmes suppose l’accès à leur « secret de fabrication ». Des formes de travail en commun des enseignants, de travail et d’usages coopératifs supposent des modalités de droit d’auteur facilitant l’échange et la mutualisation des documents qu’ils produisent. Du côté des usages éducatifs des TIC, on retrouve l’approche du libre, notamment ses licences GPL ou Creative Commons.

Il faut cependant ajouter qu’informer sur le libre, dans un esprit de diversité scientifique et technologique, ne fut pas toujours un « long fleuve tranquille ». Dans l’éducation comme ailleurs, il y a une pluralité de points de vue. Mais les choses sont entendues, depuis un certain temps déjà : le libre est sans conteste une composante à part entière et de premier plan de l’informatique pédagogique.


Peux-tu nous rappeler le contexte institutionnel ?

Créé en 2002, regroupant aujourd’hui vingt-trois CRDP, le pôle de compétences logiciels libres du SCÉRÉN est à la fois une structure de réflexion et d’action. Il a pris le relais de la Mission veille technologique à qui la direction générale du CNDP avait confié, dès 1999, le pilotage du « chantier » des logiciels libres, dans le contexte institutionnel éducatif défini, en octobre 1998, par un accord-cadre signé entre le Ministère de l’Éducation nationale et l’AFUL. Cet accord, régulièrement reconduit depuis lors, indiquait qu’il y a pour les établissements scolaires, du côté des logiciels libres, des solutions alternatives de qualité et à très moindre coût aux logiciels propriétaires, dans une perspective de pluralisme technologique. Et depuis plus de dix ans, les différents directeurs généraux qui se sont succédé à la tête du CNDP ont accordé une attention particulière au dossier des logiciels libres.


Quel est l’accueil du côté des collectivités locales ?

Bon également. Il y a des enjeux financiers, la question étant moins celle de la gratuité que celle du caractère « raisonnable » des coûts informatiques. Comme le dit François Elie, président de l’Adullact (Association pour le développement des logiciels libres dans l’administration et les collectivités territoriales), un logiciel est gratuit une fois qu’il a été payé et l’argent public ne doit servir qu’une fois pour payer un logiciel.

Les logiciels libres permettent de réduire d’une manière très significative les dépenses informatiques dans le système éducatif. Les collectivités locales sont de plus en plus sensibles à cet aspect des choses, notamment pour le poste de travail avec la suite bureautique OpenOfice.org. La licence GPL permet aux élèves, et aux enseignants, de retrouver à leur domicile leurs outils informatiques, sans frais supplémentaires et en toute légalité. Concernant les ENT, la région Ile-de-France va déployer une solution libre.


Et les ressources pédagogiques ?

Dans l’éducation, le libre c’est le logiciel mais également (et peut-être surtout) les ressources pédagogiques. Dans ce domaine, le « vaisseau-amiral » est l’association Sésamath[3]. Les lecteurs de Framasoft étant très bien informés des multiples activités de cette association remarquable, nous rappellerons qu’elle a eu un Prix de l’UNESCO en 2007 et qu’elle édite (en partenariat avec un éditeur privé) des manuels scolaires pour le collège qui connaissent un franc succès, et bientôt pour les CPGE (Classes préparatoires aux grandes écoles).


On sait que le numérique et les réseaux ont plongé l’édition scolaire (et l’édition en général) dans une période de turbulences. D’un côté, Sésamath met librement et gratuitement ses réalisations pédagogiques sur la Toile. De l’autre, elle procède à des coéditions, à des prix « raisonnables », de logiciels, de documents d’accompagnement, de produits dérivés sur support papier avec des éditeurs, public (les CRDP de Paris et de Lille) et privé, à partir des ressources mises en ligne sur la Toile. Le succès est au rendez-vous. La question est posée de savoir si ce type de démarche préfigure un nouveau modèle économique de l’édition scolaire, dans lequel la rémunération se fait sur le produit papier, sur le produit dérivé, le produit hybride et par le service rendu.


Des enjeux de société aussi


Oui, comme l’ont montré les vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI) et plus récemment à propos de la loi Hadopi.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation des biens informationnels en général.

La question est donc posée de savoir si le modèle du libre préfigure des évolutions majeures en termes de modèles économiques et de propriété intellectuelle. Le logiciel libre est un « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance. Incontournable pour le citoyen. Or l’on sait que l’une des trois missions de l’Ecole est de former le citoyen !

En guise de conclusion

Je voudrais profiter de cet interview pour remercier l’association Framasoft pour la place qu’elle occupe dans le paysage éducatif et culturel, et le rôle qu’elle y joue, la qualité de sa réflexion, son attachement au bien commun et au pluralisme.

Et puis, rendez-vous au salon Educatice. Pré-enregistrement sur le site d’Educatec-Educatice avec demande de badge d’accès gratuit.

Notes

[1] Crédit photo : Styeb (Creative Commons By-Sa)

[2] Signalons que Jean-Pierre Archambault, cette fois-ci avec sa casquette de président de l’EPI, animera également une table ronde, le vendredi 20 novembre de 11h15 à 12h45, « Un enseignement de l’informatique au lycée », avec Gérard Berry, Professeur au Collège de France, membre de l’Académie des Sciences, Gilles Dowek, Professeur d’informatique à l’École Polytechnique et Pierre Michalak, IA-IPR de l’Académie de Versailles. Thème souvent évoqué dans le Framablog.

[3] Remarque : Sésamath sera non seulement présent à Educatice mais également au Salon de l’Éducation, stand CE40.




La neutralité du réseau – Benjamin Bayart – Extrait du livre La bataille Hadopi

La bataille Hadopi - InLibroVeritas - CC by-sa et Art Libre« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre choral d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

Notes

[1] Qui portent, bien entendu, atteinte à la liberté d’aller et venir, qui est elle aussi une liberté fondamentale.




0,01 % du budget licences Microsoft pour soutenir et déployer OOo4Kids à l’école !

Libre ou pas libre, là où Microsoft Office et OpenOffice.org se rejoignent dans le pire, c’est au niveau ergonomique, avec une interface peu adaptée aux jeunes enfants. Cela les déroute de prime abord et complexifie inutilement leur initiation à cet indispensable outil qu’est une suite bureautique.

Il se trouve qu’un projet, initié par un enseignant français, souhaite justement remédier à cela en optimisant son utilisation pour la tranche d’âge 7-12 ans. Et, tiens donc, il ne peut le faire qu’avec OpenOffice.org, qui elle seule autorise les modifications du code source de par sa licence libre.

Ce projet s’appelle OOo4Kids et nous avions déjà eu l’occasion d’en parler il y a peu en interviewant Éric Bachard, l’enseignant dont nous parlions au paragraphe précédent.

Le projet avance, comme en témoigne cette excellente petite vidéo ci-dessous qui présente tout ce qu’OOo4Kids peut apporter aujourd’hui et demain aux écoliers.

—> La vidéo au format webm

Le projet avance, mais il manque de ressources et de moyens, ainsi que vient nous le rappeller l’appel au don final de la vidéo. Et nous vous invitons tous bien entendu à participer pour soutenir le projet.

Mais, franchement, qui devrait avant tout aider un tel projet ? Qui devrait aider un enseignant et son équipe à développer cette application libre à vocation internationale ayant pour objectif de faciliter l’appropriation et l’usage de l’outil informatique dans les classes ?

L’Éducation nationale, bien sûr, avec nos sous de contribuables. Et j’en serais fier pour mon Institution.

Dans le cas contraire, c’est purement et simplement à désespérer…




Première démonstration « open source » d’un théorème mathématique

Robynejay - CC by-saEst-ce uniquement par leur licence qu’un noyau Linux et une encyclopédie Wikipédia sont identifiés comme étant libres ?

Juridiquement parlant oui, mais s’en tenir là serait passer à côté du modèle collaboratif particulier que ce sont donnés ces deux fleurons de la culture libre pour développer leur projet.

Conséquence de la licence, c’est aussi voire surtout la puissance de ce modèle qui caractérise le Libre. Et ce modèle commence à se diffuser un peu partout dans la société…

Les mathématiques sont « libres » depuis la nuit des temps (enfin depuis que les pythagoriciens ont cessé de se cacher, pour être plus précis)[1]. Chacun est libre des les étudier, les copier et les améliorer en étant fortement encouragé à rendre évidemment publiques ces améliorations, dans la plus pure tradition universitaire.

C’est absurde, mais si il fallait a posteriori leur accoler une licence issue de la culture libre, ce pourrait être la plus simple des Creative Commons, la CC-By, puisque cette notion de paternité est très importante dans un monde scientifique avant tout motivé par la reconnaissance des pairs et la place laissée dans l’Histoire de leur champ disciplinaire.

On retrouve d’ailleurs souvent les crédits et les hommages dans les noms que l’on donne aux résultats. On parlera ainsi de la preuve selon Euclide du théorème de Thalès.

Les mathématiques seraient donc « libres », les professeurs également (enfin surtout en France dans le secondaire avec Sésamath), mais quid des mathématiciens eux-même et de leurs pratiques ? Et si ils s’organisaient à la manière d’un projet de développement d’un logiciel libre pour chercher et éventuellement trouver ensemble des résultats importants ?

Entendons-nous bien. Les mathématiciens ne vivent bien entendu pas dans une tour d’ivoire. Ils sont habitués à travailler et échanger ensemble au sein d’un laboratoire, lors d’un séminaire… et évidemment sur Internet. Mais l’aventure intellectuelle et collective du « Projet Polymath » que nous avons choisi de vous narrer ci-dessous est un peu différente, en ce sens que ses auteurs eux-mêmes la définissent comme une expérience « open source ».

Ne vous arrêtez surtout pas à la complexité mathématique de ce qu’ils cherchent à accomplir (à savoir une « meilleure » preuve d’un théorème déjà démontré !), c’est totalement secondaire ici. Ce qui nous intéresse en revanche c’est comment ils y sont arrivés (désolé d’avoir vendu la mèche) et les enseignements qu’ils en tirent pour l’avenir.

Parce qu’il se pourrait que cet mode opératoire, original et efficient, fasse rapidement des émules, et ce bien au delà des mathématiques.

Remarque : C’est le terme « open source » qui a été choisi tout du long par les auteurs et non « free software ». Contrairement au domaine logiciel, il ne s’agit pas d’un choix ou d’un parti pris mais tout simplement d’une question de sens : « open source mathematics » étant largement plus signifiant que « free software mathematics » !

Mathématiques massivement collaboratives

Massively collaborative mathematics

Timothy Gowers[2] et Michael Nielsen[3] – 24 octobre 2009 – Nature.com (Opinion)
(Traduction Framalang : Olivier et Goofy)

Le « Projet Polymath » est la preuve que l’union de nombreux cerveaux peut résoudre des problèmes mathématiques complexes. Timothy Gowers et Michael Nielsen nous livrent leurs réflexions sur ce qu’ils ont appris des sciences open source.

Le 27 janvier 2009, l’un d’entre nous, Gowers, a lancé une expérience inhabituelle par l’intermédiaire de son blog (NdT : avec ce billet Is massively collaborative mathematics possible?). Le Projet Polymath s’était fixé un but scientifique conventionnel : s’attaquer à un problème mathématique irrésolu. Mais son but plus ambitieux était d’innover dans la recherche en mathématiques. Reprenant l’idée des communauté open source comme Linux et Wikipédia, le projet s’appuyait sur des blogs et des wikis pour canaliser une collaboration complètement ouverte. Libre à tout un chacun d’en suivre la progression et s’il le désire d’apporter sa contribution. Les blogs et wikis étaient en quelque sorte une mémoire à court terme collective, un brainstorming ouvert à grande échelle dédié à l’amélioration des idées.

Le résultat de la collaboration dépassa de loin les espérances de Gowers, offrant une belle illustration de ce que nous pensons être une dynamique formidable pour les découvertes scientifiques : la collaboration de nombreux cerveaux connectés par Internet.

Le Projet Polymath visait à trouver une preuve élémentaire d’un cas particulier du théorème de Hales-Jewett sur la densité (NdT : DHJ pour Density Hales-Jewett), théorème central de l’analyse combinatoire, une branche des mathématiques qui étudie les structures discrètes (voir Morpion à plusieurs dimensions). Ce théorème avait déjà été démontré, mais les mathématiciens ne se contentent pas toujours d’un seul chemin. De nouvelles preuves peuvent déterminantes pour une meilleure compréhension du théorème. Trouver une nouvelle démonstration du théorème DHJ était important pour deux raisons. Tout d’abord il fait partie d’un ensemble de résultats fondamentaux possédant plusieurs démonstrations, alors que le théorème DHJ n’en avait jusqu’alors connu qu’une seule, longue, complexe, et très technique. Seul un élan de nouvelles idées pouvait amener à une preuve plus simple, s’appuyant sur des concepts de base plutôt que sur des techniques compliquées. Ensuite, du théorème DHJ découle un autre théorème important, le théorème de Szemerédi. La découverte de nouvelles preuves de ce théorème a conduit à de grandes avancées au cours de la dernière décennie, on pouvait donc raisonnablement s’attendre à ce qu’un même phénomène accompagne la découverte d’une nouvelle démonstration du théorème DHJ.

À l’origine du projet on retrouve Gowers. Il publia une description du problème, indiqua quelques ressources et établit une liste préliminaire de règles régissant la collaboration. Grâce à ces règles, les échanges sont restés polis et respectueux, elles encourageaient les participants à proposer une et une seule idée par commentaire, même sans la développer complètement. Ces règles stimulaient ainsi les contributions et aidaient à conserver le caractère informel de la discussion.

Mettre le projet sur les bons rails

La discussion collaborative a vraiment commencé le 1er février, doucement : il a fallu attendre plus de 7 heures avant que Jozsef Solymosi, un mathématicien de l’Université de la Colombie Britannique à Vancouver, fasse le premier commentaire. Quinze minutes après, un nouveau commentaire était posté par Jason Dyer, enseignant dans un lycée de l’Arizona. Trois minutes après, c’est Terence Tao (lauréat de la médaille Fields, la plus haute distinction en mathématiques), de l’Université de California à Los Angeles, qui écrivit son commentaire.

Au cours des 37 jours qui suivirent, ce sont pas moins de 27 personnes qui ont apporté leur contribution au travers d’environ 800 messages, pour un total de 170 000 mots. Personne n’a été spécialement invité à participer : la discussion était ouverte à tout le monde, des doctorants aux experts mathématiciens. Nielsen a mis en place un wiki pour mettre en avant les contributions importantes apparues dans les commentaires du blog. Au moins 16 autres blogs ont parlé du projet, il s’est hissé à la première page de l’agrégateur Slashdot technology et a donné naissance à un projet assez proche sur le blog de Tao.

Tout s’est déroulé sans accroc : pas de « trolls » (ces adeptes des posts non constructifs, voire malveillants), ni de commentaires bien intentionnés mais complètement inutiles (on peut malgré tout signaler que le wiki a été spammé). Le rôle de modérateur pris par Gowers se résumait essentiellement à corriger les fautes.

Le projet progressa bien plus rapidement qu’attendu. Le 10 mars, Gowers annonça qu’il était assez sûr que les participants au projet Polymath avaient découvert une preuve élémentaire d’un cas particulier du théorème DHJ et, qu’étonnamment (compte tenu des expériences avec des problèmes similaires), cette preuve pouvait être généralisée assez facilement pour prouver le théorème entier. La rédaction d’un article décrivant cette preuve est entreprise, ainsi que celle d’un second papier décrivant des résultats liés. De plus, alors que le projet était encore actif, Tim Austin, doctorant à l’Université de Californie, Los Angeles, publia une autre preuve (non élémentaire celle-ci) du théorème DHJ en s’appuyant largement sur les idées développées dans le projet Polymath.

Les archives du projet Polymath constituent une ressource exceptionnelle pour les étudiants en mathématiques, les historiens et autres philosophes des sciences. Pour la première fois, on peut suivre le cheminement intellectuel complet à l’origine d’un résultat mathématique sérieux. On y voit les idées naître, grandir, changer, s’améliorer ou être abandonnées, et on y découvre que la progression de la compréhension ne se fait pas nécessairement par un unique pas de géant, mais plutôt par le regroupement et le raffinement de plusieurs petites idées.

C’est un témoignage direct de la persévérance dont il faut faire preuve pour résoudre un problème complexe, pour progresser malgré les incertitudes et on réalise que même les meilleurs mathématiciens peuvent faire des erreurs simples et s’entêter à creuser une idée vouée à l’échec. Il y a des hauts et des bas et on ressent une vraie tension à mesure que les participants s’approchent d’une solution. Les archives d’un projet mathématique peuvent se lire comme un thriller, qui l’eût cru ?

Des implications plus larges

Le projet Polymath ne ressemble pas aux collaborations à grande échelle traditionnelles, comme on peut en trouver dans l’industrie ou dans les sciences. En général, ces organisations sont divisées hiérarchiquement. Le projet Polymath était complètement ouvert, chacun était libre d’apporter sa pierre à l’édifice… n’importe quelle pierre. La variété des points de vue a parfois apporté des résultats inattendus.

Se pose alors la question de la paternité : difficile de décréter une règle de paternité stricte sans heurt ou sans décourager des contributeurs potentiels. Quel crédit accorder aux contributeurs apportant uniquement une idée perspicace, ou à un contributeur très actif mais peu perspicace ? Le projet a adopté une solution provisoire : il signe ses articles du pseudonyme « DHJ Polymath » suivi d’un lien vers les archives (NdT : cf cette première publication ainsi signée A new proof of the density Hales-Jewett theorem). Grâce à la collaboration ouverte privilégiée par le projet Polymath, on sait exactement qui a fait quoi. Au besoin, une lettre de recommandation peut isoler les contributions d’un membre du projet en particulier, comme c’est déjà le cas en physique des particules où il est courant de voir des articles avec des centaines d’auteurs.

Se pose aussi le problème de la conservation. Les archives principales du projet Polymath sont dispersées sur deux blogs (1 et 2) et un wiki, le rendant très dépendant de la disponibilité de ces sites. En 2007, la bibliothèque du Congrès américain a initié un programme de conservation des blogs tenus par les professionnels du droit. De la même manière, mais à plus grande échelle, un programme similaire est nécessaire pour conserver les blogs et wikis de recherche.

D’autres projets, ayant vu le jour depuis, permettront d’en apprendre plus sur le fonctionnement des mathématiques collaboratives. Il est en particulier crucial de savoir si ce genre de projet peut être élargi à plus de contributeurs. Bien qu’il ait rassemblé plus de participants qu’une collaboration classique en mathématiques, le projet Polymath n’est pas devenu la collaboration massive que ses créateurs espéraient. Ceux qui y ont participé s’accordent sur le fait que pour grandir, il faudrait que le projet adapte sa manière de procéder. La narration linéaire du blog posait, entre autre, problème aux nouveaux arrivants. Difficile pour eux, parmi la masse d’informations déjà publiées, d’identifier où leur aide serait la plus précieuse. Il y avait également le risque qu’ils aient loupé un « épisode » et que leur apport soit redondant.

Les projets de logiciels libres utilisent des logiciels de suivi de version pour organiser le développement autour des « problèmes », des rapports de bogues ou des demandes de fonctionnalités en général. Ainsi, les nouveaux arrivants ont une vision claire de l’état du projet, ils peuvent concentrer leurs efforts sur un « problème » particulier. De même, la discussion est séparée en modules. Les futurs projets Polymath pourraient s’en inspirer.

Bientôt, les sciences ouvertes

L’idée derrière le projet Polymath est potentiellement applicable à tous les défis scientifiques, mêmes les plus importants comme ceux pour lesquels le Clay Mathematics Institute de Cambridge, Massachussets offre un prix d’un million de dollars. Même si certaines personnes souhaiteront toujours garder tout le mérite pour elles-mêmes et être pour ainsi dire refroidies par l’aspect collaboratif, d’autres au contraire pourraient y voir une excellente opportunité d’être associés à la résolution de l’un de ces problèmes.

Dans d’autres disciplines, l’approche open source ne gagne que très lentement du terrain. Un domaine s’y est ouvert avec succès : la biologie synthétique. Les informations ADN d’organismes vivants sont enregistrées numériquement et envoyées à un dépôt en ligne, comme celui du MIT Registry of Standard Biological Parts. D’autres groupes peuvent utiliser ces informations dans leur laboratoire et, s’ils le souhaitent, reverser leurs améliorations au dépôt. qui compte actuellement plus de 3 200 contributions, apportées par plus de 100 entités différentes. Les découvertes qui en découlent ont fait l’objet de nombreux articles comme par exemple Targeted Development of Registries of Biological Parts. La biologie open source et les mathématiques open source montrent comment la science peut progresser grâce aux diverses contributions apportées par des gens aux compétences variées.

On pourrait, de la même manière, employer ces techniques open source dans d’autres domaines, telle la physique et l’informatique théoriques, où les données brutes contiennent de nombreuses informations et peuvent être partagées librement en ligne. Appliquer les techniques open source aux travaux pratiques est plus délicat, les conditions expérimentales étant difficilement reproductibles. Quoiqu’il en soit, le partage libre des données expérimentales permet néanmoins leur analyse libre. Adopter ces techniques open source à grande échelle ne sera possible que grâce à un changement profond des mentalités en science et au développement de nouveaux outils en ligne. Nous croyons à un fort développement de la collaboration de masse dans de nombreux domaine des sciences, et que cette collaboration massive repoussera les limites de nos capacités à résoudre des problèmes.

Notes

[1] Crédit photo : Robynejay (Creative Commons By-Sa)

[2] Timothy Gowers appartient au Departement of Pure Mathematics and Mathematical Statistics de l’Université de Cambridge, Wilberforce Road, Cambridge CB3 0WB, UK et il est Royal Society 2010 Anniversary Research Professor.

[3] Michael Nielsen est écrivain et physicien, il habite à Toronto et travaille sur un livre sur le futur de la science.




Le framabook Simple comme Ubuntu nouveau est arrivé !

Framabook - Simple comme Ubuntu 9.10 - Cover Alexandre Mory Art LibreEn avance sur le Beaujolais, nous sommes heureux et fiers d’annoncer la sortie du nouveau framabook Simple comme Ubuntu (ou SCU) dans son millésime 9.10 Karmic Koala.

Comme il a en a pris la bonne habitude, il suit d’à peine quelques jours la sortie de la nouvelle version d’Ubuntu.

C’est la résultante du travail intense de son auteur Didier Roche, accompagné par les remarques et suggestions de toute la communauté, sans oublier la fine équipe de relecteurs et un éditeur InLibroVeritas qui trouve encore le temps d’être prêt malgré La bataille Hadopi qu’il mène sur tous les fronts.

Une petite interview s’imposait. D’autant que, grande et originale nouveauté, il n’est pas courant de trouver un livre « dans » un système d’exploitation !

PS : J’en profite pour rappeler que la collection Framabook a pour slogan « le pari du livre libre » et qu’en commandant (pour vous ou pour offrir à l’approche des fêtes) sa version matérielle chez InLibroVeritas, vous contribuez à soutenir tout le projet.

Entretien avec Didier Roche

Bonjour Didier, peux-tu te présenter brievement et nous décrire tes multiples activités autour d’Ubuntu ?

Didier RocheBonjour Alexis,

Je suis un ingénieur de production informatique de 26 ans travaillant dans une grande boite d’édition logicielle française (propriétaire, mais c’est un bug que je suis en train de corriger hardiment ;)).

Cela fait un peu plus d’une dizaine d’années que j’utilise un système GNU/Linux et j’ai donc connu et utilisé de multiples distributions : Red Hat, Mandrake, Debian pendant plusieurs années pour certaines…

J’ai adopté Ubuntu dès ses débuts (première installation en novembre 2004) et jamais lâché depuis.

Je suis depuis bientôt deux ans secrétaire de l‘association Ubuntu-fr, après avoir été quelques mois administrateur de sa partie documentation. J’aide notamment à l’organisation de l’Ubuntu party parisienne. Participer à une association de ce type fait que l’on se doit d’être présent les nombreux et classiques événements du Libre auxquels Ubuntu-fr participe ou initie.

Enfin, je suis également ce que l’on appelle MOTU (signifiant pompeusement « Master Of The Universe »), groupe de développeurs ayant les droits adéquates qui s’occupe des dépôts universe/multiverse d’Ubuntu. Cependant, je travaille plus particulièrement dans l’équipe « desktop » qui s’occupe principalement de mettre à jour GNOME dans Ubuntu. A ce titre, j’ai eu la chance d’être sponsorisé par Canonical (société principale qui finance de nombreux développeurs Ubuntu) pour aller à l’UDS (Ubuntu Developer Summit) en mai dernier à Barcelone et à Dallas dans une quinzaine de jours. Cela m’a permis d’être le principal développeur de Quickly, projet poussé par Canonical afin de créer une application distribution et technologie agnostique, qui permet de rendre plus aisée la programmation sous GNU/Linux (plus d’information sur LWN).

Ton livre Simple comme Ubuntu (alias le SCU) est une grande réussite de « l’édition libre », et une belle collaboration Ubuntu-fr, InLibroVeritas et Framasoft. Peux-tu nous en raconter la génèse, son évolution et en quoi ce choix de la licence libre est important pour toi ?

Simple Comme Ubuntu a une histoire très singulière que j’évoque rapidement dans sa préface. Lors de mes études d’ingénieur généraliste (comprendre un environnement avec peu de véritables passionnés d’informatique), j’étais en 2005-2006 dans une association au nom d’Afric’Edu dont l’objectif est la récupération, le reconditionnement et l’envoie de matériel informatique dans les écoles d’Afrique. On officie également une formation sur place sur un mois. Voulant installer un système d’exploitation Libre basé sur GNU/Linux (comme l’année précédente), je pensais qu’Ubuntu convenait parfaitement aux besoins. Cependant la connaissance de l’équipe sur GNU/Linux frisait malheureusement l’axe des abscisses, un peu gênant pour ensuite effectuer des formations, non ? 🙂

Ayant vu l’excellente suite de billet de yeKcim sous licence CC By-Sa, je me disais à l’époque qu’il ne manquait pas grand chose pour en faire une documentation complète. J’ai naturellement respecté la licence, conscient de ses bienfaits et publié « Simple Comme Linux » (pour Dapper Drake 6.06), un pdf d’une quinzaine de pages que nous avons utilisé en support de cours au Togo.

Rentré d’Afrique, je l’ai publié sur le forum d’Ubuntu-fr où de nombreux retours et suggestions ont été faites. La documentation s’est ainsi étoffée jusqu’à atteindre environ 70 pages où Alexis Kauffmann m’a alors parlé en novembre 2006 de la collection Framabook qui n’était alors formée que d’un seul opus sur Thunderbird. Le passage d’une documentation à un véritable livre a été particulièrement chronophage, mais le résultat a plu et plaît encore, et c’est ce qui compte !

À nouvelle version d’Ubuntu, nouvelle version du SCU. Quelles en sont les principales nouveautés ? Je crois savoir qu’il y en a une de poids tout à fait originale…

Tout à fait. Depuis la version Karmic, Simple Comme Ubuntu est maintenant… dans Ubuntu ! C’est à dire qu’il fait parti des dépôts universe (il suffit d’installer le paquet simplecommeubuntu) pour avoir accès au livre librement et légalement en version électronique, installé sur sa machine. Les sources en LaTeX permettent de construire le pdf comme tout autre logiciel de la distribution, ce qui permet d’avoir un accès aisé aussi bien aux sources qu’au contenu. Son intégration dans les archives du projet Debian est en cours.

Chaque nouvelle version d’Ubuntu est un réel challenge. Car en plus du surplus d’activité au niveau Ubuntu-fr, il y a également la release d’Ubuntu côté développement qui me prend énormément de temps. Chaque mise à jour du livre (tous les 6 mois) nécessite une moyenne d’une cinquantaine d’heures au niveau des modifications et changement des copies d’écran. La deadline est par conséquent très serrée ! Nous essayons d’être le plus réactif possible. L’excellent comité de relecture de Framabook, que je ne remercierai jamais assez pour l’acharnement de ses membres (certains depuis juin 2006 !), permet d’obtenir un niveau de qualité très satisfaisant.

Aujourd’hui (cela s’est fait graduellement et non sur mon impulsion, bien au contraire), Simple Comme Ubuntu est devenu en quelque sorte le livre officiel de la communauté francophone (il suffit d’aller voir sur le forum le nombre d’échanges le conseillant), nous l’avons donc, à partir de cette version, intégré aux 3 000 CD francophones qu’Ubuntu-fr presse à ses frais et vend sur les divers évènements où nous nous rendons (il sera également sur la clef de la Framakey Ubuntu-fr Remix version Karmic). Rien de mieux que d’avoir ensemble le(s) logiciel(s) et la manière de les utiliser. 🙂

Concernant les nouveautés et dans le plus pur esprit du Libre, je n’ai pu résister à joindre ci-dessous le changelog des changements impactés dans le livre (gérant le livre dans un VCS, je pourrais même fournir un patch) 🙂

Merci Didier pour ces précisions. Tu nous donnes rendez-vous à l’Ubuntu Party de Paris ?

Exactement, il y a des Ubuntu Party dans la France entière, la plus importante en terme de visites (4000 personnes aux deux précédentes éditions) étant à Paris, au Carrefour Numérique, Cité des sciences et de l’industrie les 28 et 29 novembre. De nombreuses associations du Libre (dont Framasoft) y tiendront un stand et il y a de nombreuses conférences et activités proposées pour tous les niveaux, de débutant à confirmé.

N’hésitez pas à venir nous rencontrer et rester informé sur le programme complet bientôt publié sur le site de l’Ubuntu party.

Didier

Découvrir la nouvelle version 9.10 du framabook Simple comme Ubuntu…

Release note de SCU version 9.10

  • Mise à jour des tous les éléments de Jaunty vers Karmic. Nombreuses images également modifées.
  • Revue de la procédure d’installation. Quelques remarques supplémentaires sur l’installation et le chiffrement de partition
  • Modification suite au passage de gdm 2.28
  • Modification des éléments dans Systèmes (un vrai bento de renommage), ajout d’ibus et suppression de SCIM
  • Sources de mises à jour redevient sources de logiciels une énième fois :/
  • Ajout de palimpset
  • Suppression d’évolution dans la barre supérieure par défaut
  • Modifier des éléments du tableau de bord en haut à droite (NM, Icône présente, etc.): une bonne pelletée de changements 🙂
  • Nombreux changements dans l’applet FUSA
  • Remplacement d’ajouter/supprimer par l’App Center d’Ubuntu. Adaptation de la partie dédiée. Beaucoup de modifications tout au long du livre (notamment le fait qu’il n’y ait plus de confirmation pour l’installation d’appli dans universe et également que toutes les applications soient disponibles par défaut). Il n’y a plus d’indicateur de popularité non plus
  • Modifications de la nettoyeur système
  • Suppression de l’installation de la version propriétaire de Java vu que la version libre a bien évolué et permet maintenant d’adresser la plupart des cas.
  • Ajout et modification de l’écran de changement de fond d’écran
  • Le clin d’oeil du thème vista basic a été gardé le temps de trouver un screenshot potable pour faire un seven basic 🙂
  • La nouvelle version de gdm n’est plus thémable graphiquement
  • Gnome-screenshot -> option pour prendre une partie de l’écran.
  • Petite note pour indiquer que tracker n’est pas installé par défaut, idem pour deskbar
  • Changement de l’outil pour gérer la connexion automatique et par défaut de GDM
  • Ajout de exec devant numlock et déplacement au chapitre 7
  • Ajout précision sur ami de root et la notification pour dropper les privilèges
  • Changement de la méthode de notification de connexion wiki/ethernet. Suppression des icônes et modifiant du descriptif correspondant.
  • Ajout d’empathy
  • Rafraichissement de la description de pidgin
  • Racketiciel et detaxe.org ont maintenant fusionnés: un seul lien
  • Le clavier par défaut proposé maintenant en « France – Alternative »
  • Ext4 est maintenant utilisé par défaut
  • Support linguistique: prise en charge des langues
  • Puis prise en charge linguistique -> prise en charges des langues
  • Note sur chiffrement et trousseau qui apparait désormais uniquement si vous utilisez un trousseau de clef.
  • Test du matériel -> Test du système
  • Renommage de certains boutons comme Installer/supprimer des langues -> Installer / supprimer des langues
  • Suppression de la gravure directement par Nautilus
  • Comparaison de Cinelerra avec Adobe Premiere et ajout des dépôts de lprod pour installer ce dernier.
  • Quelques modifications sur la description des onglets dans Firefox
  • La situation des cartes graphiques d’ATI se sont améliorés. Remarque mise à jour
  • Suppression de la remarque sur Waow de Vista vu que maintenant Seven est sorti 😉
  • Modification sur une remarque sur les noyaux (pour 1 Go de RAM, t’as plus rien ;))
  • Des liens de logiciel changés, textes rafraichis
  • Sélectionner avec un motif -> Sélectionner les éléments correspondants à \ldots{}
  • Ajout sur la version électronique du descriptif du projet Framabook
  • Corrections de quelques zillions de coquilles, reformulations, etc. 🙂



Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.




Google se conjugue au futur et Microsoft au passé ?

Google sfida Microsoft con Chrome - Copyright Federico FieniOn le sait, Microsoft n’a pas vu venir le Web et ne porte pas le logiciel libre dans sa culture (c’est le moins que l’on puisse dire).

À partir de là comment s’étonner qu’un Google lui fasse aujourd’hui concurrence et menace demain d’attaquer frontalement ses deux plus beaux fleurons (et source colossale de revenus) que sont le système d’exploitation Windows et la suite bureautique MS Office.

Un Google qui a massivement investi dans le cloud computing, l’informatique dans les nuages, Un Google qui non seulement ne méprise pas le logiciel libre mais sait très bien l’utiliser quand ça l’arrange, par exemple pour faire s’y reposer son navigateur Chrome ou son prochain et très attendu Google OS (histore de boucler la boucle)[1].

À propos de Google OS, un petit coup de Wikipédia : « Google Chrome OS est un projet de système d’exploitation qui sera fondé sur son navigateur Web Chrome et un noyau Linux. À destination des netbooks dans un premier temps, il serait capable, à terme, de faire tourner des ordinateurs de bureau traditionnels. Google laisse à penser que son OS fonctionnerait en ligne sur tout ou partie, comme ses applications (Google Documents, Gmail, etc.). Après sa suite gratuite Google Documents concurrent de la suite payante Microsoft Office, puis Android face à Windows Mobile, ce nouveau système d’exploitation gratuit attaque le cœur du business Microsoft. »

La fin d’un cycle, si ce n’est d’une époque ?

Google est en compétition pour le futur; Microsoft, pour le passé

Google competes for the future; Microsoft, the past

Matt Asay – 23 octobre 2009 – CNET News
(Traduction Framalang : Poupoul2 et Goofy)

Google est né sur le Web, et provoque de plus en plus de quintes de toux chez Microsoft en contraignant le géant séculaire du logiciel à se battre en utilisant les règles de Google. Comme avec l’open source. Comme avec l’informatique dans les nuages.

Microsoft pourrait se reposer sur ses lauriers dans l’immédiat grâce au lancement réussi de Windows 7. Mais à long terme son plus grand succès que représentent ses vieux logiciels de bureautique menace de céder le marché à Google.

Ce n’est pas très équitable pour Microsoft. Microsoft est victime de son propre succès, en ayant besoin de s’adresser à sa clientèle existante à chaque nouvelle version, coincé qu’il est par le « dilemme de l’innovateur ». Microsoft continue de remplir ses caisses, mais ses deux derniers trimestres ont vu ses forces traditionnelles telles que le système d’exploitation Windows devenir un frein pour ses revenus, tandis que les entreprises dépensent toujours plus d’argent auprès de Google, Red Hat et quelques autres.

L’absence d’héritage de Google lui permet d’innover rapidement à large échelle, comme le suggère Todd Pierce, directeur technique de Genentech et client de Google :

Le rythme d’innovation de Google…, enfin bon, le cycle de production d’Oracle, SAP et Microsoft est de cinq ans, celui de Google est de cinq jours. C’est incrémental. En cinq jours, vous ne pouvez pas supprimer toutes vos licences de Microsoft Office, mais d’ici cinq ans, vous n’aurez plus de Microsoft Office.

Microsoft, de son côté, est tellement préoccupé par la compatibilité ascendante, « Ce produit ou cette fonctionnalité sont-ils compatibles avec notre capacité à monétiser notre monopole sur la bureautique des années 80 ? », qu’ils continuent à se battre pour comprendre le Web. Dave Rosenberg, blogueur sur CNET, note que Windows 7 aurait dû être la tête de pont de Microsoft sur l’informatique dans les nuages, mais qu’il n’en a rien été.

Il y a beaucoup de « aurait dû être » chez Microsoft, lorsqu’on parle du Web.

Dans l’intervalle, personne ne ralentit pour attendre Microsoft. Arrêtons-nous un instant sur l’informatique dans les nuages. VMware domine la virtualisation, et a de grandes ambitions dans l’informatique dans les nuages, alors que les rivaux open source Eucalyptus et VMops menacent de contester la suprématie de VMware et Microsoft, en cherchant à dominer l’informatique dans les nuages.

Et arrive alors Google, qui fournit une gamme de services d’informatique dans les nuages toujours plus large aux entreprises qui cherchent à se détacher de l’ordinateur de bureau. Dans une interview donnée à CNET News, Eric Schmidt, PDG de Google, soutient que le navigateur peut être à la fois orienté entreprise et consommateur. L’architecture est dirigée par le navigateur. C’est toute l’histoire de l’informatique d’entreprise actuelle.

En d’autres termes, le bureau est simplement un moyen pour l’utilisateur de lancer son navigateur. C’est une passerelle. Il n’y a plus de valeur dans le bureau. Elle se trouve dans le navigateur, qui devient le nouveau bureau, en termes de fonctionnalités réelles disponibles

La meilleure opportunité pour Microsoft de contrecarrer la menace de Google et des autres s’appelle SharePoint. Le PDG de Microsoft, Steve Ballmer, l’a décrit comme le nouveau système d’exploitation de Microsoft, mais ce n’est que dans un entretien récent avec Forrester qu’il lui a donné tout son sens :

Dans mon esprit, je compare SharePoint au PC, le PC est venu à la vie comme machine à tableau, puis est devenu une machine à développer, une machine à traiter du texte, SharePoint est une infrastructure à objectif global qui connectera les gens aux gens, et les gens à l’information…

Je crois que SharePoint est considéré par les administrateurs informatiques et les développeurs comme une plateforme de développement très sérieuse pour les développement rapide d’application (NdT : RAD, Rapid Application Development).

SharePoint est la meilleure tentative de Microsoft pour connecter les applications de bureau telles qu’Office, avec des outils collaboratifs et de stockage centralisé ou dans les nuages. Bien sûr, Microsoft a d’autres initiatives telles qu’Office en ligne, mais aucune ne marie aussi bien ses centres de profits historiques et l’innovation future.

SharePoint pourrait alors être le meilleur espoir de Microsoft pour marier son héritage à la future informatique en ligne.

Microsoft a besoin de cela. Ils perdent dans le marché des mobiles, et pas uniquement face à Apple. Android, le système dédié de Google, est déjà efficient et opérationnel, avec par exemple ses données AdMob qui situent aujourd’hui la pénétration des smartphones Android à 10 % au Royaume Uni.

Si nous prenons l’hypothèse que le mobile sera de plus en plus une plateforme de choix pour le client, alors nous voyons Google harceler Microsoft par le haut (les nuages de services) et par le bas (le client).

Dans les deux cas, l’open source est une arme de choix pour Google, et c’en est une que Microsoft va devoir comprendre rapidement s’ils veulent devenir un acteur de poids sur le Web. Le Web est trop grand pour que Microsoft le contrôle, et le Web est incroyablement open source, tel que le remarque Mitch Kapor, fondateur de Lotus :

La victoire de l’open source est qu’il constitue le fondement du Web, la partie invisible, celle que vous ne voyez pas en tant qu’utilisateur.

Les majorité des serveurs utilisent Linux comme système d’exploitation avec Apache comme serveur Web sur lequel tout le reste est construit. Les principaux langages sur lesquels les applications Web sont construites, qu’il s’agisse de Perl, de Python, de PHP ou de n’importe quel autre langage, sont tous open source. Donc l’infrastructure du Web est open source. Le Web tel que nous le connaissons est totalement dépendant de l’open source.

Kapor suggère que la guerre que Microsoft livre à l’open source est terminée, ou devrait l’être : l’open source a gagné. Il s’agit désormais d’une infrastructure essentielle, et quelque chose que Microsoft doit arriver à comprendre, plutôt que de le combattre. Il ne s’agit pas de « religion open source », il ne s’agit que de pragmatisme. Un pragmatisme que Microsoft peut s’approprier aussi bien que n’importe qui d’autre.

Google utilise le futur (l’open source, les nuages) pour se battre pour l’avenir, et ses tactiques menacent de frapper Microsoft au cœur de ses vaches à lait tels que Windows.

Microsoft, cependant, semble être embourbé dans son passé. Windows 7 a l’air d’une mise à jour sérieuse de son prédécesseur Vista, mais dans dix ans, cela aura-t-il une importance pour nous ? Peut-être aurons-nous changé, oubliant ces jours pittoresques où nous nous soucions du système d’exploitation et des applications telles qu’Office ?

Notes

[1] Crédit illustration : Copyright Federico Fieni