Microsoft et l’Open Source ensemble aux Antipodes

Robbie Grubbs - CC by-saS’il n’y a que les imbéciles qui ne changent pas d’avis, alors j’ai l’honneur de vous faire savoir que Microsoft n’en fait plus partie.

Un communiqué de presse de Microsoft Nouvelle-Zélande, datant de novembre dernier, est passé totalement inaperçu alors qu’il est pourtant tout simplement énorme pour des p’tits gars comme moi qui versent dans le Libre depuis une bonne dizaine d’années et dans l’éducation depuis encore plus longtemps.

Qu’il soit devenu « naturel » pour Microsoft de proposer un plugin à Word afin d’aider le monde de l’éducation à mieux travailler sur les wikis sous Mediawiki (à commencer par Wikipédia), cela passe encore. Qu’on y mentionne et soutienne alors explicitement les Ressources Éducatives Libres sous licence Creative Commons By, cela commence à surprendre. Mais qu’il soit devenu tout aussi « naturel » pour Microsoft de placer ce plugin sous licence libre pour mieux « le partager avec la communauté », c’est tout de même une sacrée (r)évolution.

Quand on pense que, jadis, le logiciel libre était qualifié de « cancer communiste » par les mêmes qui semblent aujourd’hui découvrir ses vertus, on mesure le chemin parcouru !

Certes, ça n’est qu’une extension et non une application toute entière, Word libre ce n’est pas pour tout de suite ! Il convient également de voir concrètement la qualité du convertisseur (ce que je n’ai pu faire faute d’avoir MS Office sur mon ordi), mais la déclaration (d’intention ?) ci-dessous vaut de toutes les façons son pesant de cacahuètes[1].

Certes aussi, il est question du programme Partners in Learning (PIL) dans le communiqué. Et nous avons souvent eu l’occasion de dire dans ces colonnes tout le bien que nous pensions de ce projet Microsoft fort ambigu (lire par exemple L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft, Les industriels lorgnent le futur grand plan numérique de Luc Chatel – Mediapart ou encore En réponse au Café Pédagogique).

Il n’en demeure pas moins que les temps changent (quand même un peu), et Microsoft aussi, semble-t-il, vis-à-vis du logiciel libre et de sa culture.

Et vous vis-à-vis de Microsoft ?

Microsoft travaille avec les enseignants et l’open source pour prendre en charge un wiki libre de partage du savoir

Microsoft works with educators and open source to support free knowledge sharing wiki

Microsoft Nouvelle-Zélande – 17 novembre 2010 – Communiqué de presse
(Traduction Framalang : Goofy et Martin)

Une nouvelle extension open source pour Microsoft Word permet d’utiliser le format de fichier MediaWiki pour que les utilisateurs puissent mettre en ligne directement leurs documents sur des wikis.

Microsoft, travaillant en collaboration avec la Fondation OER (Open Education Resource) de l’Institut polytechnique d’Otago (Nouvelle-Zélande) et du Ministère de l’éducation, a mis au point une nouvelle extension open source pour Microsoft Word qui permet d’enregistrer des documents dans un format compatible avec les wikis sous MediaWiki, celui-là même qu’utilise la populaire encyclopédie en ligne Wikipédia.

La nouvelle extension aidera les enseignants à collaborer à la construction de nouvelles ressources éducatives ouvertes. Le directeur de la Fondation Otago, Dr Wayne Mackintosh, déclare : « grâce à la prise en charge du style MediaWiki dans Microsoft Office, les professeurs pourront partager vite et facilement leur matériel pédagogique sur des plateformes en ligne telles que Wikipédia et WikiEducator. Cela signifie que les institutions éducatives adoptant la démarche de l’OER pour fournir des ressources et des manuels libres pourront abaisser considérablement la barrière du coût à engager pour fournir aux étudiants les outils et les informations dont ils ont besoin pour apprendre ».

MediaWiki a reçu un soutien sans failles du Ministère de l’éducation qui partage les objectifs de la Fondation EOR dans ce domaine.

« Nous sommes ravis de la nouveauté que constitue une extension open source dans la boîte à outils de Microsoft Office. Elle permettra aux enseignants et étudiants de Nouvelle-Zélande de s’investir plus facilement dans le partage des ressources éducatives et les débats pédagogiques, dans l’esprit du wiki » déclare Leanne Gibson, directrice des systèmes d’information.

L’institut polytechnique d’Otago héberge les bureaux de la Fondation, qui est une organisation indépendante à but non lucratif visant à assurer la prise en main, le développement et le soutien d’un réseau international d’enseignants et institutions éducatives, à travers l’Open Education. WikiEducator est la vitrine de la Fondation EOR, qui s’efforce de rendre libres d’accès les matériels pédagogiques pour les étudiants du monde entier, particulièrement dans les pays en voie de développement pour lesquels les systèmes d’éducation classiques s’avèrent souvent hors de prix.

Microsoft a financé le développement d’une nouvelle fonctionnalité du logiciel Word pour permettre à tous les enseignants du monde de produire et partager des ressources pédagogiques à un coût modeste en utilisant des outils basés sur le wiki.

Le directeur de la plateforme stratégique de Microsoft pour la Nouvelle-Zélande, Andrew Gordon, déclare que l’entreprise s’implique dans la collaboration avec la communauté open source pour développer du matériel éducatif qui bénéficiera autant aux étudiants qu’aux enseignants.

« Microsoft a un lien étroit avec le monde éducatif via nos initiatives Citizenship (citoyenneté) en cours, telles que le concours Imagine, la plus grande compétition du monde étudiant dans le domaine technologique, si bien que MediaWiki était une solution tout à fait naturelle pour nous, comme pouvait l’être la publication du code source sous une licence open source et le fait de permettre son partage avec la communauté. Compte tenu de l’utilisation intensive de Word dans tous les établissements d’éducation à travers le monde, nous chez Microsoft, sommes ravis et fiers de pouvoir apporter notre pierre à l’édifice en rendant accessibles à chacun, quelle que soit sa situation, des ressources pédagogiques de bonne qualité. »

Le convertisseur MediaWiki est si simple qu’il peut être installé rapidement et facilement par des utilisateurs non expérimentés. De plus, son code a été publié sous une licence open source, ce qui signifie que l’application peut être ré-utilisée librement comme base pour d’autres extensions communes avec MediaWiki. Il est également une référence pour quiconque aurait besoin de publier des informations à partir de Microsoft Office. Le convertisseur MediaWiki fonctionnera avec toutes les versions de la suite Office depuis 2007 jusqu’à la version récente de 2010.

Peter Harrison, le vice-président de la New Zealand Open Source Society ne tarit pas d’éloges sur cette initiative : « Internet offre à l’humanité une occasion unique de mettre à profit les technologies de la communication pour éduquer la population du monde entier. À travers les technologies collaboratives telles que le wiki tout le monde pourra travailler de concert pour créer des ressources communes de qualité, ouvertes à tous. En permettant aux utilisateurs d’exporter leurs contenus de Word vers MediaWiki, Microsoft encourage la mise à disposition d’une gamme bien plus large de ressources éducatives en ligne. »

L’Institut polytechnique d’Otago est l’un des pionniers de l’Open Education, et c’est le premier établissement d’enseignement supérieur à avoir signé la déclaration du Cap sur l’Open Education. C’est également la première institution d’enseignement supérieur au monde à approuver et mettre en œuvre une politique de la propriété intellectuelle qui utilise la licence Creative Commons Attribution par défaut (NdT : cf cet article du Framablog Privilégier la licence Creative Commons Paternité CC-BY dans l’éducation), et qui s’investit dans l’éducation au point de l’inclure dans son programme.

Ce projet est complémentaire de l’initiative PIL (Partners in Learning) que Microsoft soutient depuis dix ans à hauteur de 500 millions de dollars : il s’agit d’aider les enseignants et directeurs d’écoles à utiliser les nouvelles technologies pour apprendre et enseigner plus efficacement. Pour davantage d’informations, voir http://www.microsoft.com/education/pil.

Notes

[1] Crédit photo : Robbie Grubbs (Creative Commons By-Sa)




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)




Microsoft et la bio-informatique open source : c’est pas encore ça !

Mikelo - CC by-saRien à faire, la culture propriétaire est dans l’ADN de Microsoft.

Quand bien même, avec sa nouvelle Microsoft Biology Foundation, la société décide de montrer a priori patte blanche, ou plutôt « patte open source » à une communauté scientifique (ici la bio-informatique) de plus en plus consciente de ce qui est bon pour elle.

Espérons du coup qu’elle ne sera pas dupe. C’est ce qui vient nous rappeler avec causticité Glyn Moody sur son blog[1].

Les implants biologiques de Microsoft

Microsoft’s Biological Implants

Glyn Moody – 6 novembre 2009 – Open…
(Traduction Framalang : Julien et Cheval boiteux)

Microsoft se montre à la hauteur de ses vieilles ficelles consistant à offrir de jolies babioles aux naïfs avec la Microsoft Biology Foundation :

La communauté bio-informatique a développé une solide tradition de développement ouvert, de partage de code et de support multi-plateforme, et un certain nombre de boîtes à outils (NdT : toolkits) spécifiques à chaque langage sont désormais disponibles. Ces boîtes à outils sont précieuse à la la communauté, en promouvant le partage du code et en établissant des standards de fait.

La Microsoft Biology Foundation (MBF) est une boîte à outils générique pour la bio-informatique construite comme une extension pour le framework .NET. Actuellement, il met en oeuvre une gamme d’analyseurs syntaxiques pour les formats de fichiers communs dans la bio-informatique ; une série d’algorithmes permettant de manipuler des séquences d’ADN, d’ARN et de protéines; et un ensemble de connecteurs à des services Web de biologie comme NCBI BLAST. MBF est disponible sous une licence open source, et les exécutables, le code source, les applications de démonstration ainsi que la documentation sont téléchargeables gratuitement depuis le lien ci-dessous.

J’aime beaucoup la transition de « solide tradition de développement ouvert, de partage de code et de support multi-plateforme » à « tenez, allez faire mumuse avec ces joujoux du framework .NET remplis de brevets ».

Le problème étant, évidemment, qu’une fois que vous avez consciencieusement installé le framework .NET, avec tous les brevets que Microsoft prétend détenir dessus, et que vous vous y retrouvez enfermé par les usages et habitudes qui y sont liés, vous faites partie de l’écosystème contrôlé par Microsoft. Et vous allez probablement y rester, étant donné que Microsoft n’essaye même pas de promettre que cette camelote sera portée sur d’autres plateformes.

Parce que, sous le titre trompeur « multi-plateforme et interopérabilité », il est dit :

MBF fonctionne bien sur le système d’exploitation Windows et avec un éventail de technologies Microsoft.

Ouais ? Et qu’en est-il des technologies et systèmes d’exploitation non-Microsoft ?

Nous avons l’intention de travailler avec la communauté de développeurs pour profiter de l’extensibilité de MDF et supporter un nombre croissant d’outils Microsoft et non-Microsoft à mesure que le projet se développe.

Bien, mais ça n’a aucun rapport avec le fait d’être multi-plateforme : ils disent juste que ça va fonctionner avec d’autres outils – la belle affaire.

Si j’étais un biologiste, je me sentirais insulté par cette tentative à peine déguisée de faire rentrer de tels logiciels remplis de brevets au sein de la communauté bio-informatique, qui a une longue et glorieuse tradition d’usage et de soutien au logiciel libre, qui est réellement libre et réellement multi-plateforme, ce qui signifie tenter d’enfermer l’une des communautés les plus florissantes et dynamiques du monde logiciel.

Notes

[1] Crédit photo : Mikelo (Creative Commons By-Sa)




Dis papa, c’est quoi une « œuvre culturelle libre » ?

CC - Approved for Free Cultural WorksQuelle est la différence graphique entre la page officielle de la licence Creative Commons By ou By-Sa et celles des autres licences de la famille Creative Commons, comme par exemple la By-Nc-Nd ?

Réponse : la présence pour les premières et l’absence pour les secondes du tampon virtuel « Approved for Free Cutural Works », créant ainsi une sorte de scission parmi les licences (on remarquera également que l’on passe du vert au jaune sur le bandeau des pages web).

Or, lorsque l’on clique sur ce tampon, on se retrouve sur le site FreedomDefined.org qui prend le risque de proposer une définition précise de ces « œuvres culturelles libres ».

C’est cette définition que nous avons reproduit ci-dessous et que nous vous proposons de commenter ensemble si vous le voulez bien (en admettant, provocation gratuite, que Facebook, Twitter et votre propre blog perso vous laissent encore le temps d’intervenir ailleurs que dans votre « egosphère »).

On remarquera qu’on est évidemment très proche du logiciel libre, et qu’une licence libre est nécessaire mais non suffisante.

Sur le même sujet, on pourra lire les deux billets suivants du Framablog : Privilégier la licence Creative Commons Paternité (CC BY) dans l’éducation et le plus ancien mais encore plus proche Qu’est-ce qu’une oeuvre culturelle libre ? (avec de vrais morceaux de délires Star Wars dedans).

Définition des œuvres culturelles libres (version 1.1)

URL d’origine du document

Sommaire

Ce document définit les « œuvres culturelles libres » comme des œuvres, travaux ou expressions qui peuvent librement être étudiés, appliqués, copiés et ou modifiés, par n’importe qui, pour n’importe quel usage. Ce document décrit également quelques restrictions possibles qui respectent ou protègent ces libertés fondamentales. La définition fait la distinction entre œuvres libres et licences libres, lesquelles peuvent être utilisées pour protéger juridiquement le statut d’une œuvre libre. La définition elle-même n’est pas une licence ; elle constitue un outil pour déterminer si une œuvre ou une licence peuvent être vues comme « libres ».

Préambule

Les avancées sociales et technologiques rendent possible, pour une part croissante de l’humanité, l’accès, la création, la modification, la publication et la distribution de différents types de travaux – artistiques, scientifiques et à visée pédagogique, logiciels, articles – bref : tout ce qui peut être représenté sous forme numérique. De nombreuses communautés se sont constituées pour jouir de ces nouvelles possibilités et créer quantité de travaux collectivement réutilisables.

La plupart des auteurs, quel que soit leur champ d’activité et indépendamment de leur statut d’amateur ou de professionnel, ont tout intérêt à favoriser un écosystème dans lequel les œuvres peuvent être diffusées, réutilisées et dérivées de manière créative. Plus il est facile de réutiliser et de dériver des œuvres, plus notre culture s’enrichit.

Pour garantir un fonctionnement harmonieux de cet écosystème, les travaux pour lesquels il existe un ou des auteurs reconnus devraient être libres, et par liberté nous entendons :

  • la liberté d’utiliser l’œuvre et de jouir des avantages à en user
  • la liberté d’étudier l’œuvre et de mettre en œuvre le savoir que l’on en tire
  • la liberté de faire et de redistribuer des copies, de l’ensemble ou d’une partie de l’information ou de l’expression
  • la liberté de modifier ou d’améliorer, et de distribuer les œuvres dérivées

Si les auteurs ne font aucune démarche particulière, leurs œuvres sont automatiquement protégées par les lois existantes sur le droit d’auteur, ce qui a pour conséquence de limiter sévèrement ce que le public peut et ne peut pas en faire. Les auteurs peuvent rendre leurs œuvres libres en choisissant l’un des différents documents légaux que sont les licences. Pour un auteur, choisir de placer son travail sous une licence libre ne signifie pas qu’il perd tous ses droits sur l’œuvre, mais qu’il laisse à tout le monde les libertés listées ci-dessus.

Il est important que toute œuvre se prétendant libre fournisse, en pratique et sans aucun risque, les libertés ci-dessus mentionnées. C’est pourquoi nous donnons ci-dessous une définition de la liberté précise, pour les licences et les travaux attribuables à un ou plusieurs auteurs.

Caractérisation des œuvres culturelles libres

Ceci constitue la définition des œuvres culturelles libres ; lorsque vous décrivez votre œuvre, nous vous encourageons à faire référence à cette définition, par exemple de la manière suivante : « ceci est une œuvre sous licence libre, telle que définie par la définition des œuvres culturelles libres ». Si vous n’aimez pas le terme « d’œuvre culturelle libre », vous pouvez utiliser le terme générique de « contenu libre », ou sinon faire référence à l’un des mouvements existants (en anglais) dont l’objet est de spécifier des droits similaires dans des contextes spécifiques. Nous vous encourageons également à utiliser les logos et boutons pour les œuvres culturelles libres (en anglais), qui sont placés dans le domaine public.

Soyez bien conscient qu’une telle caractérisation ne confère pas en pratique les droits décrits dans la définition ; pour que votre travail soit réellement libre, il doit être placé sous l’une des licences (en anglais) culturelles libres ou être placé dans le domaine public.

Nous vous recommandons de ne pas utiliser d’autres termes pour caractériser des œuvres culturelles libres où la définition des libertés ne serait pas clairement exprimée, comme « contenu ouvert (Open Content) » ou « accès ouvert (Open Access) ». Ces désignations sont souvent employés pour désigner des contenus qui sont disponibles sous des termes "moins restrictifs" que ceux des lois existantes sur le droit d’auteur, voire même pour désigner des travaux qui sont juste « disponibles sur le Web ».

Définition des licences culturelles libres

Les licences sont des instruments légaux par lesquels le détenteur de certains droits légaux peut transférer ces droits à des tiers. Les licences culturelles libres n’enlèvent aucun droit — leur utilisation est toujours optionnelle, et lorsqu’elle est choisie, elle accorde des libertés que le droit de la propriété intellectuelle seul n’octroie pas. Quand elle est choisie, elle ne limite ni ne réduit jamais les exceptions existantes au droit d’auteur.

Libertés fondamentales

Pour être reconnu comme « libre » par cette définition, une licence doit accorder les libertés suivantes sans limitation :

  • La liberté d’utiliser et de représenter l’oeuvre : Le tiers doit être autorisé à faire n’importe quel utilisation, privée ou publique, de l’oeuvre. Pour le type d’oeuvre concerné, cette liberté doit comprendre toutes les utilisations dérivées (« droits voisins ») telles que la représentation ou l’interprétation de l’oeuvre. Il ne doit y avoir aucune exception liée, par exemple, à des considérations politiques ou religieuses.
  • La liberté d’étudier l’oeuvre et d’en utiliser les informations : Le tiers doit être autorisé à examiner l’oeuvre et à utiliser le savoir acquis grâce à l’oeuvre de quelque façon que ce soit. La licence ne peut pas, par exemple, limiter la « rétro-ingénierie ».
  • La liberté de distribuer des copies : Des copies de l’oeuvre peuvent être vendues, échangées ou offertes gratuitement, comme partie d’une oeuvre plus grande, d’un recueil, ou seules. Il ne doit y avoir aucune limite dans la quantité d’informations qui peut être copié. Il ne doit y avoir aucune limite non plus au regard de qui peut copier les informations ou du support sur lequel l’information peut être copiée.
  • La liberté de distribuer des travaux dérivés : De façon à donner à chacun la possibilité d’améliorer l’oeuvre, la licence ne doit pas limiter la liberté de distribuer une version modifiée (ou, pour les oeuvres physiques, une oeuvre dérivée d’une façon ou d’une autre de l’original), quelque soit le but et le dessein de telles modifications. Néammoins, certaines restrictions peuvent être prévues pour protéger ces libertés fondamentales ou le droit de paternité des auteurs (voir ci-dessous).
Restrictions possibles

Toutes les restrictions à l’utilisation ou la distribution d’oeuvres n’entravent pas ces libertés fondamentales. En particulier, les exigences de reconnaissance de la filiation entre l’auteur et son oeuvre, de collaboration symétrique (par exemple le « copyleft »), et de protection des libertés fondamentales sont considérées comme des restrictions autorisées.

Définition des oeuvres culturelles libres

Pour être considérée libre, une oeuvre doit être placée sous une licence culturelle libre, ou son status légal doit garantir les mêmes libertés fondamentales énoncées plus haut. Néammoins, ceci n’est pas une condition suffisante. En effet, une oeuvre peut être non libre d’une autre manière qui limite les libertés fondamentales. Voici les conditions supplémentaires pour qu’une oeuvre soit considérée comme libre :

  • Disponibilité des données sources : Quand une oeuvre finale a été obtenue par la compilation ou le traitement d’un fichier source ou de plusieurs fichiers source, toutes les données sources concernés doivent être disponibles avec l’oeuvre sous les mêmes conditions. Ces données sources peuvent être la partition d’un morceau de musique, les modèles utilisés dans une scène en 3D, les données d’une publication scientifique, le code source d’un programme informatique, ou tout autre information du même type.
  • Utilisation d’un format libre : Pour les fichiers numériques, le format dans lequel l’oeuvre est diffusée ne doit pas être protégée par un brevet, sauf si une autorisation pour tous pays, illimitée, irrévocable et gratuite est donnée pour utiliser la technologie brevetée. Bien que des formats non-libres puissent parfois être utilisés pour des raisons pratiques, un format libre doit être disponible pour que l’oeuvre soit considérée libre.
  • Pas de limites techniques : L’oeuvre doit être disponible sous une forme dans laquelle aucune mesure technique n’est utilisée pour limiter les susdites libertés.
  • Aucune autre restriction ou limitation : L’oeuvre en elle-même ne doit pas être couverte par des restrictions légales (brevets, contrats, etc.) ou d’autres limitations (telle que celles protégeant la vie privée) qui limiteraient les susdites libertés. Une oeuvre peut utiliser les exceptions légales existantes au droit d’auteur (de façon à citer des oeuvres sous copyright) ; néammoins, seules les parties de celle-ci qui sont clairement libres constituent une oeuvre libre.

En d’autres termes, dès lors que l’utilisateur d’une oeuvre ne peut pas exercer légalement ou en pratique ses libertés fondamentales, l’oeuvre ne peut être considérée et ne doit pas être appelée « libre ».




MiMOOo ou la migration OpenOffice.org de l’administration publique en questions

MimOOo Box« MiMOOo » vous connaissiez ? Nous non plus ! Cherchons alors ensemble à en savoir davantage, parce que cela en vaut la peine…

MiMOOo est l’acronyme de ce qui se présente comme un beau projet institutionnel français signifiant Mutualisation interMinistérielle pour OpenOffice.org.

Laissons une Sophie Gautier enthousiaste nous le présenter plus avant sur son blog : « MiMOOo ou quand l’administration s’organise comme l’open source ! Ce groupe de travail interministériel a mis en place une véritable stratégie de migration à OOo. Depuis un peu plus d’un an, les différents ministères se rencontrent régulièrement pour définir des statégies communes, partager outils et problématiques. S’inspirant des techniques de mise en commun des projets de développement, MiMOOo a ainsi optimisé sa migration à travers le partage des expériences et des savoirs ».

Cette citation date d’avril 2007. On peut donc en déduire que Mimoo existe depuis au moins avril 2006, c’est-à-dire depuis un certain temps déjà.

Hypothèse corroborée par cette dépêche tout aussi enthousiaste de LinuxFr du mois de septembre 2006, titrée La plus grosse migration OpenOffice.org au monde : 400 000 postes dans l’administration française, et ainsi présentée : « Courant 2007, l’administration centrale française (essentiellement les ministères) va voir 400 000 de ses postes informatiques migrer vers la suite bureautique OpenOffice.org et le format ouvert OpenDocument, ce qui constitue actuellement la plus grosse migration vers OpenOffice.org au monde. Le groupe de travail interministériel responsable de ce déploiement met à disposition des administrations de nombreux outils : cédérom interministériel d’installation d’OpenOffice.org[1], mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. »

On retrouve donc notre groupe de travail interministériel. Mais problème : les deux principaux liens proposés par la dépêche (Le programme de migration et Communauté assistance OpenOffice.org) sont aujourd’hui inaccessibles.

MiMOOo en (toute) discrétion

Parce qu’il se trouve justement que malgré son bel âge nous ne disposons aujourd’hui que de trop rares et déjà anciennes informations publiques sur le projet.

Il ne subsiste en effet aujourd’hui qu’un petit encart dans une brochure sur la modernisation de l’État (page 2 – avril 2007), mais surtout cet article de présentation, sur le site gouvernemental des Ateliers de la modernisation, dont le titre interpelle par son optimisme (alors que la dernière mise à jour date de septembre 2006) : Poste de travail : les clés d’un projet réussi.

Article qui vient confirmer les informations précédentes avec des citations comme : « Le projet de par sa nature induisait une démarche de mutualisation. En effet, la notion de logiciel libre est étroitement liée à un idée de partage des ressources, des connaissances : un état d’esprit qui se prête au travail collaboratif. »

Et depuis plus rien. Point de bilan et perspectives à l’instant t et aucune trace des « cédérom interministériel d’installation, mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. ».

Alors, trois ans plus tard, où en sommes-nous ? Telle est la légitime question qui en appelle plusieurs autres dans le détail.

Cette absence d’informations publiques signifie-t-elle qu’à ce jour le groupe hiberne et que la migration OpenOffice.org est au point mort dans l’administration publique ?

Assurément non. Elle signifie simplement que nous les administrés ne sommes pas en mesure d’évaluer les avancées du projet. Elle signifie également que nous ne pouvons profiter des documents produits pour l’occasion sur OpenOffice.org, rétention dont nous ne sommes pas habitués lorsqu’il s’agit de logiciel libre. Elle signifie enfin que la collaboration avec la communauté francophone d’OpenOffice.org a dû être si ce n’est nulle tout du moins fortement limitée.

MiMOOo en réunion

Nous pouvons de plus affirmer que MiMOOo est une cellule toujours active.

En effet nous savons, de « source autorisée », que le groupe s’est réuni le 19 mai dernier. Lors de cette réunion, étaient présents des représentants des ministères suivants :

  • Le ministère de l’Économie et du Budget
  • Le ministère de l’Intérieur
  • Le ministère de la Justice
  • Le ministère de l’Alimentation, de l’Agriculture et de la Pêche
  • Le ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer
  • La Gendarmerie Nationale
  • Les services du Premier ministre
  • La Caisse nationale des allocations familiales
  • L’Assemblée Nationale
  • L’École nationale d’administration

On remarquera quelques grands absents, à commencer par le ministère de… l’Éducation nationale ! On aurait pu s’attendre en effet à ce que ce ministère y siège en bonne place et y envoie un représentant compétent en la matière, ce dont la maison ne manque pas.

MiMOOo en question(s)

À partir de là, voici une liste non exhaustive de quelques questions que nous aimerions poser avant tout au groupe de travail MiMOOo, mais également à l’Éducation nationale, en passant par le personnel administratif et l’équipe francophone d’OpenOffice.org,

N’y voyez surtout pas un nouvel avatar de « la dictature d’Internet » qui souhaite mettre son nez partout. Et nous comprenons fort bien que certaines informations n’aient pas vocation ni intérêt à être diffusées publiquement. Nous, simples citoyens (et contribuables) en appelons juste à plus de transparence, puisque ce projet concerne l’administration publique en route vers une migration massive en logiciel libre et format ouvert.

Questions à MiMOOo
  • Quelle est la composition de ce groupe et sa gouvernance ? De quel département ce groupe est-il l’émanation ?
  • Quelles sont ses prérogatives ? Est-il uniquement consultatif ? Est-il décisionnel au niveau des plans d’équipement et/ou de formation ?
  • Qui sont les destinataires de ses conclusions ?
  • Qui contacter pour obtenir des renseignements sur les travaux de ce groupe ?
  • Y a-t-il eu d’autres réunions depuis ? Quelle est la fréquence de ces réunions ?
  • Pourquoi MiMOOo ne publie-t-il pas ses comptes rendus et ses débats en ligne ?
  • Qu’en est-il aujourd’hui de cet ambitieux objectif de 400 000 postes sous OpenOffice.org affiché en 2006 ?
  • Concerne-t-il toutes les administrations ou bien uniquement celles présentes à la réunion ?
  • Qu’en est-il aujourd’hui de cette autre volonté affichée en 2006, celle de « migrer vers le format OpenDocument » ?
  • MiMOOo a-t-il eu, ou tenté d’avoir, une influence quelconque dans l’élaboration de la toute récente nouvelle version du Référentiel général d’interopérabilité qui, d’après l’April, « sème la confusion en préconisant deux formats bureautiques concurrents » ? (cf le communiqué de l’April : RGI : le cadeau de François Fillon à Microsoft)
  • Pourquoi un certain nombre de ressources créées en interne ne seraient-elles pas rendues publiques si elles sont susceptibles de profiter à toute la communauté ?
Question au personnel des ministères
  • Avez-vous vu passer MiMOOo dans votre service ? Si oui, dans quelles conditions (formation, accompagnement, documentation…) ?
  • Faites-vous partie des 400 000 postes qui ont migré vers OpenOffice.org ?
Questions à l’Éducation nationale
  • Qui est le représentant MiMOOo du ministère de l’Éducation Nationale ? Comment le contacter ?
  • De quels mandats ce représentant a-t-il été chargé par son ministère de tutelle ?
  • Fait-on une distinction entre la migration de l’informatique pédagogique (les postes des élèves et des enseignants) et la migration de l’informatique administrative (les postes de la direction, de l’intendance, etc.) ?
  • L’absence remarquée à la réunion du 19 mai est-elle ponctuelle ou permanente ?
Questions à OpenOffice.org
  • Quelle relation le projet francophone OpenOffice.org entretien-t-il avec MiMOOo ?
  • Le projet francophone OpenOffice.org offre-t-il assistance et expertise à MiMOOo ? Intervient-il dans les réunions, les formations ?
  • En retour, MiMOOo (que l’on peut assimiler ici à un « grand compte public ») fait-il remonter les remarques, avis, critiques, problèmes rencontrés lors du déploiement ? Donne-t-il accès aux ressources évoquées ?
Question à la cantonade
  • Est-il normal qu’une structure telle que MiMOOo, pour rappel composée exclusivement de fonctionnaires, soit si discrète dans son action, sa communication et la diffusion de ses ressources créées en interne ?

En espérant, sait-on jamais, que tout ou partie des questions trouveront réponse dans les commentaires. Parce que « la plus grosse migration OpenOffice.org au monde » mérite certainement plus que cela, c’est-à-dire pour le moment une seule page Web mise à disposition.

Edit du 16 novembre : 24h après la mise en ligne de ce billet est apparu un article MiMOOo sur Wikipédia qui répond à bon nombre des questions ! Merci pour cette excellente et originale initiative.

Notes

[1] C’est l’image virtuelle de la boîte de ce cédérom qui sert d’illustration à ce billet.




Première démonstration « open source » d’un théorème mathématique

Robynejay - CC by-saEst-ce uniquement par leur licence qu’un noyau Linux et une encyclopédie Wikipédia sont identifiés comme étant libres ?

Juridiquement parlant oui, mais s’en tenir là serait passer à côté du modèle collaboratif particulier que ce sont donnés ces deux fleurons de la culture libre pour développer leur projet.

Conséquence de la licence, c’est aussi voire surtout la puissance de ce modèle qui caractérise le Libre. Et ce modèle commence à se diffuser un peu partout dans la société…

Les mathématiques sont « libres » depuis la nuit des temps (enfin depuis que les pythagoriciens ont cessé de se cacher, pour être plus précis)[1]. Chacun est libre des les étudier, les copier et les améliorer en étant fortement encouragé à rendre évidemment publiques ces améliorations, dans la plus pure tradition universitaire.

C’est absurde, mais si il fallait a posteriori leur accoler une licence issue de la culture libre, ce pourrait être la plus simple des Creative Commons, la CC-By, puisque cette notion de paternité est très importante dans un monde scientifique avant tout motivé par la reconnaissance des pairs et la place laissée dans l’Histoire de leur champ disciplinaire.

On retrouve d’ailleurs souvent les crédits et les hommages dans les noms que l’on donne aux résultats. On parlera ainsi de la preuve selon Euclide du théorème de Thalès.

Les mathématiques seraient donc « libres », les professeurs également (enfin surtout en France dans le secondaire avec Sésamath), mais quid des mathématiciens eux-même et de leurs pratiques ? Et si ils s’organisaient à la manière d’un projet de développement d’un logiciel libre pour chercher et éventuellement trouver ensemble des résultats importants ?

Entendons-nous bien. Les mathématiciens ne vivent bien entendu pas dans une tour d’ivoire. Ils sont habitués à travailler et échanger ensemble au sein d’un laboratoire, lors d’un séminaire… et évidemment sur Internet. Mais l’aventure intellectuelle et collective du « Projet Polymath » que nous avons choisi de vous narrer ci-dessous est un peu différente, en ce sens que ses auteurs eux-mêmes la définissent comme une expérience « open source ».

Ne vous arrêtez surtout pas à la complexité mathématique de ce qu’ils cherchent à accomplir (à savoir une « meilleure » preuve d’un théorème déjà démontré !), c’est totalement secondaire ici. Ce qui nous intéresse en revanche c’est comment ils y sont arrivés (désolé d’avoir vendu la mèche) et les enseignements qu’ils en tirent pour l’avenir.

Parce qu’il se pourrait que cet mode opératoire, original et efficient, fasse rapidement des émules, et ce bien au delà des mathématiques.

Remarque : C’est le terme « open source » qui a été choisi tout du long par les auteurs et non « free software ». Contrairement au domaine logiciel, il ne s’agit pas d’un choix ou d’un parti pris mais tout simplement d’une question de sens : « open source mathematics » étant largement plus signifiant que « free software mathematics » !

Mathématiques massivement collaboratives

Massively collaborative mathematics

Timothy Gowers[2] et Michael Nielsen[3] – 24 octobre 2009 – Nature.com (Opinion)
(Traduction Framalang : Olivier et Goofy)

Le « Projet Polymath » est la preuve que l’union de nombreux cerveaux peut résoudre des problèmes mathématiques complexes. Timothy Gowers et Michael Nielsen nous livrent leurs réflexions sur ce qu’ils ont appris des sciences open source.

Le 27 janvier 2009, l’un d’entre nous, Gowers, a lancé une expérience inhabituelle par l’intermédiaire de son blog (NdT : avec ce billet Is massively collaborative mathematics possible?). Le Projet Polymath s’était fixé un but scientifique conventionnel : s’attaquer à un problème mathématique irrésolu. Mais son but plus ambitieux était d’innover dans la recherche en mathématiques. Reprenant l’idée des communauté open source comme Linux et Wikipédia, le projet s’appuyait sur des blogs et des wikis pour canaliser une collaboration complètement ouverte. Libre à tout un chacun d’en suivre la progression et s’il le désire d’apporter sa contribution. Les blogs et wikis étaient en quelque sorte une mémoire à court terme collective, un brainstorming ouvert à grande échelle dédié à l’amélioration des idées.

Le résultat de la collaboration dépassa de loin les espérances de Gowers, offrant une belle illustration de ce que nous pensons être une dynamique formidable pour les découvertes scientifiques : la collaboration de nombreux cerveaux connectés par Internet.

Le Projet Polymath visait à trouver une preuve élémentaire d’un cas particulier du théorème de Hales-Jewett sur la densité (NdT : DHJ pour Density Hales-Jewett), théorème central de l’analyse combinatoire, une branche des mathématiques qui étudie les structures discrètes (voir Morpion à plusieurs dimensions). Ce théorème avait déjà été démontré, mais les mathématiciens ne se contentent pas toujours d’un seul chemin. De nouvelles preuves peuvent déterminantes pour une meilleure compréhension du théorème. Trouver une nouvelle démonstration du théorème DHJ était important pour deux raisons. Tout d’abord il fait partie d’un ensemble de résultats fondamentaux possédant plusieurs démonstrations, alors que le théorème DHJ n’en avait jusqu’alors connu qu’une seule, longue, complexe, et très technique. Seul un élan de nouvelles idées pouvait amener à une preuve plus simple, s’appuyant sur des concepts de base plutôt que sur des techniques compliquées. Ensuite, du théorème DHJ découle un autre théorème important, le théorème de Szemerédi. La découverte de nouvelles preuves de ce théorème a conduit à de grandes avancées au cours de la dernière décennie, on pouvait donc raisonnablement s’attendre à ce qu’un même phénomène accompagne la découverte d’une nouvelle démonstration du théorème DHJ.

À l’origine du projet on retrouve Gowers. Il publia une description du problème, indiqua quelques ressources et établit une liste préliminaire de règles régissant la collaboration. Grâce à ces règles, les échanges sont restés polis et respectueux, elles encourageaient les participants à proposer une et une seule idée par commentaire, même sans la développer complètement. Ces règles stimulaient ainsi les contributions et aidaient à conserver le caractère informel de la discussion.

Mettre le projet sur les bons rails

La discussion collaborative a vraiment commencé le 1er février, doucement : il a fallu attendre plus de 7 heures avant que Jozsef Solymosi, un mathématicien de l’Université de la Colombie Britannique à Vancouver, fasse le premier commentaire. Quinze minutes après, un nouveau commentaire était posté par Jason Dyer, enseignant dans un lycée de l’Arizona. Trois minutes après, c’est Terence Tao (lauréat de la médaille Fields, la plus haute distinction en mathématiques), de l’Université de California à Los Angeles, qui écrivit son commentaire.

Au cours des 37 jours qui suivirent, ce sont pas moins de 27 personnes qui ont apporté leur contribution au travers d’environ 800 messages, pour un total de 170 000 mots. Personne n’a été spécialement invité à participer : la discussion était ouverte à tout le monde, des doctorants aux experts mathématiciens. Nielsen a mis en place un wiki pour mettre en avant les contributions importantes apparues dans les commentaires du blog. Au moins 16 autres blogs ont parlé du projet, il s’est hissé à la première page de l’agrégateur Slashdot technology et a donné naissance à un projet assez proche sur le blog de Tao.

Tout s’est déroulé sans accroc : pas de « trolls » (ces adeptes des posts non constructifs, voire malveillants), ni de commentaires bien intentionnés mais complètement inutiles (on peut malgré tout signaler que le wiki a été spammé). Le rôle de modérateur pris par Gowers se résumait essentiellement à corriger les fautes.

Le projet progressa bien plus rapidement qu’attendu. Le 10 mars, Gowers annonça qu’il était assez sûr que les participants au projet Polymath avaient découvert une preuve élémentaire d’un cas particulier du théorème DHJ et, qu’étonnamment (compte tenu des expériences avec des problèmes similaires), cette preuve pouvait être généralisée assez facilement pour prouver le théorème entier. La rédaction d’un article décrivant cette preuve est entreprise, ainsi que celle d’un second papier décrivant des résultats liés. De plus, alors que le projet était encore actif, Tim Austin, doctorant à l’Université de Californie, Los Angeles, publia une autre preuve (non élémentaire celle-ci) du théorème DHJ en s’appuyant largement sur les idées développées dans le projet Polymath.

Les archives du projet Polymath constituent une ressource exceptionnelle pour les étudiants en mathématiques, les historiens et autres philosophes des sciences. Pour la première fois, on peut suivre le cheminement intellectuel complet à l’origine d’un résultat mathématique sérieux. On y voit les idées naître, grandir, changer, s’améliorer ou être abandonnées, et on y découvre que la progression de la compréhension ne se fait pas nécessairement par un unique pas de géant, mais plutôt par le regroupement et le raffinement de plusieurs petites idées.

C’est un témoignage direct de la persévérance dont il faut faire preuve pour résoudre un problème complexe, pour progresser malgré les incertitudes et on réalise que même les meilleurs mathématiciens peuvent faire des erreurs simples et s’entêter à creuser une idée vouée à l’échec. Il y a des hauts et des bas et on ressent une vraie tension à mesure que les participants s’approchent d’une solution. Les archives d’un projet mathématique peuvent se lire comme un thriller, qui l’eût cru ?

Des implications plus larges

Le projet Polymath ne ressemble pas aux collaborations à grande échelle traditionnelles, comme on peut en trouver dans l’industrie ou dans les sciences. En général, ces organisations sont divisées hiérarchiquement. Le projet Polymath était complètement ouvert, chacun était libre d’apporter sa pierre à l’édifice… n’importe quelle pierre. La variété des points de vue a parfois apporté des résultats inattendus.

Se pose alors la question de la paternité : difficile de décréter une règle de paternité stricte sans heurt ou sans décourager des contributeurs potentiels. Quel crédit accorder aux contributeurs apportant uniquement une idée perspicace, ou à un contributeur très actif mais peu perspicace ? Le projet a adopté une solution provisoire : il signe ses articles du pseudonyme « DHJ Polymath » suivi d’un lien vers les archives (NdT : cf cette première publication ainsi signée A new proof of the density Hales-Jewett theorem). Grâce à la collaboration ouverte privilégiée par le projet Polymath, on sait exactement qui a fait quoi. Au besoin, une lettre de recommandation peut isoler les contributions d’un membre du projet en particulier, comme c’est déjà le cas en physique des particules où il est courant de voir des articles avec des centaines d’auteurs.

Se pose aussi le problème de la conservation. Les archives principales du projet Polymath sont dispersées sur deux blogs (1 et 2) et un wiki, le rendant très dépendant de la disponibilité de ces sites. En 2007, la bibliothèque du Congrès américain a initié un programme de conservation des blogs tenus par les professionnels du droit. De la même manière, mais à plus grande échelle, un programme similaire est nécessaire pour conserver les blogs et wikis de recherche.

D’autres projets, ayant vu le jour depuis, permettront d’en apprendre plus sur le fonctionnement des mathématiques collaboratives. Il est en particulier crucial de savoir si ce genre de projet peut être élargi à plus de contributeurs. Bien qu’il ait rassemblé plus de participants qu’une collaboration classique en mathématiques, le projet Polymath n’est pas devenu la collaboration massive que ses créateurs espéraient. Ceux qui y ont participé s’accordent sur le fait que pour grandir, il faudrait que le projet adapte sa manière de procéder. La narration linéaire du blog posait, entre autre, problème aux nouveaux arrivants. Difficile pour eux, parmi la masse d’informations déjà publiées, d’identifier où leur aide serait la plus précieuse. Il y avait également le risque qu’ils aient loupé un « épisode » et que leur apport soit redondant.

Les projets de logiciels libres utilisent des logiciels de suivi de version pour organiser le développement autour des « problèmes », des rapports de bogues ou des demandes de fonctionnalités en général. Ainsi, les nouveaux arrivants ont une vision claire de l’état du projet, ils peuvent concentrer leurs efforts sur un « problème » particulier. De même, la discussion est séparée en modules. Les futurs projets Polymath pourraient s’en inspirer.

Bientôt, les sciences ouvertes

L’idée derrière le projet Polymath est potentiellement applicable à tous les défis scientifiques, mêmes les plus importants comme ceux pour lesquels le Clay Mathematics Institute de Cambridge, Massachussets offre un prix d’un million de dollars. Même si certaines personnes souhaiteront toujours garder tout le mérite pour elles-mêmes et être pour ainsi dire refroidies par l’aspect collaboratif, d’autres au contraire pourraient y voir une excellente opportunité d’être associés à la résolution de l’un de ces problèmes.

Dans d’autres disciplines, l’approche open source ne gagne que très lentement du terrain. Un domaine s’y est ouvert avec succès : la biologie synthétique. Les informations ADN d’organismes vivants sont enregistrées numériquement et envoyées à un dépôt en ligne, comme celui du MIT Registry of Standard Biological Parts. D’autres groupes peuvent utiliser ces informations dans leur laboratoire et, s’ils le souhaitent, reverser leurs améliorations au dépôt. qui compte actuellement plus de 3 200 contributions, apportées par plus de 100 entités différentes. Les découvertes qui en découlent ont fait l’objet de nombreux articles comme par exemple Targeted Development of Registries of Biological Parts. La biologie open source et les mathématiques open source montrent comment la science peut progresser grâce aux diverses contributions apportées par des gens aux compétences variées.

On pourrait, de la même manière, employer ces techniques open source dans d’autres domaines, telle la physique et l’informatique théoriques, où les données brutes contiennent de nombreuses informations et peuvent être partagées librement en ligne. Appliquer les techniques open source aux travaux pratiques est plus délicat, les conditions expérimentales étant difficilement reproductibles. Quoiqu’il en soit, le partage libre des données expérimentales permet néanmoins leur analyse libre. Adopter ces techniques open source à grande échelle ne sera possible que grâce à un changement profond des mentalités en science et au développement de nouveaux outils en ligne. Nous croyons à un fort développement de la collaboration de masse dans de nombreux domaine des sciences, et que cette collaboration massive repoussera les limites de nos capacités à résoudre des problèmes.

Notes

[1] Crédit photo : Robynejay (Creative Commons By-Sa)

[2] Timothy Gowers appartient au Departement of Pure Mathematics and Mathematical Statistics de l’Université de Cambridge, Wilberforce Road, Cambridge CB3 0WB, UK et il est Royal Society 2010 Anniversary Research Professor.

[3] Michael Nielsen est écrivain et physicien, il habite à Toronto et travaille sur un livre sur le futur de la science.




Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.




National Portrait Gallery vs Wikipédia ou la prise en étau et en otage de la Culture ?

Cliff1066 - CC byTous ceux qui ont eu un jour à jouer les touristes à Londres ont pu remarquer l’extrême qualité et la totale… gratuité des grands musées nationaux. Rien de tel pour présenter son patrimoine et diffuser la culture au plus grand nombre. Notons qu’à chaque fois vous êtes accueilli à l’entrée par de grandes urnes qui vous invitent à faire un don, signifiant par là-même qu’ils ne sont plus gratuits si jamais vous décidez d’y mettre votre contribution.

Parmi ces musées on trouve le National Portrait Gallery qui « abrite les portraits d’importants personnages historiques britanniques, sélectionnés non en fonction de leurs auteurs mais de la notoriété de la personne représentée. La collection comprend des peintures, mais aussi des photographies, des caricatures, des dessins et des sculptures. » (source Wikipédia).

Or la prestigieuse galerie vient tout récemment de s’illustrer en tentant de s’opposer à la mise en ligne sur Wikipédia de plus de trois mille reproductions photographiques d’œuvres de son catalogue tombées dans le domaine public. Le National Portrait Gallery (ou NPG) estime en effet que ces clichés haute-résolution lui appartiennent et ont été téléchargés sans autorisation sur Wikimedia Commons, la médiathèque des projets Wikimédia dont fait partie la fameuse encyclopédie. Et la vénérable institution va même jusqu’à menacer d’une action en justice !

Il est donc question, une fois de plus, de propriété intellectuelle mais aussi et surtout en filigrane de gros sous. Personne ne conteste que le National Portrait Gallery ait engagé des dépenses pour numériser son fond et qu’elle ait besoin d’argent pour fonctionner. Mais n’est-il pas pour le moins choquant de voir un telle institution culturelle, largement financée par l’État, refuser ainsi un accès public à son contenu, sachant qu’elle et Wikipédia ne sont pas loin de poursuivre au final les même nobles objectifs ?

C’est ce que nous rappelle l’un des administrateurs de Wikipédia dans un billet, traduit ci-dessous par nos soins, issu du blog de la Wikimedia Foundation. Billet qui se termine ainsi : « Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général. »

Remarque : L’illustration[1] choisie pour cet article représente le moment, en janvier dernier, où le célèbre portrait d’Obama réalisé par l’artiste Shepard Fairey entre au National Portrait Gallery, non pas de Londres mais de Washington. Ce portrait a lui aussi fait l’objet d’une forte polémique puisqu’il s’est directement inspiré d’une image d’un photographe travaillant pour l’Association Press qui a elle aussi tenté de faire valoir ses droits (pour en savoir plus… Wikipédia bien sûr). Décidément on ne s’en sort pas ! Heureusement que le portrait s’appelle « Hope »…

Protection du domaine public et partage de notre héritage culturel

Protecting the public domain and sharing our cultural heritage

Erik Moeller – 16 juillet 2009 – Wikimedia Blog
(Traduction Framalang : Claude le Paih)

La semaine dernière, le National Portrait Gallery de Londres, Royaume Uni, a envoyé une lettre menaçante à un bénévole de Wikimédia concernant la mise en ligne de peintures du domaine public vers le dépôt de Wikimédia : Wikimédia Commons.

Le fait qu’une institution financée publiquement envoie une lettre de menace à un bénévole travaillant à l’amélioration d’une encyclopédie sans but lucratif, peut vous paraitre étrange. Après tout, la National Portrait Gallery fut fondée en 1856, avec l’intention déclarée d’utiliser des portraits « afin de promouvoir l’appréciation et la compréhension des hommes et femmes ayant fait, ou faisant, l’histoire et la culture britannique » (source) Il parait évident qu’un organisme public et une communauté de volontaires promouvant l’accès libre à l’éducation et la culture devraient être alliés plutôt qu’adversaires.

Cela parait particulièrement étrange dans le contexte des nombreux partenariats réussis entre la communauté Wikimédia et d’autres galeries, bibliothèques, archives et musées. Par exemple, deux archives allemandes, la Bundesarchiv et la Deutsche Fotothek, ont offert ensemble 350 000 images protégées par copyright sous une licence libre à Wikimédia Commons, le dépôt multimédia de la Fondation Wikimédia.

Ces donations photographiques furent le résultat heureux de négociations intelligentes entre Mathias Schindler, un bénévole de Wikimédia, et les représentants des archives. (Information sur la donation de la Bundearchiv ; Information sur la donation de la Fotothek).

Tout le monde est alors gagnant. Wikimédia aida les archives en travaillant à identifier les erreurs dans les descriptions des images offertes et en associant les sujets des photographies aux standards des métadatas. Wikipédia a contribué à faire mieux connaître ces archives. De même, les quelques trois cent millions de visiteurs mensuels de Wikipédia se sont vus offrir un accès libre à d’extraordinaires photographies de valeur historique, qu’ils n’auraient jamais pu voir autrement.

Autres exemples :

  • Au cours des derniers mois, des bénévoles de Wikimédia ont travaillé avec des institutions culturelles des États-Unis, du Royaume-Uni et des Pays-Bas afin de prendre des milliers de photographies de peintures et d’objets pour Wikimédia Commons. Ce projet est appelé « Wikipédia aime les arts ». Une nouvelle fois, tout le monde y gagne : les musées et galeries s’assurent une meilleure exposition de leur catalogue, Wikipédia améliore son service, et les gens du monde entier peuvent voir des trésors culturels auxquels ils n’auraient pas eu accès sinon. (voir la page anglaise de Wikipédia du projet et le portail néerlandais du projet).
  • Des bénévoles de Wikimédia travaillent individuellement, avec des musées et des archives, à la restauration numérique de vieilles images en enlevant des marques telles que taches ou rayures. Ce travail est minutieux et difficile mais le résultat est formidable : l’œuvre retrouve son éclat originel et une valeur informative pleinement restaurée. Le public peut de nouveau l’apprécier (le travail de restauration est coordonné grâce à la page « Potential restorations » et plusieurs exemples de restaurations peuvent être trouvés parmi les images de qualité de Wikimédia).

Trois bénévoles de Wikimédia ont résumé ces possibilités dans une lettre ouverte : Travailler avec, et non pas contre, les institutions culturelles. Les 6 et 7 Août, Wikimédia Australie organise une manifestation afin d’explorer les différents modèles de partenariats avec les galeries, bibliothèques, archives et musées (GLAM : Galleries, Libraries, Archives and Museums).

Pourquoi des bénévoles donnent-ils de leur temps à la photographie d’art, à la négociation de partenariat avec des institutions culturelles, à ce travail minutieux de restauration ? Parce que les volontaires de Wikipédia veulent rendre l’information (y compris des images d’importance informative et historique) librement disponible au monde entier. Les institutions culturelles ne devraient pas condamner les bénévoles de Wikimédia : elles devraient joindre leurs forces et participer à cette une mission.

Nous pensons qu’il existe pour Wikipédia de nombreuses et merveilleuses possibilités de collaborations avec les institutions culturelles afin d’éduquer, informer, éclairer et partager notre héritage culturel. Si vous souhaitez vous impliquer dans la discussion, nous vous invitons à rejoindre la liste de diffusion de Wikimédia Commons : la liste est lue par de nombreux bénévoles de Wikimédia, quelques volontaires liés aux comités de Wikimédias ainsi que des membres de la Fondation. Sinon, s’il existe un comité dans votre pays, vous pourriez vous mettre en contact directement avec eux. Vous pouvez également contacter directement la Wikimedia Foundation. N’hésitez pas à m’envoyer vos premières réflexions à erik(at)wikimedia(dot)org, je vous connecterai d’une manière appropriée.

La NPG (National Portrait Galery) est furieuse qu’un volontaire de Wikimédia ait mis en ligne sur Wikimédia Commons des photographies de peintures du domaine public lui appartenant. Au départ, la NPG a envoyé des lettres menaçantes à la Wikimedia Foundation, nous demandant de « détruire toutes les images » (contrairement aux déclarations publiques, ces lettres n’évoquaient pas un possible compromis. La NPG confond peut être sa correspondance et un échange de lettre en 2006 avec un bénévole de Wikimédia, (que l’utilisateur publie ici). La position de la NPG semble être que l’utilisateur a violé les lois sur le droit d’auteur en publiant ces images.

La NPG et Wikimédia s’accordent toutes deux sur le fait que les peintures représentées sur ces images sont dans le domaine public : beaucoup de ces portraits sont vieux de plusieurs centaines d’années, tous hors du droit d’auteur. Quoiqu’il en soit, la NPG prétend détenir un droit sur la reproduction de ces images (tout en contrôlant l’accès aux objets physiques). Autrement dit, la NPG pense que la reproduction fidèle d’une peinture appartenant au domaine public, sans ajout particulier, lui donne un nouveau droit complet sur la copie numérique, créant l’opportunité d’une valorisation monétaire de cette copie numérique pour plusieurs décennies. Pour ainsi dire, La NPG s’assure dans les faits le contrôle total de ces peintures du domaine public.

La Wikimedia Foundation n’a aucune raison de croire que l’utilisateur en question ait transgressé une loi applicable, et nous étudions les manières de l’aider au cas ou la NPG persisterait dans ses injonctions. Nous sommes ouvert à un compromis au sujet de ces images précises, mais il est peu probable que notre position sur le statut légal de ces images change. Notre position est partagée par des experts juridiques et par de nombreux membres de la communauté des galeries, bibliothèques, archives et musées. En 2003, Peter Hirtle, cinquante-huitième président de la Society of American Archivists (NdT : Société des Archivistes Américains), écrivit :

« La conclusion que nous devons en tirer est inéluctable. Les tentatives de monopolisation de notre patrimoine et d’exploitation commerciale de nos biens physiques appartenant au domaine public ne devraient pas réussir. De tels essais se moquent de l’équilibre des droits d’auteur entre les intérêts du créateur et du public. » (source)

Dans la communauté GLAM internationale, certains ont choisi l’approche opposée, et sont même allés plus loin en proposant que les institutions GLAM utilisent le marquage numérique et autres technologies de DRM (Digital Restrictions Management) afin de protéger leurs supposés droits sur des objets du domaine public et ainsi renforcer ces droits d’une manière agressive.

La Wikimedia Foundation comprend les contraintes budgétaires des institutions culturelles ayant pour but de préserver et maintenir leurs services au public. Mais si ces contraintes aboutissent à cadenasser et limiter sévèrement l’accès à leur contenu au lieu d’en favoriser la mise à disposition au plus grand nombre, cela nous amène à contester la mission de ces institutions éducatives. Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général.

Erik Moeller
Deputy Director, Wikimedia Foundation

Notes

[1] Crédit photo : Cliff1066 (Creative Commons By)