Comment Firefox peut améliorer le respect de la vie privée en ligne

Voici comment se termine cette nouvelle traduction de Jenny Boriss, qui s’occupe de l’expérience utilisateur de Firefox chez Mozilla :

« Notre objectif pour Firefox 4.0 est de conférer aux utilisateurs davantage de contrôle sur leurs données, à la fois en leur passant à proprement parler les commandes et, plus important encore, en faisant en sorte que la vie privée et l’anonymat soient respectés par défaut sans casser les fonctionnalités du Web. J’espère vraiment que le simple fait d’indiquer à quelles données les sites ont accès sera positif pour le Web, en réduisant la fausse impression de sécurité que de nombreux sites essaient de donner à leurs utilisateurs. Cela permettra aussi de susciter une prise de conscience et de contrôler comment, où et quand les données sont partagées. »

Facebook et Google peuvent-ils en dire autant ?

Halte à l’invasion des cookies ! Comment Firefox peut améliorer le respect de la vie privée en ligne

Defeating the Cookie Monster: How Firefox can Improve Online Privacy

Jenny Boriss – 2 juin 2010 – Boriss’ Blog

(Traduction Framalang : Pandark, Berettonawak, Joan, Goofy et Don Rico)

À l’heure où nous déterminons les priorités pour les fonctionnalités et le développement de la prochaine version de notre navigateur, l’équipe de Firefox a analysé l’état du Web et recherché les domaines pour lesquels le contenu disponible en ligne a évolué plus vite que les fonctions du navigateur. L’un de ces domaines préoccupants est l’usage croissant des données privées de l’utilisateur, en particulier par la publicité. La transmission muette et permanente des données de l’utilisateur entre les sites et les annonceurs publicitaires est très dérangeante pour ceux qui s’intéressent au libre choix de l’utilisateur et à la transparence sur le Web.

Vie privée vs. Sécurité

Même s’ils sont liés, la vie privée et la sécurité sont des sujets distincts. Le terme Sécurité renvoie à la prévention des dommages matériels que peut subir l’utilisateur. Éviter le vol, la fraude, la perte d’informations… relève du domaine de la sécurité. Depuis des années, les navigateurs travaillent à l’amélioration de la sécurité, motivés par des dangers toujours plus sophistiqués : virus, programmes malveillants, et autres exploitations de failles.

Le respect de la vie privée est quant à lui un sujet plus vaste. Il concerne le contrôle qu’exercent les utilisateurs sur ce qu’ils révèlent d’eux-mêmes en ligne, que ces données puissent ou non être utilisées à de mauvais desseins. Tous les usagers d’Internet dévoilent des informations sur eux-mêmes sur certains sites, mais chacun maîtrise sa confidentialité s’il sait distinguer quelles informations partager ou non, et avec qui.

Firefox assure la confidentialité locale mais doit aussi assurer la confidentialité en ligne.

L’équipe de Firefox a déjà bien fait progresser les choses dans le domaine de la confidentialité locale, avec des fonctions comme le mode de navigation privée, la suppression de l’historique récent et l’option « Oublier ce site ». Ces fonctions permettent aux utilisateurs d’exercer un meilleur contrôle sur les circonstances où leurs données doivent être dévoilées ou bien cachées dans leur ordinateur. Cependant, des soucis de confidentialité plus sérieux apparaissent quand des données sont échangées sur un réseau.

Un problème majeur que pose le Web moderne est la possibilité pour les régies publicitaires de collecter les données privées des utilisateurs avec des cookies de sites tiers.

Les sites qui proposent une interaction riche récoltent en général des informations sur l’utilisateur. Le problème survient lorsque les utilisateurs sont d’accord pour partager leurs données avec des sites auxquels ils font confiance, alors que celles-ci sont partagées à leur insu avec d’autres sites et sociétés via des cookies de sites tiers. C’est un système de financement de plus en plus courant en ligne.

C’est en novembre 1999 que les États-Unis l’ont découvert, lorsque la Federal Trade Commission (NdT: Équivalent de la Direction de la concurrence et de la répression des fraudes) a mené une étude sur le profilage en ligne et montré que cela présentait des risques pour la vie privée des consommateurs. Cette pratique s’est développée, malgré quelques tentatives avortées de régulation de la Federal Trade Commission américaine, de l’Interactive Advertising Bureau du Canada (Bureau de la publicité interactive) et de l’Office of Fair Trading (Équiv. de la Direction de la concurrence et de la répression des fraudes) britannique.

Tout site que vous visitez peut contenir des publicités ou d’autres composants qui envoient des cookies de votre session de navigation sur le domaine auquel vous faites confiance vers un domaine publicitaire. Ces cookies de sites tiers peuvent être utilisés pour recouper les données d’un utilisateur entre plusieurs sites et plusieurs sessions, permettant ainsi de d’établir le profil des internautes et de traquer leurs habitudes. Ces données peuvent fournir à des sociétés toutes sortes d’informations telles que ce que vous achetez, ce que vous lisez, combien vous gagnez, si vous avez postulé pour un emploi, ou encore quels sites de rencontres vous préférez. L’une des conséquences visibles de ce partage des données est la présence de publicités ciblées en fonction d’informations et d’actions de l’utilisateur sur d’autres sites.

How Firefox can Improve Online Privacy

La capacité des publicitaires à obtenir et utiliser ces données constitue une infraction à la vie privée des utilisateurs, et ce pour plusieurs raisons :

  • La collecte des données est quasi impossible à détecter. La plupart des opérations de transmission de données s’effectuent en coulisse pendant une session de navigation, sans demander son avis à l’utilisateur ni le prévenir. En général, celui-ci ne découvre ce qui s’est passé qu’au moment où il se trouve face à des publicités ciblées (bien longtemps après le transfert des données).
  • Elle s’effectue sans le consentement de l’utilisateur. Même parmi les sites qui sont conscients que des tierces parties enregistrent des cookies depuis leur domaine, bien peu donnent aux utilisateurs le contrôle sur la façon dont leurs données sont partagées avec les régies publicitaires. Les sites qui procurent effectivement des options les formulent parfois de telle sorte qu’elles masquent leurs objectifs, comme par exemple « Souhaitez-vous que s’affichent des contenus en rapport avec votre utilisation ? » plutôt que « Voulez-vous que s’affichent des publicités en rapport avec vos données personnelles ? ».
  • Elle va à l’encontre de ce que l’utilisateur est raisonnablement en droit d’attendre concernant le respect de sa vie privée. Certains sites qui partagent les données de leurs utilisateurs en connaissance de cause se donnent une image trompeuse de responsabilité concernant ces données. Selon les cas, ils affichent des préférences d’utilisation impliquant un contrôle, assurant les utilisateurs que leurs données sont « sécurisées » ou proposant aux utilisateurs de lire une très longue charte de respect de la vie privée dans le but de dissimuler leurs véritables agissements. Bien sûr, le haut du tableau d’horreur est réservé aux sites qui modifient leur politique de confidentialité pour les rendre plus permissives une fois que les utilisateurs se sont déjà inscrits et ont déjà confié leurs données.
  • Il est pratiquement impossible de l’empêcher. Même si un utilisateur est très au fait des problèmes de respect de la vie privée, lit consciencieusement toutes les politiques de confidentialité, tient à jour ses préférences relatives aux données privées et évite les sites qui ne lui garantissent pas de confidentialité, il ne sera pas forcément en sécurité. Tout site auquel il a confié ses données est susceptible de les utiliser sans le lui demander, et des cookies tiers pourraient être enregistrés sur son ordinateur par des publicités ou des bogues à l’insu des responsables du site. Bon dieu, n’importe quel site pourrait extraire des informations qui identifient un utilisateur à partir de son empreinte numérique.
  • Elle est potentiellement embarrassante pour l’utilisateur. La transmission des données par des cookies tiers prend les informations fournies par l’utilisateur à un instant T et les dévoile à un autre moment. Alors que l’utilisateur peut être discret concernant les sites où il parcourt certains contenus, et même utiliser le mode de navigation privée pour que les éléments n’apparaissent pas dans l’historique, les régies publicitaires qui utilisent des cookies tiers peuvent dévoiler son comportement à des moments qui échappent à son contrôle.

Que peut faire Firefox pour améliorer la gestion des données privées ?

  • 1. Offrir des réglages par défaut bien pensés pour les cookies de sites tiers
    Se contenter de désactiver les cookies tiers n’est pas la solution. Les cookies tiers sont indispensables pour légitimer les fonctions Web telles que les contenus embarqués, la gestion de sessions, les sites hybrides, etc. La plupart des sites bancaires ont besoin des cookies de sites tiers pour des fonctionnalités telles que le payement de factures. Le but ne devrait pas être de désactiver directement les cookies tiers, mais de gérer plus intelligemment quels comportements sont autorisés.
    Le groupe de travail HTTP State s’applique actuellement à créer une spécification définissant la manière dont les clients doivent se comporter concernant les cookies (voir ici les documents de travail). Dan Witte, responsable du module Cookie chez Mozilla, est en liaison étroite avec le groupe et travaille de son côté à définir un standard moderne pour les cookies. Son objectif est de tracer les grandes lignes que peut suivre Mozilla en restant fidèle à notre Manifeste pour protéger le choix de l’utilisateur sur le Web. Dan travaille déjà à une stratégie que pourrait suivre Firefox pour régler le problème en autorisant les cookies tiers mais seulement de façon temporaire. Son idée est de n’activer les cookies tiers que pour la durée d’ouverture d’un onglet. À la fermeture de l’onglet, les cookies sont supprimés – les régies publicitaires ne pourront alors plus suivre à la trace les utilisateurs d’un site à l’autre. Dan abordera bientôt tout cela sur son blog avec davantage de détails.

How Firefox can Improve Online Privacy

  • 2. Donner aux utilisateurs, via les préférences, un meilleur contrôle sur la manière dont les sites peuvent accéder à leurs informations privées
    Pour l’instant, Firefox donne aux utilisateurs un contrôle précis sur les multiples façons dont les sites peuvent accéder à leurs données. Tout ce que l’utilisateur doit faire, c’est modifier celles-ci dans chacun des panneaux de préférences qui affectent les privilèges des sites.
    Comme on peut le voir ci-dessus, l’interface actuelle de Firefox donne à chaque type de privilège – l’enregistrement des mots de passe, les cookies, etc. – une fenêtre de préférences distincte. Cette conception repose sur des considérations d’implémentation plutôt que sur le schéma mental de l’utilisateur, ce qui signifie qu’elle correspond au mode de développement et non à la manière dont les utilisateurs perçoivent l’action qu’ils veulent entreprendre. Avoir une fenêtre individuelle distincte pour chaque permission est cohérent du point de vue de l’implémentation, car chaque privilège de site est distinct dans le code.
    Pour l’utilisateur, en revanche, il est impossible de voir de quels privilèges dispose un site donné. Une meilleure présentation pourrait montrer les paramètres de contrôle regroupés par site plutôt que par technologie. Si un utilisateur décide de ne pas faire confiance au site X et refuse qu’il ait accès à quoi que ce soit, il serait plus efficace de contrôler tous les accès du site X au même endroit – et non dans 15 fenêtres différentes. Alex Faaborg a réalisé la maquette ci-dessous pour illustrer à quoi une interface utilisateur centrée sur les sites pourrait ressembler.
    Bien que l’ensemble des préférences aient besoin d’être améliorées, l’intégration d’un contrôle des données privées par site, comme Alex le montre ci-dessus pour Firefox 4.0, serait un grand pas en avant vers la reconquête du contrôle des données personnelles par les utilisateurs.

How Firefox can Improve Online Privacy

  • 3. Donner un meilleur contrôle de leurs données aux utilisateurs pendant la navigation
    Grâce à un panneau de préférences spécifique par site, les utilisateurs bénéficieraient d’un contrôle plus fin de ce qui est exposé de leur vie privée par le biais de la configuration de Firefox, certaines options et informations pourraient être accessibles pendant que l’utilisateur est en train de surfer. Si un site a par exemple accès à la position géographique, cela devrait être indiqué en permanence dans l’interface de Firefox. Si un site conserve un mot de passe, cela devrait être facile à modifier ou désactiver sans avoir à ouvrir le menu des préférences. Le bouton d’identité du site, qui fournit actuellement très peu d’informations, pourrait être amélioré pour informer des privilèges liés à ce site et permettre de les modifier.

Notre objectif pour Firefox 4.0 est de conférer aux utilisateurs davantage de contrôle sur leurs données, à la fois en leur passant à proprement parler les commandes et, plus important encore, en faisant en sorte que la vie privée et l’anonymat soient respectés par défaut sans casser les fonctionnalités du Web. J’espère vraiment que le simple fait d’indiquer à quelles données les sites ont accès sera positif pour le Web, en réduisant la fausse impression de sécurité que de nombreux sites essaient de donner à leurs utilisateurs. Cela permettra aussi de susciter une prise de conscience et de contrôler comment, où et quand les données sont partagées.




Et l’homme créa la vie… mais déposa un brevet dans la foulée

Liber - CC by-saGrande première : des chercheurs américains sont récemment parvenus à créer une cellule bactérienne vivante dont le génome est synthétique.

Il n’en fallait pas plus pour que la presse vulgarise l’évènement en nous posant cette spectaculaire question : et si l’homme venait de créer la vie ?

C’est aller un peu vite en besogne nous précise le célèbre scientifique français Joël de Rosnay : « Craig Venter, l’auteur de la fameuse publication dans Science, n’a pas créé la vie, il a fait un copier coller du génome d’une bactérie qui existe dans la nature ». Mais il reconnaît cependant que « c’est la première fois qu’un être vivant n’a pas d’ancêtre, qu’il a pour père un ordinateur ».

Nous voici donc en présence d’un être vivant dont le père serait partiellement un ordinateur. Or qui manipule cet ordinateur ? Craig Venter et son équipe, et si l’homme est avant tout un biologiste c’est également un homme d’affaire, ce ne sont pas des fonds publics mais privés qui financent ses recherches. Ainsi Le Monde nous révèle que « Venter, qui aurait déjà investi 40 millions de dollars dans ce projet, a déposé un portefeuille de brevets pour protéger son concept de Mycoplasma laboratorium, hypothétique machine à tout faire des biotechnologies ».

Une vie qui n’est alors qu’information et données entrées dans un ordinateur mais dont l’exploitation et l’accès sont strictement contrôlés et réservés aux entreprises qui l’ont enfantée. Cela ressemble à de la mauvaise science-fiction. C’est pourtant peut-être le monde qui nous attend demain. Et l’Apocalypse arrivera plus tôt que prévu[1].

Sauf si… sauf si on insuffle là aussi un peu d’esprit « open source », nous dit cet article du The Economist traduit ci-dessous.

Avoir ou non la possibilité de « hacker la vie », telle sera l’une des questions fondamentales de ce siècle.

Et l’homme créa la vie…

And man made life

20 mai 2010 – The Economist Newspaper
(Traduction Framalang : Martin, Olivier et Don Rico)

La vie artificielle, porteuse de rêves et de cauchemars, est arrivée.

Créer la vie est la prérogative des dieux. Au plus profond de sa psyché, malgré les conclusions rationnelles de la physique et de la chimie, l’homme a le sentiment qu’il en est autrement pour la biologie, qu’elle est plus qu’une somme d’atomes en mouvement et en interaction les uns avec les autres, d’une façon ou d’une autre insufflée d’une étincelle divine, d’une essence vitale. Quel choc, alors, d’apprendre que de simples mortels ont réussi à créer la vie de façon artificielle.

Craig Venter et Hamilton Smith, les deux biologistes américains qui en 1995 ont démêlé pour la première fois la séquence d’ADN d’un organisme vivant (une bactérie), ont fabriqué une bactérie qui possède un génome artificiel – en créant une créature vivante sans ascendance (voir article). Les plus tatillons pourraient chipoter sur le fait que c’est seulement l’ADN d’un nouvel organisme qui a été conçu en laboratoire, les chercheurs ayant dû utiliser l’enveloppe d’un microbe existant pour que l’ADN fasse son travail. Néanmoins, le Rubicon a été franchi. Il est désormais possible de concevoir un monde où les bactéries (et à terme des animaux et des plantes) seront conçues sur ordinateur et que l’on développera sur commande.

Cette capacité devrait prouver combien l’Homme maîtrise la nature, de façon plus frappante encore que l’explosion de la première bombe atomique. La bombe, bien que justifiée dans le contexte de la Seconde Guerre mondiale, n’avait qu’une fonction de destruction. La biologie, elle, s’attache à « mettre en culture » et « faire croître ». La biologie synthétique, terme sous lequel on regroupe cette technologie et des tas d’autres moins spectaculaires, est très prometteuse. À court terme, elle devrait permettre d’obtenir de meilleurs médicaments, des récoltes moins gourmandes en eau (voir article), des carburants plus écologiques, et donner une nouvelle jeunesse à l’industrie chimique. À long terme, qui peut bien savoir quels miracles elle pourrait permettre d’accomplir ?

Dans cette perspective, la vie artificielle semble être une chose merveilleuse. Pourtant, nombreux sont ceux qui verront cette annonce d’un mauvais œil. Pour certains, ces manipulations relèveront plus de la falsification que de la création. Les scientifiques n’auraient-ils plus les pieds sur terre ? Leur folie conduira-t-elle à l’Apocalypse ? Quels monstres sortiront des éprouvettes des laboratoires ?

Ces questionnements ne sont pas infondés et méritent réflexion, même au sein de ce journal, qui de manière générale accueille les progrès scientifiques avec enthousiasme. La nouvelle science biologique a en effet le potentiel de faire autant de mal que de bien. « Prédateur » et « maladie » appartiennent autant au champ lexical du biologiste que « mettre en culture » et « faire croître ». Mais pour le meilleur et pour le pire, nous y voilà. Créer la vie n’est désormais plus le privilège des dieux.

Enfants d’un dieu mineur

Il est encore loin le temps où concevoir des formes de vie sur un ordinateur constituera un acte biologique banal, mais on y viendra. Au cours de la décennie qui a vu le développement du Projet Génome Humain, deux progrès qui lui sont liés ont rendu cet événement presque inévitable. Le premier est l’accélération phénoménale de la vitesse, et la chute du coût, du séquençage de l’ADN qui détient la clé du « logiciel » naturel de la vie. Ce qui par le passé prenait des années et coûtait des millions prend maintenant quelques jours et coûte dix fois moins. Les bases de données se remplissent de toutes sortes de génomes, du plus petit virus au plus grand des arbres.

Ces génomes sont la matière première de la biologie synthétique. Tout d’abord, ils permettront de comprendre les rouages de la biologie, et ce jusqu’au niveau atomique. Ces rouages pourront alors êtres simulés dans des logiciels afin que les biologistes soient en mesure de créer de nouvelles constellations de gènes, en supposant sans grand risque de se tromper qu’elles auront un comportement prévisible. Deuxièmement, les bases de données génomiques sont de grands entrepôts dans lesquels les biologistes synthétiques peuvent piocher à volonté.

Viendront ensuite les synthèses plus rapides et moins coûteuses de l’ADN. Ce domaine est en retard de quelques années sur l’analyse génomique, mais il prend la même direction. Il sera donc bientôt à la portée de presque tout le monde de fabriquer de l’ADN à la demande et de s’essayer à la biologie synthétique.

C’est positif, mais dans certaines limites. L’innovation se porte mieux quand elle est ouverte à tous. Plus les idées sont nombreuses, plus la probabilité est élevée que certaines porteront leurs fruits. Hélas, il est inévitable que certaines de ces idées seront motivées par une intention de nuire. Et le problème que posent les inventions biologiques nuisibles, c’est que contrairement aux armes ou aux explosifs par exemple, une fois libérées dans la nature, elles peuvent proliférer sans aide extérieure.

La biologie, un monde à part

Le club informatique Home Brew a été le tremplin de Steve Jobs et d’Apple, mais d’autres entreprises ont créé des milliers de virus informatiques. Que se passerait-il si un club similaire, actif dans le domaine de la biologie synthétique, libérait par mégarde une bactérie nocive ou un véritable virus ? Imaginez qu’un terroriste le fasse délibérément…

Le risque de créer quelque chose de néfaste par accident est sans doute faible. La plupart des bactéries optent pour la solution de facilité et s’installent dans de la matière organique déjà morte. Celle-ci ne se défend pas, les hôtes vivants, si. Créer délibérément un organisme nuisible, que le créateur soit un adolescent, un terroriste ou un État-voyou, c’est une autre histoire. Personne ne sait avec quelle facilité on pourrait doper un agent pathogène humain, ou en choisir un qui infecte un certain type d’animal et l’aider à passer d’une espèce à une autre. Nous ne tarderons toutefois pas à le découvrir.

Difficile de savoir comment répondre à une telle menace. Le réflexe de restreindre et de bannir a déjà prouvé son efficacité (tout en restant loin d’être parfait) pour les armes biologiques plus traditionnelles. Mais celles-ci étaient aux mains d’états. L’omniprésence des virus informatiques montre ce qu’il peut se produire lorsque la technologie touche le grand public.

Les observateurs de la biologie synthétique les plus sensés favorisent une approche différente : l’ouverture. C’est une manière d’éviter de restreindre le bon dans un effort tardif de contrer le mal. Le savoir ne se perd pas, aussi le meilleur moyen de se défendre est-il de disposer du plus d’alliés possible. Ainsi, lorsqu’un problème se présente, on peut rapidement obtenir une réponse. Si l’on peut créer des agents pathogènes sur ordinateur, il en va de même pour les vaccins. Et à l’instar des logiciels open source qui permettent aux « gentils sorciers » de l’informatique de lutter contre les « sorciers maléfiques » (NdT : white hats vs black hats), la biologie open source encouragerait les généticiens œuvrant pour le bien.

La réglementation et, surtout, une grande vigilance seront toujours nécessaires. La veille médicale est déjà complexe lorsque les maladies sont d’origine naturelle. Dans le cas le la biologie synthétique, la surveillance doit être redoublée et coordonnée. Alors, que le problème soit naturel ou artificiel, on pourra le résoudre grâce à toute la puissance de la biologie synthétique. Il faut encourager le bon à se montrer plus malin que le mauvais et, avec un peu de chance, on évitera l’Apocalypse.

Notes

[1] Crédit photo : Liber (Creative Commons By-Sa)




Refaire le monde, une rue après l’autre, avec OpenStreetMap

Pelican - CC by-saSavez-vous pourquoi j’aime les animaux du zoo de Berlin ? Parce qu’ils témoignent du fait qu’on peut faire mieux que Google !

Comparons la carte du zoo selon Google et selon OpenStreetMap. Cela saute aux yeux non ? Le zoo de Berlin made by Google reste désespérément vide (et ses voitures espionnes ne peuvent y pénétrer) tandis qu’il fait bon flâner dans les allées du zoo d’OpenStreetMap[1].

Bon, évidemment, il faut savoir que Murmeltiere signifie Marmotte en allemand, mais pour Pinguine, nul besoin d’explication de texte 😉

« S’il te plaît, dessine-moi un monde libre ! » Tel est, au sens propre, le projet un peu fou d’OpenStreetMap auquel nous avons déjà consacré plusieurs billets. Jetez un œil sur cette extraordinaire animation illustrant une année d’édition planétaire dans OpenStreetMap et vous partagerez peut-être ma fascination pour le travail réalisé par toutes ces petites fourmis, c’est-à-dire toi, plus moi, plus eux, plus tous ceux qui le veulent !

Remarque : Vous trouverez sous la traduction, en guise de bonus, un extrait vidéo de notre chroniqueuse télé préférée Emmanuelle Talon évoquant l’aide qu’a pu fournir OpenStreetMap aux secours portés à Haïti juste après le triste séisme.

OpenStreetMap : Refaire le monde, une rue après l’autre

OpenStreetMap: Crowd-sourcing the world, a street at a time

Nate Anderson – 1 juin 2010 – ArsTechnica.com
(Traduction : Joan et Goofy)

Wikipédia et son modèle « crowdsourcing » (NdT : la production de contenu assurée par des milliers d’internautes amateurs plutôt que par quelques professionnels) ont rendu possible un bien commun formidable, mais tout le monde sait qu’il faut se tenir sur ses gardes : s’il s’agit de quelque chose d’important, ne faites pas confiance à l’encyclopédie en ligne sans vérifier l’information par ailleurs. Un tel modèle « crowdsourcing » aurait-il du succès pour la construction d’une carte détaillée des rues du monde ?

Il y a quelques années, cette même question a conduit à la création d’OpenStreetMap.org, une carte de la planète que tout le monde peut modifier, conçue comme un wiki. Plusieurs amis britanniques en ont eu en effet assez de la politique protectionniste en matière d’échanges de données (Ordnance Survey, l’équivalent britannique de l’IGN, a mis au point des cartes extrêmement détaillées de la Grande-Bretagne à l’aide de fonds publics, mais l’utilisation de ces données à des fins personnelles requiert l’acquisition d’une licence). Ils décidèrent donc de remédier au problème.

La question évidente était « pourquoi réinventer la roue ? ». Des cartographies excellentes de Google, Microsoft et d’autres avaient déjà une avance significative et était la plupart du temps utilisables gratuitement. Mais les services de localisation étaient en plein boom et étaient tous basés sur des données cartographiques. Le fait qu’il n’existe aucune carte du monde de qualité, gratuite et libre restait un problème.

On peut lire dans la foire aux questions d’OpenStreetMap que « La plupart des bidouilleurs connaissent la différence entre gratuit et libre. Google Maps est gratuit mais pas libre. Si les besoins en cartographie de votre projet peuvent être satisfaits en utilisant l’API Google Maps, alors tant mieux. Mais cela n’est pas le cas de tous les projets. Nous avons besoin de données cartographiques libres pour permettre aux développeurs, aux acteurs sociaux et autres de mener à terme leurs projets sans être limités par l’API Google Maps ou par ses conditions d’utilisation. ».

Une carte du monde détaillée à la rue près peut sembler un projet démesurément ambitieux, mais OpenStreetMap a vu sa côte de popularité exploser. Alors qu’à son lancement le projet ne mobilisait qu’une poignée d’amis, c’est plus de 250 000 personnes qui contribuent dorénavant à la cartographie. En peu de temps, la carte a atteint un niveau de précision incroyable, en particulier en Europe où le projet a été lancé.

Regardons l’Allemagne par exemple, où la cartographie libre est devenue un véritable phénomène de société. Le zoo de Berlin (Zoologischer Garten Berlin) est bien entendu renseigné dans Google Maps, mais il n’a que peu de détails (alors même que, contrairement à OpenStreetMap, il dispose de cartes satellitaires). Des habitants motivés de la région ont utilisé les outils d’OpenStreetMap pour faire mieux que Google et cartographier tous les animaux du zoo. Si vous voulez repérer votre itinéraire jusqu’à la tanière du « Großer Panda », c’est possible. Même les toilettes sont utilement indiquées.

Le zoo de Berlin selon OpenStreetMap :

OpenStreetMap - ArsTechnica - Berlin Zoo

La version de Google Maps :

OpenStreetMap - ArsTechnica - Berlin Zoo Google

Une plateforme !

À mesure que le succès de la carte allait grandissant, il devenait clair qu’il manquait quelque chose pour que les développeurs puissent vraiment s’exprimer. Les données cartographiques en tant que telles avaient beaucoup de valeur, mais cette valeur ne pouvait-elle pas être décuplée en créant une plateforme complète de cartographie ? Une plateforme qui pourrait supporter la charge d’applications commerciales, proposer des services de routage côté serveur, faire du geocoding ou du geocoding inversé (NdT : retrouver latitude et longitude à partir de nom de rues), et concevoir des outils pour manipuler les données et créer les applications qui les utilisent…

C’est ainsi que CloudMade a vu le jour. Après un an de développement (l’essentiel du travail ayant été fait par des programmeurs ukrainiens), la plateforme de cartographie fournie par CloudMade est maintenant utilisée par 10 500 développeurs. Chaque semaine, la plateforme récupère les dernières données d’OpenStreetMap, ce qui fait émerger quelque chose d’inédit : la possibilité pour les utilisateurs frustrés de corriger les erreurs agaçantes sur les cartes locales, et de voir leurs modifications diffusées dans les applications en l’espace d’une semaine.

Les correctifs sont effectués « par des gens qui connaissent leur environnement » indique Christian Petersen, vice-président de CloudMade. Alors que l’on pourrait penser que le gros du travail est réalisé dans des zones comme les États-Unis ou l’Europe, Petersen précise que « 67% de la cartographie est réalisée en-dehors de ces deux régions. ».

CloudMade espère subsister financèrement en fournissant un accès gratuit aux services qui utilisent sa plateforme : en échange ils lui verseront une partie de leurs recettes publicitaires. (les développeurs peuvent également payer par avance s’ils le souhaitent).

Lorsque ce fut possible, une cartographie de base a été importée de banques de données libres comme TIGER, du bureau de recensement américain. Mais dans de nombreux lieux, la plus grande partie de la carte a été fabriquée à la main, en partant d’une feuille blanche. Les résultats sont impressionnants. Un coup d’œil à la carte révèle de nombreux détails sur des endroits comme Mumbai et La Paz, bien que les lieux très reculés comme les îles de Georgie du Sud près de l’Antarctique n’aient pas encore de données.

Des obstacles inattendus sont apparus en cours de route. En Chine par exemple, l’état place de sévères restrictions sur la cartographie privée. « Faire des affaire en Chine reste un défi » rapporte Petersen.

Et il y a parfois des modifications problématiques sur des cartes sensibles comme celle de l’île de Chypre qui connait une partition de son territoire.

Mais Petersen est convaincu que l’approche « par le peuple » de la cartographie fonctionne bien. Mieux que les alternatives commerciales en fait. « La passion est la plus forte », les entreprises commerciales de cartographie pratiquent la collecte d’informations sur un endroit donné une fois par an environ, et mettent à jour leurs cartes encore moins souvent. Lorsque les utilisateurs locaux s’impliquent, les modifications sont faites rapidement.

Nettoyez votre quartier

La précision des données a été mise à l’épreuve la semaine dernière lorsque l’entreprise Skobbler a dévoilé un outil de guidage GPS « turn-by-turn » pour iPhone, basé sur la plateforme CloudMade. Vu le prix des logiciels de navigation GPS concurrents, cela semble révolutionnaire.

Les gens sont-ils prêts à corriger leurs propres cartes ?

OpenStreetMap - ArsTechnica - SkobblerMalheureusement, le logiciel ne fonctionne pas très bien. Les « plantages » du logiciels ont été courants durant nos tests, les temps de réponse sont importants, et l’interface n’est pas intuitive. Les utilisateurs lui ont donné une note de 2 sur 5. Même le communiqué de presse officiel contenait un passage qui en disait long : « Bien que nous soyons conscients de ne pas être encore tout à fait prêts pour concurrencer les solutions commerciales, nous y arriverons bientôt. » a déclaré Marcus Thielking, co-fondateur de Skobbler.

De tels soucis peuvent être corrigés. Mais il y a un problème plus sérieux : les clients vont-ils faire confiance à un logiciel qui les encourage à cliquer sur une coccinelle pour rapporter les problèmes de cartographie ? (le clic positionne une alerte dans OpenStreetMap qui permettra aux utilisateurs locaux d’identifier et corriger les erreurs.)

Les utilisateurs pourraient rechigner à contribuer à la conception d’une carte censée leur servir de référence. Mais on disait la même chose de Wikipédia. Il est acquis que la carte est en constante amélioration, CloudMade indique que 7 017 modifications sont enregistrées par heure.

Le processus est très addictif. Un rapide coup d’œil dans mon quartier m’a révélé une petite erreur – sur la carte, une route se poursuivait par erreur dans un chemin privé à environ un pâté de maisons de chez moi. J’ai créé un compte sur OpenStreetMap, zoomé sur la zone problématique, et cliqué sur « Modifier ». Une fenêtre d’édition en flash est apparue, superposant la carte OpenStreetMap à une image par satellite issue de Yahoo. Le problème a été résolu en quelques glisser-déposer et clics, et le tour était joué – j’avais apporté ma pierre à l’édifice. (OpenStreetMap offre de nombreux outils de modification, et CloudMap en propose d’autres souvent plus élaborées. Tous impactent les mêmes données sous-jacentes.).

Ajout d’une déviation sur le Pont de Brooklyn :

OpenStreetMap - ArsTechnica - Brooklyn Bridge

Vingt minutes plus tard, après avoir précisé les contours de l’étang d’un parc du voisinage, ajouté la caserne de pompiers et corrigé une rue qui traversait quelques maisons, j’ai malheureusement dû passer à autre chose. Le niveau de détail de la carte est déjà très impressionnant et la modifier était une expérience agréable. Disposer d’une telle ressource libre et gratuite sur Internet est une très bonne chose. Et si CloudMade pouvait s’associer à d’excellents développeurs et produire du code de haute qualité, cela pourrait également devenir quelque chose extrêmement utile.

Bonus Track

Chronique d’Emmanuelle Talon – La Matinale de Canal+ – 18 janvier 2010

« Qu’est-ce que c’est OpenStreetMap ? C’est en quelque sorte le Wikipédia de la cartographie. »

—> La vidéo au format webm

Notes

[1] Crédit photo : Pelican (Creative Commons By)




Ouvrir ses logiciels mais fermer ses données à l’ère du cloud computing

Katayun - CC byVoici une courte traduction qui aborde furtivement deux sujets selon nous intéressants. Le premier n’est pas nouveau puisqu’il évoque la traditionnelle différence d’approche entre le logiciel libre cher à Richard Stallman et l’open source, à ceci près que l’avènement du cloud computing lui donne un nouvel éclairage.

Le second est peut-être plus original puisqu’il met en parallèle les logiciels et les données pour constater un mouvement opposé.

Nous sommes nombreux à souhaiter que les logiciels deviennent de plus en plus libres. Mais des Google et des Facebooks ont également envie que nos données suivent le même chemin pour pouvoir les manipuler tout à leur guise. C’est même fondamental pour eux puisque c’est tout leur business model qui est construit sur cela.

Or nous nous inquiétons chaque jour davantage du devenir de nos données, et si nous les souhaitons « libres » c’est avant tout libres de ne pas être contrôlées et exploitées sans notre consentement. Liberté et ouverture n’ont donc clairement pas le même sens chez les uns et chez les autres[1].

Il faut dire que dans les nuages : logiciels, formats, fichiers et données s’entrechoquent. Quand par exemple vous faites du traitement de texte directement en ligne (Google Docs, Zoho, etc.), c’est un peu tout à la fois qui est sollicité, sans qu’on n’arrive plus trop bien à les distinguer.

« Ouvrons » nos logiciels mais « fermons » nos données ? C’est en résumé, la question brutale que pose ce billet.

Libérez mes logiciels, pas mes données

Open source my software but not my data

Dana Blankenhorn – 27 avril 2010 – ZDNet (Blog Linux and Open Source)
(Traduction Framalang : Kovalsky, Barbidule et Goofy)

Comme Google avant lui, Facebook fait l’objet d’une attention accrue pour son interprétation du terme « ouvert » dans le monde en ligne.

Que les logiciels soient libres est une bonne chose. Mais que les données soient ouvertes ? Peut être pas tant que ça.

L’affirmation classique concernant le logiciel est qu’à moins que vous utilisiez l’AGPL, à moins que tout ne soit ouvert y compris vos sources secrètes, vous n’êtes pas vraiment ouvert, vous prétendez seulement l’être. Ouvert serait juste un autre mot pour dire que vous n’avez rien à cacher.

Je n’y ai jamais cru. L’open source n’est pas la même chose que le logiciel libre, c’est une des premières leçons qu’on m’a apprises quand j’ai commencé ce combat. (Richard Stallman s’en est chargé personnellement.)

L’open source est un continuum de choix, allant de l’idéal des logiciels libres de Stallman jusqu’au code de Microsoft sous restrictions serrées. L’open source est né en réaction logiciel libre de Stallman, et parfois en opposition à celui-ci.

Précédemment, j’ai mis au point une courbe de l’open source, pour illustrer l’étendue des choix disponibles. Plus vous avez besoin d’une participation de la communauté, plus vous êtes en bas de la courbe. Plus votre contrôle de la propriété du code augmente, plus vous êtes en haut.

Plus tard j’ai modifié cela en élaborant une courbe du développement open source, prenant en compte différents modèles de développement.

Ce qui est notable à propos de l’essentiel du code conçu pour être utilisé en ligne, c’est qu’il n’est généralement pas en bas de la courbe. Même Google n’est pas en bas de la courbe, bien qu’il soit un membre de la communauté open source tout à fait respectable. Google ne soutient pas l’AGPL.

Mais qu’en est il des données ? Qui décide du statut des données en ligne ? Est ce que la décision vous appartient, ou revient-elle aux entreprises qui hébergent les données ?

Facebook a assimilé les données à du logiciel, et il se permet alors de les diffuser dans la nature, en affirmant qu’il ne fait que suivre les principes de l’open source.

Quand vous comparez libre et propriétaire dans le monde logiciel, le libre semble formidable. Mais comparez-les sous l’angle des données, sur le mode « vos données seront ouvertes sauf si vous dites non », et les Sénateurs vont y voir une violation de la vie privée. En particulier si, comme Facebook, vous vous étiez vous-même défini jusqu’à récemment comme un réseau privé sans risque pour les enfants, et non comme un classique espace ouvert du Web.

Il est facile pour les logiciels de se déplacer vers le haut ou le bas de la courbe de l’open source. Pour les données cela se révèle problématique.

Notes

[1] Crédit photo : Katayun (Creative Commons By)




L’État de l’Oregon adopte Google Apps Education pour ses écoles

Avinash Kunnath - CC byLa nouvelle est passée totalement inaperçue dans les médias et la blogosphère francophones alors qu’elle revêt pourtant selon moi de la plus haute importance. Parce que c’est peut-être rien moins que l’éducation de demain qui se cache ici derrière cet évènement.

Un État américain, en l’occurrence l’Oregon, vient tout juste de décider d’adopter la solution Google Apps Education pour toutes ses écoles publiques.

Nous vous proposons ci-dessous la double traduction du blog de Google qui annonce fièrement la nouvelle ainsi qu’une explication enthousiaste, voire complaisante, issue du célèbre site Mashable.

J’aurais l’occasion dans un futur billet de revenir plus en détails sur Google Apps Education en pointant effectivement ses nombreux avantages mais également ses criants défauts. Histoire de nuancer quelque peu le caractère parfois légèrement « bisounours » des propos tenus dans ce billet.

Mais retenons pour le moment que les données des élèves dans les nuages des serveurs Google ne font pas peur à l’Oregon (cf les termes du contrat). C’est un choix de l’administration publique, c’est un État tout entier (qui concernent plusieurs centaines de milliers d’élèves) et ça va donner de sérieuses billes à Google pour convaincre d’autres futures institutions scolaires d’en faire autant. Surtout si les journalistes ne font rien d’autre que d’applaudir benoîtement.

Retenons également que contrairement à nos trois étudiants de l’Université Yale, aucune voix de lycéens ou de leurs parents n’est venue contrarier la bonne marche du projet en demandant quelques (légitimes) explications et précisions.

PS : À ceux qui s’étonneront du choix de la photographie ouvrant cet article[1], je l’ai trouvée en tapant « Oregon » dans Flickr. Ce sont les pom-pom girls de l’équipe de football américain des Oregon Ducks et elles me semblaient toutes indiquées pour illustrer ironiquement le côté « tout le monde il est beau, tout le monde il est gentil » de cette actualité.

Alis volat propriis : L’État de l’Oregon fait entrer Google Apps dans toutes ses écoles

Alis volat propriis: Oregon’s bringing Google Apps to classrooms statewide

Jaime Casap (Google Apps Education Manager) – 28 avril 2010 – The Official Google Blog
(Traduction Framalang : Étienne)

Ayant grandi dans le quartier de Hell’s Kitchen à Manhattan pendant les années 70, je n’ai pas reçu d’éducation en matière de technologie. Mes enseignants notaient mes copies, et l’idée de collaborer à un projet avec mes camarades n’était pas envisageable, où que ce soit et pour quoi que ce soit. Il va sans dire que nous n’avions pas d’ordinateur à la maison, et que l’idée de travailler sur Internet était encore un rêve pour l’élève que j’étais.

Les choses ont changé, bien sûr, depuis que j’ai quitté l’école, et des gens travaillent ardemment à amener la technologie dans les salles de classe, pour aider les élèves a apprendre et les professeurs à enseigner. Aujourd’hui, l’Oregon franchit une étape majeure dans cette direction. C’est le premier à ouvrir Google Apps Education aux écoles publiques de tout un État.

À partir d’aujourd’hui, le département de l’éducation de l’Oregon offre Google Apps à toutes les académies de l’État, aidant ainsi les professeurs, les personnels administratifs et les élèves à utiliser Gmail, Docs, Sites, Video, Groups et plus encore, au sein des établissements scolaires du primaire et du secondaire. Le financement des écoles a subi des coupes importantes ces dernières années, et l’Oregon n’y fait pas exception. Cette démarche permettra au département de l’éducation d’économiser 1,5 millions de dollars par an, une somme rondelette pour un budget en difficulté.

Avec Google Apps, les élèves de l’Oregon peuvent créer des sites Web ou envoyer des messages à leurs enseignants autour d’un projet. Leurs documents et leurs messages vivent leur vie en ligne, dans le « cloud » (NdT : le nuage), toujours accessibles pour y travailler depuis une salle de classe ou un laboratoire informatique, à la maison ou à la bibliothèque municipale. Et au lieu de, seulement, noter une copie une fois le travail rendu, les professeurs de l’Oregon peuvent accompagner en temps réel les élèves sur leur documents, et les guider au fur et à mesure. Il est essentiel que les élèves apprennent à se servir des outils technologiques dont ils auront besoin au cours de leur vie, et l’Oregon aide ses élèves dans ce sens, tout simplement.

Je suis ébahi de voir à quel point la technologie a évolué depuis que j’ai quitté l’école, et à quel point nous devons continuer dans cette direction pour nous assurer que les enfants aient accès à ces outils dans les classes. Les outils en ligne tels que les Google Apps sont une façon, pour les enseignants, les élèves, et maintenant un État tout entier, de répondre au problème. Oh, et « alis volat propriis » ? C’est la devise de l’Oregon. Celà signifie « Elle vole de ses propres ailes ». Très à propos pour un État qui s’oriente ainsi vers le « cloud ».

Pourquoi les écoles s’ouvrent à Google Apps

Why Schools are Turning to Google Apps

Greg Ferenstein – 28 avril 2010 – Mashable
(Traduction Framalang : Olivier)

Aujourd’hui, les écoles publiques de l’Oregon s’offrent à Google Apps, 400 000 étudiants, enseignants et personnels administratifs auront désormais accès à un système d’e-mail et de chat, des outils de collaboration dans les nuages et un service de streaming multimedia. Les décisions affectant tout un état sont habituellement aprement contestées, chaque point étant sujet à débat.

Mais l’histoire entre Google Apps et le système éducatif est fascinante à bien des égards. Nous avons interviewé les architectes de ce plan ainsi que ceux qui utilisent Google dans les salles de classe. Voici les trois avantages qui s’en dégagent : 1) les écoles font des économies, 2) les résultats scolaires et la motivation s’en ressentent, à la hausse, et 3) les étudiants sont mieux préparés aux communications numériques dans le monde réel.

Les économies

L’argent est souvent le nerf de la guerre lorsqu’on parle de réforme de l’éducation et l’avantage est clairement dans le camp de Google. Le ministère de l’éducation de l’Oregon estime pouvoir économiser 1,5 million de dollars par an. Même le relativement modeste Maine Township District 207 dans l’Illinois, qui a déjà adopté Google Apps, estime ses économies à 160 000 dollars chaque année.

Google Apps Education est gratuit. Les économies proviennent principalement de l’abandon des logiciels de messagerie et de bureautique, auxquelles il faut ajouter les coûts de la maintenance informatique et des mises à jours matérielles. D’après Steve Nelson, vice-président technologie de Oregon Virtual Schools, ces économies peuvent être ré-investies pour déployer un service de streaming multimédia qui fait la part belle aux créations des étudiants, ce qui, ajoute-t-il, « n’était pas économiquement faisable » avant l’arrivée de Google.

Henry Thiele, responsable informatique pour le district 207, s’avoue « surpris du nombre d’écoles qui ne connaissent même pas Google Apps ». Et si elles en entendent parler, poursuit-il, elles cherchent toujours le petit piège. Thiele répond simplement « Il n’y a pas de piège ».

Résultats et motivation à la hausse

« Les étudiants qui participent à ce programme progressent beaucoup plus rapidement en lecture que ce à quoi nous sommes habitués », s’enthousiasme Thiele. Il fait référence à un cours d’anglais où un ordinateur portable a été confié à des élèves de 3ème considérés en difficulté. Dans le District 207, on espère voir une progression de 3 points en moyenne sur les tests de lecture cette année, mais les scores des élèves en difficulté devraient stagner ou régresser. Alors que les scores de ceux qui en revanche participent au programme ont fait un bond de 8 à 10 points. Google Apps n’est pas le seul facteur à l’origine de ce progrès, mais son coût dérisoire et sa nature collaborative ont rendu le programme 1-to-1 (un ordinateur pour chaque élève) possible.

Jason Levy, chef d’établissement, qui a participé à l’introduction de Google Apps dans les écoles du district 339 de New York (voir ce reportage vidéo), a observé que 47% des étudiants atteignent désormais la moyenne en mathématiques contre 27% auparavant. De plus, Thiele et Levy font état d’une plus grande concentration et de moins de problèmes disciplinaires. D’après Levy « leur comportement s’est amélioré, l’absentéisme a diminué et les exclusions temporaires sont plus rares ».

Les remarques de ces deux enseignants reflètent l’avis général puisque les expérimentations réalisées dans d’autres classes confirment que mêler technologie et éducation accroît l’intérêt des élèves.

Ça n’est pas très difficile à comprendre « On dit souvent que les gamins ne savent pas se concentrer ou garder leur concentration. Ma foi, je n’y arrive pas non plus » avoue Levy. S’appuyer sur le besoin des enfants de se socialiser et sur leurs facultés d’adaptation à la technologie est un moyen naturel de tirer partie de leur curiosité.

Se préparer au monde réel

Non seulement les étudiants bénéficient des avantages de la collaboration et d’une familiarisation accrue avec l’informatique, mais Google Apps les aide aussi à se préparer pour le monde réel de manière innovante. Grâce à Google Sites, les futurs ingénieurs tiennent à jour un portofolio numérique de leurs projets d’étude. La somme numérique de tous leurs travaux universitaires parlera certainement plus à leurs futurs employeurs que quelques tirets dans un CV.

L’un des professeurs du Maine Township utilise Google Spreadsheets pour faire sortir la science du carcan des livres. Les étudiants réalisent de vrais expériences et regroupent toutes leurs données dans des tableaux en ligne. Ici, les élèves mettent littéralement les mains dans le cambouis, ils mesurent l’influence du sol sur la croissance des plantes et traitent leurs données grâce aux outils informatiques, comme les vrais scientifiques. Ce modèle, pas bien sorcier, semble être un moyen peu onéreux et motivant pour aider le Ministère de l’Éducation a atteindre le but qu’il s’est fixé d’accroître la compétitivité scientifique des États-Unis au travers de l’ambitieux programme « Race to the Top ».

Conclusion

« Les fonctionnalités apportées sont absolument stupéfiantes » ajoute Nelson. Effectivement, tous ceux que j’ai interviewé ne trouvaient que du positif à l’introduction de Google Apps dans un contexte d’enseignements. Quoiqu’on pense de Google en tant que société, ses contributions au système éducatif américain sont remarquables.

L’adoption par les écoles de Google Apps est un signe que l’informatique dans les nuages se démocratise. Le perfectionnement de ces outils, ainsi que leur avantage économique font des applications Web une alternative intéressante pour les écoles en manque de moyens. Peut-être faut-il voir dans l’adoption de Google Apps par l’Oregon un signe avant coureur d’une éducation qui se fera de plus en plus dans les nuages.

Notes

[1] Crédit photo : Avinash Kunnath (Creative Commons By)




Toute recherche scientifique digne de ce nom doit ouvrir son code informatique

TenSafeFrogs - CC byVoici un récent article du Guardian qui tourne paradoxalement autour du logiciel libre et des formats ouverts mais sans véritablement les nommer.

Nous avons cependant jugé qu’il avait son intérêt dans la mesure où la science et la recherche ont désormais de plus en plus recourt à l’informatique pour traiter des données et en tirer analyses et conclusions[1].

Or comment voulez-vous que l’on puisse valider les résultats si les applications utilisées sont propriétaires ou si les chercheurs eux-mêmes ne mettent pas le code de leur programme à disposition ?

L’article s’appuie sur la récente affaire dite du « Climategate » qui a fait grand bruit outre-Manche (et étrangement peu de cas chez nos grands médias français).

Quand recherche sérieuse rime avec libération du code informatique

If you’re going to do good science, release the computer code too

Darrel Ince – 5 février 2010 – The Guardian
(Traduction Framalang : Kovalsky et Olivier)

Les programmes informatiques prennent chaque jour plus de place dans le travail scientifique. Mais partie prenante dans les conditions de l’expérience vous devez pouvoir les vérifier comme en atteste la bataille qui se joue autour des données sur le changement climatique.

On retiendra de l’affaire concernant la révélation publique des e-mails et des documents de l’Unité de Recherche Climatique de l’Université d’East Anglia qu’ils mettent en lumière le rôle du code informatique dans la recherche climatique. Il y a notamment une série de « README » produite par un programmeur de l’UEA connu sous le nom de « Harry ». Ces notes sont celles de quelqu’un qui lutte avec du code ancien non-documenté, et des données manquantes. Et pourtant, on parle bien d’un élément de l’une des trois bases de données climatiques principales dont se sont servis les chercheurs du monde entier pour en tirer analyses et conclusions.

Beaucoup de scientifiques du climat ont refusé de publier leur programme informatique. À mes yeux, ça n’est ni scientifique, ni responsable, parce que les logiciels scientifiques sont réputés pour leur manque de fiabilité.

L’Histoire nous a appris à ne pas faire une confiance aveugle aux logiciels scientifiques. Par exemple le Professeur Les Hatton, un expert international en tests logiciels, résident de l’Université du Kent et de Kingston, a mené une analyse approfondie de plusieurs millions de lignes de code scientifique. Il a montré que les logiciels présentaient un nombre exceptionnellement élevé d’erreurs détectables.

Par exemple, les erreurs de communication entre les modules de logiciels qui envoient les données d’une partie d’un programme à une autre se produisent à une fréquence de 1 pour 7 communications en moyenne dans le langage de programmation Fortran, et de 1 pour 37 communications dans le langage C. C’est d’autant plus inquiétant qu’une seule et unique erreur est susceptible d’invalider un programme informatique. Plus grave encore, il a découvert que la précision des résultats chute de six chiffres significatifs à un chiffre significatif après traitement par certains programmes.

Les travaux d’Hatton et d’autres chercheurs indiquent que les logiciels scientifiques sont souvent de mauvaise qualité. Il est stupéfiant de constater que cette recherche a été menée sur des logiciels scientifiques commerciaux, produits par des ingénieurs logiciels soumis à un régime de tests, d’assurance qualité et à une discipline de contrôle des modifications plus connue sous le nom de gestion de configuration.

À l’opposé, les logiciels scientifiques développés dans nos universités et nos instituts de recherches sont souvent produits, sans assurance qualité, par des scientifiques qui n’ont pas de formation en ingénierie logicielle et donc, sans aucun doute, l’occurence des erreurs sera encore plus élevée. Les fichiers « Harry ReadMe » de l’Unité de Recherche Climatique sont une preuve flagrante de ces conditions de travail. Ils résument les frustrations d’un programmeur dans sa tentative de conformer ses séries de données à une spécification.

Le code informatique est au coeur d’un problème scientifique. La science se définit par sa potentielle remise en cause : si vous érigez une théorie et que quelqu’un prouve qu’elle est fausse, alors elle s’écroule et on peut la remplacer. C’est comme cela que fonctione la science : avec transparence, en publiant chaque détail d’une expérience, toutes les équations mathématiques ou les données d’une simulation. Ce-faisant vous acceptez et même encouragez la remise en question.

Cela ne semble pas être arrivé dans la recherche climatique. De nombreux chercheurs ont refusé de publier leur programme informatique, même ceux qui sont encore utilisés et qui ne sont pas sujet à des accords commerciaux. Le Professeur Mann, par exemple, refusa tout d’abord de fournir le code, employé pour construire en 1999 le graphique en cross de hockey, qui a démontré que l’impact de l’homme sur le réchauffement climatique est un artefact unique de la dernière décennie (il l’a finalement publié en 2005).

La situation n’est pas aussi désastreuse pour tous les travaux académiques. Certaines revues, économiques et économétriques par exemple, imposent que l’auteur soumette ses données et ses programmes au journal avant publication. Un cas fondamental en mathématiques a également fait parler de lui : la preuve « par ordinateur » de la conjoncture des quatre couleurs par Appel et Haken. Cette démonstration a partagé la communauté scientifique puisque pour la première fois le problème de la validation du théorème s’est trouvé déplacé vers le problème de la validation de l’algorithme d’exploration et de sa réalisation sous forme de programme. Bien que critiquée pour son manque d’élégance, la preuve n’en était pas moins correcte et le programme informatique, publié et donc vérifiable.

Des organismes et des individus, ralliés à l’idée du quatrième paradigme, attachent beaucoup d’importance au problème de l’informatique scientifique à grande échelle et à la publication des données. C’était l’idée de Jim Gray, un chercheur expérimenté de Microsoft, qui a identifié le problème bien avant le Climategate. Actuellement, la recherche consacrée aux mécanismes qui pourraient faire du Web un dépôt pour les publications scientifiques est très active, elle englobe également les logiciels et la formidable quantité de données qu’ils consomment et génèrent. Un certain nombre de chercheurs mettent au point des systèmes qui montrent le progrès d’une idée scientifique, des premières ébauches d’idées jusqu’à la publication papier[2]. Les problèmes rencontrées avec la recherche climatique apporteront un élan à ce travail pour qu’il soit accéléré.

Donc, si vous publiez des articles de recherche qui s’appuient sur des programmes informatiques, si vous prétendez faire de la science mais que vous refusez de publier les programmes en votre possession, je ne peux vous considérer comme un scientifique. J’en irais même jusqu’à dire qu’à mes yeux les publications basées sur ces programmes seront nulles et non avenues.

Je trouve incroyable qu’une faute de frappe puisse être à l’origine d’une erreur dans un programme, un programme qui pourrait à son tour être à l’origine de décisions portant sur des milliards d’euros, et le pire, c’est que la fréquence de ces erreurs est élevée. Les algorithmes (ou copules gaussiennes), sur lesquels se sont appuyées les banques pour s’assurer que les crédits sub-prime étaient sans risque pour eux, ont été publiées. La facture était salée. La facture du changement climatique sera aussi élevée. Raison de plus pour qu’aucune erreur dans les calculs ne soit tolérée là non plus.

Notes

[1] Crédit photo : TenSafeFrogs (Creative Commons By)

[2] Voir à ce sujet l’article du Framablog : Première démonstration « open source » d’un théorème mathématique.




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Régionales 2010 : Les questions claires de Creative Commons France

Giuli-O - CC byLes élections sont un bon moyen de tenter de sensibiliser nos hommes politiques sur des thèmes qui nous sont chers. C’est ainsi que l’April se montre pro-active en faveur du logiciel libre et des libertés numériques avec son initiative Candidats.fr.

Aujourd’hui c’est le chapitre français des Creative Commons qui leur emboîte le pas à l’occasion des prochaines élections régionales (qui auront lieu en mars prochain et dont on a un peu parlé ici en partant à la rencontre du Parti Pirate)[1].

Avant que d’interpeller sur la place publique, ils nous invitent à débattre sur leur liste de discussion (cc-fr@lists.ibiblio.org)[2] autour d’une plate-forme recopiée ci-dessous.

On pourrait d’ailleurs résumer toutes les questions en une seule, moyennant l’introduction d’une variable X : « Êtes-vous, dans le respect du droit moral des auteurs, en faveur de l’accès et la réutilisation libre et gratuite de X dans le cas où X serait produit ou financé par la région ? » (X pouvant prendre les valeurs suivantes : données, contenus, études, travaux de recherche ou d’éducation).

Il ne semble y avoir là que du bon sens. Sauf que, et ce n’est pas le logiciel libre qui me contredira, nous héritons d’un monde où certaines mauvaises habitudes ont été prises et il convient d’être didactique, diplomate et patient.

CC-Régionales 2010

URL d’origine du document

Le mouvement pour l’accès ouvert aux données publiques se développe à travers le monde : l’Australie avec le projet Mash Up, l’Angleterre avec le projet Data.gov.uk. Ces pays ont choisi de permettre la large diffusion et réutilisation de leurs bases de données publiques en les plaçant sous Licence Creative Commons.

Cette dynamique d’élargissement des biens communs permet des économies d’échelle pour les collectivités et les services publics.

Elle contribue au développement du secteur privé qui peut utiliser sans intermédiaire ces données pour développer ses activités.

Elle enrichit la société civile qui peut s’approprier données, études et contenus produits.

Dans cette démarche, le respect du droit d’auteur inaliénable en France est bien sûr conservé. Il se trouve explicité et garanti par des licences de type Creative Commons, GFDL ou « Art libre ».

La France et ses régions ne peuvent rester à l’écart de ce mouvement qui s’amplifie. Aussi à la veille des élections qui vont décider des programmes et des équipes qui vont gouverner les régions, nous souhaitons vous interroger.

Êtes-vous, dans le respect du droit moral des auteurs, en faveur de :

  • l’accès et la réutilisation libre et gratuite des données publiques (géographiques, statistiques, environnementales…) produites ou financées par la région ;
  • l’accès et la réutilisation libre et gratuite des contenus produits ou financés par la région (telles les publications papier ou web) ;
  • l’accès et la réutilisation libre et gratuite des études produites ou financées par la région ;
  • l’accès et la réutilisation libre et gratuite de données des observatoires co-financées par la région ;
  • la publication en open archive des travaux publics de recherche produits ou financés par la région ;
  • l’accès et la réutilisation des contenus de formation produits ou financés par la région (formation professionnelle, manuels scolaires…).

Lectures connexes issues du Framablog

Notes

[1] Crédit photo : Giuli-O (Creative Commons By)

[2] Vous pouvez aussi en débattre directement sur notre forum Framagora.