Wired aussi critique Facebook et cherche des alternatives

DB Photography - CC byFacebook est plus que jamais sur la sellette actuellement.

Cela tient à sa croissance impressionnante qui en fait aujourd’hui un « Web dans le Web », mais cela tient également à l’évolution inquiétante de sa politique vis-à-vis des données de ses utilisateurs.

Du coup un certain nombres d’articles ont récemment vu le jour, non seulement pour la critique mais aussi pour tenter de voir comment se sortir de cette situation. Et pour certains, sortir de cette situation c’est carrément sortir de Facebook, ce qui en dit long sur la confiance accordée désormais à la société de Mark Zuckerberg[1].

Parmi les auteurs de ces articles, il y a les défenseurs biens connus des libertés numériques que sont l’EFF (Facebook’s Eroding Privacy Policy: A Timeline – traduit par Owni), Numerama (Peut-on imaginer un Facebook libre et décentralisé ?), ReadWriteWeb (Le projet Diaspora : un anti Facebook), le Standblog (L’après Facebook : Diaspora), sans nous oublier avec la traduction de l’interview d’Eben Moglen (La liberté contre les traces dans le nuage).

Mais on trouve également Le Monde (Réseaux sociaux : une autre vie numérique est possible) et le célèbre magazine Wired qui donne souvent le ton lorsqu’il s’agit des nouvelles technologies.

C’est ce dernier article que nous vous proposons traduit ci-dessous.

Facebook a maintenant des méthodes de voyou… c’est le moment de lancer une alternative libre et ouverte

Facebook’s Gone Rogue; It’s Time for an Open Alternative

Ryan Singel – 7 mai – Epicenter (Wired)
(Traduction Framalang : Goofy, Barbidule et Daria)

Facebook a maintenant un comportement de gangster, ivre des rêves d’hégémonie mondiale de son fondateur Mark Zuckerberg. Il est grand temps que le reste de l’écosystème du Web en prenne conscience et s’active pour le remplacer par un système ouvert et distribué.

Facebook était juste un endroit pour partager des photos et des idées avec les copains et la famille, et puis peut-être pour jouer à quelques jeux idiots dans lesquels on vous laisse croire que vous êtes un parrain de la mafia ou un pionnier. Facebook est devenu un moyen très utile pour communiquer avec vos amis, avec vos copains perdus de vue depuis longtemps, et les membres de votre famille. Même si vous ne désiriez pas vraiment rester en contact avec eux.

Et bientôt tout le monde a eu un profil – même votre oncle André, et aussi ce type que vous détestiez dans votre précédent boulot.

Et puis Facebook s’est rendu compte qu’il était propriétaire du réseau.

Alors Facebook a décidé que « votre » page de profil deviendrait celle de votre identité en ligne, en se disant – avec raison – qu’être le lieu où les gens se définissent procurera du pouvoir et de l’argent. Mais pour y parvenir, les gens de Facebook devaient d’abord s’assurer que les informations que vous donnez seraient publiques.

Et donc en décembre, avec l’aide des experts en vie privée de Beltway récemment engagés, Facebook a renié ses promesses de respecter les données privées : la plupart des informations de votre profil sont devenues publiques par défaut. Ce qui comprend la ville où vous vivez, votre nom, votre photo, les noms de vos amis et les groupes que vous avez rejoints.

Au printemps Facebook a poussé le bouchon encore plus loin. Toutes les éléments que vous indiquez aimer seront publics, et renverront à des pages de profil publiques. Si vous ne voulez pas qu’il en soit ainsi, eh bien vous perdez ces données – bien que Facebook se les garde gentiment dans sa base de données pour permettre aux publicitaires de vous cibler.

Cela comprend vos goûts musicaux, les informations concernant votre travail, ce que vous aimez lire, les établissements scolaires que vous avez fréquentés, etc. Tous les éléments qui constituent votre profil. Tout doit devenir public – avec des liens vers des pages publiques pour le moindre détail – sinon vous n’y avez pas droit du tout. On peut difficilement appeler ça un choix, et tout le système est d’une complexité à rendre fou.

Dans le même temps, l’entreprise a commencé à envoyer les informations recueillies sur votre profil vers Yelp, Pandora et Microsoft – si bien que si vous allez faire un tour sur ces sites pendant que vous êtes encore connecté sur Facebook, les services en question vous proposent une « expérience personnalisée » lorsque vous apparaissez. Vous pouvez essayer l’option de désinscription après coup, mais pour interrompre définitivement ce système vous aurez besoin d’un mastère en bureaucratie facebookienne.

Vous voudriez mettre à jour votre statut pour vos amis ? Facebook envoie par défaut tous les messages à publier à l’Internet tout entier, en les déversant dans l’entonnoir des dix plus importants moteurs de recherche. Vous disposez d’un menu déroulant pour restreindre votre publication, mais il semble que ce soit trop difficile pour Facebook de se souvenir de votre choix lors des connexions suivantes. (Google Buzz, avec toutes les critiques qu’il a essuyées, se souvient tout de même des paramètres de votre dernière publication et les utilise ensuite par défaut).

Supposons maintenant que vous écriviez un message public pour dire « mon patron a eu une idée dingue pour un nouveau produit ». Eh bien vous l’ignorez peut-être, mais il existe une page Facebook consacrée à « mon patron est dingue », et comme vous avez utilisé les mots-clés qui correspondent, votre message apparaît sur cette page. Si vous utilisez les mots « FBI » ou « CIA » vous apparaîtrez sur les pages de la CIA ou du FBI.

Et voici encore le nouveau bouton Facebook « J’aime » qui se répand sur Internet. C’est une bonne idée – mais il est entièrement lié à votre compte Facebook, et vous n’avez aucun contrôle sur la façon dont il est utilisé (non, vous ne pouvez pas déclarer aimer quelque chose sans rendre cet avis totalement public).

Et encore la campagne de Facebook pour contrer les services externes. Il existait un service appelé Web 2.0 suicide machine qui vous permettait de supprimer votre profil en échange de votre mot de passe. Facebook l’a fait fermer.

Une autre entreprise proposait une application pour rassembler tous vos messages des services en ligne – y compris Facebook – , sur un portail central après avoir confié au site votre identifiant de connexion sur Facebook. Eh bien Facebook poursuit en justice cette entreprise au motif qu’elle enfreint les lois en ne respectant pas ses conditions d’utilisation.

Pas étonnant du coup que 14 groupes de défense de la vie privée aient déposé mercredi une plainte contre Facebook pour pratiques commerciales déloyales.

Mathew Ingram de GigaOm a écrit un billet intitulé « Les relations entre Facebook et la vie privée : un véritable sac de nœuds ».

Non, au fond ce n’est pas vrai. Ces relations sont simples : votre conception de la vie privée – c’est-à dire votre pouvoir de contrôle sur les informations qui vous concernent – est tout simplement démodée aux yeux de Facebook. Le grand boss Zuckerberg a déclaré en direct et en public que Facebook se contente d’accompagner l’évolution des mœurs en matière de vie privée, mais sans les modifier – une déclaration de circonstance, mais qui est carrément mensongère.

Dans l’optique de Facebook, tout devrait être public (sauf peut-être votre adresse mail). C’est drôle d’ailleurs, cette histoire d’adresse mail, parce que Facebook préfèrerait vous voir utiliser son propre système de messagerie, qui censure les messages entre utilisateurs.

Ingram continue sur sa lancée : « et peut-être Facebook ne fait-il pas l’effort de transparence nécessaire, pour expliquer ce qui est en jeu ou comment paramétrer au plus juste la maîtrise de nos données privées – mais en même temps certains choix délibérés doivent relever de la responsabilité des usagers eux-mêmes. »

Quoi ? Comment la responsabilité du choix pourrait-elle revenir à l’utilisateur quand le choix n’existe pas réellement ? Je voudrais que ma liste d’amis devienne privée. Impossible.

J’aimerais rendre mon profil visible de mes seuls amis, pas de mon patron. Impossible.

J’aimerais soutenir une association anti-avortement sans que ma mère ou le monde entier le sache. Impossible.

Dans un service en ligne, chacun devrait pouvoir contrôler ses données privées de manière simple. Et si vous trouvez de multiples billets sur des blogs qui expliquent comment utiliser votre système de protection de la vie privée, c’est signe que vous ne traitez pas vos utilisateurs avec respect. Cela signifie que vous les contraignez à faire des choix dont ils ne veulent pas, suivant un plan délibéré. Ça donne la chair de poule.

Facebook pourait démarrer avec une page très simple avec les options suivantes : je suis une personne soucieuse de sa privée, j’aime bien partager certaines choses, j’aime bien exposer ma vie en public. Chacune de ces options commanderait des paramètres différents pour des myriades de choix possibles, et tous les utilisateurs auraient ensuite la possibilité d’accéder au panneau de contrôle pour y modifier leurs préférences. Ce serait une conception respectueuse – mais Facebook ne s’intéresse pas au respect – ce qui l’intéresse c’est redéfinir pour le monde entier la différence entre ce qui est public et ce qui est privé.

Peu importe que vous soyez un adolescent et que vous ne compreniez pas que les bureaux de recrutement des universités vont utiliser votre adresse mail pour trouver des informations – potentiellement embarassantes – sur vous. C’est votre problème, et tant pis pour vous si Facebook a décidé de devenir une plateforme d’identités à l’échelle planétaire, en vous promettant d’abord de garantir votre vie privée, puis en la divulguant à votre insu par la suite. En tout cas, c’est ce que pense l’armée de spécialistes en droit de la vie privée engagés par l’entreprise et grassement payés pour dissimuler les coups fourrés.

Facebook nous a clairement appris plusieurs leçons. Nous voulons partager plus facilement des photos, des liens et nos dernières nouvelles avec nos amis, notre famille, nos collègues et même parfois avec le monde entier.

Mais cela ne signifie nullement que l’entreprise ait gagné le droit de détenir et de définir nos identités.

C’est le moment pour les meilleurs éléments de la communauté techno de trouver un moyen pour que tout le monde puisse contrôler ce qu’il veut partager et comment. Les fonctions de base de Facebook peuvent devenir des protocoles, et tout un éventail de logiciels et de services qui interagissent pourront s’épanouir.

Imaginez que vous ayez la possibilité d’acheter votre propre nom de domaine et d’utiliser de simples logiciels comme Posterous pour créer votre page de profil dans le style qui vous convient. Vous pourriez contrôler ce que les inconnus pourraient voir, tandis que ceux que vous déclarez comme vos amis verraient une page toute différente, plus intime. Ils pourraient utiliser un service gratuit financé par la publicité, qui pourrait être procuré par Yahoo, Google, Microsoft, une foule de startups ou des hébergeurs comme Dreamhost.

Les boutons « J’aime » qui foisonnent sur le Web devraient pouvoir être configurés pour faire exactement ce que vous désirez qu’ils fassent – s’ajouter à un profil protégé, s’ajouter à une liste de vœux sur votre site, ou encore être diffusés par le service de micro-blogging de votre choix. Vous auriez ainsi le contrôle de la présentation de votre propre personne – et comme dans le monde réel, vous pourriez cloisonner les différentes parties de votre vie.

Les gens qui ne veulent pas spécialement quitter Facebook pourraient continuer à jouer avec – pourvu que Facebook arrête une fois pour toutes ses pratiques inquiétantes avec nos données, comme de fournir ces informations à des tierces parties, juste parce qu’un de vos contacts a joué au quiz « Quel personnage de l’île aux naufragés êtes-vous ? » (Si, cela se produit couramment).

Bon d’accord, il n’est pas évident du tout qu’une vague alliance d’entreprises de logiciels et de développeurs puisse transformer les services de base de Facebook en protocoles partagés, pas plus qu’il ne serait facile, pour cette coalition de services en ligne, de rivaliser avec Facebook, compte tenu de ses 500 millions d’utilisateurs. Dont beaucoup acceptent que Facebook redéfinisse leurs repères culturels, ou sont trop occupés ou trop paresseux pour laisser tomber Facebook.

Mais dans l’Internet idéal avec lequel j’aimerais vivre, nous devrions avoir cette possibilité, au lieu de nous retrouver obligés de choisir entre laisser Facebook nous utiliser et être totalement exclus de la conversation.

Notes

[1] Crédit photo : DB Photography (Creative Commons By)




Affaire INPI : Tous à l’abordage de l’exposition « Contrefaçon » le 4 mai !

Joseph Sardin - CC bySi tu ne viens pas à Lagardère, Lagardère ira à toi.

Suite à ce que l’on peut désormais appeler « l’affaire INPI », une invitation est lancée à se rendre nombreux le mardi 4 mai à 18h à La Cité des Sciences et de l’Industrie devant l’exposition incriminée pour informer les visiteurs que le Libre existe et aurait au moins mérité cette petite place injustement refusée.

La semaine qui vient de s’écouler fut marquée par une superbe illustration du principe selon lequel la censure s’avère toujours contre-productive pour le censeur, puisque l’action de ce dernier sur un message particulier attire inévitablement l’attention du public sur ce qu’il voulait cacher[1].

Ainsi, la décision de l’Institut National de la Propriété Industrielle d’exclure, à la dernière minute, toute mention de logiciels et de licences libres de l’exposition « Contrefaçon » (présentée du 20 avril au 13 février prochain à la Cité des Sciences et de l’Industrie) a choqué un large public, sûrement aiguisé sur la question par des années de frasques législatives (DADVSI, HADOPI I&II) tentant justement de définir les limites de la contrefaçon à l’ère du numérique. Et le cri d’alarme lancé par Isabelle Vodjdani (membre de Copyleft Attitude et auteur du texte censuré) il y a un peu plus d’une semaine s’est donc répandu sur le web comme une tache d’huile, grâce aux efforts conjugués de toutes les consciences qui animent les associations du libre, les blogs indépendants, la presse en-ligne…

Le texte, originalement posté sur Transactiv.exe fut presque immédiatement repris par une vague d’associations du libre parmi lesquelles Ubuntu-fr, Framasoft LinuxFR ainsi que les journaux en-ligne les plus réactifs : Rue89, PCINpact… Dès le lendemain, les réactions se multipliaient tous azimuts, et le texte, sous licence libre, se trouvait repris commenté et analysé sur les sites web d’associations telles que PULLCO le LUG Corézien ou Fansub-streaming dont l’activité pose d’intéressantes questions sur le droit d’auteur et la contrefaçon (ce n’est pas une contrefaçon de sous-titrer une animation japonaise en français tant que l’éditeur ne commercialise pas l’œuvre en France, ça le devient ensuite, presque rétro-activement…). Enfin, l’April réagissait en adressant une lettre ouverte à Claudie Haigneré, présidente de la Cité des Sciences et de l’Industrie dans le but d’obtenir un rendez-vous.

Edit 3 mai : L’April a publié le compte-rendu de son entretien avec Claudie Haigneré, présidente de la Cité des sciences et de l’industrie, le lendemain de la publication originale de cet article. L’association annonce, en fin de communiqué, qu’elle se joindra à l’opération.

Tangui Morlier (président de l’April, fondateur de StopDRM) réagit encore, à titre personnel le jour suivant, en lançant le site www.bonjourcensure.fr avec la participation d’Isabelle Vodjdani. Ce site, simple mais efficace, offre un espace pour laisser s’exprimer en image la créativité du libre sur le sujet.

Face aux critiques, il est à noter que la CSI et l’INPI publièrent rapidement un communiqué de presse dans le but de justifier leur décision de ne pas présenter d’alternative au modèle dogmatique de la propriété intellectuelle telle que défendue par l’INPI ou la SACEM, à base de gentils consommateurs et de méchants pirates.

En substance, dans leur communiqué ils se défendent des mauvaises intentions qu’on leur prête pour avoir supprimé cette partie de l’exposition, étant eux-mêmes utilisateurs de logiciels libres et donc forcément favorables au phénomène. Mais exploiter simplement ces outils concurrentiels ne dénote en rien d’un a priori vis-à-vis de leur modèle, et d’a priori ne voulons point ! Les licences libres existent et sont largement répandues, pourquoi éviter le sujet ?

L’INPI arguait alors de ne pas vouloir semer le trouble dans l’esprit des visiteurs, entre contrefaçon et logiciel libre, afin d’éviter une association négative. En dehors de la condescendance de l’argument, on peut se demander si ce ne serait justement pas le principal intérêt de cette exposition, que d’amener les visiteurs à réfléchir et se poser de fécondes questions comme le remarquait aKa dans les commentaires du billet Framablog.

D’ailleurs, pour une exposition se voulant sans ambiguïté et « tout public », on peut s’interroger sur le choix du visuel de l’affiche, présentant un remix du célèbre pavillon de Jack Rackham (dit « Le Rouge » …) dont le crâne a été remplacé par le terme « Contrefaçon ». Le lien entre les contrefacteurs dénoncés par l’exposition et les renégats des siècles derniers se livrant à des actes de flibusterie me semble pour le moins trouble…

Aujourd’hui on retrouve ces exactions marines au large de la Somalie et ce pavillon noir sur la flotte des Sea Shepherd poursuivant une noble cause. Mais rien à voir, en tout cas, avec les honnêtes citoyens qui s’échangent de la culture aux limites numériques encore floues du droit d’auteur qui fait vivre des organismes de contrôle tels que l’INPI ou la SACEM.

Toujours est-il que cette réponse, faisant couler beaucoup d’encre, a visiblement contribué à attiser les résistances. Aujourd’hui la presse continue à se faire l’écho du phénomène comme on peut le voir dans LeMagIT, LePoint ou ZDNet, et les analyses fleurissent sur les blogs comme ce billet du « dernier des blogs » ou cet intéressant travail de synthèse réalisé par Frédéric Couchet.

Toutefois, si le message d’Isabelle Vodjdani a survécu à sa censure grâce à une publication sous licence libre et un web réactif, il reste un manque béant d’information au sein de l’exposition !

Si l’April, qui rencontrera prochainement la présidente de la Cité des Sciences aura une opportunité de demander l’intégration du texte à l’exposition comme prévu, voire un espace supplémentaire pour détailler les évènements qui ont conduit cette intégration tardive, il n’en reste pas moins qu’à l’heure actuelle rien n’est fait pour informer le public lors des dix mois à venir de l’existence d’œuvres libres dont la copie et le partage n’engendrent pas de contrefaçon.

C’est pourquoi une réaction s’est organisée sur le forum et le canal IRC de Framasoft depuis le précédent billet. Comme nous y encourage Richard M. Stallman, les défenseurs du libre viendront à la rencontre du public de l’exposition lors de son inauguration officielle le mardi 4 mai à partir de 18h, comme détaillé ici.

Lors de cet évènement à but pédagogique (c’est un terme qui fait peur depuis HADOPI…) des FramaDVD seront distribués aux visiteurs pour donner corps à l’existence des licences libres, des logiciels libres, des livres libres, de la musique libre, des photos libres, des films libres…

Venez nombreux !

Notes

[1] Crédit photo : Joseph Sardin (Creative Commons By)




Pourquoi soutenir la Free Software Foundation – Benjamin Mako Hill

Soulfish - CC by-saBenjamin Mako Hill n’a pas encore trente ans mais cela ne l’empêche pas d’avoir un CV qui force déjà l’admiration.

Chercheur au MIT Media Lab, développeur Debian puis Ubuntu, membre des bureaux de la FSF et Wikimedia, impliqué dans le projet OLPC et dans la définition des Free Cultural Works… Excusez du peu ![1]

Après nous avoir expliqué dans ces mêmes colonnes pour il fallait soutenir Wikipédia, il récidive ici avec la Free Software Foundation, non sans enthousiasme et éloquence[2].

PS : Pour info, Framasoft est Associate Membership #7234 de la FSF.

Appel à soutenir la Free Software Foundation

Benjamin Mako Hill

Benjamin Mako Hill – 19 janvier 2010 – FSF Appeals
(Traduction Framalang : Don Rico et Mathieu Adoutte)

L’essence du logiciel libre est selon moi de permettre aux utilisateurs de micro-informatique d’être maître de leur machine et de leurs données. Dans la mesure où nos logiciels définissent notre rapport au monde et aux autres, la liberté logicielle est une part importante de ce qui nous permet de déterminer notre façon de vivre, de travailler et de communiquer.

Mako siège au comité directeur de la FSF.

En matière de logiciels libres, le programme créé n’est pas une fin en soi ; ce qui importe c’est d’apporter la liberté aux utilisateurs.

Avec l’immense succès que rencontre le Libre depuis vingt ans, nombreux sont ceux qui ont perdu de vue ce point pourtant simple. Nous avons créé un ensemble incroyable d’applications, d’outils et de bibliothèques. Nous avons mis sur pied des communautés d’entraide et de développement bouillonnantes. Nous avons mis au point de nouvelles méthodes de développement, de puissantes licences copyleft et d’immenses projets collaboratifs. Pourtant, tous ces éléments ne sont qu’une façon de conférer plus de liberté à ceux qui s’en servent. Ils ne forment pas la liberté en soi. Ils ne constituent pas notre réel objectif. Ce sont nos outils, et non notre but.

Dans un monde où la technologie est en mutation perpétuelle, cette distinction devient centrale. Car c’est bien dans un monde qui change en permanence que nous vivons. Alors que nombre de personnes font du téléphone portable leur ordinateur principal, et que beaucoup d’entre elles s’en servent principalement pour accéder à des services en réseau d’un genre nouveau, les anciennes applications, communautés, méthodes de développement et licences du Libre peuvent se révéler inadaptées ou inefficaces pour protéger la liberté de l’utilisateur.

Au cours des prochaines années, apporter la liberté aux utilisateurs d’informatique nécessitera une adaptation des logiciels et des discours. Il faudra de nouvelles licences et techniques pour les faire respecter. Il faudra renouveler notre façon de collaborer et de nous organiser. Pour atteindre son but, le logiciel libre doit rester concentré sur la liberté de l’utilisateur – sur la question de nos motivations à agir comme nous le faisons – puis se montrer créatif quant à la meilleure manière de respecter et préserver la liberté à laquelle nous aspirons. Si nous sommes trop axés sur ce que nous avons accompli par le passé, nous risquons de perdre de vue notre objectif fondamental : favoriser le contrôle qu’ont les utilisateurs sur leurs outils technologiques en général.

De nombreuses structures soutiennent le logiciel libre en s’attachant au « comment ». On trouve parmi elles des cabinets juridiques, des entreprises et des associations à but non lucratif, qui appuient divers projets associés au Libre.

La Free Software Foundation est de loin l’organisation la plus importante qui s’interroge sur le pourquoi – sur l’essence de la liberté logicielle. En tant que telle, elle a un rôle fondamental : celui de pousser notre communauté au sens le plus large à se focaliser sur les problèmes, les menaces et les défis les plus importants, lesquels ont une incidence sur la réussite de chaque projet de logiciel libre et sur chaque utilisateur de l’outil informatique, aujourd’hui et demain. En ces temps d’évolution rapide de la technologie, son action est plus vitale que jamais. Et les conséquences d’un échec seraient plus dramatiques.

Voici certains domaines dans lesquels je vais encourager la FSF à défendre le mouvement du Libre au cours de l’année à venir :

La téléphonie mobile

Dans un court billet, j’indiquais qu’il y avait aujourd’hui des milliards de téléphones portables dans le monde et que, même si ces appareils sont des ordinateurs de plus en plus puissants, ils constituent une des technologies les plus verrouillées, les plus privatrices et les moins libres parmi celles communément répandues.

Les conséquences de cette situation sont désastreuses quant au contrôle que les utilisateurs peuvent avoir sur leur technologie. Bien que certains modèles très répandus fonctionnent grâce à des logiciels libres, la plupart des appareils dits libres sont cadenassés, et leurs utilisateurs demeurent menottés, divisés et impuissants.

Nous devons informer les utilisateurs de mobiles des enjeux des logiciels libres, les avertir que les téléphones sont de puissants ordinateurs polyvalents, et leur expliquer que ces appareils ont des implications critiques pour l’autonomie de tout un chacun dans le futur. À cette fin, la FSF va lancer cette année une campagne de sensibilisation concernant la téléphonie mobile et la liberté informatique.

Les services en ligne

L’étendue et le taux de pénétration des services en ligne tels que Facebook, Google et autres n’ont cessé de croître au cours de l’année passée, et il en va de même pour la nécessité d’offrir des équivalents libres. Le lancement de produits réseau-centriques tels que le ChromeOS de Google offre un aperçu de ce à quoi une plate-forme informatique pourrait ressembler à l’avenir.

Les conséquences pour la liberté de l’utilisateur et l’efficacité de l’approche traditionnelle du logiciel libre sont effrayantes. Le fait que de nombreux services en ligne soient construits grâce à des logiciels libres ne rend pas moins catastrophique l’effet qu’ils auront sur l’autonomie et la liberté des utilisateurs.

Au cours de l’année à venir, la FSF compte publier la première annonce, qui je l’espère sera suivie par d’autres, sur la liberté informatique et les services en ligne. En s’appuyant sur les travaux du groupe Autonomous, que soutient la FSF, la Fondation fournira des conseils à ceux qui mettent en place des services en ligne, aux utilisateurs qui se demandent s’ils doivent ou pas s’inscrire à tel ou tel service, et aux développeurs souhaitant concevoir des services qui respectent davantage la liberté de leurs utilisateurs.

Communiquer au-delà de nos communautés habituelles

Pour lutter efficacement pour la liberté informatique, il va falloir s’adresser à des utilisateurs n’appartenant pas à la « base » historique de la FSF. C’est ce que fait la FSF par le biais de sa campagne anti-DRM Defective by Design et son action contre les brevets logiciels (End Software Patents). Cette année, la FSF a aussi cherché à toucher les plus jeunes avec sa campagne « GNU Generation » (NdT : soit « GNUvelle génération »), menée par et pour des lycéens. En outre, la FSF a organisé un colloque sur les femmes dans le logiciel libre. La FSF prévoit de cultiver ces réussites et de multiplier ce genre de projets d’ouverture.

Bien évidemment, promouvoir et défendre la liberté logicielle représente plus de travail que la FSF, avec ses ressources actuelles, ne peut en accomplir. Chacun des trois points mentionnés plus haut constitue une entreprise ambitieuse, mais ils ne représentent qu’une partie du pain que le personnel de la FSF a sur la planche. Poursuivre les projets existants exigerait déjà de la FSF qu’elle intègre des centaines de nouveaux membres avant la fin de cet exercice. Votre adhésion et vos dons nous aideront à atteindre ces objectifs.

C’est un mouvement du logiciel libre fort – et en particulier une FSF forte – attaché à défendre les principes de la liberté des logiciels, qui déterminera les libertés dont jouira la prochaine génération d’utilisateurs de l’outil informatique. Ce qui est en jeu, ce n’est rien de moins que l’autonomie de la génération qui nous suivra.

Je sais que ce n’est pas le premier appel aux dons qui vous est adressé depuis le début de l’année, et j’ai conscience qu’en cette époque de crise économique, donner se révèle délicat pour beaucoup. Je comprends qu’il sera plus difficile de consentir à la dépense que représente une adhésion ou un don. Mais à ce moment charnière dans le domaine technologique, il nous faut plus que jamais une FSF robuste.

Si vous n’êtes pas membre de la FSF, c’est le moment de le devenir. Si vous avez lu mes appels des années précédentes et choisi d’attendre, il est temps de vous lancer. La cotisation est de 120 dollars par an (60 dollars pour les étudiants), et elle peut être mensualisée. Si vous êtes déjà membre, je vous invite à faire comme moi un don généreux, ou à encourager un ami à adhérer. La FSF est une petite organisation composée de passionnés qui travaillent sans relâche pour notre liberté logicielle. Je sais d’expérience que même les contributions les plus modestes peuvent changer la donne.

Notes

[1] Et pour l’avoir rencontré aux RMLL d’Amiens en 2005, j’ajoute que le garçon est charmant. Si en plus il s’intéresse aux filles, je crois qu’il se rapproche du gendre idéal de ce nouveau siècle 😉

[2] Crédit photo : Soulfish (Creative Commons By-Sa)




Quand la Maison Blanche se joint à la communauté du Libre

Beverly & Pack - CC byLa vaste communauté Drupal compte un contributeur bien particulier puisqu’il s’agit ni plus ni moins de la Maison Blanche.

C’était déjà bien d’adopter le célèbre CMS libre pour faire tourner le site officiel (ce que nous avions signalé dans un précédent billet), mais c’est encore mieux de participer à son amélioration en reversant le code spécifique développé pour l’occasion, et en le faisant savoir sur son blog (traduit ci-dessous)[1].

Un billet et une traduction directement suggérés par ce journal LinuxFr de Francois G (auteur de la rafraichissante nouvelle de science-fiction Églantine et les ouinedoziens) dont la présentation se suffit à elle-même :

« Le site de la Maison Blanche vient de diffuser le code source des améliorations qu’ils ont apportés au projet Drupal (à noter tous les liens vers le site du projet Drupal dans le billet).

Les 3 bonnes nouvelles :

  • La Maison Blanche a compris qu’elle peut être maître de ses outils informatiques.
  • Elle en profite (modifications spécifiques) et en fait profiter les autres (diffusion à tous).
  • Elle communique sur cette action. De ce fait, elle annonce officiellement son support et son utilisation des logiciels libres.

Compte tenu de la volonté de l’Élysée de copier la Maison Blanche, on peut espérer un changement de politique chez nous. »

WhiteHouse.gov participe à l’Open Source

WhiteHouse.gov Releases Open Source Code

Dave Cole – 21 avril 2010 – The White House Blog
(Traduction Framalang : Quentin Theuret et Julien Reitzel)

Dans le cadre de nos efforts continus pour développer une plateforme ouverte pour WhiteHouse.gov, nous mettons à disposition de tous une partie du code source personnalisé que nous avons développé. Ce code est disponible à tous pour l’analyser, l’utiliser ou le modifier. Nous sommes impatients de voir comment des développeurs à travers le monde pourront utiliser notre travail dans leurs propres applications.

En reversant une partie de notre code source, nous bénéficions de l’analyse et de l’amélioration d’un plus grand nombre de personnes. En fait, la majorité du code source de WhitHouse.gov est dès à présent open source car il fait partie du projet Drupal. Le code source que nous relâchons aujourd’hui ajoute des fonctionnalités à Drupal dans trois domaines importants :

1. Évolutivité : Nous publions un module nommé Context HTTP Headers, qui permet aux webmasters d’ajouter de nouvelles métadonnées au contenu qu’ils publient. Nous utilisons cela pour nos serveurs qui manipulent des pages spécifiques, comme la mise en cache de ce type de page pendant 15 minutes ou ce type pendant 30. Un second module concernant l’évolutivité s’appelle Akamai et il permet à notre site web de s’intégrer avec notre réseau d’envoi de contenu Akamai.

2. Communication : Beaucoup d’agences gouvernementales ont des programmes actifs d’emails qu’ils utilisent pour communiquer avec le public à travers des services qu’ils fournissent. Nous avons une liste de diffusion pour la Maison Blanche, où vous pouvez trouver les mises à jour des nouveaux contenus et des initiatives. Pour rendre plus dynamique l’adaptation des emails aux préférences des utilisateurs, nous avons intégré l’un des services les plus populaires pour les programmes d’emails gouvernementaux dans notre CMS avec le nouveau module GoDelivery.

3. Accessibilité : Nous prenons très au sérieux nos obligations pour être sûrs que WhiteHouse.gov soit accessible le plus possible et nous nous sommes engagés à tendre vers les standards d’accessibilité décrits par la Section 508. Dans le cadre de cette conformité, nous voulons être sûrs que toutes les images sur notre site Web aient des métadonnées appropriées pour les rendre visibles sur des logiciels de lecture vocale. Pour nous aider à atteindre cela, pour que ce soit plus facile de gérer les contenus photos et vidéos que vous voyez sur notre site, nous avons développé Node Embed.

Notes

[1] Crédit photo : Beverly & Pack (Creative Commons By)




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Toute recherche scientifique digne de ce nom doit ouvrir son code informatique

TenSafeFrogs - CC byVoici un récent article du Guardian qui tourne paradoxalement autour du logiciel libre et des formats ouverts mais sans véritablement les nommer.

Nous avons cependant jugé qu’il avait son intérêt dans la mesure où la science et la recherche ont désormais de plus en plus recourt à l’informatique pour traiter des données et en tirer analyses et conclusions[1].

Or comment voulez-vous que l’on puisse valider les résultats si les applications utilisées sont propriétaires ou si les chercheurs eux-mêmes ne mettent pas le code de leur programme à disposition ?

L’article s’appuie sur la récente affaire dite du « Climategate » qui a fait grand bruit outre-Manche (et étrangement peu de cas chez nos grands médias français).

Quand recherche sérieuse rime avec libération du code informatique

If you’re going to do good science, release the computer code too

Darrel Ince – 5 février 2010 – The Guardian
(Traduction Framalang : Kovalsky et Olivier)

Les programmes informatiques prennent chaque jour plus de place dans le travail scientifique. Mais partie prenante dans les conditions de l’expérience vous devez pouvoir les vérifier comme en atteste la bataille qui se joue autour des données sur le changement climatique.

On retiendra de l’affaire concernant la révélation publique des e-mails et des documents de l’Unité de Recherche Climatique de l’Université d’East Anglia qu’ils mettent en lumière le rôle du code informatique dans la recherche climatique. Il y a notamment une série de « README » produite par un programmeur de l’UEA connu sous le nom de « Harry ». Ces notes sont celles de quelqu’un qui lutte avec du code ancien non-documenté, et des données manquantes. Et pourtant, on parle bien d’un élément de l’une des trois bases de données climatiques principales dont se sont servis les chercheurs du monde entier pour en tirer analyses et conclusions.

Beaucoup de scientifiques du climat ont refusé de publier leur programme informatique. À mes yeux, ça n’est ni scientifique, ni responsable, parce que les logiciels scientifiques sont réputés pour leur manque de fiabilité.

L’Histoire nous a appris à ne pas faire une confiance aveugle aux logiciels scientifiques. Par exemple le Professeur Les Hatton, un expert international en tests logiciels, résident de l’Université du Kent et de Kingston, a mené une analyse approfondie de plusieurs millions de lignes de code scientifique. Il a montré que les logiciels présentaient un nombre exceptionnellement élevé d’erreurs détectables.

Par exemple, les erreurs de communication entre les modules de logiciels qui envoient les données d’une partie d’un programme à une autre se produisent à une fréquence de 1 pour 7 communications en moyenne dans le langage de programmation Fortran, et de 1 pour 37 communications dans le langage C. C’est d’autant plus inquiétant qu’une seule et unique erreur est susceptible d’invalider un programme informatique. Plus grave encore, il a découvert que la précision des résultats chute de six chiffres significatifs à un chiffre significatif après traitement par certains programmes.

Les travaux d’Hatton et d’autres chercheurs indiquent que les logiciels scientifiques sont souvent de mauvaise qualité. Il est stupéfiant de constater que cette recherche a été menée sur des logiciels scientifiques commerciaux, produits par des ingénieurs logiciels soumis à un régime de tests, d’assurance qualité et à une discipline de contrôle des modifications plus connue sous le nom de gestion de configuration.

À l’opposé, les logiciels scientifiques développés dans nos universités et nos instituts de recherches sont souvent produits, sans assurance qualité, par des scientifiques qui n’ont pas de formation en ingénierie logicielle et donc, sans aucun doute, l’occurence des erreurs sera encore plus élevée. Les fichiers « Harry ReadMe » de l’Unité de Recherche Climatique sont une preuve flagrante de ces conditions de travail. Ils résument les frustrations d’un programmeur dans sa tentative de conformer ses séries de données à une spécification.

Le code informatique est au coeur d’un problème scientifique. La science se définit par sa potentielle remise en cause : si vous érigez une théorie et que quelqu’un prouve qu’elle est fausse, alors elle s’écroule et on peut la remplacer. C’est comme cela que fonctione la science : avec transparence, en publiant chaque détail d’une expérience, toutes les équations mathématiques ou les données d’une simulation. Ce-faisant vous acceptez et même encouragez la remise en question.

Cela ne semble pas être arrivé dans la recherche climatique. De nombreux chercheurs ont refusé de publier leur programme informatique, même ceux qui sont encore utilisés et qui ne sont pas sujet à des accords commerciaux. Le Professeur Mann, par exemple, refusa tout d’abord de fournir le code, employé pour construire en 1999 le graphique en cross de hockey, qui a démontré que l’impact de l’homme sur le réchauffement climatique est un artefact unique de la dernière décennie (il l’a finalement publié en 2005).

La situation n’est pas aussi désastreuse pour tous les travaux académiques. Certaines revues, économiques et économétriques par exemple, imposent que l’auteur soumette ses données et ses programmes au journal avant publication. Un cas fondamental en mathématiques a également fait parler de lui : la preuve « par ordinateur » de la conjoncture des quatre couleurs par Appel et Haken. Cette démonstration a partagé la communauté scientifique puisque pour la première fois le problème de la validation du théorème s’est trouvé déplacé vers le problème de la validation de l’algorithme d’exploration et de sa réalisation sous forme de programme. Bien que critiquée pour son manque d’élégance, la preuve n’en était pas moins correcte et le programme informatique, publié et donc vérifiable.

Des organismes et des individus, ralliés à l’idée du quatrième paradigme, attachent beaucoup d’importance au problème de l’informatique scientifique à grande échelle et à la publication des données. C’était l’idée de Jim Gray, un chercheur expérimenté de Microsoft, qui a identifié le problème bien avant le Climategate. Actuellement, la recherche consacrée aux mécanismes qui pourraient faire du Web un dépôt pour les publications scientifiques est très active, elle englobe également les logiciels et la formidable quantité de données qu’ils consomment et génèrent. Un certain nombre de chercheurs mettent au point des systèmes qui montrent le progrès d’une idée scientifique, des premières ébauches d’idées jusqu’à la publication papier[2]. Les problèmes rencontrées avec la recherche climatique apporteront un élan à ce travail pour qu’il soit accéléré.

Donc, si vous publiez des articles de recherche qui s’appuient sur des programmes informatiques, si vous prétendez faire de la science mais que vous refusez de publier les programmes en votre possession, je ne peux vous considérer comme un scientifique. J’en irais même jusqu’à dire qu’à mes yeux les publications basées sur ces programmes seront nulles et non avenues.

Je trouve incroyable qu’une faute de frappe puisse être à l’origine d’une erreur dans un programme, un programme qui pourrait à son tour être à l’origine de décisions portant sur des milliards d’euros, et le pire, c’est que la fréquence de ces erreurs est élevée. Les algorithmes (ou copules gaussiennes), sur lesquels se sont appuyées les banques pour s’assurer que les crédits sub-prime étaient sans risque pour eux, ont été publiées. La facture était salée. La facture du changement climatique sera aussi élevée. Raison de plus pour qu’aucune erreur dans les calculs ne soit tolérée là non plus.

Notes

[1] Crédit photo : TenSafeFrogs (Creative Commons By)

[2] Voir à ce sujet l’article du Framablog : Première démonstration « open source » d’un théorème mathématique.




Rapport Fourgous : Le communiqué de l’April et les propositions de l’AFUL

Torres21 - CC by-saNous avons déjà par deux fois évoqué le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. D’abord en extrayant les passages qui touchent de près ou de loin le logiciel libre et sa culture, et ensuite en demandant à François Elie de nous en faire une lecture critique.

Nous vous proposons ci-dessous, et l’une après l’autre, les réactions de l’April et de l’AFUL que nous avons malicieusement choisi de réunir ici dans un même billet.

Dans son communiqué, l’April prend acte de certaines avancées tout en regrettant la timidité des mesures préconisées. L’Aful quant à elle se veut constructive en faisant état de douze propositions, non pas pour « réussir l’école numérique » mais, nuance, pour « réussir le numérique à l’école »[1].

April / Rapport Fourgous : une reconnaissance partielle des apports fondamentaux du libre à l’éducation

URL d’origine du document

Paris, le 4 mars 2010. Communiqué de presse.

L’April se félicite que certaines de ses positions soient reprises dans le rapport de la mission parlementaire de Jean-Michel Fourgous[2] sur la modernisation de l’école par le numérique mais regrette qu’après avoir montré que le logiciel libre est une approche privilégiée pour réussir l’école numérique, il ne propose aucune mesure concrète pour tirer parti de cette opportunité.

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique a été remis le 15 février 2010 au Ministre de l’Éducation nationale Luc Chatel.

L’April en tant qu’observateur attentif de l’évolution de l’usage et de l’enseignement de l’informatique dans le système éducatif[3] a contribué à cette mission[4] dans le cadre de la consultation préalable. Elle se félicite de la prise en compte, même partielle, de sa contribution mais regrette que le logiciel libre ne soit cité que marginalement et ne fasse l’objet d’aucune mesure concrète alors qu’il est un élément central des solutions possibles.

Le rapport précise que le libre permet, entre autres de lutter contre la fracture numérique mais aussi qu’il favorise l’apprentissage des fonctionnalités plus que des outils. Il est également précisé que « en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité »[5].

Nous retrouvons là les positions défendues par l’April. Selon Benoît Sibaud, vice-président : « Notre association est, en matière éducative, attachée à la formation d’utilisateurs autonomes, éclairés et responsables. Nous considérons que les logiciels libres constituent, de par la transparence technologique qui les définit et les valeurs de partage qui les fondent, l’un des leviers les plus précieux à la disposition de la communauté enseignante pour l’enseignement à et par l’informatique ».

Plus loin l’accent sur les « pratiques coopératives et collaboratives » des enseignants est mis. À nouveau le rapport préconise de « favoriser le développement de ressources libres »[6]. De nombreuses structures encadrant la mutualisation de ressources pédagogiques libres entre enseignants existent déjà. Citons Sésamath, EducOOo[7], Scideralle[8] ou encore Ofset[9]. Le rapport fait explicitement référence à l’April par la voix de Benoît Sibaud : « Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre ».

L’April regrette cependant que ces points n’aient pas été davantage pris en compte dans la liste des priorités définies par la mission et que le libre ne soit cité que marginalement. Il est préconisé de généraliser les manuels numériques sans se préoccuper de la façon dont les enseignants pourraient se les approprier. Pour faire sienne une ressource pédagogique, un enseignant doit pouvoir justement l’adapter à son public, à sa situation pédagogique et à ses pratiques. Les manuels numériques actuels ne le permettent pas, ils sont vendus dans des formats rarement modifiables voire l’interdisent sur le plan légal. Il est regrettable que le rapport n’incite pas à encourager de façon institutionnelle des regroupements d’enseignants tels Sésamath[10] qui ont justement déjà produit des manuels numériques libres de mathématiques reconnus pour leur qualité pédagogique[11]. À la place un fonds de développement à seule destination d’éditeurs privés semble préconisé.

Sur le plan de l’exception pédagogique, l’April regrette de ne voir aucune mesure claire destinée à mettre un terme à l’insécurité juridique qui fait partie du métier d’enseignant. Il est certes préconisé de créer (en urgence) cette exception dans le système juridique du droit d’auteur alors qu’il suffirait dans un premier temps de favoriser la mutualisation entre professionnels de l’éducation et le développement de ressources libres. Concernant le B2i, le rapport va dans le sens des conclusions de l’April[12] ?et de nombreux autres acteurs comme l’EPI et le groupe ITIC-ASTI[13] car : « le B2i ne prend pas en compte ni la capacité à pouvoir se former tout au long de la vie, ni les connaissances techniques de base nécessaires pour comprendre les outils numériques ». L’April ne peut que se réjouir de voir mentionné que « La mise en place d’une matière informatique est une nécessité dans une société où tout fonctionne via le numérique »[14].

Enfin concernant les tableaux numériques interactifs (TNI), « la France comptera 50 000 TNI en 2010 »[15] le rapport n’évoque pas les problèmes d’interopérabilité. Chaque fabriquant de tableau développe son propre format qui ne peut être utilisé qu’avec leurs propres logiciels. Ces formats sont propriétaires et fermés et empêchent donc toute mutualisation avec des professeurs utilisant d’autres marques. En cas de mutation dans un autre établissement, tout le travail réalisé par le professeur peut être tout simplement inutilisable si le fabricant n’est plus le même. Il conviendrait donc de définir un cahier des charges national afin d’élaborer un format commun et interopérable pour les ressources utilisant les TNI. Rappelons que sous l’impulsion du BECTA[16] britannique un format de fichier ouvert destiné aux applications de type TNI a été publié[17]. Ce format est endossé par le projet European Schoolnet dont est d’ailleurs membre le Ministère de l’Éducation Nationale. Plusieurs fabricants de TNI ayant accepté de prendre en charge ce format, il nous semble ainsi naturel que son intégration soit requise dans les appels d’offre à venir.

En vertu des points mentionnés ci-dessus, l’April appelle le gouvernement à enfin mettre en place une véritable politique publique d’utilisation des logiciels, ressources libres et formats ouverts dans l’éducation. C’est là une opportunité à saisir dans l’intérêt des élèves et de l’école numérique. Enfin, l’April rappelle la nécessité forte de mettre en place un enseignement de l’informatique en tant que tel dès le Collège.

AFUL / Douze propositions pour l’école à l’ère numérique

URL d’origine du document

Suite à la publication du rapport FOURGOUS « Réussir l’école numérique », l’AFUL, l’ADULLACT et SCIDERALLE font douze propositions pour « Réussir le numérique à l’école ».

Le rapport Fourgous, dense, riche et touffu, semble hésiter entre une école numérique fondée sur le collaboratif et la richesse de ressources partagées d’une part, et d’autre part une école numérique qui serait le marché tout trouvé d’une industrie du numérique en mal de clients.

« Il y aura deux manières de rater l’école numérique : ne pas réussir à intégrer le numérique dans les situations d’enseignement, réduire le système éducatif à n’être qu’un client pour des industries numériques. Nous devons craindre davantage ce second danger » François Élie.

Nous vous invitons donc à découvrir nos propositions et à en discuter sur la liste dédiée à l’usage des logiciels libres dans l’éducation du groupe de travail Éducation de l’AFUL.

Douze propositions pour « réussir le numérique à l’école » :

  1. Liberté – Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement.
  2. Égalité – Avant de viser des solutions dites innovantes, il faut privilégier l’équipement et la disponibilité des ressources pour le plus grand nombre, par la mutualisation et des mécanismes de péréquation.
  3. Fraternité – Le travail collaboratif entre les élèves, les professeurs, les associations partenaires de l’école et tous les acteurs de l’éducation, en particulier les collectivités, doit être encouragé et soutenu.
  4. Un observatoire permanent composé de spécialistes de la mesure est chargé d’évaluer en continu et avec précision les impacts de tel ou tel usage lié au numérique dans les domaines scolaire et para-scolaire.
  5. La mise en œuvre de dispositifs TICE efficaces ou innovants est prise en compte dans l’évolution de la carrière des enseignants.
  6. Les Inspections sont chargées dans toutes les matières d’organiser, de maintenir et de faire croître le recensement, la production collaborative et l’indexation de contenus libres, avec des enseignants volontaires rémunérés pour ce travail. Les éditeurs (privés ou non) peuvent évidemment utiliser ce fonds pour proposer des manuels scolaires. Le modèle de Sésamath peut être une piste à suivre.
  7. Les collectivités et l’État conjuguent leurs efforts pour mutualiser leurs ressources et faire produire et maintenir un patrimoine de logiciels libres d’usage administratif et pédagogique à destination des 70 000 écoles et établissements scolaires français, par souci d’efficience, d’interopérabilité et d’égalité républicaine.
  8. L’école numérique s’appuie pour le développement et la maintenance de ses infrastructures matérielles, logicielles et documentaires, ainsi que pour la formation continue et l’accompagnement des enseignants, sur un réseau structuré de Centres de Ressources Informatiques.
  9. Les possibilités offertes par les nouvelles technologies dans le domaine du travail asynchrone ou distant sont explorées pour faciliter la liaison école-famille et améliorer les liens entre l’école et les élèves ne pouvant s’y rendre.
  10. L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin.
  11. Afin de garantir l’égalité des chances, les collectivités et l’État mutualisent leurs efforts pour offrir un vaste support en ligne gratuit à l’échelle nationale, animé par des professeurs nommés dans la 31e académie : l’académie en ligne. Ces professeurs sont formés au tutorat en ligne.
  12. Les activités de production en ligne des élèves (écriture dans Wikipédia, site web, blog…) peuvent être intégrées dans un portfolio qui leur est proposé.

Ces douze propositions au format PDF.

Notes

[1] Crédit photo : Torres21 (Creative Commons By-Sa)

[2] Pour le consulter: http://www.reussirlecolenumerique.fr/. Voir aussi Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique (par A. Kauffmann), Rapport Fourgous – Notes de lecture de François Elie et Douze propositions pour l’école à l’ère numérique

[3] Voir notamment Jean Louis Gagnaire interpelle le ministère de l’éducation nationale à propos de la plateforme SIALLE, Audition de l’April à la mission e-educ, site du groupe de travail éducation de l’April

[4] Former les citoyens de demain : lettre de l’April à Jean-Michel Fourgous

[5] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 259

[6] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, Page 285

[7] EducOOo.org «  L’association EducOOo a pour vocation d’aider à la mutualisation de ressources éducatives libres autour de la suite bureautique OpenOffice.org. Elle encadre aussi le développement d’OOo4kids qui est une version d’OpenOffice.org spécialement adaptée pour les élèves de l’enseignement primaire voire début du secondaire »

[8] Scideralle, issue du projet AbulÉdu, Scideralle se fixe pour mission de soutenir et promouvoir des projets visant à fournir à tout public des logiciels et ressources libres pour l’éducation

[9] Ofset a été créée pour développer des logiciels libres éducatifs et des ressources afférentes pour le système GNU

[10] Sesamath.net « L’association Sésamath a pour vocation essentielle de mettre à disposition de tous des ressources pédagogiques et des outils professionnels utilisés pour l’enseignement des Mathématiques via Internet. »

[11] Les manuels Sésamath ont été préfacés par une Inspectrice Générale de l’Éducation Nationale de mathématiques

[12] Option « Informatique et sciences du numérique » au lycée : une première avancée avant un mouvement de fond ?

[13] http://www.epi.asso.fr/revue/docu/d0912a.htm

[14] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 189.

[15] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 72.

[16] Le BECTA est l’équivalent de la SDTICE en Grande-Bretagne : http://www.becta.org.uk/

[17] Le format "Interactive Witheboard Common File Format" (IWBCF) dont on peut d’ores et déjà télécharger les spécifications sur la page BECTA de SourceForge




Centre de Formation Logiciels Libres : Demandez le programme !

CF2L - La salle de formation - Jean-Baptiste YunesEn décembre dernier nous vous annoncions la création d’un Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF), par l’entremise de Thierry Stœhr interviewé pour l’occasion.

C’est désormais chose faite. Il y a un un site (www.cf2l.unpidf.fr), un mail (cf2l AT unpidf.fr) mais surtout un programme qui commence demain avec la Découverte d’une plate-forme libre, GNU/Linux[1].

Il reste encore des places, alors n’hésitez pas à faire tourner l’information (sur twitticabook et ailleurs), a fortiori si vous connaissez de près ou de loin du personnel des universités franciliennes.

CF2L Formations 2009/2010

  • Découverte d’une plate-forme libre, GNU/Linux – 26/02
  • Les formats des fichiers et les problèmes d’interopérabilité, d’ouverture, d’archivage – 12/03
  • Le Web avec Firefox et le courriel avec Thunderbird – 19/03 ou 12/04
  • La bureautique avec OpenOffice.org – 03/05
  • Produire des documents avec LaTeX – 16/04 ou 17/05
  • La création et la retouche d’images avec Gimp et Inkscape – 07/05
  • La mise en page et la publication (PAO) avec Scribus – 14/06
  • Le calcul formel avec Sage/Maxima – 04/06
  • Le traitement des données avec Octave et Scilab – 28/06
  • La chaîne éditoriale numérique de création de documents multimédia avec Scenari – 21/05
  • Les réseaux sociaux avec le logiciel Elgg – 31/05
  • Les plates-formes de formation libres Dokeos, Claroline, Moodle, Sakai – 18/06
  • Gestion d’une salle de ressources et déploiement d’images disques – 02/07

Pour s’inscrire et obtenir de plus amples informations, rendez-vous sur le site dédié à la formation.

Notes

[1] Crédit photo : Jean-Baptiste Yunes