Soutenir les Creative Commons – Lettre de Mohamed Nanabhay (Al Jazeera)

Oso - CC by-ncL’actuelle campagne de soutien des Creative Commons (CC) bat son plein. Elle vise à récolter un demi-million de dollars avant le 31 décembre. Inutile de vous dire que nous vous encourageons vivement à participer, si vous pensez, comme nous, que ces licences font partie de ce qui est arrivé de mieux à l’Internet au cours de la présente décennie.

À cette occasion, il a été demandé à des personnalités utilisant les CC de témoigner en rédigeant une Commoner Letter. C’est la première de ces lettres que nous avons traduit ici, faisant directement écho à un billet de janvier dernier où nous évoquions l’inauguration par Al Jazeera d’un dépôt d’archives vidéos sous licence Creative Commons[1].

Rendez-vous l’an prochain pour la lettre de TF1 ?

Commoner Letter #1 : Mohamed Nanabhay de la chaîne Al Jazeera

Commoner Letter #1: Mohamed Nanabhay of Al Jazeera

7 octobre 2009 – Blog Creative Commons
(Traduction Framalang : Olivier Rosseler et Yostral)

Introduction de Allison Domicone (Creative Commons)

J’ai le plaisir de vous annoncer le lancement de notre série Commoner Letter annuelle, une série de lettres rédigées par des membres importants de la communauté des CC pour appuyer notre campagne de soutien pour les CC. Mais cette campagne ne vise pas qu’à lever des fonds, nous voulons que cela soit bien clair. Nous cherchons avant tout à faire connaître plus largement les CC et à militer pour le partage en ligne et la culture collaborative.

Je suis donc fier de vous annoncer la parution de la première Commoner Letter, de Mohamed Nanabhay, directeur du développement en ligne pour Al Jazeera English. Mohamed et Al Jazeera ont offert une visibilité à l’international aux CC grâce au travail incroyable qu’ils ont founi cette année. Comme vous le savez peut-être déjà, Al Jazeera a lancé plus tôt dans l’année un dépôt Creative Commons qui héberge des rushes vidéo que tout le monde peut partager, réutiliser et remixer. Avoir un tel allié chez Al Jazeera est un honneur et j’espère que vous apprécierez le témoignage personnel que nous livre Mohamed sur son attachement aux Creative Commons.

Lettre de Mohamed Nanabhay (Al Jazeera)

Cher Creative Commoner,

L’année a été riche pour Al Jazeera et sa relation avec les Creative Commons. En janvier nous avons inauguré le premier dépôt mondial de vidéos professionnelles placées sous licence Creative Commons 3.0 Attribution (CC BY). Nous avions alors libéré une sélection de séquences filmées par Al Jazeera, des rushes sur la guerre à Gaza, permettant ainsi à tout le monde de les télécharger, de les partager, de le re-mixer, de les sous-titrer et finalement de les rediffuser, que l’on soit un particulier ou une chaîne de télévision, à la seule condition que nous soyons crédités pour la vidéo.

Embrasser la culture libre, c’est avant tout accepter que l’on renonce au contrôle en échange de quelque chose de plus grand : son appropriation par la communauté créative. Vous ne savez donc jamais vraiment où tout cela va vous mener. À l’origine, quand nous avons inauguré notre dépôt, nous pensions mettre là à disposition des ressources pertinentes pour quelqu’un désirant produire du contenu sur la guerre et qu’elles seraient principalement utilisées par d’autres chaînes d’informations et des réalisateurs de documentaires.

Le résultat fut à la fois surprenant et enthousiasmant. À peine nos vidéos furent-elles en ligne que déjà des contributeurs de Wikipédia en extrayaient des images pour compléter les articles sur le guerre de Gaza. Et rapidement, enseignants, créateurs de films, développeurs de jeux vidéos, organisations humanitaires et producteurs de clips musicaux s’inspirèrent de nos images. Cet accueil chaleureux de la communauté de la culture libre nous conforta dans notre choix.

Joichi Ito, président de Creative Commons dit au lancement : « Les séquences d’informations filmées sont l’un des pilliers du journalisme moderne. Rendre ainsi disponibles sous licence Creative Commons ces images, pour des usages amateurs et commerciaux, est une contribution fantastique au dialogue mondial autour d’évènements importants. Al Jazeera montre l’exemple et sera, nous l’espérons, imitée par beaucoup d’autres. »

Lancer un projet ne suffit pourtant pas à générer une communauté, un engagement à long terme et des valeurs communes sont nécessaires. Notre association avec Creative Commons remonte à 2007, lorsque Lawrence Lessig, fondateur des Creative Commons, a donné son discours d’introduction lors du 3ème Al Jazeera Forum à Doha, au Qatar. Dans ce discours il nous mettait au défi de libérer nos contenus afin de renforcer la liberté d’expression. Ce défi, nous l’avons relevé, en plus de notre dépôt Creative Commons, nous rendons également disponible nombre de nos reportages sur notre chaîne dédiée sur Youtube.

Après le lancement de notre dépôt, nous avons co-animé un atelier avec Creative Commons ayant pour titre « Créer des projets médias dans des réseaux ouverts », dont l’animation était assurée par le directeur de Creative Commons, Joichi Ito. Cet atelier fut diffusé en direct dans tout le Moyen-Orient dans le cadre de notre 4ème Al Jazeera Forum, qui s’est tenu en mars 2009. Cet évènement mondial a rassemblé près de deux cents journalistes, analystes, universitaires et intellectuels.

Grâce aux licences Creative Commons nous touchons un public plus large, mais la portée de notre projet est mieux résumé par ce commentaire de Lawrence Lessig : « Al Jazeera nous donne une leçon importante de promotion et de défense de la liberté d’expression. En offrant une ressource libre et gratuite au monde, le réseau encourage l’extension du débat et sa plus grande compréhension. »

La collaboration avec Creative Commons a été très enrichissante. Nous sommes reconnaissants envers Lawrence Lessig, Joi Ito et toute l’équipe qui œuvrent à la diffusion de la liberté d’expression pour leur aide, leurs conseils et leur soutien.

La collaboration involontaire qui s’est développée après que nous ayons ouvert notre dépôt de vidéos, ainsi que le bon accueil que ce dernier a reçu dans le monde entier, n’auraient pas été possible sans l’aide des licences Creative Commons. Nous apportons notre soutien à leur campagne car nous avons été témoin, et nous le sommes toujours, des bienfaits de l’enrichissement et du renforcement des communs numériques. J’espère que vous aussi, selon vos possibilités, vous apporterez votre soutien aux CC en renforçant ainsi les biens communs. Je vous conseille vivement de vous lancer et d’utiliser vous aussi les licences Creative Commons.

Sincèrement,

Mohamed Nanabhay
Directeur du développement en ligne, Al Jazeera English

Notes

[1] Crédit photo : Oso (Creative Commons By-Nc)




Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Glitter Feet - CC byOn peut s’extasier béatement devant les prétendues capacités technologiques de la nouvelle génération, née une souris dans la main, et baptisée un peu vite les « digital natives ».

Mais s’il ne s’agit que de savoir manier de nouveaux objets, sans conscience, sans recul, et sans compétence ni curiosité pour en soulever les capots, alors nous nous mettons peut-être en danger[1].

Or, parmi ces nouveaux objets, il y a les logiciels, dont tout le monde aura noté la place croissante qu’ils occupent dans nos sociétés contemporaines. Nous écarterons d’autant plus facilement ce danger que nous serons toujours plus nombreux à accorder de la valeur à la liberté des logiciels.

C’est la thèse que défend ici Hugo Roy en évoquant, par analogie avec la démocratie, une approche systémique de la situation.

PS : Pour l’anecdote, il s’agit d’une traduction que nous avons entamée sans savoir qu’Hugo Roy était… français ! Du coup c’est la première fois qu’on se retrouve avec une traduction relue par l’auteur même de l’article d’origine !

Logiciel Libre, Société Libre : À propos de la Démocratie et du Hacking

Free Software, Free Society: Of Democracy and Hacking

Hugo Roy – 8 novembre 2009 – Blog de la FSFE
(Traduction Framalang : Gilles Coulais et Hugo Roy)

Lorsqu’on explique pourquoi le logiciel libre est important, une question revient souvent :
« Ai-je réellement besoin de la liberté du logiciel ? »

L’utilité de la liberté du logiciel n’est pas évidente pour tous. Tout le monde n’est pas capable de comprendre le code source d’un programme, et ils sont encore moins nombreux à pouvoir le modifier. Seuls les hackers et les développeurs peuvent en effet jouir pleinement des quatre libertés d’un logiciel libre. Il est alors difficile de convaincre quelqu’un d’abandonner le logiciel propriétaire pour le simple bénéfice de la liberté, tant qu’il ne comprend pas l’utilité de cette liberté.

Il est essentiel de penser ce problème non pas comme un simple engagement envers la liberté, mais plus comme un problème de systèmes.

Tout d’abord, ne pas jouir d’une liberté n’implique pas pour autant qu’on ne bénéficie pas des effets de cette liberté. L’analogie la plus évidente ici sont les systèmes politiques. La Constitution est à la souveraineté ce que la licence des logiciels libres est au droit d’auteur. La Constitution qui définit notre système politique donne à chaque citoyen des libertés et des droits, tel que le droit de se porter candidat à une élection.

Tout le monde peut se présenter à une élection, ce qui ne signifie pas pour autant que tout le monde le fera. Tout le monde n’a pas la compétence ou l’envie de devenir politicien. Cela étant, diriez-vous que la démocratie n’a aucune importance juste parce que vous ne souhaitez pas personnellement entrer en politique ? Je crois que la plupart des gens ne diraient pas cela.

C’est la même chose avec le logiciel libre. Chacun peut utiliser, partager, étudier ou améliorer le programme. Mais le fait que vous ne le ferez pas ne doit pas vous amener à penser que ce n’est pas important pour vous. C’est important pour le système lui-même. Et plus le système devient important, plus cette liberté prend de la valeur.

À moins, bien sûr, que vous ne partiez du principe que le logiciel n’est pas important, et par conséquent son degré de liberté également. Mais alors, je suggère que vous éteigniez votre ordinateur et que vous arrêtiez de me lire. Prenez un avion et passez le reste de votre vie sur une île déserte.

Regardons maintenant de plus près l’utilité de la liberté logicielle. Alors que de plus en plus de logiciels sont utilisés dans notre société pour faire toujours davantage, nous devrions être de plus en plus nombreux à être capables de comprendre le logiciel. Sauf à vouloir donner à certains un contrôle total sur vous-même. Et alors les autres façonneront le système à votre place, en vue d’obtenir toujours plus de pouvoir au sein de ce système.

C’est la raison pour laquelle nous avons besoin de démocratiser le hacking. Et cette démocratisation viendra naturellement si le logiciel libre est largement utilisé. Donnez aux gens la possibilité d’étudier et d’explorer quelque chose, et ils finiront par le faire, au moins par curiosité, de la même manière que l’Imprimerie a donné aux gens la volonté d’être capable de lire puis d’écrire. Il s’agit évidemment d’un long processus. Mais ce processus peut s’avérer beaucoup plus long si nous utilisons du logiciel propriétaire, un logiciel que vous ne pouvez ni lire, ni modifier, ni partager.

Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Notes

[1] Crédit photo : Glitter Feet (Creative Commons By)




La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)




Copyright Watch ou l’observatoire mondial et collaboratif du droit d’auteur

Copyright Watch - EFFHadopi aura non seulement contribué à intéresser un grand nombre de nos concitoyens sur un sujet autrefois chasse gardée des industries culturelles, mais elle aura également permis de mettre le focus sur la France (en refroidissant d’ailleurs peut-être certains autres gouvernements dans leur velléités d’en faire autant).

Or justement qu’en est-il exactement de la situation hors de nos frontières sur toutes ces questions autour d’un droit d’auteur[1] qui se trouve totalement bousculé par l’avènement des nouvelles technologies et pratiques en réseau qui en découlent ?

Force est de reconnaître qu’en dehors de notre propre pays et de celui, influence numérique oblige, des États-Unis, nous n’en avons bien souvent qu’une connaissance ponctuelle, partielle et parcellaire (même si des sites comme Numerama, FFII ou La Quadrature font de gros efforts pour nous tenir au courant, en particulier sur l’Europe).

C’est pourquoi la nouvelle initiative de l’Electronic Frontier Foundation est plus que bienvenue. Elle s’appelle Copyright Watch et vise à suivre et surveiller le droit d’auteur et ses évolutions dans chaque pays.

En effet, avoir ainsi à disposition eu un unique endroit des documents, liens et informations actualisées, indépendantes et localisées sur les législations en vigueur (ou en préparation) nous sera précieux pour étude, information, comparaison, action, etc.

Le projet débute à peine, il est pour ainsi en bêta actuellement. Le premier objectif étant de trouver des correspondants (NdT : des local copyright monitors) prêt à maintenir leurs informations nationales à jour. Une fois ceci réalisé nous serons alors en présence d’une ressource de référence nous permettant d’avoir une meilleure vue d’ensemble sur la situation internationale, pointant ici des lois liberticides et là des lois favorisant au contraire le partage et diffusion d’une culture des biens communs.

Une base de données d’autant plus bienvenue que tout le monde n’a pas forcément intérêt à ce que tout ceci soit facilement accessible 😉

Qu’est-ce que Copyright Watch ?

About Copyright Watch

Copyright Watch – Novembre 2009 – Traduction partielle de la page « About » du site
(Traduction Framalang : Siltaar et Goofy)

Avant, le détail des lois sur le droit d’auteur n’était important que pour une minorité travaillant dans les industries culturelles. Désormais, avec la croissance d’Internet, nous sommes tout concernés car nous sommes potentiellement tous des auteurs, éditeurs, et partageurs d’œuvres de création.

Notre rêve est ici de construire une ressource conviviale sur les lois nationales du droit d’auteur afin d’aider les citoyens du monde à entreprendre des recherches comparatives. Nous souhaitons en effet sensibiliser à l’importance d’un droit d’auteur équilibré dans la société de l’information, et attirer l’attention sur les points communs et les divergences dans l’approche législative des différents pays.

Nous avons aussi voulu créer un outil de partage d’information, où des correspondants locaux pourraient publier des informations à propos des amendements proposés sur leurs propres lois du droit d’auteur, et à comprendre les changements dans celles des autres.

Nous espérons que Copyright Watch sera une ressource maintenue et conduite par la communauté de l’accès au savoir (NdT : Access to Knowledge movement, c’est-à-dire nous tous si nous participons) et que ce système de veille sur le droit d’auteur dans chaque pays permettra de garder cette information pertinente et à jour.

Enfin, nous espérons que Copyright Watch aidera à documenter l’importance du droit d’auteur sur tous les aspects de la vie culturelle et des libertés fondamentales. Équilibrées et bien calibrées les lois sur le droit d’auteur sont extrêmement importantes dans notre société mondiale et mondialisée de l’information.

Le plus petit changement dans l’équilibre juridique entre les ayants droit et le public peut permettre ou détruire des modèles économiques, criminaliser ou libérer des comportements quotidiens, et transformer ou éradiquer de nouvelles technologies. Une loi qui est passée dans un pays peut rapidement être reprise par d’autres, par des accords commerciaux bilatéraux, des initiatives politiques régionales ou des traités internationaux.

Nous devons tous rester vigilants.

Notes

[1] Rappelons une nouvelle fois que le Copyright anglo-saxon n’est pas synonyme de Droit d’auteur (cf liens Wikipédia).




La neutralité du réseau – Benjamin Bayart – Extrait du livre La bataille Hadopi

La bataille Hadopi - InLibroVeritas - CC by-sa et Art Libre« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre choral d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

Notes

[1] Qui portent, bien entendu, atteinte à la liberté d’aller et venir, qui est elle aussi une liberté fondamentale.




Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.




Google se conjugue au futur et Microsoft au passé ?

Google sfida Microsoft con Chrome - Copyright Federico FieniOn le sait, Microsoft n’a pas vu venir le Web et ne porte pas le logiciel libre dans sa culture (c’est le moins que l’on puisse dire).

À partir de là comment s’étonner qu’un Google lui fasse aujourd’hui concurrence et menace demain d’attaquer frontalement ses deux plus beaux fleurons (et source colossale de revenus) que sont le système d’exploitation Windows et la suite bureautique MS Office.

Un Google qui a massivement investi dans le cloud computing, l’informatique dans les nuages, Un Google qui non seulement ne méprise pas le logiciel libre mais sait très bien l’utiliser quand ça l’arrange, par exemple pour faire s’y reposer son navigateur Chrome ou son prochain et très attendu Google OS (histore de boucler la boucle)[1].

À propos de Google OS, un petit coup de Wikipédia : « Google Chrome OS est un projet de système d’exploitation qui sera fondé sur son navigateur Web Chrome et un noyau Linux. À destination des netbooks dans un premier temps, il serait capable, à terme, de faire tourner des ordinateurs de bureau traditionnels. Google laisse à penser que son OS fonctionnerait en ligne sur tout ou partie, comme ses applications (Google Documents, Gmail, etc.). Après sa suite gratuite Google Documents concurrent de la suite payante Microsoft Office, puis Android face à Windows Mobile, ce nouveau système d’exploitation gratuit attaque le cœur du business Microsoft. »

La fin d’un cycle, si ce n’est d’une époque ?

Google est en compétition pour le futur; Microsoft, pour le passé

Google competes for the future; Microsoft, the past

Matt Asay – 23 octobre 2009 – CNET News
(Traduction Framalang : Poupoul2 et Goofy)

Google est né sur le Web, et provoque de plus en plus de quintes de toux chez Microsoft en contraignant le géant séculaire du logiciel à se battre en utilisant les règles de Google. Comme avec l’open source. Comme avec l’informatique dans les nuages.

Microsoft pourrait se reposer sur ses lauriers dans l’immédiat grâce au lancement réussi de Windows 7. Mais à long terme son plus grand succès que représentent ses vieux logiciels de bureautique menace de céder le marché à Google.

Ce n’est pas très équitable pour Microsoft. Microsoft est victime de son propre succès, en ayant besoin de s’adresser à sa clientèle existante à chaque nouvelle version, coincé qu’il est par le « dilemme de l’innovateur ». Microsoft continue de remplir ses caisses, mais ses deux derniers trimestres ont vu ses forces traditionnelles telles que le système d’exploitation Windows devenir un frein pour ses revenus, tandis que les entreprises dépensent toujours plus d’argent auprès de Google, Red Hat et quelques autres.

L’absence d’héritage de Google lui permet d’innover rapidement à large échelle, comme le suggère Todd Pierce, directeur technique de Genentech et client de Google :

Le rythme d’innovation de Google…, enfin bon, le cycle de production d’Oracle, SAP et Microsoft est de cinq ans, celui de Google est de cinq jours. C’est incrémental. En cinq jours, vous ne pouvez pas supprimer toutes vos licences de Microsoft Office, mais d’ici cinq ans, vous n’aurez plus de Microsoft Office.

Microsoft, de son côté, est tellement préoccupé par la compatibilité ascendante, « Ce produit ou cette fonctionnalité sont-ils compatibles avec notre capacité à monétiser notre monopole sur la bureautique des années 80 ? », qu’ils continuent à se battre pour comprendre le Web. Dave Rosenberg, blogueur sur CNET, note que Windows 7 aurait dû être la tête de pont de Microsoft sur l’informatique dans les nuages, mais qu’il n’en a rien été.

Il y a beaucoup de « aurait dû être » chez Microsoft, lorsqu’on parle du Web.

Dans l’intervalle, personne ne ralentit pour attendre Microsoft. Arrêtons-nous un instant sur l’informatique dans les nuages. VMware domine la virtualisation, et a de grandes ambitions dans l’informatique dans les nuages, alors que les rivaux open source Eucalyptus et VMops menacent de contester la suprématie de VMware et Microsoft, en cherchant à dominer l’informatique dans les nuages.

Et arrive alors Google, qui fournit une gamme de services d’informatique dans les nuages toujours plus large aux entreprises qui cherchent à se détacher de l’ordinateur de bureau. Dans une interview donnée à CNET News, Eric Schmidt, PDG de Google, soutient que le navigateur peut être à la fois orienté entreprise et consommateur. L’architecture est dirigée par le navigateur. C’est toute l’histoire de l’informatique d’entreprise actuelle.

En d’autres termes, le bureau est simplement un moyen pour l’utilisateur de lancer son navigateur. C’est une passerelle. Il n’y a plus de valeur dans le bureau. Elle se trouve dans le navigateur, qui devient le nouveau bureau, en termes de fonctionnalités réelles disponibles

La meilleure opportunité pour Microsoft de contrecarrer la menace de Google et des autres s’appelle SharePoint. Le PDG de Microsoft, Steve Ballmer, l’a décrit comme le nouveau système d’exploitation de Microsoft, mais ce n’est que dans un entretien récent avec Forrester qu’il lui a donné tout son sens :

Dans mon esprit, je compare SharePoint au PC, le PC est venu à la vie comme machine à tableau, puis est devenu une machine à développer, une machine à traiter du texte, SharePoint est une infrastructure à objectif global qui connectera les gens aux gens, et les gens à l’information…

Je crois que SharePoint est considéré par les administrateurs informatiques et les développeurs comme une plateforme de développement très sérieuse pour les développement rapide d’application (NdT : RAD, Rapid Application Development).

SharePoint est la meilleure tentative de Microsoft pour connecter les applications de bureau telles qu’Office, avec des outils collaboratifs et de stockage centralisé ou dans les nuages. Bien sûr, Microsoft a d’autres initiatives telles qu’Office en ligne, mais aucune ne marie aussi bien ses centres de profits historiques et l’innovation future.

SharePoint pourrait alors être le meilleur espoir de Microsoft pour marier son héritage à la future informatique en ligne.

Microsoft a besoin de cela. Ils perdent dans le marché des mobiles, et pas uniquement face à Apple. Android, le système dédié de Google, est déjà efficient et opérationnel, avec par exemple ses données AdMob qui situent aujourd’hui la pénétration des smartphones Android à 10 % au Royaume Uni.

Si nous prenons l’hypothèse que le mobile sera de plus en plus une plateforme de choix pour le client, alors nous voyons Google harceler Microsoft par le haut (les nuages de services) et par le bas (le client).

Dans les deux cas, l’open source est une arme de choix pour Google, et c’en est une que Microsoft va devoir comprendre rapidement s’ils veulent devenir un acteur de poids sur le Web. Le Web est trop grand pour que Microsoft le contrôle, et le Web est incroyablement open source, tel que le remarque Mitch Kapor, fondateur de Lotus :

La victoire de l’open source est qu’il constitue le fondement du Web, la partie invisible, celle que vous ne voyez pas en tant qu’utilisateur.

Les majorité des serveurs utilisent Linux comme système d’exploitation avec Apache comme serveur Web sur lequel tout le reste est construit. Les principaux langages sur lesquels les applications Web sont construites, qu’il s’agisse de Perl, de Python, de PHP ou de n’importe quel autre langage, sont tous open source. Donc l’infrastructure du Web est open source. Le Web tel que nous le connaissons est totalement dépendant de l’open source.

Kapor suggère que la guerre que Microsoft livre à l’open source est terminée, ou devrait l’être : l’open source a gagné. Il s’agit désormais d’une infrastructure essentielle, et quelque chose que Microsoft doit arriver à comprendre, plutôt que de le combattre. Il ne s’agit pas de « religion open source », il ne s’agit que de pragmatisme. Un pragmatisme que Microsoft peut s’approprier aussi bien que n’importe qui d’autre.

Google utilise le futur (l’open source, les nuages) pour se battre pour l’avenir, et ses tactiques menacent de frapper Microsoft au cœur de ses vaches à lait tels que Windows.

Microsoft, cependant, semble être embourbé dans son passé. Windows 7 a l’air d’une mise à jour sérieuse de son prédécesseur Vista, mais dans dix ans, cela aura-t-il une importance pour nous ? Peut-être aurons-nous changé, oubliant ces jours pittoresques où nous nous soucions du système d’exploitation et des applications telles qu’Office ?

Notes

[1] Crédit illustration : Copyright Federico Fieni




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.