Internet ne peut pas être contrôlé, autant s’y faire – par Laurent Chemla

Evil Erin - CC byOn trouve un article puissant et inédit de Laurent Chemla en ouverture (ou prolégomènes) du tout récent framabook AlternC Comme si vous y étiez.

Historiquement, techniquement, économiquement et moralement, Internet ne peut pas être contrôlé[1].

Autant s’y faire. Et, contrairement à d’autres, nous nous y faisons très bien 😉

Pour rappel toute l’équipe l’AlternC vous attend à La Cantine lundi 28 mars prochain (de 19h à 22h) pour fêter simultanément la sortie du livre, les dix ans d’AlternC et la version 1.0 du logiciel !

Remarque : Ce n’est pas le premier article de Chemla que nous reproduisons sur le Framablog (cf L’avenir d’Internet). Par ailleurs je le remercie de m’avoir ouvert les yeux en 1999 avec Internet : Le yoyo, le téléporteur, la carmagnole et le mammouth.

Internet ne peut pas être contrôlé, autant s’y faire

Laurent Chemla – juillet 2010 – Licence Creative Commons By-Sa

Plus que jamais, à l’heure où j’écris ces lignes, Internet est la cible des critiques du pouvoir. Il serait responsable de toutes les dérives, de toutes les ignominies, il nous ramènerait aux pires heures de notre histoire et serait le lieu de toutes les turpitudes.

Bon. Depuis longtemps, je dis qu’il est normal – de la part de ceux qui disposaient de l’exclusivité de la parole publique – de s’inquiéter de l’avènement d’un outil qui permet à tout un chacun de s’exprimer. Pas de quoi s’étonner, dès lors, des attaques furieuses que subit le réseau.

Tant qu’il ne s’agit que de mots…

Oh bien sûr, le législateur étant ce qu’il est, il tente souvent d’aller au delà des mots. Il fait aussi des lois. C’est son métier.

Or donc – sans volonté d’exhaustivité – nous avons vu depuis 1995 un certain nombre de tentatives de « régulation », de « contrôle », voire même de « domestication ». Il y a eu la loi Fillon, la commission Beaussant, la LCEN, la DADVSI, la LSI, la LSQ, et plus récemment HADOPI et LOPPSI. Beaucoup d’acronymes et de travail législatif pour un résultat plus que mince : ce qui n’a pas été retoqué par le Conseil Constitutionnel s’est toujours avéré inapplicable.

La seule chose qui reste, c’est le principe d’irresponsabilité pénale des intermédiaires techniques (LCEN). Grand succès !

On pourrait imaginer que le pouvoir apprendrait quelque chose d’une telle suite d’échecs. On pourrait penser, par exemple, qu’il mesurerait le risque de vouloir créer des lois d’exceptions selon qu’on s’exprime sur Internet ou ailleurs. Que nenni : aujourd’hui encore, j’apprends qu’une député vient de se ridiculiser en proposant d’encadrer le journalisme « en ligne ».

J’ai hâte. On en rigole d’avance.

Mais qu’est qui rend Internet si imperméable à ces tentatives réitérées de contrôle ? J’y vois (au moins) quatre raisons majeures :

La première (dans tous les sens du terme) est historique. À la demande de l’armée américaine, qui souhaitait trouver une parade au risque d’une attaque nucléaire contre son réseau de télécommunication, Internet a été inventé à la fin des années 1960 (dans l’Amérique de Woodstock et de la lutte contre la guerre du Vietnam) par de jeunes universitaires qui rêvaient d’un monde dans lequel l’accès à un réseau mondial de communication serait un droit pour tous (pour que son impact social soit positif)[2].

À l’époque de Mac Luhan, les bases théoriques du futur réseau sont toutes influencées par l’utopie du « village global » et teintées d’idéologie libertaire. Le principe selon lequel la rédaction d’une RFC (texte définissant un des standards d’Internet) doit être ouverte à tous, scientifique ou non – et son contenu libre de droit – est adopté en avril 1969.

Quoi d’étonnant dès lors si le résultat est un réseau presque entièrement décentralisé et non hiérarchique ? Après tout, c’est bien ce que l’armée américaine avait demandé à ses jeunes ingénieurs : un réseau centralisé est facile à détruire (il suffit d’attaquer le centre).

Tout ce qui est facile à contrôler est facile à détruire.
Internet est difficile à détruire.
Donc Internet est difficile à contrôler.

Il faudrait, pour qu’Internet soit plus aisément « domestiquable », que ses bases théoriques mêmes soient revues (à l’exemple du Minitel pour lequel l’émission de contenus était soumise à l’approbation préalable de France Telecom). Mais comment démanteler l’existant et interdire l’utilisation d’une technologie ayant fait ses preuves à tous ceux qui l’ont adoptée depuis des années ?

Et surtout – c’est la seconde raison qui fait d’Internet un bastion dont la prise semble bien difficile – le réseau est international.

On peut, même si c’est difficile à envisager, imaginer qu’un pays impose à ses citoyens l’usage d’une technologie « contrôlée » plutôt qu’une autre, trop permissive. Mais quel pouvoir pourrait faire de même à l’échelle du monde ?

Et comment, dès lors qu’il existerait ne serait-ce qu’un seul endroit dans le monde qui protège la liberté totale de communication (comme c’est le cas depuis peu de l’Islande), empêcher les citoyens et les entreprises du monde entier d’exporter dans ce lieu une communication désormais dématérialisée ?

Pour y parvenir, il faudra non seulement pouvoir contrôler tel ou tel réseau imaginaire, mais aussi réussir à interdire toute communication internationale… Mission impossible. Et puis, comment imaginer la fin des « paradis numériques » dans un monde qui n’a jamais réussi à obtenir celle des paradis fiscaux ?

Internet est supranational.
Il existera toujours des paradis numériques.
Donc l’information ne pourra jamais être contrôlée.

D’autant plus – et c’est la troisième raison majeure qui rend dangereuse toute tentative de contrôle des réseaux – qu’Internet est devenu désormais une source de croissance non négligeable. Une croissance qui dépend d’une législation pérenne et qui surtout va faire l’objet d’une concurrence effrénée entre les pays.

On n’imagine pas aujourd’hui une grande entreprise, telle que Google ou Facebook, avoir son siège social dans un pays dont la fiscalité n’est pas, disons, encourageante. Comment imaginer que demain une entreprise innovante, source d’emplois et d’impôts, se créera dans un pays dont la législation imposerait un contrôle trop strict de l’information diffusée ?

Tout contrôle nécessite une infrastructure plus chère, tant humaine que technique. Il va de soi qu’une entreprise capitaliste choisira plutôt, si elle a le choix, le pays d’accueil dont la législation numérique sera la plus laxiste, qui récupérera du coup les emplois et les impôts (et je ne dis pas que c’est bien : je dis juste que c’est dans ce monde là qu’on vit).

Et même avant d’en arriver là : imaginons qu’un pays impose le filtrage à la source de tout contenu illégal (en passant outre la difficulté technique inhérente). Quel entrepreneur de ce pays osera se lancer dans un nouveau projet novateur, sachant qu’il sera immédiatement copié par un concurrent vivant, lui, dans un paradis numérique et qui ne sera pas soumis aux mêmes contraintes ?

Internet est solide, c’est vrai, mais l’innovation reste fragile, et est souvent l’oeuvre de petites structures très réactives et pécuniairement défavorisées. Les lois votées à l’emporte-pièces sans tenir compte de cette fragilité-là sont autant de balles tirées dans le pied de la société toute entière.

La concurrence est mondialisée.
Une législation de contrôle coûte cher.
Donc les lois de contrôle d’Internet sont source de délocalisation.

Malgré tout il existe bel et bien des règles de vie supranationales et qui s’imposent à tout pays se voulant un tant soit peu démocratique. Mais si.

Je vais citer ici l’article 19 de la Déclaration Universelle des Droits de l’Homme. Lisez-la bien :

« Tout individu a droit à la liberté d’opinion et d’expression, ce qui implique le droit de ne pas être inquiété pour ses opinions et celui de chercher, de recevoir et de répandre, sans considérations de frontières, les informations et les idées par quelque moyen d’expression que ce soit ».

Elle a été rédigée en 1948. Bien avant Internet, même si à la lire on a l’impression qu’elle a été écrite spécialement pour lui. Car en effet, il n’existait pas grand chose, avant Internet, pour « recevoir et répandre sans considération de frontière les informations et les idées ». Il faut croire que ses rédacteurs étaient visionnaires…

Comment s’étonner, à la lecture de cet article, du nombre de censures que notre Conseil Constitutionnel a opposé aux diverses velléités de contrôle que le pouvoir a tenté d’imposer depuis 15 ans ?

Le droit de recevoir et diffuser de l’information est inaliénable.
Internet est à ce jour l’unique moyen d’exercer ce droit.
Donc tout contrôle d’Internet risque d’être contraire aux droits de l’homme.

Sauf à s’exonérer des grands principes fondamentaux, et donc à vivre dans une société totalitaire, le contrôle ou le filtrage d’Internet se heurtera toujours à la liberté d’expression. Les états peuvent l’accepter, et à l’instar de l’Islande décider d’en profiter, ou refuser de le voir et, à l’instar de la France, se heurter sans cesse à un mur en essayant encore et encore de réguler ce qui ne peut l’être.

Historiquement, techniquement, économiquement et moralement, Internet ne peut pas être contrôlé.

Autant s’y faire.

Notes

[1] Crédit photo : Evil Erin (Creative Commons By)

[2] J.C.R Licklider et Robert Taylor, The Computer as a Communication Device in Science and Technology, April 1968.




Une France qui s’annonce terrifiante pour Internet et les libertés numériques

Fabrice Epelboin nous révèle aujourd’hui que ReadWriteWeb met fin à ses éditions européennes, avec toutes les questions que cela pose quant au devenir et aux archives de la version française de RWW.

C’est le risque lorsque l’on dépend d’une maison mère américaine et que les articles n’ont jamais eu l’honneur d’une licence Creative Commons (sauf justement ce dernier billet où Epelboin à décidé de s’affranchir de la tutelle dans un dernier baroud d’honneur).

Notez bien que pareille mésaventure peut arriver à tous ceux qui placent du contenu sur Facebook, Twitter ou Google (autant dire à tous le monde). Puisque en vous inscrivant à ces services vous adhérez à des conditions dont il est bien stipulé qu’elles peuvent changer à tout moment si le propriétaire en décide ainsi. Par exemple si les actionnaires de ces sociétés décident d’en modifier le modèle économique CQFD.

Merci au passage à Fabrice Epelboin[1] et à RWW France pour la pertinence et la pugnacité de leurs informations, reportages et analyses (cf l’excellente compilation Chroniques de l’Infowar 2010 De l’Hadopi à Wikileaks à conserver au cas où). Nous n’étions pas de trop pour tenter d’apporter un autre son de cloche face à des institutions publiques et privées qui ont la fâcheuse tendance à prendre le Net et les nouvelles technologies par le mauvais bout de la lorgnette.

Mais ce qui m’a le plus marqué c’est la conclusion du billet. Un peu comme si l’auteur s’était lâché en livrant véritablement le fond de sa pensée. Et cette pensée est d’autant plus pro-fonde que le gus sait de quoi il parle :

« Les temps qui viennent en France sont terrifiants pour internet et les libertés numériques. Du point de vue des lois qui s’y appliquent, nous ne sommes plus, sur l’internet Français, dans une démocratie.

Avec quelques gus dans un garage, nous avons réussi a sensibiliser pas mal de monde à ce problème, mais force est de reconnaître que nous avons, au mieux, mis des bâtons dans les roues d’un char d’assaut qui écrase toutes les velléités de liberté sur internet, et veut le civiliser comme il a colonisé hier ceux qu’il qualifiait de sauvages.

Un autre monde est possible, mais en France, ça va prendre du temps. Une fois de plus, le pays va prendre un retard considérable en matière de numérique, au point que sa place dans le monde de demain est désormais totalement compromise, mais ça, même sans comprendre quoi que ce soit à la neutralité du net ou aux enjeux sociétaux d’Hadopi et de Loppsi, vous avez du vous en apercevoir. »

Aux dernières nouvelles Fabrice Epelboin s’en irait rouler sa bosse en Tunisie. Parce qu’il souhaite désormais « construire avec » et non plus « lutter contre ».

Il reste une place dans l’avion ?




Avec Open Mesh les humains sont les routeurs (et sauvent les révolutions)

Tanakawho - CC byAyant tiré ses propres conclusions de la révolte tunisienne, l’Égypte décida, le 28 janvier dernier, de couper Internet pour neutraliser les moyens de communication et ainsi contrecarrer les manifestations anti-Moubarak.

Et tout d’un coup, ce qui était un extraordinaire avantage devint une formidable faiblesse.

Comment faire dès lors pour se prémunir d’une telle décision radicale et continuer à assurer l’un des droits de plus en plus fondamental de ce nouveau millénaire ?

Comme pour la Freedom Box, une piste de solution est à rechercher du côté du réseau maillé avec l’originalité de jouer nous-mêmes le rôle de routeurs Internet[1] :

« L’idée fondatrice d’OpenMesh est que nous puissions utiliser de nouvelles techniques pour créer un réseau Internet secondaire dans les pays comme la Libye, la Syrie, l’Iran, la Corée du Nord et d’autres régimes répressifs dans lesquels les citoyens ne peuvent pas communiquer librement. En créant des routeurs mobiles qui se connectent entre eux, nous pourrions créer un réseau auquel les téléphones portables et les ordinateurs personnels se connecteraient. La première priorité serait de relier les personnes entre elles, la seconde de les relier au reste du monde. Sur un second front, nous pourrions utiliser des connexions intermittentes par satellite afin que les citoyens de ces pays puissent mettre en ligne et télécharger des informations avec le reste du monde… »

Les humains sont les routeurs

Humans are the routers

Shervin Pishevar – 27 février 2011 – Techcrunch.com
(Traduction Framalang : Naar, Pandark et Goofy)

Le 7 janvier 2010, j’étais convié à un petit dîner privé avec la secrétaire d’État Hillary Clinton au département d’État avec l’inventeur de Twitter, Jack Dorsey, Eric Schmidt, le PDG de Google et quelques autres. Nous étions là pour parler des technologies et des questions diplomatiques du XXIe siècle. Au cours de la discussion, j’ai remarqué près de moi la petite table sur laquelle Thomas Jefferson rédigea le premier jet de la Déclaration d’Indépendance. J’étais inspiré par l’Histoire qui nous entourait pendant que nous discutions de celle qui s’ouvrait devant nous. Je faisais face à Mme Clinton quand elle m’a posé une question à laquelle j’ai répondu : « Madame la Secrétaire d’État, le dernier bastion de la dictature est le routeur ». Cette soirée a fait germer certaines des idées au cœur de l’important discours de la secrétaire d’État au sujet des libertés sur Internet le 21 janvier 2010.

Passons directement, quasi un an plus tard,au 25 janvier 2011 — un jour qui devait marquer l’Histoire aux côtés de dates comme le 4 juillet 1776. La décision de l’Égypte de bloquer entièrement Internet et le réseau de télécommunications mobiles a été l’une des premières salves dans une guerre de munitions électroniques. Sur ce nouveau front, les humains sont les routeurs, et armés des nouvelles technologies, ils ne pourront plus jamais être bloqués ni réduits au silence.

J’étais debout depuis des jours, partageant et tweetant les informations au fur et à mesure de leur apparition. J’avais deux amis proches en Égypte, qui me transmettaient des informations quand ils le pouvaient. Le jour où l’Égypte a bloqué Internet et le réseau mobile, je me suis souvenu de ce que j’avais dit à la secrétaires d’État Clinton. La seule ligne de défense contre le filtrage et le blocage par un gouvernement des communications et de la coordination entre ses citoyens via les réseaux de communication était de créer un nouveau type de technologies de communication que les gouvernements auraient du mal à bloquer : un réseau maillé, sans fil, dédié. J’ai appelé cette idée OpenMesh et l’ai tweettée.

Au cours des heures qui ont suivi, grâce au travail commun des volontaires, le projet OpenMesh prenait forme, avec un nom de domaine, un site web et un forum. Un volontaire, Gary Jay Brooks, tech-entrepreneur du Michigan, s’est proposé comme directeur bénévole pour coordonner le travail. Une autre société au Canada a offert bénévolement des spécifications pour un mini-routeur mobile pouvant être dissimulé dans une poche, et dont la fabrication ne nous coûterait que 90 dollars par unité. Un autre pionnier des communications s’est manifesté pour faire don d’importants brevets dans ce domaine.

L’idée fondatrice d’OpenMesh est que nous puissions utiliser de nouvelles techniques pour créer un réseau Internet secondaire dans les pays comme la Libye, la Syrie, l’Iran, la Corée du Nord et d’autres régimes répressifs dans lesquels les citoyens ne peuvent pas communiquer librement. En créant des routeurs mobiles qui se connectent entre eux, nous pourrions créer un réseau auquel les téléphones portables et les ordinateurs personnels se connecteraient. La première priorité serait de relier les personnes entre elles, la seconde de les relier au reste du monde. Sur un second front, nous pourrions utiliser des connexions intermittentes par satellite afin que les citoyens de ces pays puissent mettre en ligne et télécharger des informations avec le reste du monde. OpenMesh se veut un lieu d’échange d’informations pour connecter les meilleures idées existantes et mettre les outils entre les mains de tous.

Le réseau OpenMesh est un type de réseau au sein duquel chacun des nœuds reliés au réseau peut agir comme un routeur indépendant ou un dispositif intelligent, qu’il dispose ou non d’une connexion à Internet. Les réseaux maillés sont incroyablement robustes, avec des connexions continues qui peuvent se reconfigurer autour de chemins brisés ou bloqués en « sautant » de nœud en nœud jusqu’à ce que la destination soit atteinte, comme un autre appareil sur le réseau ou une liaison vers Internet. Quand un accès local à Internet est disponible, ils peuvent augmenter le nombre de personnes capables de s’y connecter. Lorsqu’il n’y en a pas, les réseaux maillés peuvent permettre aux personnes de communiquer ensemble même si les autres formes de communication électronique sont hors d’usage. Les dispositifs sont compatibles avec la plupart des ordinateurs équipés du wifi et fonctionnent sur les systèmes Microsoft Windows, Apple OS X et Unix existants, ainsi que les appareils mobiles iPhone et Android. Un réseau open source offre de plus une solution adaptable qui engage des frais réduits tout en évitant les erreurs du passé et les verrous des constructeurs. Combinés à du matériel ouvert, ces réseaux rendent plus facile une maintenance évolutive et leur amélioration sur le long terme.

Nous allons établir, construire, soutenir et distribuer un firmware Mesh open source qui permettra aux citoyens du monde de communiquer sans téléphone ni câblo-opérateur. Le produit brut d’OpenMeshProject.org sera libre et gratuit à télécharger et utiliser. La technologie sera distribuée et maintenue comme projet open source GPL v2. Cela signifie que tout le monde peut utiliser ou modifier le logiciel. Notre travail en tant que communauté sera de soutenir le projet. Nous aiderons à créer des standards. Nous aiderons les communautés à créer des réseaux maillés. Nous ferons pression sur les fabricants d’équipement pour qu’ils rejoignent l’initiative du Projet Open Mesh. L’idée tourne entièrement autour de la technologie sans fil qui nous permettra de communiquer ensemble sans ligne, ni câble, ni fibre. Nous construirons un réseau privé capable de couvrir des pays entiers. Nous donnerons le pouvoir aux citoyens de demain. Au final, une grand-mère pourra trouver ce disque dans la rue, rentrer à la maison, installer le CD dans son ordinateur portable et rejoindre le réseau maillé en deux clics. Après quoi elle commencera à voir les autres sur son réseau, à cliquer pour y appeler d’autres membres, rejoindre des conversations multi-utilisateurs ou chercher des amis en ligne pour discuter. Nous, en tant que communauté d’OpenMeshProject.org, faciliterons la construction et le soutien de ce projet. Nous construirons tous ensemble un maillage. Nous inviterons les gens à participer et à proposer de nouvelles innovations. En travaillant ensemble, nous pouvons assurer les communications qui seront nécessaires demain.

La liberté de communiquer fait partie de nos droits fondamentaux. Le XXIe siècle sera défini par le principe qu’aucun gouvernement, aucun pouvoir ne devra jamais bloquer ni brider le droit de tous les hommes et femmes de communiquer ensemble. Mon rêve le plus cher, c’est que de mon vivant, les dictatures soient bannies de cette planète et qu’une véritable démocratie non limitée fleurisse partout. Il est temps que cessent nos marchés faustiens avec les dictateurs brutaux pour des intérêts à court terme et qu’ils soient remplacés par une nouvelle alliance avec les citoyens du monde entier qui recherchent la liberté. OpenMesh est un premier pas qui aidera à créer un monde où une telle alliance pourra se maintenir, un monde où les personnes courageuses armées de ces nouveaux outils ne pourront plus jamais être contraintes ni muselées.

Note de l’éditeur : L’auteur invité Shervin Pishevar est le fondateur du projet OpenMesh et de SGN, ainsi qu’un Business angel actif.

Notes

[1] Crédit photo : Tanakawho (Creative Commons By)




Raleigh, Montréal… quelle sera la première ville Open Source du monde ?

Open Source CityDeux traductions pour s’interroger ensemble sur le concept de « ville Open Source ».

Il s’agit de voir ici la ville comme une plateforme, une plaque tournante, un incubateur, bref un lieu privilégié où peuvent s’épanouir les entreprises et start-up qui placent l’open source au cœur de leur stratégie et de leur développement.

Les villes de Raleigh (USA) et Montréal (Canada) souhaitent apparemment poser candidature et ont, semble-t-il, de bons arguments.

Encore faudrait-il définir ce qu’est ou peut être une « ville Open Source », et se demander si il est pertinent de vouloir créer, favoriser ou labelliser de telles villes[1].

L’un des auteurs nous propose ainsi trois critères : la volonté de partager, la volonté d’être informé, et une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Et en France, me direz-vous ? Cela bouge du côté de l’Open Data (Rennes, Paris…) mais au delà, je ne sais pas. Des avis et des liens sur la question ?

PS : Nous avions déjà évoqué la chose dans un billet sur une autre ville canadienne Vancouver : S’il te plaît… dessine-moi une ville libre.

1. Raleigh, Caroline du nord – la première ville open source au monde

Raleigh, NC—the world’s first open source city

Jason Hibbets – 21 février 2011 – OpenSource.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

J’ai commencé à méditer sur les qualités qui devaient définir une ville open source il y a quelques mois, quand mon ami Tom Rabon m’en a fait mention au détour d’une conversation. J’étais curieux de voir de quelle façon la ville dans laquelle j’habite, Raleigh, en Caroline du nord, pouvait attirer d’autres entreprises open source et en être un incubateur mondial, pour en devenir un exemple phare de gouvernance. Comment Raleigh pouvait-elle devenir la capitale du monde de l’open source, à l’instar de ce que sont la Silicon Valley pour la technologie et Paris pour la romance ?

Je pense que la réponse peut être trouvée à la fois par le gouvernement et par la population. D’abord, nos dirigeants doivent être partants pour adopter l’open source au quotidien. Ils doivent faire preuve de transparence dans leur gestion des affaires et dans l’encouragement à la participation citoyenne. Les citoyens, quant à eux, doivent être prêts à participer et à contribuer en donnant de leur temps et de leurs connaissances. Les deux ont besoin d’adopter un prototypage rapide pour explorer de nouvelles idées et des solutions innovantes.

Mais en quoi Raleigh se distingue-t-elle des autres villes ? En quoi est-elle plus apte à être une ville open source que New York, San Francisco, Londres, Paris ou Pékin ? J’ai rencontré autour d’une table le maire de Raleigh, Charles Meeker, pour discuter de ce qui faisait qu’une ville pouvait devenir open source.

Le maire Meeker a été élu en 2001 et s’est familiarisé avec l’open source, principalement en s’intéressant à Red Hat et au modèle de développement open source. En tant qu’avocat, il n’est pas étonnant que le maire Meeker comprenne les avantages de la collaboration et du partage des connaissances. Voyons pourquoi la ville de Raleigh est prête à revendiquer son titre de première ville open source au monde.

Quel grand chantier, en dehors de la technologie, a la meilleure chance d’être abordé par la voie open source (c’est-à-dire au moyen de la collaboration, de la transparence, du partage, de la méritocratie, du prototypage rapide, d’une communauté, etc.) ?

Dans une zone de la ville de Raleigh, l’accent a été mis sur l’utilisation d’un éclairage plus éco-énergétique dont nous pouvons mesurer les résultats. Nous nous activons à la promotion et au partage de nos expériences avec les autres municipalités, notamment pour tester notre consommation d’électricité et la qualité de la lumière produite. Le partage de cette information est un élément majeur de notre expérience.

La ville de Raleigh dispose de quarante installations en LED avec une économie moyenne de 200 000 €/an sur les coûts en électricité. Le retour sur investissement est généralement de l’ordre de 3 à 5 ans (en considérant les coûts du capital). C’est une excellente option pour les parkings éloignés. Vous pouvez facilement installer quelques panneaux solaires et ne pas avoir à ajouter de nouvelles lignes ou changer d’infrastructure. La possibilité pour les villes du monde entier d’adopter l’éclairage éco-énergétique est une véritable chance qui s’offre à elles. La ville de Raleigh veut prendre part à l’aventure et être reconnue comme précurseur dans l’adoption de cette technologie. Propager la bonne parole sur l’éclairage par LED avec l’aide de notre partenaire, Cree, est important pour nous.

Quelles sont vos réflexions à propos d’un gouvernement ouvert ou gouv’ 2.0 et que peut faire la ville de Raleigh pour avoir un gouvernement plus ouvert et transparent vis-à-vis de ses citoyens ?

Tout d’abord, toutes nos réunions sont ouvertes au public, à quelques exceptions près. Le véritable défi est de savoir profiter de l’expertise de chacun de nos citoyens. Il y a beaucoup de compétences de haut niveau qui peuvent servir à résoudre les vrais problèmes de la ville.

Une solution se situe au niveau des nouveaux comités, comme le nouveau comité ferroviaire que nous avons mis en place, et la façon dont leurs conseils et leurs recommandations sont pris en compte par la ville. Les questions autour des frais de gestion des eaux pluviales nous ont conduits à puiser dans l’expertise de nos citoyens pour apporter les meilleures solutions.

Le ferroviaire est un domaine qui sera opérationnel pour les 3 ou 4 prochaines années. Nous avons beaucoup de personnes expérimentées dans ce domaine prêtes à partager leur savoir et à mettre en application leurs connaissances pour aider à prendre les futures décisions.

Montrer au public ce que nous faisons et expliquer les bonnes pratiques sont des atouts qui restent sous-utilisés, mais nous avons eu du succès, notamment quand le comité de gestion des eaux pluviales a fait part de son avis sur la façon de mieux gérer les inondations. Le conseil municipal a ainsi été en mesure de mettre à profit l’expertise du comité pour prendre les meilleures mesures politiques à ce sujet.

Quelles sont les qualités requises pour devenir une ville open source ?

Trois critères me viennent à l’esprit :

  • la volonté de partager ;
  • la volonté d’être informé ;
  • une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Les citoyens doivent se tenir prêts à adopter le futur. L’open source est une stratégie que nous appliquons pour aller de l’avant.


Pourquoi Raleigh s’est amorcée à devenir la première ville open source au monde ?

Nos citoyens sont prêts faire avancer Raleigh et à être plus concentrés sur la démarche open source. Raleigh est disposée à devenir son incubateur mondial.

L’avantage de Raleigh se situe au niveau de sa croissance et des emplois. Nous aimerions voir le Centre des congrès accueillir plus de conférences sur l’open source. Nous serions honorés de voir un tas de petits Chapeaux Rouges (NdT : référence faite à la distribution GNU/Linux Red Hat), et que des start-up et sociétés bien établies viennent dans notre région parce que nous avons fait le choix de ce modèle de développement.

Les partenaires sont aussi une grande partie de la réponse. Le Centre des congrès, le Syndicat d’Initiative, la Chambre du Commerce et les autres partenaires doivent adopter l’open source et le mettre en évidence dans le cadre de notre stratégie de développement économique.

Comment mettre en œuvre la démarche open source dans votre vie quotidienne ?

Au cabinet juridique pour lequel je travaille, j’ai essayé de fournir des informations à de jeunes avocats. Une sorte de partage des secrets commerciaux pour les aider à réussir plus rapidement, et, pour être franc, l’une des choses les plus difficiles pour toute personne de la fonction publique, c’est l’écoute. J’ai remarqué que l’écoute représente 70 à 80 % du travail. Vous devez pleinement comprendre ce qu’il se passe pour prendre la décision adéquate.

2. Montréal peut-il devenir un incubateur de start-up open source ?

Can Montreal Become an Open Source Startup Hub?

Evan Prodromou – 21 février 2011 – NextMontreal.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

« Le premier prix est une Cadillac El Dorado. Le deuxième prix est un lot de couteaux à viande. Le troisième prix est votre licenciement. »- Blake, Glengarry Glen Ross

Seth Godin indique, dans son fabuleux ouvrage The Dip (NdT : Un petit livre qui vous enseignera quand renoncer et quand persévérer), que la seule position qui compte dans les affaires, c’est la première. Quand les lois du pouvoir et les effets de réseau sont nécessaires, la première place du classement est la seule où il faut être. Vous devrez être « le meilleur du monde » dans quelque chose, ou bien vous feriez mieux de laisser tomber et de faire autre chose.

Les écosystèmes technologiques – la plupart des marchés d’affaires, en fait – ont des effets de réseau, et cela veut dire que la seule position à avoir, en tant qu’écosystème, est la première. Être le meilleur au monde.

Quelle est la zone la mieux classée au monde dans les start-up du Web ? La baie de San Francisco. Quelle est la deuxième ? Probablement New-York City. Qui a le troisième prix ? Qui s’en soucie ? Le troisième prix, c’est votre licenciement.

Si nous nous soucions de la croissance de notre écosystème local, peut-être que nous aurions besoin d’arrêter notre course à la 14e ou la 29e place du classement dans le monde des start-up orientées Web et réfléchir à construire quelque chose d’autre. Un domaine dans lequel nous serions les meilleurs et sur lequel personne d’autre n’a encore vraiment travaillé. Là où nous pourrions être les meilleurs au monde – pas les 14e, pour ensuite laisser tomber.

Montréal a la capacité d’offrir le meilleur écosystème au monde pour les start-ups centrées sur le développement de logiciels open source. Nous fournissons un bon cadre pour les entrepreneurs qui ont de l’expérience dans la mise en place d’entreprises tournées vers ce secteur économique, nous avons des investisseurs qui ont bien compris le processus d’investissement et d’encouragement de ce type de compagnies et nous avons un très précieux vivier de talents qui ont contribué à cette évolution.

Plus important, il n’y a aucune autre ville autant tournée vers l’open source sur le globe. San Francisco et Boston accueillent quelques sociétés, mais ne sont absolument pas des incubateurs. Le paysage commercial de l’open source se propage beaucoup plus à travers le monde, de Londres à l’Utah en passant par l’Allemagne et Austin.

Plus que tout, c’est sa commercialisation qui est difficile. Demandez à n’importe quelle personne impliquée dans une entreprise open source. La difficulté se trouve dans l’élaboration d’un modèle de travail. Il n’y a pas de solution simple. Les techniques des start-up pour les autres types d’affaires, tels que l’investissement et les stratégies de commercialisation, ne semblent pas s’appliquer aussi bien. Cela signifie qu’il existe un obstacle à l’entrée d’autres écosystèmes, dont un que nous pouvons exploiter.

En ce moment, j’ai connaissance d’au moins cinq start-up open source dans la ville :

  • StatusNet – J’ai lancé cette entreprise ici-même en 2008. Nous avons levé 2,3M $ de fonds à Montréal et New-York. Nous enregistrons environ 5 000 téléchargements par mois et dénombrons 45 000 sites fonctionnant sur notre SaaS. Nous comptons actuellement 9 salariés à Montréal et San Fransisco (NdT : StatusNet est un logiciel libre de microblogging sur lequel repose Identi.ca).
  • Vanilla Forums – Le meilleur système de gestion de forums au monde. Il tourne sur plusieurs centaines de milliers de sites et inclut un service SaaS de haute performance.
  • Bookoven – Cette plateforme sociale de publication s’est tournée vers un modèle de logiciel open source. Dirigée par Hugh McGuire, créateur de Librivox, le très populaire projet de livre audio à contenus ouverts.
  • Stella – Cette société à forte croissance a rendu ses logiciels open source.
  • Subgraph – Startup orientée sur la sécurité développant Vega, logiciel open source d’évaluation des vulnérabilités.

Au rang des investisseurs, deux des plus importants groupes financiers de la ville (iNovia Capital et Real Ventures) tentent l’expérience des start-ups open source. Real Ventures (ou plutôt son prédécesseur, MSU) a déjà investi dans trois entreprises open source locales.

En ce qui concerne le potentiel des employés talentueux… c’est plus difficile. Il y a beaucoup de techniciens compétents dans la ville, et les sociétés open source qui en sont en dehors, comme Canonical ont des équipes techniques locales qui peuvent suivre le bassin des start-up de talent. Quid du personnel d’entreprise talentueux ayant une expérience open source ? Ils sont rares sur le terrain. Heureusement, les gens qui ont travaillé dans les sociétés mentionnées plus haut constituent aussi un bon noyau de ce bassin.

Je crois que les conditions sont réunies pour que Montréal prenne sa place dans le monde des technologies en tant qu’incubateur de start-up open source. La semaine prochaine, je dévoilerai ce que je pense être un projet potentiel pour que Montréal devienne le fer de lance de ce marché.

Notes

[1] Crédit photo : OpenSource.com (Creative Commons By-Sa)




Coupé au montage ou mon trop court passage sur les ondes de France Culture

Brian Fitzgerald - CC by« Apple c’est un peu le Disneyland des nouvelles technologies… »

Aussi étrange que cela puisse sembler j’ai fait une très brève apparition ce matin sur les ondes de France Culture pour évoquer non pas le logiciel libre mais… Apple !

Le journaliste avait à peine trois minutes pour réaliser un sujet d’actualité sur la première Assemblée générale de la société sans Steve Jobs. Et il m’a contacté car il avait visiblement besoin d’un regard critique au milieu d’autres interventions plus laudatives.

Pourquoi moi ?

Je ne le lui ai pas directement demandé mais l’explication la plus plausible est à chercher dans la série d’articles (cf ci-dessous) que nous avons récemment publiés sur ce blog et qui sont assez bien placés dans le référencement des moteurs de recherche (ce qui en creux en dit long sur la présence d’une véritable critique d’Apple[1] dans le Web francophone).

Sachant que ces articles sont eux-mêmes des traductions collectives issues du travail de Framalang, je n’avais aucune légitimité pour m’exprimer. Mais peu importe, me suis-je dit, profitons-en pour tenter de faire passer quelques idées.

Et bien je suis désolé de vous décevoir mais c’est raté 🙁

On ne peut pas trop en vouloir au journaliste qui avait un temps limité (ainsi qu’un sujet qui n’avait rien à voir avec le logiciel libre) et qui a extrait ce qu’il jugeait pertinent de notre entretien téléphonique. Mais ce pertinent pour lui est malheureusement un insignifiant pour moi.

C’est le risque et c’est la loi du genre lorsque l’on n’est pas en direct, mais je me sens solidaire de tous les interviewés qui sont restés frustrés des coupes au montage effectués lors d’un passage radiophonique.

Le reportage tel qu’entendu par les auditeurs de France Culture (3 min – 2 Mo – lien direct au format ogg) :

L’entretien téléphonique presque au complet que le journaliste a eu la gentillesse de mettre en ligne sur le site de la radio (5 min – 6 Mo – lien direct au format ogg) :

Quelques articles du Framablog sur Apple mentionnés plus haut :

Notez que je ne suis pas forcément non plus très satisfait de ma prestation globale lors de l’interview. Vous auriez dit quoi, vous, à ma place ?

J’en conclue donc naïvement que pour réussir ce genre d’exercice, il faut d’abord être bon lors de l’entretien et ensuite prier pour qu’on en tire la substantifique moelle au montage.

Je vous laisse, je vais quand même prévenir ma maman que son fils est passé à France Culture dans le cadre de son quart d’heure warholien de célébrité 😉

Notes

[1] Crédit photo : Brian Fitzgerald (Creative Commons By)




La Freedom Box ou la petite boîte qui voulait que l’Internet restât libre

Thierry Ehrmann - CC byParadoxes apparents. Peut-on simultanément souhaiter la fermeture des données et l’ouverture d’Internet ? Peut-on se féliciter du rôle joué par Facebook et Twitter en Tunisie ou en Égypte tout en affirmant que ces sites sont à très court terme dangereux pour ceux qui les utilisent ?

C’est cette double problématique qui est au cœur de la FreedomBox Foundation, le nouveau projet du brillant juriste de la FSF Eben Moglen qui fait régulièrement l’objet de billets sur ce blog. Et la solution qu’il nous propose est aussi simple que de brancher son chargeur de téléphone, à ceci près que c’est alors un mini serveur que nous mettons dans la prise (sous OS libre évidemment)[1].

Il est ici question de nos données personnelles, de notre vie en ligne, de notre manière de communiquer et d’interagir avec les autres. Et il s’agit bien moins de se cacher que de pouvoir choisir et définir à notre guise les conditions du partage de ces données, dans un Internet menacé aujourd’hui dans ses fondements mêmes par la censure, le filtrage ou le non respect de sa neutralité originelle.

Personne ne nous a obligés. Mais puisque c’était gratuit, c’était pratique, nous avons mis nos infos et nos amis sur Facebook et Twitter, nos messages dans Gmail, nos photos sur Flickr, nos vidéos sur YouTube, nos documents dans Google Docs… Au final nous avons participé ensemble à un formidable mouvement de centralisation du Net, où un nombre très restreint de sites hébergent une quantité phénoménale de données personnelles.

Que se passe-t-il le jour où ces quelques sites sont rendus volontairement ou non inaccessibles ?[2] Et que font ou feront exactement ces sites, tous commerciaux (et tous américains), avec nos données ?

C’est avant tout cela aujourd’hui le cloud computing que des marketeux de génie osent encore nous présenter comme de « l’informatique dans les nuages ». Des nuages, il y en a de moins en moins en fait mais ils sont de plus en plus gros et annoncent à n’en pas douter de futures tempêtes si nous n’y faisons rien.

Agir, c’est en l’occurrence faire revenir nos données chez nous, à la maison, dans le mini serveur branché sur la prise. Cela peut paraitre totalement irréaliste vu l’état de la situation actuelle, mais les acteurs du Libre n’en sont plus à un projet fou près.

Ils nous auront prévenus en tout cas…

Moglen, la Freedom Box et la liberté du Net

Moglen on Freedom Box and making a free net

Jonathan Corbet – 8 février 2011 – LWN.net
(Traduction Framalang : Jean, Gilles, Antistress, Yonnel et Goofy)

Eben Moglen est d’habitude un orateur enthousiasmant et sa conférence au FOSDEM 2011 a tenu toutes ses promesses. Le logiciel libre demeure, comme toujours, à la base de son discours, mais il a adopté une perspective plus politique et il pense que la communauté devrait en faire autant. Notre liberté, a-t-il dit, dépend d’une conception revisitée du réseau afin de remplacer des services vulnérables et centralisés par des alternatives qui résisteraient au contrôle des gouvernements.

La publication du livre Code de Larry Lessig, dit Eben, a attiré notre attention sur le fait que, dans le monde dans lequel nous vivons, le code fonctionne de plus en plus comme la loi. Le code fait le travail que lui demande l’Ètat, mais il peut aussi servir la révolution contre l’état. Nous sommes aujourd’hui témoins de la démonstration magistrale du pouvoir du code, dit-il. Dans le même temps, il faut accorder beaucoup d’intérêt à la publication de The Net Desilusion d’Evgeny Morozov qui proclame qu’Internet a été choisi pour contrôler les libertés dans le monde entier. Le livre est conçu comme un cri d’alarme contre les techno-optimistes. Eben est, selon lui, un de ces optimistes. La leçon qu’il a tiré des événements actuels est que le bon réseau apporte la liberté, mais le mauvais réseau apporte la tyrannie.

Nous avons passé beaucoup de temps à élaborer des logiciels libres. Et ce faisant, nous avons joint nos forces à celles d’autres acteurs de la culture libre. Des personnes comme Jimmy Wales, mais aussi d’autres comme Julian Assange. Wikipédia et Wikileaks, dit-il, sont deux faces d’une même pièce. Au FOSDEM, il a déclaré qu’on peut voir une « troisième face » de cette pièce. Nous faisons tous partie de ceux qui se sont mis en ordre de bataille pour changer le monde sans créer de nouvelles hiérarchies dans l’opération. À la fin de l’année 2010, Wikileaks était perçue comme une opération criminelle. Les événements en Tunisie ont changé cette perception. Wikileaks s’est révélé être une tentative pour aider les gens à y voir plus clair sur leur propre monde. Wikileaks, a-t-il dit, n’est pas la destruction, c’est la liberté.

Mais maintenant il y a beaucoup d’Égyptiens dont la liberté dépend de la capacité à communiquer à travers des canaux commerciaux qui répondront à la pression du gouvernement. Nous voyons maintenant en temps réel les points faibles qui viennent de la mauvaise conception du système actuel (NdT : Cet article a été rédigé le 8 février dernier, alors que Moubarak étant encore en place et le Net censuré).

Les réseaux sociaux, a-t-il déclaré, ont modifié l’équilibre du pouvoir au détriment de l’État et au bénéfice du peuple. Les évènements dans des pays comme l’Iran, la Tunisie, et l’Égypte démontrent leur importance. Mais les formes de communication sociale actuelles sont « extrêmement dangereuses » à utiliser. Elles sont aussi centralisées et vulnérables au contrôle de l’État. Leur conception est dirigée par le profit, pas par la liberté. Donc les mouvements politiques se basent sur des fondations fragiles : le courage de M. Zuckerberg ou Google à résister à l’État – le même État qui peut facilement les faire fermer.

De la même manière, l’information en temps réel pour les personnes essayant de construire leur liberté dépend d’un seul service de micro-blogging basé en Californie et qui doit faire du profit. Cette organisation est capable de décider, seule, de donner tout son historique à la bibliothèque du Congrès Américain. Qui sait le genre de dons elle a pu faire ailleurs ?

Nous devons résoudre cette situation, et rapidement. Nous sommes « derrière la vague » des mouvements de libération qui dépendent essentiellement du code. Plus nous attendons, plus nous faisons partie du système. Et ça amènera rapidement des tragédies. Ce qui s’est déroulé en Égypte est riche d’enseignements, mais les choses auraient pu se passer de manière bien pire encore. L’État a été long à contrôler Internet et ne s’est pas montré aussi dur qu’il le pouvait. Selon Eben, ce n’est pas difficile de décapiter une révolution quand tout le monde est dans la base de données de M. Zuckerberg.

Il est temps de penser aux conséquences de ce que nous avons construit et de ce que nous n’avons pas encore construit. Nous avons parlé pendant des années de remplacer les services centralisés par des services fédérés ; la centralisation excessive est une vulnérabilité critique qui peut entraîner arrestations, torture, et meurtres. Les gens dépendent de la technologie qui est construite pour les vendre au plus offrant. Si nous nous soucions véritablement de la liberté, nous devons traiter ce problème. Parce que le temps presse et les gens sont dans une situation dangereuse. Eben ne veut pas que les gens qui prennent des risques pour la liberté utilisent un iPhone.

Ce que nous a montré l’Egypte, comme l’avait fait l’Iran, est qu’un réseau fermé est dangereux et que les « interrupteurs qui coupent le réseau » mettent en danger les gens épris de liberté. Que pouvons-nous faire quand un gouvernement verrouille les infrastructures du réseau ? Nous devons revenir à l’idée de réseaux en maille, conçus à partir des équipements existants, qui peuvent résister au contrôle gouvernemental. Et nous devons revenir à des communications sécurisées à chaque extrémité du réseau. Pouvons-nous le faire ? a-t-il demandé.

Bien sûr que nous pouvons mais le ferons-nous ? Si nous ne bougeons pas, la promesse du mouvement du logiciel libre commencera à ne plus être tenue. C’est la répression qui l’emportera en apportant la preuve que le réseau en tant que tel n’est en rien une garantie contre les régimes autoritaires.

L’Amérique du Nord, selon Eben, devient le cœur d’une industrie de data mining mondialisé. Quand le Président américain Dwight Eisenhower a quitté le pouvoir, il nous a mis en garde contre la montée en puissance du complexe militaro-industriel. En dépit de cet avertissement, les États-Unis ont, depuis, investi dans leur armée plus que tous les autres pays réunis. Depuis les évènements du 11 Septembre 2001, un nouveau pas dans l’industrie de la surveillance a été franchi. Eben a fortement recommandé de lire les article du dossier « Top Secret America » publiés par le Washington Post. Ils nous permettent d’ouvrir les yeux sur un certain nombre d’opérations à-la-Google, toutes sous le contrôle du gouvernement. La protection des données en Europe a tellement bien fonctionné qu’elle a causé la migration de toutes ces données en Amérique du Nord, où leur usage n’est pas contrôlé. Le data mining, comme toutes les industries, a tendance à se déplacer dans les endroits où il y a le moins de contrôle. En aucun cas le gouvernement américain ne va changer cette situation, il en dépend bien trop fortement. Pendant la campagne présidentielle, Barack Obama excluait de donner l’immunité à l’industrie des télécommunications pour son rôle dans l’espionnage des Américains. Cette position n’a même pas duré le temps de l’élection. La politique actuelle d’Obama n’est pas très différente de celle de ses prédécesseurs, excepté dans les domaines où elle est moins agressive.

L’industrie privée ne changera pas les choses non plus, l’appât du gain n’entraînera ni le respect de la vie privée ni la défense des gens dans la rue. Les sociétés qui essaient de faire du profit n’y parviennent pas sans l’aval des gouvernements. Donc nous devons construire le Net en partant du principe que le réseau n’est pas intrinsèquement digne de confiance, et que les services centralisés peuvent aller jusqu’à tuer des gens. Nous ne pouvons pas nous permettre d’être nonchalants et indifférents avec ça, nous devons remplacer tous ces points faibles.

Or nous savons comment nous sortir de cette situation. Nous devons créer des serveurs-prises qui sont bon marché et nécessitent peu de courant, et nous devons les remplir de « logiciels libres sympas ». Nous devons concevoir des réseaux maillés, élaborer des plateformes de téléphonie auto-construits avec des outils comme OpenBTS ou Asterisk, des réseaux sociaux fédérés, et des plateformes de publication anonymes. Nous devons conserver nos données dans nos maisons où elles sont protégées par des lois contre la recherche physique. Nous devons toujours chiffrer nos emails. Ces systèmes peuvent aussi être utilisés défensivement et servir de serveur proxy pour contourner les pare-feux nationaux. Nous pouvons faire tout cela a déclaré Eben, c’est tout à fait réalisable vu ce que nous avons déjà sous la main.


Eben a conclu en annonçant la création de la Freedom Box Foundation, qui a vocation à rendre tout cela disponible et « moins cher que des chargeurs de téléphone portable ». Il y a une génération, nous avons pris le chemin de la liberté, et nous y sommes encore. Mais nous devons passer à la vitesse supérieure, et donner à nos outils un objectif plus politique. Nos amis sont dans la rue ; si nous ne les aidons pas, ils seront en danger. La bonne nouvelle est que nous avons déjà presque tout ce dont nous avons besoin, et qu’il n’y a plus qu’à se retrousser les manches.

Notes

[1] Pour avoir plus de détails sur les caractéristiques techniques des serveurs-prises, nous vous invitons à lire le billet de Philippe Scoffoni : FreedomBox Foundation, une initiative pour communiquer en sécurité sur internet.

[2] Crédit photo : Thierry Ehrmann (Creative Commons By)




Google Art Project : Une petite note discordante dans un concert de louanges

Antonio Pollaiuolo - Public DomainGoogle vient de sortir un énième nouveau projet : Google Art Project.

Il est ainsi décrit dans cette dépêche AFP : « Google a lancé une plate-forme permettant aux amateurs d’art de se promener virtuellement dans 17 des plus grands musées du monde, dont le MoMA de New York et le Château de Versailles, grâce à sa technologie Street View, familier des utilisateurs du site de cartes Google Maps ».

La présentation vidéo de Google est spectaculaire et la visite virtuelle l’est tout autant. Ce qui m’a le plus impressionné c’est le fait que chaque musée offre l’une de ses œuvres à une précision numérique hors du commun (7 milliards de pixels !). Regardez un peu ce que cela donne dans le détail pour La Naissance de Vénus de Boticceli.

Faites un zoom sur son visage et vous serez peut-être comme moi saisi par une certaine émotion. Et si j’ai pris cet exemple ce que j’étais encore récemment devant le vrai tableau à Florence. L’émotion est tout autre, sans commune mesure, elle est bien plus intense évidemment, mais pouvoir regarder à la loupe un tel chef-d’œuvre n’est pas sans intérêt[1].

On a alors vu toute la presse, petit et grande, s’enthousiasmer sur ce nouveau service gratuit (cela allait sans dire avec Google). J’ai ainsi pu comptabiliser plus d’une centaine d’articles dans… Google Actualités (sic, on n’en sort pas !), et jamais je n’y ai lu la moindre critique.

La seule question que l’on se pose éventuellement est de se demander furtivement si un tel projet peut se substituer à la visite réelle. Et la réponse, aussi bien du côté Google que du côté musées, est au contraire que cela stimule la curiosité et amplifie le désir de venir. Un peu comme la vitrine d’un magasin vous donne envie de rentrer en somme. Et puis pour ceux qui ne peuvent vraiment pas y aller comme les enfants d’Afrique ou d’Amérique Latine, c’est toujours bien mieux que rien.

Personne n’est donc venu apporter un seul bémol. On aurait pu souligner que c’est encore et toujours du Google, qui de projets sympas en projets sympas, commence à atteindre une taille intrinsèquement monstrueuse. On aurait pu regretter que pour pouvoir bénéficier d’un parcours individualisé et former ses propres collections il faille évidemment un compte Google (c’est gratuit mais c’est bien là le prix à payer à Google). Plus subtil mais pas moins important, on aurait pu se demander quelles étaient exactement les conditions juridiques des accords entre Google et les musées, notamment pour ce qui concerne l’épineuse question de la reproduction d’œuvres dans le domaine public (d’ailleurs on voit déjà fleurir dans Wikimedia Commons des reproductions d’œuvres directement issues des reproductions de Google Art Project !).

Personne, sauf peut-être Adrienne Alix, présidente de Wikimedia France, qui a publié sur son blog personnel sa « vision critique » du projet, dans un billet que nous avons reproduit ci-dessous parce que nous partageons sa perplexité.

« Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose (…) Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule. »

Vous trouverez par ailleurs en annexe, un petit clip vidéo montrant un photographe wikipédien à l’œuvre. Quand Google nous propose une visite virtuelle clinquante mais balisée et pour tout dire un brin étouffante, Wikipédia donne envie d’arpenter le vaste monde et d’en garder traces au bénéfice de tous.

Google Art Project : vision critique

URL d’origine du document

Adrienne Alix – 3 février 2011 – Compteurdedit
Licence Creative Commons By-Sa

Depuis deux jours, le web (et notamment le web « culturel », mais pas seulement) s’enthousiasme pour le dernier-né des projets développés par Google, Google Art Project.

Le principe est compréhensible facilement : Google Art Project, sur le modèle de Google Street View, permet de visiter virtuellement des musées en offrant aux visiteurs une vue à 360°, un déplacement dans les salles. On peut aussi zoomer sur quelques œuvres photographiées avec une très haute résolution et pouvoir en apprécier tous les détails, certainement mieux que ce qu’on pourrait faire en visitant réellement le musée.

Et donc, tout le monde s’extasie devant ce nouveau projet, qui permet de se promener au musée Van Gogh d’Amsterdam, au château de Versailles, à l’Hermitage, à la National Gallery de Londres, etc. En effet c’est surprenant, intéressant, on peut s’amuser à se promener dans les musées.

En revanche, au-delà de l’aspect anecdotique et de l’enthousiasme à présent de rigueur à chaque sortie de projet Google, j’aimerais pointer quelques petits points, qui peuvent paraître pinailleurs, mais qui me semblent importants.

1- d’une part, la qualité n’est pas toujours là. Vous pouvez en effet vous promener dans le musée, mais ne comptez pas forcément pouvoir regarder chaque œuvre en détail. On est dans de la visite « lointaine », un zoom sur une œuvre donnera quelque chose de totalement flou. Les deux captures d’écran ci-dessous sont, je pense, éloquentes.

2- Google rajoute une jolie couche de droits sur les œuvres qui sont intégrées dans ces visites virtuelles. Une part énorme de ces œuvres est dans le domaine public. Pourtant, les conditions générales du site Google Art Project sont très claires : cliquez sur le « Learn more » sur la page d’accueil. Vous verrez deux vidéos expliquant le fonctionnement du service, puis en descendant, une FAQ. Et cette FAQ est très claire :

Are the images on the Art Project site copyright protected?

Yes. The high resolution imagery of artworks featured on the art project site are owned by the museums, and these images are protected by copyright laws around the world. The Street View imagery is owned by Google. All of the imagery on this site is provided for the sole purpose of enabling you to use and enjoy the benefit of the art project site, in the manner permitted by Google’s Terms of Service.

The normal Google Terms of Service apply to your use of the entire site.

On y lit que les photos en haute résolution des œuvres d’art sont la propriété des musées et qu’elles sont protégées par le « copyright » partout dans le monde. Les images prises avec la technologie « street view » sont la propriété de Google. Les images sont fournies dans le seul but de nous faire profiter du Google Art Projetc. Et on nous renvoie vers les conditions générales de Google.

En gros, vous ne pouvez rien faire de ce service. Vous pouvez regarder, mais pas toucher.

3 – D’ailleurs vous ne pouvez techniquement pas faire grand chose de ces vues. Y compris les vues en très haute définition. Effectivement le niveau de détail est impressionnant, c’est vraiment une manière incroyable de regarder une œuvre. Mais après ? Vous pouvez créer une collection. Soit, je décide de créer une collection. Pour cela il faut que je m’identifie avec mon compte google (donc si vous n’avez pas de compte google, c’est dommage pour vous, et si vous vous identifiez, cela fait encore une donnée sur vous, votre personnalité, que vous fournissez à Google. Une de plus). Je peux annoter l’œuvre (mettre un petit texte à côté, sauvegarder un zoom, etc). Que puis-je faire ensuite ? Et bien, pas grand chose. Je peux partager sur Facebook, sur Twitter, sur Google Buzz ou par mail.
Mais en fait, je ne partage pas réellement l’œuvre, je partage un lien vers ma « collection ». C’est à dire que jamais, jamais je ne peux réutiliser cette œuvre en dehors du site.

Donc si par exemple je suis professeur d’histoire ou d’histoire de l’art, je suis obligée de faire entrer mes élèves sur ce site pour leur montrer l’œuvre, je ne peux pas la réutiliser à l’intérieur de mon propre cours, en l’intégrant totalement. Ni pour un exposé. Je ne peux pas télécharger l’œuvre. Qui pourtant est, dans l’immense majorité des cas, dans le domaine public. Il faut donc croire que la photographie en très haute résolution rajoute une couche de droits sur cette photo, ce qui pourrait se défendre, pourquoi pas, mais aujourd’hui ça n’est pas quelque chose d’évident juridiquement.


Vous me direz qu’après tout, cela résulte de partenariats entre des musées et Google, ils prennent les conditions qu’ils veulent, c’est leur problème, on a déjà de la chance de voir tout cela. Ok. Mais ce n’est pas la conception de partage de la culture que je défends.

Je me permettrai de rappeler que, en tant que wikimédienne, et défendant la diffusion libre de la culture, je suis attachée à la notion de « domaine public ». Au fait que, passé 70 ans après la mort d’un auteur, en France et dans une très grande partie du monde, une œuvre est réputée être dans le domaine public. Et donc sa diffusion peut être totalement libre. Sa réutilisation aussi, son partage, etc.

Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose. Nos points d’achoppement avec les musées tiennent souvent à la crainte de « mauvaise utilisation » des œuvres, le domaine public leur fait peur parce qu’ils perdent totalement le contrôle sur ces œuvres (notamment la réutilisation commerciale). Ils discutent cependant avec nous parce qu’ils ont conscience qu’il est impensable aujourd’hui de ne pas diffuser ses œuvres sur internet, et Wikipédia est tout de même une voie royale de diffusion, par le trafic énorme drainé dans le monde entier (pour rappel, plus de 16 millions de visiteurs unique par mois en France, soit le 6e site fréquenté).

Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule.

Alors certes, la technologie est intéressante, le buzz est légitime, l’expérience de visite est plaisante. Mais au-delà de cela, est-ce vraiment une vision moderne et « 2.0 » du patrimoine qui est donnée ici ? Je ne le pense pas. J’ai même une furieuse impression de me retrouver dans un CD-ROM d’il y a 10 ans, ou dans le musée de grand-papa.

Pour terminer, je vous invite à aller vous promener sur Wikimedia Commons, dans les catégories concernant ces mêmes musées. C’est moins glamour, pas toujours en très haute résolution, mais vous pouvez télécharger, réutiliser, diffuser comme vous voulez, vous êtes libres…

Au cas où il serait nécessaire de le préciser : je m’exprime ici en mon nom personnel, et uniquement en mon nom personnel. Les opinions que je peux exprimer n’engagent en rien l’association Wikimédia France, qui dispose de ses propres canaux de communication.

Annexe : Vidéo promotionnelle pour Wiki loves monuments

Réalisée par Fanny Schertzer et Ludovic Péron (que l’on a déjà pu voir par ailleurs dans cet excellent reportage).

—> La vidéo au format webm

URL d’origine du document

Notes

[1] Illustration : Portrait de jeune femme, Antonio Polaiolo, fin XVe siècle, MoMatélécharger librement…)




Breveter des logiciels ? Beethoven ne l’aurait pas entendu de cette oreille !

Dans cette courte séquence vidéo, extraite du film Patent Absurdity, que nous vous présentons aujourd’hui sous-titrée par nos soins, Richard Stallman nous alerte par analogie sur les dangers que représentent les brevets appliqués aux logiciels. Et si Beethoven avait été confronté en son temps à un système de brevets sur la musique ?

Cette séquence nous renseigne à double titre.

D’une part, la pertinente démonstration nous fait toucher du doigt les dangers du brevet logiciel dont le principe a été maintes fois repoussé en Europe mais qui menace toujours. Pour en savoir plus sur le sujet, nous ne saurions que trop vous conseiller de lire la synthèse que vient de publier l’April.

D’autre part, pour qui connaît un peu le bonhomme et son histoire (lire à ce sujet le framabook « Richard Stallman et la révolution du logiciel libre – Une biographie autorisée »), on imagine sans peine la frustration qu’un système de brevets logiciels – en vigueur aux États-Unis – peut engendrer. Richard Stallman est un hacker reconnu, c’est-à-dire un virtuose du code, et l’on peut alors parler d’un art de la programmation. Un art qui a eu ses Beethoven et qui souhaite continuer à en avoir encore demain.

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcript du sous-titrage

URL d’origine du document

Imaginons qu’au XVIIIe siècle les gouvernements d’Europe aient décidé d’encourager le progrès de la musique symphonique – ou du moins le pensaient-ils – avec un système de brevets sur les idées musicales.

Toute personne pouvant décrire une nouvelle idée musicale avec des mots obtiendrait un brevet qui serait un monopole sur cette idée.

Cette personne pourrait ensuite poursuivre quiconque mettant en œuvre cette idée dans un morceau de musique.

Ainsi un motif rythmique pourrait être breveté, ou une séquence d’accords, ou un ensemble d’instruments à utiliser ensemble, ou n’importe quelle idée que vous auriez pu décrire avec des mots.


Maintenant imaginez que nous sommes en 1800, que vous êtes Beethoven et que voulez écrire une symphonie.

Vous allez trouver qu’il est plus difficile d’écrire une symphonie pour laquelle vous ne serez pas poursuivi en justice, que d’écrire une symphonie qui sonne bien.

Parce que pour écrire une symphonie et ne pas être poursuivi, vous allez devoir frayer un chemin au travers de milliers de brevets sur les idées musicales.

Et si vous vous plaignez en disant que cela entrave votre créativité, les titulaires de brevets diraient : « Oh, Beethoven, vous êtes juste jaloux parce que nous avons eu ces idées avant vous. Pourquoi devriez-vous voler nos idées ? »