Hacker le vote électronique américain ? Un jeu d’enfants !

Nous imaginant technophiles béats, les gens sont souvent surpris de la prise de position de la grande majorité des partisans du logiciel libre en défaveur du vote électronique (quand bien même on ait accès au code source qui pilote la machine et le processus, ce qui semble être du bon sens mais non partagé).

Ce n’est pas l’expérience ci-dessous, au moment même où se déroulent les élections présidentielles américaines, qui risque de nous faire changer d’avis.

Steve Jurvetson - CC by

Comment j’ai hacké une machine de vote électronique

Roger Johnston (raconté par Suzanne LaBarre) – 5 novembre 2012 – PopSci.com
(Traduction : Zii, ehsavoie, plink, KoS, aKa, lgodard, MF, Ag3m, greygjhart)

How I Hacked An Electronic Voting Machine

De quoi avez-vous besoin pour truquer une élection ? Des connaissances basiques en électronique et 30 dollars d’équipement de RadioShack suffisent, révèle le hackeur professionnel Roger Johnston. La bonne nouvelle : nous pouvons empêcher cela.

Roger Johnston est à la tête de la « Vulnerability Assessment Team » au Laboratoire National d’Argonne. Récemment, lui et ses collègues ont lancé une attaque de sécurité sur des machines de vote électronique pour montrer la facilité déconcertante avec laquelle quelqu’un peut trafiquer les votes. Encore plus surprenant : les versions de ces ordinateurs seront présentes dans les bureaux de vote de toute l’Amérique ce mardi. Le magazine Harper a rapporté recemment que l’écran tactile Diebold Accuvote-TSX va être utilisé par plus de vingt-six millions de votants dans ving États et que l’ordinateur de vote à bouton pressoirs Sequoia AVC va être utilisée par presque neuf millions de votants dans quatre États. Dans cet article, Johnston révèle comment il a hacké ces machines — et que c’est à la portée du premier venu, du lycéen à la grand-mère de 80 ans.

La Vulnerability Assessment Team du Laboratoire National d’Argonne scrute une large variété d’équipements électroniques — serrures, sceaux, tags, contrôle d’accès, biometrie, sécurité des cargaisons, sécurité nucléaire — pour tenter de trouver des vulnérabilités et repérer des solutions potentielles. Malheureusement, on n’alloue pas assez de budget à l’analyse de la sécurité des élections dans ce pays. Alors nous nous sommes penchés dessus, histoire de nous occuper, un samedi après-midi.

On appelle cela une attaque de l’homme du milieu. C’est une attaque classique sur les appareils de sécurité. On implante un microprocesseur ou un autre appareil électronique dans la machine de vote, et cela vous permet de contrôler le vote et de tricher ou non. Basiquement, on interfère avec la transmission de l’intention du votant.

Nous avons utilisé un analyseur logique. La communication digitale est une série de zéros et de uns. Le voltage augmente, diminue. Un analyseur logique rassemble les voltages oscillants entre haut et bas et vous présentera ensuite les données digitales dans une variété de formats. Mais il y a plein de manières de faire. Vous pouvez utiliser un analyseur logique, un microprocesseur, un ordinateur — en gros, n’importe quoi qui vous permette de voir l’information qui est échangée et ensuite vous laisse comprendre ce qu’il faut faire pour imiter l’information.

Nous avons donc espionné les communications entre le votant et la machine. Dans un cas, le votant appuie sur des boutons (c’est une machine à voter avec des boutons poussoirs) et dans l’autre, il interagit avec un écran tactile. Puis, nous avons écouté les communications entre le logiciel de la machine et le votant. Disons que je veux que Jones gagne l’élection, et que vous votez pour Smith. Alors, mon microprocesseur va dire à la machine de voter pour Jones si vous essayez de voter pour Smith. Mais si vous votez pour Jones, je n’interviendrai pas dans les communications. Parfois on bloque les communications, parfois on les déforme, parfois on ne fait que les regarder et les laisser passer. C’est ça l’idée. Deviner quels sont les échanges en cours, puis les modifier si besoin est, y compris ce qui sera présenté au votant.

Nous pouvons faire ceci car la plupart des machines, autant que je sache, ne sont pas chiffrées. C’est simplement un format de communication standard. Il est donc très simple de deviner les informations échangées. N’importe quelle personne qui fait de l’électronique numérique — un amateur ou un fan d’électronique — peut le deviner.

Le dispositif que nous avons intégré dans la machine à écran tactile valait en gros 10 $. Si vous voulez une version de luxe où vous pouvez le contrôler à distance jusqu’à environ 800 mètres, il vous en coutera 26 $. Ce n’est pas très cher. Vous pouvez trouver ça chez RadioShack. Je suis allé à des salons scientifiques dans des lycées où les gosses avait des projets avec des processeurs plus sophistiqués que ceux nécessaires pour truquer ces machines.

Parce qu’il n’y a pas de financements pour ce genre de tests de sécurité, il faut compter sur des gens qui achètent des machines d’occasion sur eBay (dans ce cas l’écran tactile Diebold Accuvote TS Electronic Voting Machine et la machine à boutons Sequoia AVC Advantage Voting Machine). Ces deux machines étaient un peu vieilles, et nous n’avions pas de manuel ou de schéma de circuits. Mais, dans le cas du Sequoia AVC, nous avons deviné comment elle marchait en moins de deux heures. En deux heures nous avions une attaque viable. L’autre machine nous a pris un peu plus de temps car nous ne comprenions pas comment l’affichage sur un écran tactile fonctionnait. Nous avons dû donc apprendre, mais ce n’était qu’une question de jours. C’est un peu comme un tour de magie, vous devez le pratiquer beaucoup. Si nous avions pratiqué longtemps, voir mieux, si quelqu’un de très bon avait pratiqué pendant deux semaines, nous aurions mis 15 à 60 secondes pour exécuter ces attaques.

Les attaques nécessitent un accès physique à la machine. C’est facile pour les personnes en interne qui les programment pour une election ou les installent. Et nous pouvons supposer que ce n’est pas si difficile pour des personnes extérieures. Beaucoup de machines à voter gisent dans la cave de l’église, le gymnase ou le préau de l’école élémentaire, sans surveillance pendant une semaine ou deux avant l’election. Généralement elles ont des serrures très bon marché que n’importe qui peut ouvrir ; quelquefois elles n’en ont même aucune. Personne ne s’identifie auprès des machines quand il prend son poste. Personne n’est chargé de les surveiller. Leurs scellés ne sont pas si différents des dispositifs anti-fraude sur les paquets de nourriture et les médicaments en libre service. Falsifier un produit alimentaire ou un médicament, vous pensez que c’est difficile ? Ça ne l’est vraiment pas. Et un grand nombre de nos juges d’élections sont de petites vieilles à la retraite, et, Dieu les garde, c’est grâce à elles que les élections marchent, mais elles ne sont pas forcement fabuleusement efficaces pour détecter des attaques subtiles de sécurité.

Formez les personnels chargés de la vérification des scellés, et ils auront une chance de détecter une attaque raisonnablement sophistiquée. Faites des vérifications sur les personnes en interne et cette menace sera bien moins sérieuse. Dans l’ensemble il manque une bonne culture de la sécurité. Nous avons beau avoir des machines de vote avec des défauts, avec une bonne culture de la sécurité nous pouvons avoir des élections sans fraude. D’un autre côté, on peut avoir des machines fabuleuses, mais sans une culture de la sécurité à la hauteur, cela ne servira à rien. Il faut vraiment prendre du recul. Notre point de vue est qu’il sera toujours difficile d’arrêter un James Bond. Mais je veux faire avancer les choses jusqu’à un niveau où au moins ma grand-mère ne puisse pas truquer les élections, et nous en sommes encore loin.

Crédit photo : Steve Jurvetson (Creative Commons By)




The future is open et c’est Google qui le dit

Il y a 3 ans nous traduisions un article issu du blog de Google et rédigé par l’un de ses hauts gradés Jonathan Rosenberg : The meaning of open. Il y expliquait pourquoi et comment la célèbre entreprise prônait l’ouverture à tous ses étages.

Le même auteur récidive ici en dépassant la problématique Google pour affirmer non sans un certain optimisme (à l’américaine) que c’est le futur tout entier qui est désormais ouvert et que c’est très bien comme ça.

Remarque 1 : Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

Remarque 2 (troll et hors-sujet ?) : À comparer avec la situation française où l’on semble actuellement beaucoup plus préoccupé de savoir ce que nous prend ou nous donne l’État que de promouvoir ou pratiquer l’ouverture. Sans oublier, évidemment, la fameuse taxe Google qui « sauvera » la presse !

John Martinez Pavliga - CC by

Le futur est ouvert

The Future Is Open

Jonathan Rosenberg – octobre 2012 – ThinkWithGoogle.com
(Traduction Framalang : nobo, peupleLa, KoS, Smonff, ehsavoie, tibs, Louson, goofy, Khyvodul, Pandark, lgodard, Kiwileaks)

Il y a trois ans, Jonathan Rosenberg, alors vice-président délégué à la gestion de la production, a écrit un mémo (NdT : que nous avions traduit) expliquant pourquoi les entreprises ouvertes seraient les gagnantes du futur. Aujourd’hui, consultant au service du management, il a vu la réalité dépasser ses rêves les plus fous.

Il y a bientôt trois ans, en décembre, j’ai envoyé un courriel à mes chers collègues de Google, pour essayer de donner une définition claire d’un terme galvaudé : Ouvert. Je trouvais gênant qu’entre nos murs, il prenne différents sens selon les personnes, et que trop de Googlers ne comprennent pas l’engagement fondamental de l’entreprise pour ce qui est ouvert. En me référant à la fois aux technologies ouvertes et aux informations ouvertes, j’ai présenté la philosophie sous-jacente à notre volonté de transparence. Rechercher des systèmes ouverts, avais-je argumenté, nous a menés, et continuera de nous mener vers deux résultats souhaitables : Google devient meilleur, et le monde avec lui.

L’argument était convaincant, et plus tard, un billet sur le blog de Google , « The Meaning of Open », permit de clarifier encore plus ce concept parfois difficile à appréhender. Dans les semaines qui ont suivi, j’ai reçu des messages pleins de profondeur de la part d’un public divers et varié : enseignants ou écrivains qui appréciaient ce point de vue de l’intérieur de Google, chefs d’entreprise qui m’expliquaient comment l’ouverture avait influencé leurs affaires, étudiants surpris d’une position qui allait entièrement à l’encontre de la stratégie de fermeture qu’on leur avait enseignée. Trois ans ont passé, et ce qui me saute aux yeux dans ce manifeste c’est que… j’avais tort !

On ne peut pas dire que le développement ouvert n’ait pas fait progresser Google et le reste du monde. Seulement c’est arrivé beaucoup plus vite que je ne l’avais imaginé. C’est au beau milieu d’un des gestes les plus banals du vingt-et-unième siècle que j’en ai pris conscience : je vérifiais mon téléphone, un Droid Razr Maxx. Je fixais la chose, et j’en voyais toute la diversité : deux douzaines d’applications, du New York Times à Flipboard, de Dialer One à OpenTable, de RunKeeper à SlingPlayer, créées par un tas de développeurs différents, sur un téléphone conçu par Motorola. Il m’est apparu que ce que je regardais n’était pas simplement un appareil mobile, mais l’incarnation physique de la façon dont un écosystème ouvert peut se disséminer à travers le monde presque du jour au lendemain.

Sans aucun doute, j’ai toujours senti que cette idée tenait debout – mais je n’avais pas anticipé l’ampleur avec laquelle les règles du jeu entre les secteurs privés et publics allaient être réécrites. C’est la conséquence de trois tendances techniques qui ont évolué à une vitesse étonnante. Premièrement : Internet rend l’information plus libre et omniprésente que ce que j’aurais pu croire ; pratiquement tout ce qui se passait hors ligne est maintenant en ligne. Deuxièmement : ce qui était une vision du potentiel des mobiles est vraiment devenu réalité, puisque les machines sont devenues plus puissantes et plus rapides que prévu, facilitant une portée globale et une connectivité sans précédent. Troisièmement : l’informatique dans le nuage (NdT : Cloud computing) a permis une puissance de calcul infinie à la demande. Et nous sommes loin d’avoir fini. Alors même que j’écris ces lignes, Google Fiber s’apprête à déployer un service à un gigabit à Kansas City, indice que la connectivité est sur le point de franchir une nouvelle limite.

La conjonction de ces progrès techniques a un effet paradoxal : aussi nouveaux soient-ils, ils finissent par ramener les entreprises aux fondamentaux. La gamme et la qualité des produits sont maintenant les facteurs les plus importants pour déterminer le succès d’une entreprise. Historiquement, les entreprises pouvaient profiter d’une pénurie d’information, de connectivité ou de puissance de calcul pour attirer et conserver leurs clients et repousser les concurrents.

De nos jours, les clients peuvent prendre des décisions bien plus éclairées en accédant aux informations des autres consommateurs. En effet, ils renforcent mutuellement leur pouvoir de décision par leurs échanges via des sites comme Yelp et toute une flopée de réseaux sociaux. Une société ne peut plus complètement contrôler l’environnement de ses clients. Au moment où les frontières de la distribution se sont effondrées – pensez aux moyens de transports mondialisés et bon marché, pensez aux étalages infinis des détaillants en ligne – les consommateurs ont de plus en plus de contrôle par eux-mêmes. Avec ce nouveau paradigme, et des marchés toujours plus compétitifs, les sociétés n’ont plus d’autre choix que de se concentrer sur la qualité et les gammes de produits. Si elles ne le font pas, une autre le fera à leur place.

Avec autant de changements en si peu de temps la nécessité de l’ouverture s’est imposée comme une tactique commerciale décisive pour atteindre à la fois l’excellence et la déclinaison des produits. Ouvrir un produit à toute une armée de créatifs est le plus court chemin pour créer de l’innovation et de la diversité, puisque cela permet à chaque contributeur de se focaliser sur ce qu’il fait le mieux et que cela encourage les contributions d’un public le plus large possible.

Chrome et Android, qui ont tous deux décollé depuis que « The Meaning of Open » a été publié, illustrent parfaitement ce principe. Avec chacun d’eux, nous avons maintenu un seul objectif simple dès le début : rendre le produit aussi robuste que possible. Comme nous l’avons appris maintes et maintes fois, il n’y a pas de route plus rapide et plus fiable qu’une route ouverte : davantage de mains travaillant sur un même produit ne peuvent que l’améliorer. L’ouverture permet de prototyper un concept, ou de le tester dans ses toutes premières étapes. Qui plus est, les systèmes ouverts tolèrent mieux les défaillances – et attirent une communauté d’utilisateurs plus fidèles. Ils savent que la motivation première d’un système ouvert est l’excellence ; si la société essaie d’imposer un autre agenda, la communauté de développeurs le repérera immédiatement et se révoltera. En proposant un produit ouvert, la société renonce à la possibilité de faire autre chose que de le rendre meilleur pour l’utilisateur.

Les résultats parlent d’eux-mêmes. Si vous possédiez un smartphone en 2006, il y a des chances pour que « Blackberry » ou « Nokia » ait été inscrit dessus. Il y a encore trois ans, Android représentait à peine 5% du marché. Aujourd’hui nous avons dépassé les 51%, et il y a de fortes chances pour que votre smartphone ait été fabriqué par Samsung, HTC, Motorola ou un autre partenaire d’Android.

Android a même débarqué dans des secteurs que nous n’avions pas anticipés, tels que les téléviseurs, les voitures, les avions, et même les appareils domestiques. (Voyez Ouya, une nouvelle console de jeux vidéo basée sur Android. Sans un Android ouvert, ce genre d’innovation n’existerait pas). Il semble clair à présent que si vous vous investissez dans un système ouvert, vous vous engagez dans une compétition perpétuelle pour garder votre place d’innovateur principal.

La question de l’ouverture n’a pas été moins opérante pour le navigateur Chrome, qui s’est construit par dessus le projet open source Chromium. Aujourd’hui, Chrome est sept fois plus rapide qu’il ne l’était lorsqu’il a été lancé il y a à peine 4 ans, et le nouveau code est disponible pour le monde entier à mesure qu’il se développe. Travailler ainsi au grand jour rend plus difficile le fait d’avoir des agendas cachés ou quoi que ce soit de dissimulé ; faites mal les choses, et une communauté mondiale de développeurs vous repérera instantanément.

Faire de l’ouverture une tactique commerciale peut nécessiter de nouvelles compétences organisationnelles. La vitesse est primordiale, comme l’est la rigueur du processus de décision. Un écosystème ouvert encourage le bouillonnement d’idées. Or trouver de bonnes idées, c’est facile ; ce qui est difficile, c’est de choisir parmi elles. L’ouverture des données peut offrir un avantage concurrentiel important aux entreprises, mais seulement si elles sont correctement positionnées pour pouvoir en profiter. L’autre tactique — qui est notamment utilisée par Apple et nos équipes de recherche — est de garder le système plus fermé, et d’y exercer un contrôle total. Cette approche nécessite son propre jeu de compétences organisationnelles, au-delà de la vitesse d’exécution, puisque l’excellence du produit et son innovation prennent leur source uniquement en interne. Les deux approches peuvent évidemment toutes les deux réussir, mais selon notre expérience, quand il s’agit de construire une plateforme entière, l’ouverture est le chemin le plus sûr vers la réussite.

Heureusement, de plus en plus d’organisations perçoivent ce message. Dans Wikinomics, les auteurs Don Tapscott et Anthony D. Williams racontent l’histoire de Goldcorp, une entreprise de mines d’or de Toronto, qui semblait sur le déclin à la fin des années 90. Face à un marché en baisse, une foule de problèmes internes et ce qui semblait être un filon épuisé, le PDG Rob McEwen fit précisément l’inverse de ce que n’importe quel livre sur le business dirait : il commença par donner le peu que l’entreprise avait encore.

Plus exactement, il publia sur le site de l’entreprise 400 Mo d’informations concernant le site minier de 220 kilomètres carrés de Goldcorp. Plutôt que de conserver jalousement ses derniers lambeaux d’information propriétaire, il offrit un prix de 500,000$ à quiconque parviendrait à utiliser ces données, afin de trouver de l’or contenu dans le sol. Ce fut un énorme succès. Plus de 80% des cibles identifiées par le public donnèrent des quantités significatives d’or. Avec ce petit investissement initial, la société tira du sol l’équivalent plus de 3 milliards de dollars en or.

Évidemment, McEwen était seulement en train de s’accorder avec les principes profonds du mouvement open source. Dans les premiers jours confus de l’internet, une éthique d’universalité et d’égalitarisme s’était propagée. « Les jardins cernés de murs (NdT : Walled gardens), tout plaisants qu’ils soient, ne pourront jamais rivaliser en diversité, en richesse et en innovation avec le marché fou et palpitant du Web de l’autre côté du mur » a écrit Tim Berners-Lee, l’inventeur du World Wide Web. Google a toujours prospéré sur cette diversité, cette richesse et cette innovation. C’est ce qui nous a permis de lancer des créations comme Chrome et Android, et c’est ce qui a permis à une entreprise d’extraction vétuste d’éblouir le monde avec des succès similaires et pour des raisons similaires.

Aussi spectaculaire que soit l’histoire de Goldcorp, c’est seulement la partie émergée de l’iceberg. En effet, ce qui avait commencé comme un concept de geek au sein de communautés scientifiques s’est propagé dans tous les domaines, des affaires à la politique, de la santé à l’éducation et bien au-delà. Chez Google, nous envisageons un certain nombre de possibilités au-delà du secteur technique, où l’ouverture pourrait amener des progrès modestes et immenses à la fois.

L’éducation

De Stanford à la Corée, des universités et des enseignants du monde entier commencent à distribuer gratuitement des contenus éducatifs de très grande qualité sous licence libre. Qui plus est, des personnes vivant dans les endroits les plus reculés ont de plus en plus accès à ces contenus. La bande passante et la connectivité ont fait sauter de nombreuses barrières de la société en matière d’éducation.

Tout au bout d’un long chemin de terre à Bombay, un étudiant muni d’un téléphone peut maintenant suivre les cours du MIT au plus haut niveau. De façon tout aussi intéressante, ce même étudiant peut devenir professeur. Grâce à des organisations véritablement démocratiques, telles que la Khan Academy, une organisation à but non lucratif, qui propose en ligne plus de 3 000 cours en vidéo. Partout dans le monde des personnes peuvent à la fois disposer de et contribuer à une bibliothèque de ressources qui ne cesse de croître, depuis des leçons de physique jusqu’à des manuels de finance. Nous savons déjà à quel point l’éducation publique a transformé la société au cours du vingtième siècle. Les possibilités offertes par une éducation ouverte et en ligne semblent tout aussi illimitées.

Les gouvernements

Prétendre à la transparence gouvernementale est une chose mais des exemples comme celui du Canada avec sa Déclaration officielle de Gouvernement Ouvert, en sont une autre. Ce document reconnaît l’ouverture comme un état actif et non passif : il ne s’agit pas seulement de donner aux citoyens un libre accès aux données chaque fois que possible, mais bien de définir une « culture active de l’engagement » comme finalité de ces mesures.

Tandis que toujours plus de villes, de régions et de gouvernements fédéraux avancent dans cette direction, il y a tout lieu de croire que cela finira par payer financièrement (au moment où les données GPS ont été mises en libre accès public à la fin des années 80, par exemple, on estime que les services commerciaux qui en ont tiré parti ont contribué à hauteur de 67.6 milliards de dollars à la valeur économique des États-Unis). À l’inverse, on pourrait dire que lorsque le régime égyptien a verrouillé Internet en janvier 2011, cela a poussé les citoyens à descendre dans la rue pour avoir plus d’informations, et à venir grossir les foules de la place Tahrir. Il est ici probable que le retour à un système plus fermé ait accéléré la chute du gouvernement.

Le système de santé

PatientsLikeMe est un site de réseautage social de santé construit sur des bases de données ouvertes du Département de la Santé des États-Unis. Il ouvre la voie à d’autres initiatives, comme procurer aux patients des moyens de partager des informations et d’apprendre entre personnes souffrant de symptômes similaires. Les chercheurs pourraient également tirer profit de plus d’ouverture dans l’industrie.

L’ouverture des données sur la santé pourrait permettre à des études épidémiologiques à grande échelle de réaliser des percées importantes tout en mettant en place des garde-fous plus forts que jamais pour assurer au patient le respect de la confidentialité. En mettant à la disposition des chercheurs son registre des malformations congénitales, la Californie a permis aux médecins d’accéder à une mine d’informations relatives à l’impact des facteurs environnementaux sur la santé. Et bien sûr, Google Flu Trends a déjà prouvé sa pertinence pour analyser et prévoir l’arrivée d’un virus particulier, tout simplement en permettant que l’information soit partagée et rassemblée.

La science

Chercheurs, institutions, et agences de financement du monde entier commencent à prendre conscience qu’un meilleur partage et une meilleure collaboration sur les résultats de recherches scientifique peuvent mener à des recherches plus rapides, plus efficaces, de meilleure qualité et d’un meilleur impact général. En tant que commissaire européen, Neelie Kroes faisait récemment remarquer dans un discours sur la science et les politiques du libre en Europe, « les chercheurs, les ingénieurs et les petites entreprises ont besoin d’accéder aux résultats scientifiques rapidement et facilement. Si ce n’est pas possible, c’est mauvais pour les affaires ».

Un meilleur accès aux recherches scientifiques peut stimuler l’innovation dans le secteur privé et aider à résoudre des défis importants auxquels le monde doit faire face (les Google ‘Fusion Tables sont un outil que les scientifiques peuvent utiliser pour partager et collaborer sur des ensembles de donnés disparates). Pendant ce temps, l’ouverture dans le domaine scientifique signifie l’ouverture à de tout nouveaux participants. Après avoir échoué pendant plus d’une décennie à résoudre la structure d’une enzyme protéase provenant d’un virus ressemblant au SIDA, les scientifiques ont proposé le défi à la communauté des joueurs. En utilisant le jeu en ligne Foldit, les joueurs ont pu résoudre ce problème en trois semaines.

Les transports

En libérant les données des transports publics, les gouvernements permettent aux entrepreneurs de créer des applications basées sur ces données, et ainsi d’améliorer l’expérience des citoyens ; ces derniers peuvent également utiliser ces données ouvertes pour signaler des problèmes d’infrastructure. Chez Google, nous avons déjà pu observer comment cela fonctionne. Lorsque nous avons commencé à organiser les informations géographiques mondiales, nous avons constaté que, pour de nombreux endroits, il n’existait tout simplement pas de carte correcte. Nous avons donc créé MapMaker, un outil de cartographie participative qui permet à chacun de créer des annotations sur Google Maps. C’est avec cela qu’un réseau de citoyens cartographes est né, traçant en deux mois plus de 25 000 kilomètres de routes précédemment non cartographiées au Pakistan.

Les tendances technologiques convergentes sont maintenant sur le point de modifier, en fait elles ont déjà commencé à le faire, les domaines historiquement fermés, secrets et dormants. « L’avenir des gouvernements, c’est la transparence,» écrivais-je il y a un an, «L’avenir du commerce, c’est la symétrie de l’information. L’avenir de la culture, c’est la liberté. L’avenir de la science et de la médecine, c’est la collaboration. L’avenir du divertissement, c’est la participation. Chacun de ces avenirs dépend d’un Internet ouvert. »

Je mettrais juste un bémol. Étant donnés les changements radicaux auxquels nous avons assisté ces trois dernières années, le défi s’est déplacé. Nous devons viser plus loin même que l’Internet ouvert. Les institutions dans leur ensemble doivent continuer à adhérer à cette philosophie. Atteindre ces futurs objectifs ne sera pas chose facile. Mais je suis content de pouvoir dire que nous en sommes plus proches que jamais.

Crédit photo : John Martinez Pavliga (Creative Commons By)




Quand le politique se met au service du privé pour que le public arrête le libre !

« L’affaire OpenJustitia » qui se déroule actuellement en Suisse est un cas très intéressant.

Comme on peut le lire sur le site du projet, OpenJustitia est « un ensemble de logiciels spécifiques pour les tribunaux. Le Tribunal fédéral a développé ces derniers de sa propre main et les a personnalisés à ses propres besoins. OpenJustitia permet notamment une recherche efficace dans les décisions du tribunal. »

Il a donc été développé en interne et, comme son nom le suggère, il est libre (sous lience GNU GPL v3) et a d’ailleurs reçu un prix dernièrement aux CH Open Source Awards 2012.

OpenJustitia

Nous voici donc en présence d’un logiciel libre métier développé et mutualisé par l’administration. D’ailleurs le canton de Vaud a d’ores et déjà signé une convention de collaboration avec le Tribunal fédéral.

C’est exactement ce que prône en France une association comme l’ADULLACT avec la fameuse citation de son président François Elie : « l’argent public ne doit payer qu’une fois ».

Sauf qu’un parti politique (et derrière lui un éditeur de logiciels propriétaires) ne l’entendent pas de cette oreille, comme nous le rapporte l’ICTjournal.

Pour ce qui concerne l’éditeur, c’est (plus que) maladroit mais (malheureusement) compréhensible :

L’entreprise bernoise Weblaw, éditrice de logiciels de tribunaux propriétaires, estime que le Tribunal fédéral et sa solution font de l’ombre aux fournisseurs privés de logiciels. Le Tribunal fédéral doit-il s’occuper de droit ou de logiciels ?

Mais ce qui l’est moins c’est de voir l’UDC lui emboîter le pas et ne pas saisir l’intérêt, voire le bon sens, à utiliser du logiciel libre dans les institutions publiques :

Le Conseil fédéral doit examiner, à la demande de l’UDC, si le Tribunal fédéral a le droit de d’agir comme fournisseur du logiciel open-source Openjustitia. En agissant de la sorte, ce dernier délivrerait des services non liés à ses compétences judiciaires.

Il est « totalement absurde » que le Tribunal fédéral fonctionne comme distributeur de logiciels, a déclaré Martin Baltisser, secrétaire général de l’UDC. Selon lui, d’une part le Tribunal fédéral n’aurait aucun intérêt prépondérant à agir en tant que fournisseur de logiciels, d’autre part il serait également dépourvu de base légale. Selon la Constitution et la Loi sur les finances de la Confédération, l’Etat ne peut intervenir au niveau commercial uniquement s’il n’existe pas d’offre privée et qu’une loi l’y autorise. Le Tribunal fédéral réplique qu’il ne réalise «aucun service commercial», comme le projet est open source, le logiciel est mis à disposition gratuitement.

Comme on peut le voir ci-dessous, on en a même parlé le 20 octobre dernier à la RTS mais, triste classique, en occultant complètement le libre pour n’évoquer que le gratuit :

D’autres voix se font heureusement entendre, comme celle de l’élu des Verts François Marthaler qui conteste, à juste titre et avec vigueur, cette demande de clarification de l’UDC sur son blog :

Je veux bien croire que la situation économique de Weblaw soit menacée. Mais je ne peux pas imaginer que les pouvoirs publics se trouvent empêchés de développer des solutions plus performantes et surtout moins onéreuses, dans l’intérêt de tous les contribuables et du bon fonctionnement de l’Etat. Plus encore que les coûts du développement initial du logiciel, ce qui est en jeu, c’est la maintenance et l’évolution du système au profit de l’administration, des justiciables et, finalement, des contribuables.

Sans le dire, Weblaw s’attaque au modèle économique des logiciels libres (open source). Un modèle dans lequel le prestataire ne peut prétendre encaisser plus que la réelle valeur ajoutée au produit et pas une rente de situation. Que se serait-il passé si une société privée avait conçu le logiciel OpenJustitia et avait décidé de le mettre sous licence GNU/GPL ? Rien ! L’UDC n’aurait pas pu invoquer le « moins d’Etat » pour défendre les intérêts privés de cette petite société.

Espérons que comme le dit le dicton : les chiens aboient, la caravane passe…




Lionel Dricot (alias Ploum) candidat du Parti Pirate aux élections en Belgique

De l’informatique à la politique…

Lionel Dricot, alias ploum, vient de temps en temps rédiger dans nos colonnes (clavier Bépo, monnaie Bitcoin, histoire d’OpenOffice). Plus généralement c’est un acteur engagé en faveur de la défense et promotion du logiciel libre, et ce depuis bien longtemps déjà.

Il se présente sous la bannière du Parti Pirate (Brabant-Wallon) pour les élections communales et provinciales du dimanche 14 octobre prochain.

Il a eu la gentillesse de bien vouloir répondre à quelques une des nos questions. Et je suis certain qu’il trouvera malgré tout le temps de répondre aux vôtres dans les commentaires 😉

Lionel Dricot - Ploum

Bonjour Lionel. Tu es contributeur occasionnel au Framablog mais peux-tu te présenter pour ceux qui ne te connaissent pas ?

Je m’appelle Lionel Dricot mais, sur la toile, vous me verez surtout sous le pseudonyme de Ploum. Je suis un ingénieur en informatique de 31 ans, belge une fois et actif dans le logiciel libre depuis 2001.

J’aime beaucoup réfléchir, écrire et remettre en question, sous une lumière purement rationnelle, ce qui est considéré comme acquis. Je me suis passionné pour Linux et XMPP à une époque où Windows et MSN étaient des acquis. Pour la même raison, j’ai remis en question l’Azerty pour passer au Bépo et j’ai remis en question le principe monétaire avec Bitcoin.

Et tu es candidat aux élections qui vont avoir lieu en Belgique…

La Belgique est un pays très complexe. Cette année, nous allons élire nos représentants à la province (l’équivalent des départements français) et à la commune. Les élections provinciales passionnent peu mais les élections communales sont très importantes car elles auront des conséquences immédiates sur la vie quotidienne des habitants. Le bourgmestre (équivalent du maire) est en effet nommé pour six ans suite à ces élections.

Je suis candidat du Parti Pirate, en première position dans la commune d’Ottignies-Louvain-la-Neuve et en 9ème position pour la province du Brabant-Wallon.

Sont-ce tes premiers pas en politique ?

Pas vraiment. J’ai toujours trouvé important de suivre la politique de près. Comme beaucoup de jeunes, j’ai voté pendant des années pour Ecolo, équivalent des Verts en France, avant d’être très déçu. J’ai été quelques temps membre actif du MR, parti libéral de centre-droit, souhaitant défendre les libertés individuelles. J’ai aussi été déçu par certains aspects conservateurs ou ultra-capitalistes.

J’ai découvert que, dans tous les partis, il y a des gens extraordinaires et des gens insupportables avec des idées dangereuses. Et que, malheureusement, la particratie belge lissait le tout, rabrouant ceux qui sortent un peu du lot et qui sont pourtant ceux que je voulais voir en politique.

Tu t’es alors tourné vers le Parti Pirate. Alors pourquoi lui et pas un autre ?

En fait, avec plusieurs amis, on se morfondait devant les partis politiques traditionnels. Par exemple, nous avions trouvé une erreur fondamentale dans le programme Ecolo pour sortir du nucléaire. Une erreur qui multipliait par 10 la puissance des éoliennes. Nous avons donc contacté les responsables du parti et il nous a été répondu qu’on nous répondrait après les élections.

Dans nos discussions, nous avons lancé l’idée d’un parti politique qui ne serait pas idéologique mais qui tenterait une approche pragmatique des problèmes, reconnaissant si nécessaire ses erreurs et n’hésitant pas à faire marche arrière quand une solution donnée s’avère défaillante. On avait appelé ça le Parti Intellectuel ou un truc du genre, je ne sais plus trop.

Mais quand le Parti Pirate est arrivé, j’y ai retrouvé exactement cet état d’esprit. Et je n’ai pas été le seul vu que mes amis Nicolas Ykman, blogueur sur artimuses.be, et Gauthier Zarmati s’y sont aussi retrouvés.

De là à être candidat, il y a pourtant une sacrée marge. Pourquoi s’investir autant ?

Parce qu’il n’y avait personne d’autres dans notre province. Sur le forum du Parti Pirate, je tentais de savoir qui seraient les candidats pour le Parti Pirate, demandant pourquoi il n’y avait pas quelqu’un pour lancer tout. J’ai un jour reçu un mail de Paul Bossu, coordinateur du Parti Pirate pour la Wallonie, qui m’a dit : « Tu es quelqu’un comme un autre, tu n’as pas besoin de notre permission, lance-toi ! ». Nicolas et Gauthier m’ont dit : « Si tu te lances, je me lance » et on a fondé la section locale du Parti Pirate.

Étant en mars 2012, on s’est dit qu’on était trop tard pour les élections d’octobre, on ne se préoccupait pas de ça. Mais notre section locale s’est rapidement développée, avec des membres de tous horizons, apportant chacun leur motivation. Paul nous a dit que ce serait une bonne expérience de se présenter aux élections.

Et il avait raison : refaire le monde, avoir des idées c’est bien. Mais refuser de se présenter aux élections, c’est un peu de la lâcheté. Il faut se confronter à la vraie vie.

Mais qu’est-ce qu’un geek libriste peut trouver dans la politique ? Le logiciel libre et le Parti Pirate ont-ils le moindre rapport ? Surtout à un niveau extrêmement local.

Oui, les deux sont complètement liés. Il y a tout d’abord la volonté de remettre en question l’existant, d’essayer de nouveaux modèles. Mais le logiciel libre m’a appris que, grâce aux nouvelles technologies, des centaines voire des milliers de personnes pouvaient collaborer pour gérer des projets extrêmement complexes. Et ce, malgré l’éparpillement géographique, les différences de cultures, de langues.

Si c’est possible pour de tels projets, cela doit a priori l’être pour une commune. C’est pourquoi nous proposons d’utiliser des logiciels de suivi de problème (genre Bugzilla) pour permettre aux habitants de signaler les problèmes : trottoir abîmé, égout bouché, dégradation du mobilier urbain, etc.

Nous souhaitons également que tous les projets, les règlements soient accessibles sur un wiki avec un suivi des révisions et où chacun pourrait apporter sa modification. Le tout en insistant également sur la transparence du processus politique et ce y compris jusque dans les détails du budget de la commune et du salaire des politiciens.

Tout cela est très expérimental mais Ottignies-Louvain-la-Neuve est une ville à part, un ovni dans le paysage belge. C’est donc l’endroit idéal pour tenter de renouveler le terrain politique.

Crédit photo : Adrien le Maire (Creative Commons By-Sa)




Créer et maintenir les lois comme les logiciels libres sur GitHub ou Wikipédia ?

Lorsque vous parcourez un article de l’encyclopédie libre Wikipédia, vous pouvez bien évidemment le lire, mais aussi écrire (le fameux bouton « Modifier ») et consulter tout son historique, sans oublier converser autour avec les autres contributeurs (lien « Discussion »). Il en va de même avec tout logiciel libre déposé sur une plateforme collaborative comme celle de GitHub par exemple (dont l’approche et les fonctionnalités sociales ont donné un coup de vieux à Sourceforge).

Il y a là une manière bien spécifique de fonctionner et une invitation à s’impliquer.

Dans la mesure ou Wikipédia ou GNU/Linux sont d’incontestables réussites, l’un des plus célèbres penseurs du Net, Clay Shirky, s’est récemment demandé, au cours d’une brillante intervention TED, si on ne pouvait pas fortement s’en inspirer pour faire évoluer la politique en générale et l’élaboration de nos lois en particulier.

Ce que l’on pourrait résumer également ainsi : est-ce que le logiciel libre a des choses à dire, voire à enseigner, à la démocratie ?

Fabricio Zuardi - CC by

Peut-on améliorer la politique avec les outils du logiciel libre ?

Could we use open-source tools to improve politics?

Mathew Ingram – 29 septembre 2012 – Gigaom.com
(Traduction : Lamessen, Barbidule, Evpok, David, peupleLa)

Les principes du logiciel libre ont contribué à créer de nombreux logiciels efficients et utiles, y compris le système d’exploitation GNU/Linux et la surpuissante ressource que représente Wikipédia. Cette même approche pourrait-elle être utilisée pour ouvrir le processus de création des lois ? Clay Shirky assure que c’est possible.

La philosophie du logiciel libre a permis entre autres de construire un système d’exploitation et une encyclopédie collaborative de grande qualité. Pourrait-on en faire de même avec la législation et la politique ? C’est ce que le théoricien de la communication Clay Shirky a proposé dans une récente et remarquée conférence TED (Technologie Entertainment Design) à Edimbourg. L’idée est alléchante, employer les méthodes de GNU/Linux et Wikipédia pour rendre les gouvernements plus ouverts et impliquer davantage les concitoyens, mais est-ce véritablement transposable ? L’écriture de logiciels et de services Web est très différente de celle des lois, et l’histoire du logiciel libre a connu son lot de guerres quasi-religieuses. Mais c’est peut-être notre meilleur espoir.

Après avoir fait une sorte de tour d’horizon du mouvement open source, en accordant la part belle à GNU/Linux, Shirky a consacré une grande partie de son discours à Github, plateforme collaborative et sociale de dépôt de logiciels qui permet à n’importe qui d’éditer, de « forker » en créant sa propre version, et de suivre les changement que font les autres. De GitHub à l’idée de législation collaborative, il n’y a qu’un pas. Et c’est ce que Shirky semble avoir à l’esprit. Il y a déjà eu quelques tentatives de réalisation directement via GitHub. Ainsi un développeur allemand a, par exemple, déposé l’intégralité des lois allemandes sur la plateforme. De cette façon, les citoyens peuvent recommander et suivre les changements.

C’est séduisant sur le papier : une simple plateforme logicielle dédiée à la collaboration pourrait changer la façon dont on développe et met en oeuvre les lois. Mais est-ce réaliste ?

Beaucoup de sceptiques disaient au départ que Wikipédia n’avait aucune chance de marcher. Pourtant elle est bel et bien là et sa réputation et fiabilité sont excellentes, malgré quelques ratés comme l’incident récent impliquant l’auteur Philip Roth. Il est vrai cependant que de nombreux critiques pensent que la « cabale » des éditeurs qui contrôlent l’encyclopédie collaborative a trop de pouvoir.

Force est de reconnaître que le fonctionnement des gouvernements reste de toutes les façons trop opaque à l’ère d’Internet, et donc que Github ne peut pas faire empirer les choses. D’ailleurs Shirky n’est pas le seul à le penser : le développeur Abe Voelker a proposé un « Github pour lois » qui propose exactement la même approche pour concevoir des lois collaborativement. D’autres expériences basées sur ces mêmes idées d’ouverture ont déjà eu lieu en Finlande, Irlande et surtout en Islande avec la rédaction collective de sa nouvelle Constitution (NdT : lire à ce sujet L’Islande, la crise, la révolution et moi et on notera en France l’initiative d’Étienne Chouard avec sa Constitution nationale d’origine citoyenne sur un wiki).

Un des problèmes posés par la transposition d’une solution technique comme Github à un processus culturel et politique de grande ampleur, c’est que créer des lois, même mineures, est très différent de bidouiller un bout de code afin que GNU/Linux puisse reproduire les styles de polices de caractères Windows, ou encore modifier l’article sur George Bush dans Wikipédia (sachant que ces deux exemples en apparence inoffensifs ont donné lieu à de vives polémiques au sein de leur communauté respective). Comment peut-on dès lors espérer que des politiciens puissent, dans les faits, se servir d’un processus similaire pour changer la manière dont fonctionne le gouvernement, le parlement et ses lois ? Comme le suggère Shirky dans sa conférence, il y a une bureaucratie bien installée qui n’a probablement aucun intérêt à renoncer à ce contrôle au profit du bon peuple.

Dans son livre « Here comes Everybody », Shirky a montré l’impact positif d’Internet sur la dynamiques des groupes. Son admiration pour Github semble prendre place dans une recherche d’outils collaboratifs et ouverts axée sur l’humain. Il est clair que nous en avons besoin, et même si Github n’est peut-être pas la bonne réponse, à ce stade, tout peut valoir la peine d’être tenté.

Crédit photo : Fabricio Zuardi (Creative Commons By)




Circulaire sur l’usage du logiciel libre dans l’administration : mon tout petit bémol

Le Premier ministre Jean-Marc Ayrault vient de diffuser à l’ensemble des ministères une circulaire titrée « Usage du logiciel libre dans l’administration » émanant de la DISIC (Direction interministérielle des systèmes d’information et de communication).

La première et plus importante chose à dire c’est que c’est une énorme satisfaction pour tous ceux qui (comme nous à Framasoft) font la promotion du logiciel libre depuis des années et ont attendu longtemps un tel document. C’est dense, solide, sérieux et mature, et pour tout dire, on a parfois l’impression que des passages entiers ont été pompés sur les sites de l’April, Aful ou l’Adullact 🙂

Pour en savoir plus je vous invite évidemment à le lire (bizarre tout de même qu’il ne soit pour le moment disponible qu’en version PDF scannée, pas très logique avec le sujet). On en trouve déjà une bonne synthèse chez mon ami Thierry Noisette, une légitime satisfaction au Conseil National du Logiciel Libre ainsi qu’une réjouissance (vigilante) à l’April. Et puis ça donne déjà des titres sympathiques dans les médias comme L’Etat français privilégie l’utilisation des logiciels libres !

On pourra toujours objecter qu’on aurait pu aller encore plus loin avec les deniers du contribuable (systématiquement privilégier les solutions libres…) mais ne faisons pas la fine bouche et saluons cette spectaculaire avancée. Et, chers fonctionnaires, préparez-vous déjà à mettre cette circulaire sous les yeux de votre supérieur hiérarchique récalcitrant, je pense notamment au monde merveilleux de l’Éducation nationale.

Mais alors d’où vient le tout petit bémol évoqué dans le titre du billet ?

De l’introduction du paragraphe Un choix raisonné, en haut de la page 6 de la circulaire :

Le logiciel libre a été porté à l’origine par une philosophie d’ouverture et par des « pionniers militants » qui ont rendu les utilisateurs plus institutionnels, qu’ils soient publics ou privés, méfiants par rapport à cette approche. Aujourd’hui le choix du logiciel libre dans l’administration n’est pas un engagement idéologique mais le fruit d’un choix raisonné…

Je vous attends dans les commentaires pour nous proposer votre interprétation de cette citation parce que moi elle me perturbe un peu.

Tronquez-en le début comme ci-après et vous obtenez même quelque chose d’assez étrange (voire contradictoire) :

Le logiciel libre a été porté à l’origine par une philosophie d’ouverture (…) qui ont rendu les utilisateurs institutionnels (…) publics (…) méfiants par rapport à cette approche…

Le privé peut avoir parfois quelques raisons de l’être (profit, concurrence…) mais qu’on m’explique pourquoi le service public devrait être méfiant vis-à-vis de l’ouverture ?

Revenons cependant à la citation exacte. Si j’ai tiqué sur ce passage c’est que, oui, j’ai l’impression de faire partie de ces « pionniers militants ». Et oui cela me va très bien d’être associé à une philosophie d’ouverture. C’est même cela qui me plaît avant tout dans le logiciel libre.

Sauf que non pour cette prétendue méfiance des institutions, a fortiori publiques. On se base sur quoi d’ailleurs exactement pour affirmer péremptoirement cela ? Comme on dit chez Wikipédia : « références nécessaires » !

Après plus de dix ans d’actions associatives diverses et variées en faveur du logiciel libre, au sein de Framasoft et d’ailleurs, c’est franchement un peu dur à lire. Et ce n’est pas, me semble-t-il, de la susceptibilité mal placée (si, quand même, un peu ?). Tout ce travail effectué avec les autres « pionniers » bénévoles et passionnés aurait-il été au final contre-productif pour aboutir à cet antonyme de la confiance ?

Oui il y a des personnes, dont je suis, qui attachent une attention particulière à la pensée souvent radicale d’un Richard Stallman. Mais pour la plupart d’entre nous, il s’agit je crois bien plus alors d’un objectif à atteindre que d’une injonction à tout modifier ici et maintenant ! C’est d’ailleurs tout le sens de notre slogan « le route est longue mais la voie est libre ». Il est vrai que certains prennent cela au pied de la lettre et se rangent sous la bannière du « 100% libre ou rien » en adoptant trop souvent un ton hautain voire méprisant envers ceux qui n’auraient pas encore rencontrés la lumière. Ils sont véhéments mais minoritaires et en tout état de cause ce ne sont pas eux qui rédigent les communiqués mesurés et argumentés des quelques associations mentionnées plus haut. Dit autrement : il ne faut pas confondre les « intégristes du libre » (une infime partie) avec les « pionniers militants » (le grand tout).

À partir de là je ne vois pas ce qui a pu réellement rendre méfiantes les institutions, si ce n’est de les inviter régulièrement au changement en bousculant leurs habitudes (ce qui peut-être violent, je le concède, surtout lorsqu’elle sont… mauvaises).

Bien que jamais l’expression ne soit utilisée, je comprends fort bien que cette circulaire, en direction des services informatiques des administration, soit pragmatiquement bien plus « open source » que « logiciel libre ». Mais ce passage confus, voire offensant, n’était pas forcément très opportun.

Lorsque j’ai rencontré le logiciel libre, j’ai décidé peu de temps après, en 2001, de créer un modeste annuaire de logiciels libres pour Windows, pierre angulaire du futur réseau Framasoft. À l’époque on les comptait à peine sur les doigts d’une seule main et ils étaient globalement de piètre qualité. Et pourtant j’avais l’intuition et la conviction qu’ils portaient en eux les germes du futur succès que l’on connaît aujourd’hui (et qui n’est pas prêt de s’arrêter). Je sais que je me jette maladroitement des fleurs là, mais ce que je veux dire par là c’est que c’était bien moins un engagement idéologique qu’une analyse rationnelle lucide et précoce de la situation.

Autrement dit le fruit d’un choix raisonné qui a mis une bonne décennie à arriver jusqu’à d’autres…




Recommandations pour l’ouverture des données et des contenus culturels

Open Glam est un réseau international informel de personnes et d’organisations cherchant à favoriser l’ouverture des contenus conservés ou produits par les institutions culturelles (Glam etant l’acronyme anglais de Galleries, Libraries, Archives, Museums).

Adrienne Charmet-Alix (Wikimédia France), Primavera De Filippi (Open Knowledge Foundation), Benjamin Jean (inno³, Veni Vidi Libri, Framasoft) et Lionel Maurel (BDIC, auteur du blog S.I.Lex), tous quatre membres d’Open Glam (parité respectée[1]), viennent de mettre en ligne un document important en direction du Ministère français de la Culture : Recommandations pour l’ouverture des données et des contenus culturels.

C’est solide, sérieux et technique mais n’allez pas penser que c’est rébarbatif à lire pour le non juriste. Bien au contraire, Open Data, mutualisation, numérisation, interopérabilité, domaine public (où il y a tant à faire), cession de droits des fonctionnaires, licences copyleft… c’est très instructif et cela dessine en plein et en creux les contours d’une situation qui doit d’autant plus évoluer qu’il s’agit de nos deniers publics et que l’époque est certes à leur parcimonieux usage mais également à la culture du partage.

Framasoft soutient l’initiative de l’intérieur, puisque Benjamin Jean a participé de près à sa rédaction, mais également vers l’extérieur en contribuant à sa diffusion. Et plus nous seront nombreux à en faire de même, plus nous aurons de chances d’être écoutés en haut lieu.

Le document est sous double licence Art Libre et Creative Commons By-Sa. Nous en avons reproduit ci-dessous les proposition ainsi que l’introduction.

Leaf Languages - CC by-sa

Propositions du rapport

La réussite d’une réelle politique d’ouverture des données et contenus culturels repose selon nous sur un certain nombre de facteurs/actions. Nous préconisons donc :

De la part du ministère de la Culture

  • Un effort pédagogique pour définir les termes employés dans le domaine de l’ouverture des données et des contenus, ainsi qu’un accompagnement des usages ;
  • Une mise en valeur et un encouragement des expériences d’ouverture réalisées, issues d’initiatives institutionnelles ou privées, afin de montrer ce qui est réalisable ;

La rédaction d’un clausier à destination des établissements publics et des institutions culturelles afin de sécuriser les marchés publics entraînant le transfert de droits de propriété intellectuelle ;

Une information claire et pédagogique pour les institutions culturelles sur l’existence du droit à la réutilisation des informations publiques, sur sa portée, son articulation avec la Loi Informatique et libertés et sur les conditions dans lesquelles elles peuvent encadrer ces usages.

De la part des institutions culturelles

  • Une intégration de leur démarche d’Open Data dans la conception et la refonte de leur système d’information,
  • Un travail commun permettant de mutualiser et fédérer des démarches similaires ;
  • Une mutualisation globale, des moyens et des fonds, notamment pour l’anonymisation et la numérisation des données ;
  • La reconnaissance d’un accès systématique et gratuit aux œuvres du domaine public numérisées, y compris en cas d’usage commercial ;
  • l’usage privilégié de licences ayant une clause de « partage à l’identique » en parallèle ou à la place de toute clause interdisant la réutilisation commerciale afin d’assurer une diffusion et une réutilisation optimales.

De la part du législateur

  • La réintégration du régime des données culturelles dans le régime général de réutilisation des informations publiques et la validation de l’usage de licence de type « partage à l’identique » (à l’échelle nationale et communautaire) ;
  • Une modification de la circulaire du 26 mai 2011 pour étendre le principe de gratuité dans la réutilisation de leurs données aux établissements culturels sous tutelle de l’État (avec portée rétroactive) ;
  • Une modification de la Loi DADVSI afin que la cession des droits des agents publics s’étende aussi aux usages commerciaux et dépasse le seul cadre de l’accomplissement d’une mission de service public ;
  • Un refus des propositions de la nouvelle directive européenne qui envisagent les droits des agents publics comme limites à la diffusion des informations publiques.

Introduction

Depuis quelques années, on observe un mouvement général d’ouverture des institutions vers le grand public dans le monde entier (États-Unis, Grande-Bretagne, Kenya, etc.) comme en France (villes de Paris, Rennes, Toulouse, Montpellier, Nantes, mission interministérielle Etalab, etc.).

Conjointement à ces actions, la société civile s’investit également dans la mise en valeur et la demande de partage des données et contenus culturels.

Dans le secteur culturel, l’Open Data prend la forme parallèlement d’une ouverture des reproductions numériques d’œuvres qui sont elles-mêmes dans le domaine public ou appartenant à une personne publique et d’une ouverture des données relatives à ces œuvres (catalogues, bases de données descriptives, etc.). À ce titre, le sujet intéresse le ministère de la Culture, le législateur et les institutions culturelles (publiques comme privées).

Nous avons identifié certains enjeux qui nécessitent une clarification parfois, de la pédagogie bien souvent, et dans quelques cas particuliers, une réflexion voire des changements juridiques.

Pour surmonter ces blocages et permettre une réelle et fructueuse ouverture des institutions culturelles, nous portons l’attention de l’administration et du législateur sur :

  1. la méconnaissance des concepts et enjeux de l’Open Data au sein des institutions culturelles ;
  2. une volonté politique insuffisante en France en ce qui concerne la diffusion et de la réutilisation des données culturelles sur Internet et à l’échelle internationale ;
  3. la complexité du cadre juridique relatif à la diffusion des données cultuelles ;
  4. l’importance d’une réaffirmation de la mission des institutions publiques dans la diffusion et la réutilisation des données culturelles, a fortiori concernant les oeuvres du domaine public ;
  5. les préoccupations économiques susceptibles d’entraver la diffusion et la réutilisation des données culturelles.

-> La suite sur DonneesLibres.info…

Crédit photo : Leaf Languages (Creative Commons By-Sa)

Notes

[1] À propos de parité, signalons l’initiative #LibDiv, premier apéro Libre et Diversité qui aura lieu le 12 octobre prochain à La Cantine, avec la participation de Framasoft.




« Chanter sans autorisation » : introduction aux enjeux du libre

Woody Guthrie (Commons PD)This Machine Kills Fascists…

Quand, dans le Monde diplomatique il est question du numérique en général et du Libre en particulier il y a de bonnes chances pour que l’article soit signé Philippe Rivière (alias Fil) et ce depuis près de quatorze ans.

Il faut dire qu’être l’un des papas de SPIP lui donne une certaine expérience, pour ne pas dire une expérience certaine.

Il a publié en juillet dernier, dans le magazine culturel en ligne Rictus.info, un papier qui synthétise bien la situation et que nous aimerions plus encore faire connaître, d’où cette reproduction.

« Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter. »

« Chanter sans autorisation » : introduction aux enjeux du libre

URL d’origine du document (Rictus.info)

Philippe Rivière – juillet 2012 – Licence Creative Commons By-Sa

À l’occasion des Rencontres Mondiales du Logiciel Libre, nous avons demandé à Philippe Rivière[1], de nous faire un petit tour d’horizon de la question du logiciel libre. Exposé des forces en présence et des enjeux.

Un peu de musique

Au début des années 1940, sur ses premiers disques, le compositeur américain Woody Guthrie avait fait inscrire la mention suivante sous le titre Copyright Warnings :

« Cette chanson est protégée aux États-Unis sous le sceau du copyright #154085 pour une période de 28 ans, et toute personne prise à la chanter sans autorisation sera mon meilleur ami, car je n’en ai rien à fiche. Publiez-la. Ecrivez-la. Chantez-la. Dansez dessus. Yodelez-la. Je l’ai écrite, c’est tout ce que je voulais faire. »

Aujourd’hui, chaque fois que vous insérez un film dans votre lecteur DVD, vous devez endurer une très longue présentation avec des écrans affreux du style :

« WARNING. La reproduction ou la redistribution non autorisée de cette œuvre copyrightée est illégale. Une violation criminelle de ce copyright, même sans gain monétaire, sera suivie d’une enquête du FBI et est punissable d’une peine d’emprisonnement allant jusqu’à cinq ans dans une prison fédérale, et d’une amende de 250 000 dollars »

Drôle de manière de vous remercier d’avoir acheté le DVD.

Dans l’informatique, c’est la même chose : les auteurs de logiciels ont deux possibilités pour s’adresser à leur public — c’est-à-dire les utilisateurs ; soit ils leur font signer une clause légale expliquant qu’il faut faire très attention à d’utiliser le logiciel comme il convient, si on veut avoir quelques chances de ne pas aller en prison. Soit ils leur disent : que toute personne prise à jouer avec ce logiciel comme elle l’entend sera mon meilleur ami !

Dans le premier cas, on parle de logiciel propriétaire (ou privateur), dans le second, de logiciel libre.

Logiciel capturé

Le logiciel n’est pas né en cage. Les premiers programmes étaient comme des formules de maths ou des recettes de cuisine : en dollars, ils ne valaient rien, puisqu’on les donnait avec la machine — qui, elle, coûtait très cher.

Comme l’écrit Lawrence Lessig, un juriste américain spécialisé dans le droit d’auteur :

« Vous ne pouviez pas faire tourner un programme écrit pour une machine Data General sur une machine IBM, donc Data General et IBM ne se préoccupaient pas de contrôler leur logiciel. »

Mais bien évidemment leur valeur était énorme, puisque sans programmes, l’ordinateur se limitait à allumer un C> clignotant sur un écran noir… Ce qu’un certain Bill Gates avait bien compris, c’est que le contrôle du logiciel permet de mettre la main sur l’ensemble du dispositif : IBM, la gigantesque firme américaine, ne l’avait pas compris. Elle voulait vendre des ordinateurs personnels, et se fichait bien de savoir ce qui fonctionnerait dessus : pressée d’arriver sur le marché, elle y a installé MS-DOS, un logiciel fourni par le jeune Bill Gates… on sait ce qu’il est advenu de ce choix : Microsoft, l’éditeur de MS-DOS, est rapidement devenu le plus gros éditeur de logiciels, et continue aujourd’hui à prélever une rente énorme sur l’ensemble des usages de l’informatique.

Free Software Foundation et licence GPL

De son côté, un certain Richard Stallman, chercheur au MIT, à Boston, s’était habitué, comme tous les informaticiens des années 1970, à bidouiller les programmes qui se trouvaient sur ses machines, pour les améliorer ou les adapter à la configuration de son matériel. Ça faisait partie de la normalité dans l’informatique, et encore plus dans le monde universitaire ; il aimait le sens de la communauté qui se développait autour de la programmation. Des échanges d’astuces, des concours pour être le premier à trouver une solution, etc.

Mais un jour, il s’aperçut que le code du logiciel pilote d’une imprimante n’était pas livré avec la machine, et qu’il ne pouvait donc pas le modifier — seulement le faire tourner, sans savoir ce qui était programmé exactement. S’il y avait un bug, il fallait contacter l’éditeur pour signaler le problème, et attendre une hypothétique nouvelle version… qui viendrait sans doute plus tard, et qu’il faudrait, en plus, à nouveau payer. On était au début des années 1980. Ce genre de choses commençait à se répandre, et Stallman comprit que les logiciels, qui étaient nés libres, ne le resteraient pas si personne ne les défendait. Il faudrait les protéger, sur le plan légal ; et les structurer d’une manière efficace. Il décida d’en faire son combat.

En 1984, Stallman démissionna du MIT (pour ne pas avoir de liens hiérarchiques qui pourraient lui coûter son indépendance), et fonda le projet GNU, puis la Free Software Foundation. D’un côté, un projet technique, consistant à fabriquer un système d’exploitation totalement libre — c’est-à-dire sans aucun composant propriétaire. De l’autre, une fondation dédiée à la protection du logiciel libre.

Il écrivit de nombreux logiciels (le plus connu est peut-être l’éditeur de texte Emacs). Et en parallèle, fit un travail juridique qui aboutit à la Licence publique générale GNU, la « GPL ». Elle est nettement moins « fun » que la licence de Woody Guthrie, mais elle garantit à tout utilisateur :

  • le droit d’utiliser le logiciel pour faire ce qu’il veut
  • le droit de lire le code source du logiciel, c’est-à-dire les éléments qui permettent de comprendre ce qu’il fait
  • le droit de modifier ce code source
  • le droit de redistribuer le logiciel ainsi que les versions modifiées.

Pour bénéficier de cela, l’utilisateur s’engage en échange à passer ces mêmes droits aux personnes à qui il le redistribue.

Bien sûr, tout le monde n’a pas forcément envie d’aller modifier le code… mais savoir que quelqu’un peut le faire, c’est avoir une certaine garantie.

Pour une entreprise, par exemple, c’est l’assurance que, si on n’est pas satisfait du prestataire à qui on a demandé de programmer quelque chose, ou s’il disparaît, on pourra légalement aller en voir un autre sans devoir repartir de zéro. C’est important.

Libertés pour l’utilisateur

Pour un particulier, on peut apprécier le fait que les logiciels libres sont souvent gratuits, ou en tous cas moins chers que les logiciels propriétaires. Cela dit, il ne faut pas confondre libre et gratuit ; « free » software, c’est « free » comme « freedom », pas comme « free beer ». Il y a des logiciels gratuits qui ne sont pas libres. Et, vice versa, pour développer un logiciel libre il faut quand même parfois que quelqu’un travaille…

Mais le plus important, pour l’utilisateur, n’est pas dans la gratuité : c’est que l’informatique touche de plus en plus aux libertés quotidiennes. Sur l’ensemble de la planète, à part quelques irréductibles hommes des cavernes, chacun porte en permanence sur soi un mouchard qui signale à tout instant où il se trouve précisément. Ce mouchard, cinq milliards d’humains en sont équipés. Il sert, parfois, à téléphoner…

L’informatique est aussi dans les voitures ; bientôt dans les frigos ; dans les habits, avec les puces RFID ; dans les passeports biométriques ; dans les cartes d’électeur – les machines à voter ! – ; il faut aller sur Internet pour voir les notes de collège de ses enfants ; on parle de numériser toutes les données de santé dans un « dossier médical personnel » accessible sur Internet (certains l’appellent dossier médical « partagé », car il est tout de même difficile à l’heure de WikiLeaks de prétendre qu’on saura empêcher le piratage…).

Discuter, s’informer, créer, partager, faire de la politique… tout ça est en train de s’informatiser, et si on ne contrôle pas collectivement les machines autour desquelles se construit de plus en plus la vie sociale, ce sont les machines qui nous contrôleront … ou plus exactement, ceux qui les programment.

Un seul exemple : vous avez entendu parler de Kindle, le livre électronique vendu par Amazon.com ; c’est génial, vous pouvez acheter et télécharger des dizaines de livres, et les lire sur un petit écran. Un jour donc, en juillet 2009, les commerciaux d’Amazon s’aperçoivent qu’ils ont fait une boulette dans leur offre : ils ont vendu électroniquement un livre pour lequel ils ne disposaient pas des droits de reproduction.

Ni une ni deux, que font-ils ? Ils attendent que les Kindle des clients se connectent, et leur envoient l’instruction d’effacer le livre. De quel livre s’agit-il ? « 1984 », de George Orwell, le livre qui décrit Big Brother et la police de la pensée !

Succès ou échec ?

Je ne vais pas énumérer les succès du logiciel libre : en 1990, un étudiant en informatique de l’université de Helsinki, Linus Torvalds, aimerait bien utiliser chez lui le programme sur lequel il travaille à l’université, un « noyau ». Il repart donc de zéro et crée son propre « noyau », qu’il place sans guère y accorder de réflexion sous la licence GPL. Ce sont les débuts d’Internet dans les facs, et rapidement ce noyau se développe ; comme Stallman avait développé de nombreux morceaux de code de GNU, mais pas encore de noyau, les deux projets cohabitent et donnent naissance à ce qu’on appelle maintenant GNU/Linux.

Les logiciels libres sont partout ; ils font tourner des ordinateurs personnels, et l’essentiel d’Internet. Ils sont dans les labos de recherche, les entreprises, etc.

Et il n’y a pas que la GPL. D’autres licences libres existent, qui permettent parfois plus de souplesse, moins de contrainte pour des utilisateurs qui modifient le code pour l’utiliser dans des projets fermés. Pour des textes ou des photos, on peut préférer des licences comme les Creative Commons. Pour des librairies (morceaux de code qui peuvent servir de fondation à des logiciels plus élaborés), on peut exiger que toute modification de la librairie soit libre, mais sans exigence sur les logiciels élaborés en question. D’autres font des licences plus proches de celle de Woody Guthrie (« je m’en fiche »), comme la licence MIT, ou encore la WTFPL (Do What The Fuck You Want To Public License / licence publique rien à branler).

A l’heure actuelle, les smartphones sont dominés par deux systèmes : Apple iOS et Google Android, qui sont basés sur des logiciels libres. Bien sûr chez Apple, les logiciels ne sont pas du tout libres ; mais ils sont construits sur une fondation totalement libre, NetBSD. Quant à Android, il est tellement bardé de brevets qu’il n’est pas non plus vraiment libre. Mais enfin, il contient beaucoup de logiciels libres.

En termes quantitatifs, on peut parler d’un succès : ce qui était perçu par les médias comme « marginal » est désormais au centre du tissu économique et du développement de l’informatique.

D’après une étude publiée en 2010[2] : Le secteur est estimé à 1,5 milliard d’euros en France, avec un taux de croissance moyen de 17 % (par an). Environ la moitié des directeurs informatiques interrogés lors de l’étude ont déclaré utiliser des logiciels libres et ce, quelle que soit la taille de l’entreprise.

La guerre contre le libre

Il y a la menace juridique : en ce moment, c’est la guerre des brevets. Google a racheté en août 2011 le fabricant de téléphones portables Motorola pour 12,5 milliards de dollars, dans le but de mettre la main sur 25 000 brevets ! Or on dépose actuellement des brevets sur tout et n’importe quoi, avec des effets très curieux. Des menaces de procès et des bras de fer judiciaires qui aboutissent à des accords entre les grandes sociétés qui possèdent ces portefeuilles de brevets.

Enfin, il y a la menace plus directe de la prise de contrôle de l’ordinateur. Au nom bien entendu de votre sécurité. Par exemple, ce qu’on appelle « l’informatique de confiance », un terme censé nous rassurer, est une stratégie qui interdit à tout logiciel qui n’est pas reconnu et « signé » par une société comme Microsoft, ou Apple, de s’exécuter sur votre machine.

Ou encore, au nom de la protection des droits d’auteurs, la loi HADOPI qui nous impose l’obligation de « sécuriser notre réseau ». Alors que même l’armée américaine n’est pas capable d’empêcher des documents de « fuiter » !

Les iPhone sont eux-mêmes totalement verrouillés et il faut passer exclusivement par le magasin en ligne d’Apple pour modifier le logiciel (même si techniquement il reste possible de « jailbreaker », ce n’est pas autorisé par le constructeur).

Et je passe sur les projets qui se multiplient au nom de la lutte contre le piratage, contre la criminalité ou contre le terrorisme (SOPA, ACTA, HADOPI, LOPPSI, DMCA, etc), sans parler de la surveillance des communications qui se pratique plus ou moins illégalement et de façon massive[3]. Aux États-Unis, l’association des producteurs de musique, la MPAA, demande que ce qui marche en Chine (la « grande muraille électronique » qui permet au pouvoir de surveiller les internautes) soit appliqué à l’ensemble de l’Internet !

Pour la FSF : « Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller. »

Pour le romancier Cory Doctorow (et excellent blogueur), les États et les entreprises se préparent à une « guerre à venir sur la computation à but général », et « l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi ».

Biens communs

Et puis il y a la propagande.

Aujourd’hui, les manifestants d’Occupy Wall Street, qui contestent le système capitaliste, sont traités de « terroristes ». Ce qui pourrait permettre à la police de les pister, de placer des mouchards dans leur ordinateur, etc.

Déjà Bill Gates en 2005 voyait des rouges partout :

« Il y a certains communistes d’un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. »

J’avoue que je ne suis pas totalement choqué par cette critique. Elle est maligne, car parmi les auteurs de logiciels libres il y a beaucoup de gens qui ne sont pas particulièrement de gauche, et même des « ultra-capitalistes » comme se définit par exemple le leader du Parti pirate suédois, Rickard Falkvinge. Mais en effet, quand on crée du logiciel libre, quand on défend le partage de la culture sur Internet, quand on construit des sites sur le Web, on produit, collectivement, un bien public. Qui appartient à tout le monde, et où chacun va pouvoir venir puiser à sa guise, et utiliser ce que vous avez fait pour faire avancer ses propres projets. Le savoir, la culture sont cumulatifs, nous sommes « des nains sur des épaules de géants »[4].

Au-delà du logiciel libre, il faut réfléchir à l’ensemble des biens communs informationnels : la science, la culture, l’amusement, le logiciel dans tous les domaines… Internet permet de les diffuser, mais comment mobiliser des ressources pour les produire, et comment les défendre ? Certainement pas en les enfermant derrière des murs de paiement, des systèmes de DRM provoquant l’autodestruction des fichiers… Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter.

Crédit photo : Woody Guthrie NYWTS (Wikimedia Commons)

Notes

[1] Co-auteur de SPIP (le logiciel qui sert à publier ce site, mais aussi des milliers d’autres) et journaliste au Monde diplomatique

[2] Étude sur l’impact socio-économique du libre citée dans la presse

[3] Cf. l’article d’Antoine Champagne dans Le Monde diplomatique de janvier 2012

[4] Bernard de Chartres, XIIe siècle