Protéger le secteur du logiciel des brevets, par Richard Stallman

En novembre dernier, Richard Stallman faisait paraître dans le magazine Wired un article important sur l’épineuse et dangereuse question des brevets logiciels (ou plutôt « brevets sur des idées informatiques » comme nous le verrons ci-après).

Un article que nous nous sommes empressés de traduire via notre circuit, désormais classique, compte Twitter + Framapad, et qui a été relu et corrigé par la liste « trad-gnu » de l’April.

OpenSourceWay - CC by-sa

Protéger le secteur du logiciel des brevets

Giving the Software Field Protection from Patents

Richard Stallman – version du 02 février 2013 – Gnu.org (CC BY-ND)
(Traduction Framalang : satbadkd, Thérèse, DarthMickey, geecko, Marc, igor, EEva, greygjhart)

Une première version de cet article a été publiée sur Wired en novembre 2012.

Les brevets menacent chaque concepteur de logiciel, et les guerres de brevet que nous avons longtemps craintes ont éclaté. Les développeurs et les utilisateurs – soit, dans notre société, la plupart des gens – ont besoin de logiciels libres de tout brevet.

Les brevets qui nous menacent sont souvent appelés « brevets logiciels », mais ce terme est trompeur. Ces brevets ne concernent aucun programme en particulier. En fait, chaque brevet décrit une idée applicable en pratique, et affirme que quiconque utilise cette idée peut être poursuivi en justice. Il est donc plus clair de les appeler « brevets sur des idées informatiques », ou « brevets sur des algorithmes ».

Le système de brevets américain ne différencie pas les « brevets logiciels » des autres. Seuls les développeurs font la distinction entre les brevets qui nous menacent – ceux qui concernent des idées pouvant être implémentées dans des logiciels – et les autres. Par exemple : si l’idée brevetée est la forme d’une structure physique ou une réaction chimique, aucun programme ne peut implémenter cette idée ; ce brevet ne menace pas le secteur du logiciel. Si par contre l’idée qui est brevetée est un algorithme, alors le canon de ce brevet est braqué sur les développeurs et les utilisateurs.

Cela ne veut pas dire que les brevets couvrant des algorithmes concernent seulement les logiciels. Ces idées peuvent être aussi implémentées dans du matériel… et beaucoup d’entre elles l’ont été. Chaque brevet couvre typiquement les implémentations matérielles et logicielles de l’idée.

Le problème particulier du logiciel

Toujours est-il que c’est dans le domaine du logiciel que les brevets sur des algorithmes posent un problème particulier. Il est facile de combiner des milliers d’idées dans un seul programme. Si 10% de ces idées sont brevetées, cela signifie que des centaines de brevets le menacent.

Quand Dan Ravicher, de la Public Patent Foundation (Fondation publique des brevets) a étudié en 2004 un programme de taille importante (Linux, qui est le noyau du système d’exploitation GNU/Linux), il a trouvé 283 brevets américains qui semblaient couvrir des algorithmes implémentés dans son code source. Cette année-là, on estimait la part de Linux dans le système GNU/Linux complet à 0,25%. En multipliant 300 par 400, on peut estimer que le nombre de brevets qui menacent le système dans son ensemble est de l’ordre de 100 000.

Si la moitié de ces brevets était supprimée pour cause de « mauvaise qualité » – c’est-à-dire pour cause de ratés du système de brevets – cela ne changerait pas grand chose. Que ce soit 100 000 ou 50 000 brevets, la catastrophe est la même. C’est pourquoi c’est une erreur de limiter nos critiques des brevets logiciels aux seuls patent trolls ou aux brevets de « mauvaise qualité ». En ce sens Apple, qui n’est pas un « troll » selon la définition habituelle, est actuellement l’entreprise la plus dangereuse quand elle se sert de ses brevets pour attaquer les autres. Je ne sais pas si les brevets d’Apple sont de « bonne qualité », mais plus la « qualité » du brevet est élevée, plus la menace est grande.

Nous devons corriger l’ensemble du problème, pas seulement une partie.

Pour corriger le problème sur le plan législatif, on suggère habituellement de changer les critères d’octroi des brevets – par exemple, d’interdire la délivrance de brevets sur les pratiques algorithmiques et les systèmes nécessaires à leur mise en œuvre. Mais cette approche a deux inconvénients.

Premièrement, les avocats reformulent les brevets de manière astucieuse pour qu’ils correspondent à toute règle applicable ; ils transforment toute tentative de limiter un brevet sur le fond en une simple exigence de forme. Par exemple, de nombreux brevets américains sur des algorithmes décrivent un système qui comprend une unité de traitement arithmétique, un séquenceur d’instruction, une mémoire ainsi que des contrôles pour mener à bien un calcul précis. C’est une manière assez particulière de décrire un programme tournant sur un ordinateur pour effectuer un certain calcul ; elle a été élaborée pour que la demande de brevet se conforme aux critères que, pendant quelques temps, l’on a cru être ceux du système américain de brevets.

Deuxièmement, les États-Unis ont déjà plusieurs milliers de brevets sur des algorithmes, et changer les critères pour empêcher d’en créer d’autres ne permettrait pas de se débarrasser de ceux qui existent. Il faudrait attendre pratiquement 20 ans avant que le problème ne soit entièrement résolu du fait de l’expiration des brevets. Et abolir les brevets existants par la loi est probablement anticonstitutionnel (de manière assez perverse, la Cour suprême a insisté pour que le Congrès puisse étendre les privilèges privés au détriment des droits du public mais ne puisse pas aller dans l’autre direction).

Une approche différente : limiter l’effet des brevets, pas la brevetabilité

Ma proposition est de changer l‘effet des brevets. Il faut inscrire dans la loi que développer, distribuer ou exécuter un programme sur des systèmes informatiques polyvalents ne constitue pas une violation de brevet. Cette approche a plusieurs avantages :

  • elle n’impose pas de classer les brevets selon qu’ils sont logiciels ou non ;
  • elle apporte aux développeurs ainsi qu’aux utilisateurs une protection contre les brevets sur des algorithmes, existants ou futurs ;
  • les avocats spécialistes des brevets ne peuvent plus trouver d’échappatoire en changeant la formulation de leurs demandes.

Cette approche n’invalide pas entièrement les brevets existants sur des algorithmes, parce qu’ils continueront à s’appliquer aux implémentations utilisant du matériel dédié. C’est un avantage dans le sens que cela supprime un argument mettant en question la validité de cette proposition du point de vue législatif. Les États-Unis ont légiféré il y a quelques années afin d’immuniser les chirurgiens contre les procès en contrefaçon de brevet, de sorte que même si des procédures chirurgicales sont brevetées, les chirurgiens sont protégés. Cela fournit un précédent pour ce type de solution.

Les développeurs et les utilisateurs de logiciels ont besoin de protection contre les brevets. Cette proposition est la seule solution législative qui apporte une protection totale à tous. Nous pourrions ensuite retourner à notre monde de concurrence ou de coopération… sans craindre qu’un inconnu ne vienne balayer notre travail.

Voir également : Une réforme des brevets n’est pas suffisante

Crédit photo : OpenSourceWay (Creative Commons By-Sa)




Neutralité des réseaux : Neelie Kroes s’affiche dans le camp des agresseurs

Le 16 janvier dernier, Neelie Kroes, commissaire européenne chargée de la société numérique, publiait dans Libération une tribune intitulée Internet et applications de filtrage : une histoire de choix et de recettes.

Une tribune jugée assez révélatrice et dangeureuse pour que notre ami François Pellegrini décide d’y répondre point par point ci-dessous.

Et de conclure ainsi : « Mme Kroes est entrée en guerre ouverte contre la neutralité des réseaux et contre Internet. En tant que Commissaire chargée de la stratégie numérique, elle a perdu toute légitimité, et son remplacement s’avère nécessaire. »

Thomas Belknap - CC by-sa

Neutralité des réseaux : Neelie Kroes s’affiche dans le camp des agresseurs

URL d’origine du document

François Pellegrini – 23 janvier 2013 – Blog personnel

Le filtrage autoritaire par Free de l’accès aux publicités, dans le bras de fer qui l’oppose à Google sur la rémunération des infrastructures de réseau, a eu de nombreux mérites. Un premier a été de faire prendre conscience au grand public que filtrer la publicité était possible, bien au delà du petit nombre d’utilisateurs ayant activé le greffon AdBlock sur leur navigateur Firefox. Un deuxième a été de faire sortir du bois un certain nombre d’intérêts privés, pour lesquels la mise en œuvre de ce filtrage, au moyen d’une mise à jour autoritaire de la FreeBox v6, a représenté une véritable déclaration de guerre.

Le relais de ces intérêts par la voix de Neelie Kroes, commissaire européenne chargée de la stratégie numérique, n’a guère surpris, tant la majorité de la Commission européenne est connue pour sa soumission aux intérêts privés. Néanmoins, sa tribune dans le journal Libération est un document méritant toute notre attention, parce qu’il reflète la stratégie construite par ces intérêts pour mettre la main sur Internet. En voici un décryptage, paragraphe par paragraphe.

La semaine dernière, une polémique a surgi lorsque Free a bloqué la publicité sur les services internet transitant par sa Freebox. Les fournisseurs de contenu internet qui dépendent de la publicité pour proposer du contenu gratuit aux consommateurs étaient furieux. Cette polémique illustre la complexité de l’économie de l’internet. Le fragile équilibre entre choix et facilité d’usage, entre transparence et contrôle effectif, entre commerce et intérêt public.

Ce premier paragraphe a le mérite de poser le cadre dès sa dernière phrase, avec une candeur presque touchante. Car effectivement, ce dont il sera question ici, c’est bien de la lutte de certains intérêts commerciaux contre l’intérêt public.

Mon principe de base consiste à dire que les consommateurs devraient être libres de faire de vrais choix quant à leur abonnement à l’internet et à leur activité en ligne. Les contrats standard et les paramètres par défaut des services internet peuvent être pratiques et efficaces, mais ils sont soumis à des limites d’intérêt public, que ce soit dans la législation générale sur la protection des consommateurs ou dans des règles spécifiques. Par exemple, les consommateurs ont le droit, lorsqu’ils naviguent sur un site web, de choisir s’ils souhaitent utiliser des «cookies», qui pistent leur utilisation de l’internet. Ils devraient également comprendre les coûts et les avantages de leur choix.

Ce deuxième paragraphe introduit les arguments qui seront avancés pour justifier le filtrage d’Internet, et en particulier la notion de «choix», qui lui servira de paravent.

Du fait de la complexité et de l’évolution rapide de l’économie en ligne, de nouvelles questions surgissent constamment en ce qui concerne l’intérêt public. Par exemple, depuis 2009, la législation de l’Union européenne favorise la possibilité pour les consommateurs d’accéder à l’éventail complet des applications, du contenu et des services légaux en ligne. Selon moi, l’intérêt public ne s’oppose cependant pas à ce que les consommateurs s’abonnent à des offres internet limitées, plus différenciées, éventuellement pour un prix moins élevé.

Comme nous le verrons plus bas, une offre différenciée d’accès limité à Internet, ce n’est pas une offre d’accès à Internet. Avoir un accès limité, différencié, à la liberté, ce n’est pas être libre.

La liberté n’est pas une affaire de choix. L’État se doit de protéger les hommes d’eux-mêmes, en ne leur permettant pas de s’engager dans la servitude, fut-elle volontaire. Légaliser un système permettant à certains, en majorité les moins aisés, de renoncer aux droits essentiels que constituent à la liberté d’expression et à la liberté d’accès à l’information, en échange d’une réduction sur leur abonnement, ne fait pas honneur à la rédactrice de cette tribune.

Existe-t-il un intérêt public à ce que les parents disposent d’outils efficaces pour contrôler le matériel auquel leurs jeunes enfants peuvent accéder en ligne? La plupart des gens répondraient oui, et l’Union partage ce point de vue. De même, la plupart des gens aimeraient pouvoir choisir de recevoir ou non de la publicité parallèlement au contenu et aux services en ligne, mais tant les consommateurs que les entreprises en ligne semblent ne pas vouloir laisser ce choix entre les mains d’obscurs paramètres par défaut.

Où l’on retrouve ici l’un des camouflages typiques des agresseurs d’Internet : l’utilisation de la protection des ‘tizenfants pour justifier la mise en place de filtrages dans des buts bien moins louables. Cette ficelle sera utilisée à plusieurs reprises au cours de la tribune de Mme Kroes.

S’agissant de questions de cette nature, transparence et contrôle effectif par le consommateur feront presque toujours partie de la solution.

Avec celui du «choix», l’argument de la «transparence» est le deuxième paravent des agresseurs d’Internet. L’emploi de ce terme indique sans ambigüité le camp choisi par Mme Kroes. Il avait déjà été utilisé par les opérateurs de télécommunication en 2009, du temps où Mme Kroes était Commissaire à la concurrence, lors des débats sur le «Paquet Télécom». Il s’agissait d’un ensemble de cinq directives européennes portant sur la régulation et l’accès aux réseaux (et donc pas seulement Internet) et devant être renégociées. Ce processus avait été l’occasion, pour ces opérateurs ainsi que pour les grands industriels du divertissement, de tenter d’introduire des amendements autorisant l’écoute des communications et le filtrage, au nom de la lutte contre les «contenus illicites».

Alors que les représentants des usagers demandaient que soit garantie la neutralité des réseaux, les opérateurs souhaitaient ne s’engager que sur des garanties de « transparence » : ils auraient le droit de porter atteinte à la neutralité des réseaux, pourvu qu’ils en informent leurs abonnés. Ils arguaient qu’ainsi les internautes choisiraient les opérateurs sans filtrage, contraignant par la loi de l’offre et de la demande les opérateurs à ne pas filtrer.

La ficelle était un peu grosse. Les usagers n’ont en général qu’un choix limité entre quelques opérateurs en situation d’entente, comme on l’a bien vu dans le secteur de la téléphonie mobile en France, dont les prix étaient maintenus anormalement hauts. Ceux qui proposent de garantir la «transparence» au lieu de la neutralité sont ceux qui ne veulent pas de la neutralité. Ils souhaitent juste pouvoir la violer impunément.

Cela ne signifie pas encore plus de pages dans votre contrat qui en compte déjà une centaine! La Commission encourage depuis un certain temps le secteur de la publicité à faire en sorte que les utilisateurs se voient proposer un choix clair concernant les cookies, sur la base d’informations concises et digestes. Elle collabore aussi avec une grande variété d’acteurs en ligne pour élaborer une norme «Do Not Track» («Ne pas pister»), afin que les consommateurs qui font ce choix puissent être certains qu’il sera respecté.

Dormez, braves gens, la gentille Commission veille sur vous. Vu comment ma boîte courriel est submergée en dépit de la loi imposant aux publicitaires de n’envoyer des courriels qu’à ceux ayant accepté de les recevoir («opt-in»), je n’ai qu’une confiance limitée dans le respect des chartes Bisounours™, sans sanctions juridiques, auxquelles semble croire si fort Mme Kroes.

En ce qui concerne la neutralité de l’internet, les consommateurs doivent avoir un choix effectif quant au type d’abonnement internet qu’ils souscrivent. Cela veut dire une vraie clarté, dans un langage non technique. Doivent figurer les vitesses effectives dans des conditions normales et toute restriction imposée au trafic, ainsi qu’une option réaliste permettant de passer à un service «complet», dépourvu de telles restrictions. Un tel choix devrait également stimuler l’innovation et les investissements des fournisseurs internet. Je prépare actuellement une initiative de la Commission visant à garantir ce choix en Europe.

C’est dans ce paragraphe que la commissaire se dévoile. Pour le comprendre, un petit rappel est nécessaire.

Les réseaux tels qu’Internet sont construits en trois couches : infrastructure, opérateurs et services. Les infrastructures, ce sont les moyens matériels de transmettre l’information : fibres optiques, relais hertziens, satellites, etc. Les opérateurs ont vocation à utiliser ces infrastructures pour offrir un service de connexion à leurs abonnés. Les services s’appuient sur les couches précédentes pour offrir des prestations, payantes ou gratuites (ou d’apparence gratuite car, premièrement, rien n’est gratuit à part l’air qu’on respire – et encore !– et deuxièmement, comme le dit l’adage, «si le service est gratuit c’est que c’est vous la marchandise»). Pour prendre une analogie automobile, on pourrait dire que l’infrastructure, ce sont les routes, que les opérateurs sont les différents vendeurs de voitures qui vous permettent d’emprunter le réseau routier et que les services sont les différents magasins que vous pourrez trouver à certaines adresses.

La première manœuvre de Mme Kroes consiste à mettre sur le même plan la question des vitesses et celle du filtrage des contenus, qui sont de natures complètement différentes.

Internet est un réseau qui a vocation à permettre l’échange d’informations entre tous ceux qui s’y connectent, à l’image du réseau routier qui permet à tous ceux qui y sont connectés de voyager d’un lieu à un autre. La liberté de circulation est un principe fondamental, de rang constitutionnel. Pour autant, chacun peut, selon ses désirs et ses moyens, s’acheter un véhicule plus ou moins rapide, ou de plus ou moins grande contenance. Il en est de même sur Internet : une personne qui souhaite un débit plus important peut avoir à le payer plus cher, car le trafic plus important qu’elle génèrera nécessite qu’elle contribue d’une façon plus importante aux infrastructures qui permettront son acheminement. Ceci est affaire de choix, en fonction de l’usage qu’elle compte faire de son accès. En revanche, toute restriction au trafic est injustifiable, justement parce qu’elle viole ce principe constitutionnel de libre circulation.

Rappelons ce qu’est la neutralité des réseaux. De façon simple, on pourrait dire qu’il s’agit de garantir le fonctionnement normal du réseau dans ses trois couches (infrastructures, opérateurs et services), en garantissant l’acheminement des flux d’informations qui y transitent sans discrimination sur leur provenance, leur destination, le service utilisé ou le contenu transmis.

La deuxième manœuvre de Mme Kroes consiste à suggérer que, pour avoir le droit d’utiliser certains services, les internautes aient à payer plus cher leur abonnement auprès de leur opérateur.

Ceci est incompréhensible, sauf à supposer une collusion entre opérateurs de réseau, seuls en capacité d’intervenir sur la gestion du trafic, et gestionnaires de services. Un exemple flagrant d’une telle collusion concerne les abonnements (prétendument) «à Internet» vendus par les opérateurs de téléphone mobile, qui interdisent majoritairement d’utiliser les services de «voix sur IP» (dits «VoIP», tels que Skype™). Ce filtrage abusif des protocoles VoIP est effectué par les opérateurs parce que de tels services portent atteinte à leurs propres services de communications vocales payantes. Il ne s’agit rien de moins que d’une vente liée et d’une atteinte à la liberté du commerce.

Au lieu de combattre de tels comportements, Mme Kroes, ancienne Commissaire à la concurrence, justifie et appelle de ses vœux des ententes verticales entre opérateurs de réseaux et gestionnaires de services. Connaissant la position traditionnelle de la Commission qui, sur les secteurs du ferroviaire comme de l’électricité, a toujours promu la séparation organisationnelle et stratégique entre gestionnaires d’infrastructures, opérateurs et fournisseurs de services (les rails, les trains, et les vendeurs de sandwiches), la volte-face est saisissante !

La troisième manœuvre de Mme Kroes consiste à justifier la nécessité du filtrage par l’investissement des fournisseurs Internet.

C’est le montant de l’abonnement au fournisseur d’accès qui permet la rémunération de celui-ci et, à travers lui, le développement et la maintenance des infrastructures, tout comme une fraction du prix d’un billet de train sert à financer les infrastructures ferroviaires. Les différents services peuvent être gratuits ou payants, selon le modèle économique qu’ils choisissent et mettent en œuvre vis-à-vis de leurs usagers, mais cela n’a aucunement à impacter les couches inférieures.

Des applications disponibles en ligne permettent déjà aux consommateurs de bloquer totalement ou partiellement les publicités, si bien que la distribution d’un logiciel de ce type par un fournisseur internet tel que Free n’est pas une révolution en soi. Elle nous amène néanmoins à envisager deux éléments.

Pas une révolution mais, comme on l’a dit, une menace par son ampleur. Sans cela, pourquoi le rappeler à longueur de tribune ?

D’une part, les consommateurs ne devraient pas oublier que tout choix comporte des conséquences. En optant pour le blocage des publicités ou en demandant la confidentialité («do not track»), on peut être privé de l’accès à du contenu gratuit. L’internet ne fonctionne pas par ses propres moyens. Le réseau, le contenu et l’accès à l’internet doivent tous être financés par quelqu’un. De nombreux petits opérateurs web existent grâce à des modèles publicitaires novateurs. Les consommateurs ont plusieurs façons de payer pour accéder à du contenu, notamment en voyant des publicités avant et pendant cet accès. Les entreprises devraient admettre que des consommateurs différents ont des préférences différentes, et concevoir leurs services en conséquence.

Ici encore, Mme Kroes entretient la confusion entre opérateurs et gestionnaires de services. Si l’accès au contenu (pseudo-)gratuit d’un site de service peut être limité à ceux qui n’acceptent pas d’être tracés au moyen de cookies, l’accès au réseau lui-même n’a aucune raison d’être limité en aucune manière.

D’autre part, nous avons vu l’importance commerciale et pratique des paramètres par défaut, mais notre réaction à un paramètre par défaut donné peut dépendre à la fois des valeurs défendues et de la manière dont il se matérialise. Par exemple, vu la valeur élevée attachée à la confidentialité, nous sommes moins choqués par des paramètres par défaut restrictifs que par des paramètres totalement ouverts, en particulier en ce qui concerne les utilisateurs plus vulnérables. C’est dans cet ordre d’idées que nous collaborons avec le secteur pour améliorer la façon dont les paramètres de confidentialité par défaut peuvent protéger nos enfants. D’un autre côté, la valeur élevée que nous attachons à l’internet ouvert signifie que nous favorisons l’installation de contrôles parentaux sur tous les appareils, mais pas leur activation par défaut. En pratique, cela pourrait en effet conduire de manière involontaire à limiter l’accès à l’internet pour de nombreux utilisateurs adultes. Mieux vaut donner un vrai choix aux parents, grâce à des outils clairement visibles et conviviaux dont l’existence est bien mise en évidence.

La lecture de ce paragraphe a fait naître en moi une hilarité certaine. Mme Kroes y soutient que, si le filtrage parental est une bonne chose, il ne faut pas l’activer par défaut afin de ne pas limiter l’accès à Internet aux adultes, et surtout bien expliquer aux gens comment s’en servir. Pour résumer : il ne faudrait pas que Monsieur et/ou Madame n’arrivent pas à se connecter à YouPorn™, surtout s’ils sont trop bêtes pour savoir désactiver le filtrage ; cela nuirait au petit commerce spécialisé.

Notons cependant comment, une fois de plus, le terme de «choix» est amené de façon bénéfique, vis-à-vis de la protection des ‘tizenfants par le filtrage.

Ici encore, Mme Kroes entretient délibérément la confusion entre le filtrage parental, qui peut ête réalisé sur le poste de l’usager et peut être désactivé par ce dernier, et le filtrage, par l’opérateur, des services qui feraient concurrence aux services avec lesquels cet opérateur serait lié par des accords commerciaux.

Nous voyons la difficile interaction entre ces deux intérêts – vie privée et ouverture – lorsqu’il s’agit d’examiner si le «Do Not Track» devrait être activé par défaut dans les navigateurs web. Microsoft a choisi de le faire dans son produit Internet Explorer. Cette décision a fait l’objet de critiques de la part des concurrents et des publicitaires. Néanmoins, compte tenu des intérêts publics concurrents – ainsi que de la concurrence entre les navigateurs et de l’existence d’un outil convivial permettant le libre choix de l’utilisateur à la fois pendant et après l’installation –, je ne partage pas les critiques montrant du doigt une décision commerciale destinée à séduire les internautes qui attachent une grande importance au respect de la vie privée. La décision de Free de bloquer par défaut les publicités a suscité de plus vives inquiétudes en matière d’intérêt public parce qu’elle combinait dans le même temps une portée plus large (touchant toutes les publicités sans exception) et la perception d’une difficile réversibilité pour les utilisateurs.

Une confirmation supplémentaire que la portée de l’action de Free a bien été l’élément déclencheur de cette riposte, du fait de son ampleur.

Nous voyons, dans ces exemples, que des décisions prises par une entreprise à titre individuel touchent à des intérêts publics sensibles. Des acteurs privés peuvent également contribuer collectivement à l’intérêt public. L’internet est une communauté mondiale, régie par une approche associant un grand nombre d’acteurs que l’Union a défendue avec fermeté lors d’une grande conférence des Nations unies à Dubaï le mois dernier. Des initiatives d’autorégulation peuvent compléter la législation. De telles initiatives sont en cours concernant la publicité et le pistage comportementaux ainsi que la protection des enfants en ligne. Toutefois, ces efforts collectifs doivent produire des résultats clairs, susceptibles d’être mis en œuvre et soumis à un suivi et à une évaluation. Et s’ils ne répondent pas à des objectifs d’intérêt public, l’autorité publique doit toujours se réserver le droit d’intervenir.

Mme Kroes, en bonne libérale, signale ici qu’elle ne souhaite nullement intervenir pour garantir la neutralité des réseaux de communication accessibles au public, et donc d’Internet. Bien au contraire, comme elle l’a précisé dans un paragraphe précédent, elle souhaite que la Commission, au titre du «choix» des usagers, autorise explicitement la collusion entre opérateurs de réseaux et fournisseurs de services, afin de légaliser le filtrage effectué par les premiers à l’avantage de certains des seconds.

Rappelons pour conclure un ensemble de principes simples et de bon sens dans un État de droit respectueux tant des libertés fondamentales de ses citoyens que de la concurrence libre et non faussée parmi ses entreprises.

La neutralité des réseaux, et donc d’Internet, est le pendant dans le monde numérique de la liberté de circulation (d’accès) dans le monde physique. Elle doit donc être protégée de façon explicite et non ambigüe. Toute atteinte par un intermédiaire technique à la liberté d’expression ou à la liberté d’accès à l’information, qui ne serait pas motivée par des considérations techniques ou par une décision de justice, doit constituer un délit pénal grave.

La séparation entre les activités portant sur les infrastructures, la fourniture d’accès et les services, doit être dictée par la loi afin d’être effective. Les opérateurs investissent actuellement, de façon redondante, dans le fibrage des zones urbaines denses, supposées rentables, en délaissant les zones rurales. En imposant l’existence d’une infrastructure unique accessible à tous les opérateurs, comme c’est déjà le cas dans les secteurs ferroviaire et de l’énergie, le législateur permettrait qui plus est la mise œuvre d’une péréquation bénéfique génératrice d’économies conséquentes, tant pour l’usager que pour les collectivités isolées.

Mme Kroes est entrée en guerre ouverte contre la neutralité des réseaux et contre Internet. En tant que Commissaire «chargée de la stratégie numérique», elle a perdu toute légitimité, et son remplacement s’avère nécessaire.

Crédit photo : Thomas Belknap (Creative Commons By-Sa)




Non à la privatisation du domaine public par la Bibliothèque nationale de France !

L’association COMMUNIA, l’Open Knowledge Foundation France, La Quadrature du Net, Framasoft, Regards Citoyens, Veni Vidi Libri, le Parti Pirate, Libre Accès et SavoirsCom1 publient ce jour un communiqué dénonçant la signature par la BNF, le Commissariat aux investissements d’avenir et le ministère de la Culture et de la communication d’accords qui privatisent l’accès numérique à une part importante de notre patrimoine culturel.

Massimo Barbieri

Paris, le 18 janvier 2013 — Le ministère de la Culture a annoncé hier la conclusion de deux accords, signés entre la Bibliothèque nationale de France et des firmes privées, pour la numérisation de corpus de documents appartenant pour tout (livres anciens) ou partie (78 et 33 tours) au domaine public. Les fonds concernés sont considérables : 70 000 livres anciens français datant de 1470 à 1700, ainsi que plus de 200 000 enregistrements sonores patrimoniaux. Ces accords, qui interviennent dans le cadre des Investissements d’avenir et mobilisent donc de l’argent public, vont avoir pour effet que ces documents ne seront pas diffusés en ligne, mais uniquement sur place à la BnF, sauf pour une proportion symbolique.

Ces partenariats prévoient une exclusivité de 10 ans accordée à ces firmes privées, pour commercialiser ces corpus sous forme de base de données, à l’issue de laquelle ils seront mis en ligne dans Gallica, la bibliothèque numérique de la BnF. Les principaux acheteurs des licences d’accès à ces contenus seront des organismes publics de recherche ou des bibliothèques universitaires, situation absurde dans laquelle les acteurs du service public se retrouveront contraints et forcés, faute d’alternative à acheter des contenus numérisés qui font partie du patrimoine culturel commun.

Les conditions d’accès à ces éléments de patrimoine du domaine public seront restreintes d’une façon inadmissible par rapport aux possibilités ouvertes par la numérisation. Seule la minorité de ceux qui pourront faire le déplacement à Paris et accéder à la BnF seront en mesure de consulter ces documents, ce qui annule le principal avantage de la révolution numérique, à savoir la transmission à distance. Partout enFrance et dans le monde, ce sont les chercheurs, les étudiants, les enseignants, les élèves, les amateurs de culture, les citoyens qui se trouveront privés de l’accès libre et gratuit à ce patrimoine.

La valeur du domaine public réside dans la diffusion de la connaissance qu’il permet et dans la capacité à créer de nouvelles œuvres à partir de notre héritage culturel. Sa privatisation constitue une atteinte même à la notion de domaine public qui porte atteinte aux droits de chacun. Ces pratiques ont été condamnées sans ambiguïté par le Manifeste du domaine public, rédigé et publié par le réseau européen COMMUNIA financé par la Commission européenne :

Toute tentative infondée ou trompeuse de s’approprier des œuvres du domaine public doit être punie légalement. De façon à préserver l’intégrité du domaine public et protéger ses usagers de prétentions infondées ou trompeuses, les tentatives d’appropriation exclusive des œuvres du domaine public doivent être déclarées illégales.

Les institutions patrimoniales doivent assumer un rôle spécifique dans l’identification efficace et la préservation des œuvres du domaine public. (…) Dans le cadre de ce rôle, elles doivent garantir que les œuvres du domaine public sont accessibles à toute la société en les étiquetant, en les préservant et en les rendant librement accessibles.

À titre de comparaison, les partenariats validés par le ministère de la Culture aboutissent à un résultat encore plus restrictif pour l’accès à la connaissance que celui mis en œuvre par Google dans son programme Google Livres, dans lequel les ouvrages restent accessibles gratuitement en ligne sur le site des institutions partenaires. La mobilisation de l’emprunt national n’aura donc en aucun cas permis de trouver une alternative acceptable aux propositions du moteur de recherche.

Le ministère de la Culture affirme dans son communiqué que ces partenariats sont compatibles avec les recommandations du Comité des sages européens « A New Renaissance ». C’est à l’évidence faux, le rapport du Comité des sages admettant que des exclusivités commerciales puissent être concédées à des firmes privées pour 7 ans au maximum, mais insistant sur la nécessité que les documents du domaine public restent accessibles gratuitement en ligne, y compris dans un cadre transfrontalier. Plus encore, les accords sont en flagrante contradiction avec la Charte Europeana du Domaine Public (pdf) alors même que l’un de ses signataires occupe aujourd’hui la présidence de la fondation Europeana.

Par ailleurs, le rapport du Comité des sages énonce comme première recommandation que les partenariats public-privé de numérisation soient rendus publics afin de garantir la transparence, ce qui n’est pas été fait ici. L’opacité a régné de bout en bout sur la conclusion de ces partenariats, au point qu’une question parlementaire posée au ministère de la Culture par le député Marcel Rogemont est restée sans réponse depuis le 23 octobre 2012, alors même qu’elle soulevait le problème de l’atteinte à l’intégrité du domaine public. Enfin, les partenariats publics-privés ont été récemment dénoncés par l’Inspection générale des finances dans un rapport commandé par le ministre de l’Économie, Pierre Moscovici, et par celui du Budget, Jérôme Cahuzac. Ces partenariats sont jugés trop onéreux, trop risqués, trop complexes et trop profitables aux seuls intérêts privés.

Nous, associations et collectifs signataires de cette déclaration, attachés à la valeur du domaine public et à sa préservation comme bien commun, exprimons notre plus profond désaccord à propos de la conclusion de ces partenariats et en demandons le retrait sans délai. Nous appelons toutes les structures et personnes partageant ces valeurs à nous rejoindre dans cette opposition et à manifester leur désapprobation auprès des autorités responsables : BnF, Commissariat général à l’investissement et ministère de la Culture. Nous demandons également la publication immédiate du texte intégral des accords.

Contacts presse

  • L’Open Knowledge Foundation France L’Open Knowlegde Foundation (OKFN) est une organisation à but non lucratif fondée en 2004 à Cambridge qui promeut la culture libre sous toutes ses formes. Ses membres considèrent qu’un accès ouvert aux informations associé aux outils et aux communautés pour les utiliser sont des éléments essentiels pour améliorer notre gouvernance, notre recherche, notre économie et notre culture.
  • La Quadrature du Net La Quadrature du Net est une organisation de défense des droits et libertés des citoyens sur Internet. À ce titre, la Quadrature du Net intervient notamment dans les débats concernant la liberté d’expression, le droit d’auteur, la régulation du secteur des télécommunications ou encore le respect de la vie privée. Contact : Philippe Aigrain, co-fondateur et conseiller stratégique pa@laquadrature.net +33 6 85 80 19 31
  • Framasoft Réseau d’education populaire au Libre en général et au logiciel libre en particulier. Contact : Alexis Kauffmann, fondateur de Framasoft
  • Regards Citoyens est un collectif transpartisan qui vise à utiliser un maximum de données publiques pour alimenter le débat politique tout en appliquant les principes de la gouvernance ouverte. En plus de faire la promotion de l’OpenData et l’OpenGov en France, il réalise des projets web n’utilisant que des logiciels libres et des données publiques pour faire découvrir et valoriser les institutions démocratiques françaises auprès du plus grand nombre.
  • Le Parti Pirate est un mouvement politique ralliant celles et ceux qui aspirent à une société capable de : partager fraternellement les savoirs culturels et scientifiques de l’humanité, protéger l’égalité des droits des citoyens grâce des institutions humaines et transparentes, défendre les libertés fondamentales sur Internet comme dans la vie quotidienne.
  • Veni, Vidi, Libri a pour objectif de promouvoir les licences libres ainsi que de faciliter le passage de créations sous licence libre.
  • Libre Accès a pour objet de sensibiliser le plus grand nombre aux enjeux de l’art libre et de défendre les droits de ses amateurs et auteurs.

Crédit photo : Massimo Barbieri (Creative Commons By-Sa)




Hacker le vote électronique américain ? Un jeu d’enfants !

Nous imaginant technophiles béats, les gens sont souvent surpris de la prise de position de la grande majorité des partisans du logiciel libre en défaveur du vote électronique (quand bien même on ait accès au code source qui pilote la machine et le processus, ce qui semble être du bon sens mais non partagé).

Ce n’est pas l’expérience ci-dessous, au moment même où se déroulent les élections présidentielles américaines, qui risque de nous faire changer d’avis.

Steve Jurvetson - CC by

Comment j’ai hacké une machine de vote électronique

Roger Johnston (raconté par Suzanne LaBarre) – 5 novembre 2012 – PopSci.com
(Traduction : Zii, ehsavoie, plink, KoS, aKa, lgodard, MF, Ag3m, greygjhart)

How I Hacked An Electronic Voting Machine

De quoi avez-vous besoin pour truquer une élection ? Des connaissances basiques en électronique et 30 dollars d’équipement de RadioShack suffisent, révèle le hackeur professionnel Roger Johnston. La bonne nouvelle : nous pouvons empêcher cela.

Roger Johnston est à la tête de la « Vulnerability Assessment Team » au Laboratoire National d’Argonne. Récemment, lui et ses collègues ont lancé une attaque de sécurité sur des machines de vote électronique pour montrer la facilité déconcertante avec laquelle quelqu’un peut trafiquer les votes. Encore plus surprenant : les versions de ces ordinateurs seront présentes dans les bureaux de vote de toute l’Amérique ce mardi. Le magazine Harper a rapporté recemment que l’écran tactile Diebold Accuvote-TSX va être utilisé par plus de vingt-six millions de votants dans ving États et que l’ordinateur de vote à bouton pressoirs Sequoia AVC va être utilisée par presque neuf millions de votants dans quatre États. Dans cet article, Johnston révèle comment il a hacké ces machines — et que c’est à la portée du premier venu, du lycéen à la grand-mère de 80 ans.

La Vulnerability Assessment Team du Laboratoire National d’Argonne scrute une large variété d’équipements électroniques — serrures, sceaux, tags, contrôle d’accès, biometrie, sécurité des cargaisons, sécurité nucléaire — pour tenter de trouver des vulnérabilités et repérer des solutions potentielles. Malheureusement, on n’alloue pas assez de budget à l’analyse de la sécurité des élections dans ce pays. Alors nous nous sommes penchés dessus, histoire de nous occuper, un samedi après-midi.

On appelle cela une attaque de l’homme du milieu. C’est une attaque classique sur les appareils de sécurité. On implante un microprocesseur ou un autre appareil électronique dans la machine de vote, et cela vous permet de contrôler le vote et de tricher ou non. Basiquement, on interfère avec la transmission de l’intention du votant.

Nous avons utilisé un analyseur logique. La communication digitale est une série de zéros et de uns. Le voltage augmente, diminue. Un analyseur logique rassemble les voltages oscillants entre haut et bas et vous présentera ensuite les données digitales dans une variété de formats. Mais il y a plein de manières de faire. Vous pouvez utiliser un analyseur logique, un microprocesseur, un ordinateur — en gros, n’importe quoi qui vous permette de voir l’information qui est échangée et ensuite vous laisse comprendre ce qu’il faut faire pour imiter l’information.

Nous avons donc espionné les communications entre le votant et la machine. Dans un cas, le votant appuie sur des boutons (c’est une machine à voter avec des boutons poussoirs) et dans l’autre, il interagit avec un écran tactile. Puis, nous avons écouté les communications entre le logiciel de la machine et le votant. Disons que je veux que Jones gagne l’élection, et que vous votez pour Smith. Alors, mon microprocesseur va dire à la machine de voter pour Jones si vous essayez de voter pour Smith. Mais si vous votez pour Jones, je n’interviendrai pas dans les communications. Parfois on bloque les communications, parfois on les déforme, parfois on ne fait que les regarder et les laisser passer. C’est ça l’idée. Deviner quels sont les échanges en cours, puis les modifier si besoin est, y compris ce qui sera présenté au votant.

Nous pouvons faire ceci car la plupart des machines, autant que je sache, ne sont pas chiffrées. C’est simplement un format de communication standard. Il est donc très simple de deviner les informations échangées. N’importe quelle personne qui fait de l’électronique numérique — un amateur ou un fan d’électronique — peut le deviner.

Le dispositif que nous avons intégré dans la machine à écran tactile valait en gros 10 $. Si vous voulez une version de luxe où vous pouvez le contrôler à distance jusqu’à environ 800 mètres, il vous en coutera 26 $. Ce n’est pas très cher. Vous pouvez trouver ça chez RadioShack. Je suis allé à des salons scientifiques dans des lycées où les gosses avait des projets avec des processeurs plus sophistiqués que ceux nécessaires pour truquer ces machines.

Parce qu’il n’y a pas de financements pour ce genre de tests de sécurité, il faut compter sur des gens qui achètent des machines d’occasion sur eBay (dans ce cas l’écran tactile Diebold Accuvote TS Electronic Voting Machine et la machine à boutons Sequoia AVC Advantage Voting Machine). Ces deux machines étaient un peu vieilles, et nous n’avions pas de manuel ou de schéma de circuits. Mais, dans le cas du Sequoia AVC, nous avons deviné comment elle marchait en moins de deux heures. En deux heures nous avions une attaque viable. L’autre machine nous a pris un peu plus de temps car nous ne comprenions pas comment l’affichage sur un écran tactile fonctionnait. Nous avons dû donc apprendre, mais ce n’était qu’une question de jours. C’est un peu comme un tour de magie, vous devez le pratiquer beaucoup. Si nous avions pratiqué longtemps, voir mieux, si quelqu’un de très bon avait pratiqué pendant deux semaines, nous aurions mis 15 à 60 secondes pour exécuter ces attaques.

Les attaques nécessitent un accès physique à la machine. C’est facile pour les personnes en interne qui les programment pour une election ou les installent. Et nous pouvons supposer que ce n’est pas si difficile pour des personnes extérieures. Beaucoup de machines à voter gisent dans la cave de l’église, le gymnase ou le préau de l’école élémentaire, sans surveillance pendant une semaine ou deux avant l’election. Généralement elles ont des serrures très bon marché que n’importe qui peut ouvrir ; quelquefois elles n’en ont même aucune. Personne ne s’identifie auprès des machines quand il prend son poste. Personne n’est chargé de les surveiller. Leurs scellés ne sont pas si différents des dispositifs anti-fraude sur les paquets de nourriture et les médicaments en libre service. Falsifier un produit alimentaire ou un médicament, vous pensez que c’est difficile ? Ça ne l’est vraiment pas. Et un grand nombre de nos juges d’élections sont de petites vieilles à la retraite, et, Dieu les garde, c’est grâce à elles que les élections marchent, mais elles ne sont pas forcement fabuleusement efficaces pour détecter des attaques subtiles de sécurité.

Formez les personnels chargés de la vérification des scellés, et ils auront une chance de détecter une attaque raisonnablement sophistiquée. Faites des vérifications sur les personnes en interne et cette menace sera bien moins sérieuse. Dans l’ensemble il manque une bonne culture de la sécurité. Nous avons beau avoir des machines de vote avec des défauts, avec une bonne culture de la sécurité nous pouvons avoir des élections sans fraude. D’un autre côté, on peut avoir des machines fabuleuses, mais sans une culture de la sécurité à la hauteur, cela ne servira à rien. Il faut vraiment prendre du recul. Notre point de vue est qu’il sera toujours difficile d’arrêter un James Bond. Mais je veux faire avancer les choses jusqu’à un niveau où au moins ma grand-mère ne puisse pas truquer les élections, et nous en sommes encore loin.

Crédit photo : Steve Jurvetson (Creative Commons By)




The future is open et c’est Google qui le dit

Il y a 3 ans nous traduisions un article issu du blog de Google et rédigé par l’un de ses hauts gradés Jonathan Rosenberg : The meaning of open. Il y expliquait pourquoi et comment la célèbre entreprise prônait l’ouverture à tous ses étages.

Le même auteur récidive ici en dépassant la problématique Google pour affirmer non sans un certain optimisme (à l’américaine) que c’est le futur tout entier qui est désormais ouvert et que c’est très bien comme ça.

Remarque 1 : Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

Remarque 2 (troll et hors-sujet ?) : À comparer avec la situation française où l’on semble actuellement beaucoup plus préoccupé de savoir ce que nous prend ou nous donne l’État que de promouvoir ou pratiquer l’ouverture. Sans oublier, évidemment, la fameuse taxe Google qui « sauvera » la presse !

John Martinez Pavliga - CC by

Le futur est ouvert

The Future Is Open

Jonathan Rosenberg – octobre 2012 – ThinkWithGoogle.com
(Traduction Framalang : nobo, peupleLa, KoS, Smonff, ehsavoie, tibs, Louson, goofy, Khyvodul, Pandark, lgodard, Kiwileaks)

Il y a trois ans, Jonathan Rosenberg, alors vice-président délégué à la gestion de la production, a écrit un mémo (NdT : que nous avions traduit) expliquant pourquoi les entreprises ouvertes seraient les gagnantes du futur. Aujourd’hui, consultant au service du management, il a vu la réalité dépasser ses rêves les plus fous.

Il y a bientôt trois ans, en décembre, j’ai envoyé un courriel à mes chers collègues de Google, pour essayer de donner une définition claire d’un terme galvaudé : Ouvert. Je trouvais gênant qu’entre nos murs, il prenne différents sens selon les personnes, et que trop de Googlers ne comprennent pas l’engagement fondamental de l’entreprise pour ce qui est ouvert. En me référant à la fois aux technologies ouvertes et aux informations ouvertes, j’ai présenté la philosophie sous-jacente à notre volonté de transparence. Rechercher des systèmes ouverts, avais-je argumenté, nous a menés, et continuera de nous mener vers deux résultats souhaitables : Google devient meilleur, et le monde avec lui.

L’argument était convaincant, et plus tard, un billet sur le blog de Google , « The Meaning of Open », permit de clarifier encore plus ce concept parfois difficile à appréhender. Dans les semaines qui ont suivi, j’ai reçu des messages pleins de profondeur de la part d’un public divers et varié : enseignants ou écrivains qui appréciaient ce point de vue de l’intérieur de Google, chefs d’entreprise qui m’expliquaient comment l’ouverture avait influencé leurs affaires, étudiants surpris d’une position qui allait entièrement à l’encontre de la stratégie de fermeture qu’on leur avait enseignée. Trois ans ont passé, et ce qui me saute aux yeux dans ce manifeste c’est que… j’avais tort !

On ne peut pas dire que le développement ouvert n’ait pas fait progresser Google et le reste du monde. Seulement c’est arrivé beaucoup plus vite que je ne l’avais imaginé. C’est au beau milieu d’un des gestes les plus banals du vingt-et-unième siècle que j’en ai pris conscience : je vérifiais mon téléphone, un Droid Razr Maxx. Je fixais la chose, et j’en voyais toute la diversité : deux douzaines d’applications, du New York Times à Flipboard, de Dialer One à OpenTable, de RunKeeper à SlingPlayer, créées par un tas de développeurs différents, sur un téléphone conçu par Motorola. Il m’est apparu que ce que je regardais n’était pas simplement un appareil mobile, mais l’incarnation physique de la façon dont un écosystème ouvert peut se disséminer à travers le monde presque du jour au lendemain.

Sans aucun doute, j’ai toujours senti que cette idée tenait debout – mais je n’avais pas anticipé l’ampleur avec laquelle les règles du jeu entre les secteurs privés et publics allaient être réécrites. C’est la conséquence de trois tendances techniques qui ont évolué à une vitesse étonnante. Premièrement : Internet rend l’information plus libre et omniprésente que ce que j’aurais pu croire ; pratiquement tout ce qui se passait hors ligne est maintenant en ligne. Deuxièmement : ce qui était une vision du potentiel des mobiles est vraiment devenu réalité, puisque les machines sont devenues plus puissantes et plus rapides que prévu, facilitant une portée globale et une connectivité sans précédent. Troisièmement : l’informatique dans le nuage (NdT : Cloud computing) a permis une puissance de calcul infinie à la demande. Et nous sommes loin d’avoir fini. Alors même que j’écris ces lignes, Google Fiber s’apprête à déployer un service à un gigabit à Kansas City, indice que la connectivité est sur le point de franchir une nouvelle limite.

La conjonction de ces progrès techniques a un effet paradoxal : aussi nouveaux soient-ils, ils finissent par ramener les entreprises aux fondamentaux. La gamme et la qualité des produits sont maintenant les facteurs les plus importants pour déterminer le succès d’une entreprise. Historiquement, les entreprises pouvaient profiter d’une pénurie d’information, de connectivité ou de puissance de calcul pour attirer et conserver leurs clients et repousser les concurrents.

De nos jours, les clients peuvent prendre des décisions bien plus éclairées en accédant aux informations des autres consommateurs. En effet, ils renforcent mutuellement leur pouvoir de décision par leurs échanges via des sites comme Yelp et toute une flopée de réseaux sociaux. Une société ne peut plus complètement contrôler l’environnement de ses clients. Au moment où les frontières de la distribution se sont effondrées – pensez aux moyens de transports mondialisés et bon marché, pensez aux étalages infinis des détaillants en ligne – les consommateurs ont de plus en plus de contrôle par eux-mêmes. Avec ce nouveau paradigme, et des marchés toujours plus compétitifs, les sociétés n’ont plus d’autre choix que de se concentrer sur la qualité et les gammes de produits. Si elles ne le font pas, une autre le fera à leur place.

Avec autant de changements en si peu de temps la nécessité de l’ouverture s’est imposée comme une tactique commerciale décisive pour atteindre à la fois l’excellence et la déclinaison des produits. Ouvrir un produit à toute une armée de créatifs est le plus court chemin pour créer de l’innovation et de la diversité, puisque cela permet à chaque contributeur de se focaliser sur ce qu’il fait le mieux et que cela encourage les contributions d’un public le plus large possible.

Chrome et Android, qui ont tous deux décollé depuis que « The Meaning of Open » a été publié, illustrent parfaitement ce principe. Avec chacun d’eux, nous avons maintenu un seul objectif simple dès le début : rendre le produit aussi robuste que possible. Comme nous l’avons appris maintes et maintes fois, il n’y a pas de route plus rapide et plus fiable qu’une route ouverte : davantage de mains travaillant sur un même produit ne peuvent que l’améliorer. L’ouverture permet de prototyper un concept, ou de le tester dans ses toutes premières étapes. Qui plus est, les systèmes ouverts tolèrent mieux les défaillances – et attirent une communauté d’utilisateurs plus fidèles. Ils savent que la motivation première d’un système ouvert est l’excellence ; si la société essaie d’imposer un autre agenda, la communauté de développeurs le repérera immédiatement et se révoltera. En proposant un produit ouvert, la société renonce à la possibilité de faire autre chose que de le rendre meilleur pour l’utilisateur.

Les résultats parlent d’eux-mêmes. Si vous possédiez un smartphone en 2006, il y a des chances pour que « Blackberry » ou « Nokia » ait été inscrit dessus. Il y a encore trois ans, Android représentait à peine 5% du marché. Aujourd’hui nous avons dépassé les 51%, et il y a de fortes chances pour que votre smartphone ait été fabriqué par Samsung, HTC, Motorola ou un autre partenaire d’Android.

Android a même débarqué dans des secteurs que nous n’avions pas anticipés, tels que les téléviseurs, les voitures, les avions, et même les appareils domestiques. (Voyez Ouya, une nouvelle console de jeux vidéo basée sur Android. Sans un Android ouvert, ce genre d’innovation n’existerait pas). Il semble clair à présent que si vous vous investissez dans un système ouvert, vous vous engagez dans une compétition perpétuelle pour garder votre place d’innovateur principal.

La question de l’ouverture n’a pas été moins opérante pour le navigateur Chrome, qui s’est construit par dessus le projet open source Chromium. Aujourd’hui, Chrome est sept fois plus rapide qu’il ne l’était lorsqu’il a été lancé il y a à peine 4 ans, et le nouveau code est disponible pour le monde entier à mesure qu’il se développe. Travailler ainsi au grand jour rend plus difficile le fait d’avoir des agendas cachés ou quoi que ce soit de dissimulé ; faites mal les choses, et une communauté mondiale de développeurs vous repérera instantanément.

Faire de l’ouverture une tactique commerciale peut nécessiter de nouvelles compétences organisationnelles. La vitesse est primordiale, comme l’est la rigueur du processus de décision. Un écosystème ouvert encourage le bouillonnement d’idées. Or trouver de bonnes idées, c’est facile ; ce qui est difficile, c’est de choisir parmi elles. L’ouverture des données peut offrir un avantage concurrentiel important aux entreprises, mais seulement si elles sont correctement positionnées pour pouvoir en profiter. L’autre tactique — qui est notamment utilisée par Apple et nos équipes de recherche — est de garder le système plus fermé, et d’y exercer un contrôle total. Cette approche nécessite son propre jeu de compétences organisationnelles, au-delà de la vitesse d’exécution, puisque l’excellence du produit et son innovation prennent leur source uniquement en interne. Les deux approches peuvent évidemment toutes les deux réussir, mais selon notre expérience, quand il s’agit de construire une plateforme entière, l’ouverture est le chemin le plus sûr vers la réussite.

Heureusement, de plus en plus d’organisations perçoivent ce message. Dans Wikinomics, les auteurs Don Tapscott et Anthony D. Williams racontent l’histoire de Goldcorp, une entreprise de mines d’or de Toronto, qui semblait sur le déclin à la fin des années 90. Face à un marché en baisse, une foule de problèmes internes et ce qui semblait être un filon épuisé, le PDG Rob McEwen fit précisément l’inverse de ce que n’importe quel livre sur le business dirait : il commença par donner le peu que l’entreprise avait encore.

Plus exactement, il publia sur le site de l’entreprise 400 Mo d’informations concernant le site minier de 220 kilomètres carrés de Goldcorp. Plutôt que de conserver jalousement ses derniers lambeaux d’information propriétaire, il offrit un prix de 500,000$ à quiconque parviendrait à utiliser ces données, afin de trouver de l’or contenu dans le sol. Ce fut un énorme succès. Plus de 80% des cibles identifiées par le public donnèrent des quantités significatives d’or. Avec ce petit investissement initial, la société tira du sol l’équivalent plus de 3 milliards de dollars en or.

Évidemment, McEwen était seulement en train de s’accorder avec les principes profonds du mouvement open source. Dans les premiers jours confus de l’internet, une éthique d’universalité et d’égalitarisme s’était propagée. « Les jardins cernés de murs (NdT : Walled gardens), tout plaisants qu’ils soient, ne pourront jamais rivaliser en diversité, en richesse et en innovation avec le marché fou et palpitant du Web de l’autre côté du mur » a écrit Tim Berners-Lee, l’inventeur du World Wide Web. Google a toujours prospéré sur cette diversité, cette richesse et cette innovation. C’est ce qui nous a permis de lancer des créations comme Chrome et Android, et c’est ce qui a permis à une entreprise d’extraction vétuste d’éblouir le monde avec des succès similaires et pour des raisons similaires.

Aussi spectaculaire que soit l’histoire de Goldcorp, c’est seulement la partie émergée de l’iceberg. En effet, ce qui avait commencé comme un concept de geek au sein de communautés scientifiques s’est propagé dans tous les domaines, des affaires à la politique, de la santé à l’éducation et bien au-delà. Chez Google, nous envisageons un certain nombre de possibilités au-delà du secteur technique, où l’ouverture pourrait amener des progrès modestes et immenses à la fois.

L’éducation

De Stanford à la Corée, des universités et des enseignants du monde entier commencent à distribuer gratuitement des contenus éducatifs de très grande qualité sous licence libre. Qui plus est, des personnes vivant dans les endroits les plus reculés ont de plus en plus accès à ces contenus. La bande passante et la connectivité ont fait sauter de nombreuses barrières de la société en matière d’éducation.

Tout au bout d’un long chemin de terre à Bombay, un étudiant muni d’un téléphone peut maintenant suivre les cours du MIT au plus haut niveau. De façon tout aussi intéressante, ce même étudiant peut devenir professeur. Grâce à des organisations véritablement démocratiques, telles que la Khan Academy, une organisation à but non lucratif, qui propose en ligne plus de 3 000 cours en vidéo. Partout dans le monde des personnes peuvent à la fois disposer de et contribuer à une bibliothèque de ressources qui ne cesse de croître, depuis des leçons de physique jusqu’à des manuels de finance. Nous savons déjà à quel point l’éducation publique a transformé la société au cours du vingtième siècle. Les possibilités offertes par une éducation ouverte et en ligne semblent tout aussi illimitées.

Les gouvernements

Prétendre à la transparence gouvernementale est une chose mais des exemples comme celui du Canada avec sa Déclaration officielle de Gouvernement Ouvert, en sont une autre. Ce document reconnaît l’ouverture comme un état actif et non passif : il ne s’agit pas seulement de donner aux citoyens un libre accès aux données chaque fois que possible, mais bien de définir une « culture active de l’engagement » comme finalité de ces mesures.

Tandis que toujours plus de villes, de régions et de gouvernements fédéraux avancent dans cette direction, il y a tout lieu de croire que cela finira par payer financièrement (au moment où les données GPS ont été mises en libre accès public à la fin des années 80, par exemple, on estime que les services commerciaux qui en ont tiré parti ont contribué à hauteur de 67.6 milliards de dollars à la valeur économique des États-Unis). À l’inverse, on pourrait dire que lorsque le régime égyptien a verrouillé Internet en janvier 2011, cela a poussé les citoyens à descendre dans la rue pour avoir plus d’informations, et à venir grossir les foules de la place Tahrir. Il est ici probable que le retour à un système plus fermé ait accéléré la chute du gouvernement.

Le système de santé

PatientsLikeMe est un site de réseautage social de santé construit sur des bases de données ouvertes du Département de la Santé des États-Unis. Il ouvre la voie à d’autres initiatives, comme procurer aux patients des moyens de partager des informations et d’apprendre entre personnes souffrant de symptômes similaires. Les chercheurs pourraient également tirer profit de plus d’ouverture dans l’industrie.

L’ouverture des données sur la santé pourrait permettre à des études épidémiologiques à grande échelle de réaliser des percées importantes tout en mettant en place des garde-fous plus forts que jamais pour assurer au patient le respect de la confidentialité. En mettant à la disposition des chercheurs son registre des malformations congénitales, la Californie a permis aux médecins d’accéder à une mine d’informations relatives à l’impact des facteurs environnementaux sur la santé. Et bien sûr, Google Flu Trends a déjà prouvé sa pertinence pour analyser et prévoir l’arrivée d’un virus particulier, tout simplement en permettant que l’information soit partagée et rassemblée.

La science

Chercheurs, institutions, et agences de financement du monde entier commencent à prendre conscience qu’un meilleur partage et une meilleure collaboration sur les résultats de recherches scientifique peuvent mener à des recherches plus rapides, plus efficaces, de meilleure qualité et d’un meilleur impact général. En tant que commissaire européen, Neelie Kroes faisait récemment remarquer dans un discours sur la science et les politiques du libre en Europe, « les chercheurs, les ingénieurs et les petites entreprises ont besoin d’accéder aux résultats scientifiques rapidement et facilement. Si ce n’est pas possible, c’est mauvais pour les affaires ».

Un meilleur accès aux recherches scientifiques peut stimuler l’innovation dans le secteur privé et aider à résoudre des défis importants auxquels le monde doit faire face (les Google ‘Fusion Tables sont un outil que les scientifiques peuvent utiliser pour partager et collaborer sur des ensembles de donnés disparates). Pendant ce temps, l’ouverture dans le domaine scientifique signifie l’ouverture à de tout nouveaux participants. Après avoir échoué pendant plus d’une décennie à résoudre la structure d’une enzyme protéase provenant d’un virus ressemblant au SIDA, les scientifiques ont proposé le défi à la communauté des joueurs. En utilisant le jeu en ligne Foldit, les joueurs ont pu résoudre ce problème en trois semaines.

Les transports

En libérant les données des transports publics, les gouvernements permettent aux entrepreneurs de créer des applications basées sur ces données, et ainsi d’améliorer l’expérience des citoyens ; ces derniers peuvent également utiliser ces données ouvertes pour signaler des problèmes d’infrastructure. Chez Google, nous avons déjà pu observer comment cela fonctionne. Lorsque nous avons commencé à organiser les informations géographiques mondiales, nous avons constaté que, pour de nombreux endroits, il n’existait tout simplement pas de carte correcte. Nous avons donc créé MapMaker, un outil de cartographie participative qui permet à chacun de créer des annotations sur Google Maps. C’est avec cela qu’un réseau de citoyens cartographes est né, traçant en deux mois plus de 25 000 kilomètres de routes précédemment non cartographiées au Pakistan.

Les tendances technologiques convergentes sont maintenant sur le point de modifier, en fait elles ont déjà commencé à le faire, les domaines historiquement fermés, secrets et dormants. « L’avenir des gouvernements, c’est la transparence,» écrivais-je il y a un an, «L’avenir du commerce, c’est la symétrie de l’information. L’avenir de la culture, c’est la liberté. L’avenir de la science et de la médecine, c’est la collaboration. L’avenir du divertissement, c’est la participation. Chacun de ces avenirs dépend d’un Internet ouvert. »

Je mettrais juste un bémol. Étant donnés les changements radicaux auxquels nous avons assisté ces trois dernières années, le défi s’est déplacé. Nous devons viser plus loin même que l’Internet ouvert. Les institutions dans leur ensemble doivent continuer à adhérer à cette philosophie. Atteindre ces futurs objectifs ne sera pas chose facile. Mais je suis content de pouvoir dire que nous en sommes plus proches que jamais.

Crédit photo : John Martinez Pavliga (Creative Commons By)




Quand le politique se met au service du privé pour que le public arrête le libre !

« L’affaire OpenJustitia » qui se déroule actuellement en Suisse est un cas très intéressant.

Comme on peut le lire sur le site du projet, OpenJustitia est « un ensemble de logiciels spécifiques pour les tribunaux. Le Tribunal fédéral a développé ces derniers de sa propre main et les a personnalisés à ses propres besoins. OpenJustitia permet notamment une recherche efficace dans les décisions du tribunal. »

Il a donc été développé en interne et, comme son nom le suggère, il est libre (sous lience GNU GPL v3) et a d’ailleurs reçu un prix dernièrement aux CH Open Source Awards 2012.

OpenJustitia

Nous voici donc en présence d’un logiciel libre métier développé et mutualisé par l’administration. D’ailleurs le canton de Vaud a d’ores et déjà signé une convention de collaboration avec le Tribunal fédéral.

C’est exactement ce que prône en France une association comme l’ADULLACT avec la fameuse citation de son président François Elie : « l’argent public ne doit payer qu’une fois ».

Sauf qu’un parti politique (et derrière lui un éditeur de logiciels propriétaires) ne l’entendent pas de cette oreille, comme nous le rapporte l’ICTjournal.

Pour ce qui concerne l’éditeur, c’est (plus que) maladroit mais (malheureusement) compréhensible :

L’entreprise bernoise Weblaw, éditrice de logiciels de tribunaux propriétaires, estime que le Tribunal fédéral et sa solution font de l’ombre aux fournisseurs privés de logiciels. Le Tribunal fédéral doit-il s’occuper de droit ou de logiciels ?

Mais ce qui l’est moins c’est de voir l’UDC lui emboîter le pas et ne pas saisir l’intérêt, voire le bon sens, à utiliser du logiciel libre dans les institutions publiques :

Le Conseil fédéral doit examiner, à la demande de l’UDC, si le Tribunal fédéral a le droit de d’agir comme fournisseur du logiciel open-source Openjustitia. En agissant de la sorte, ce dernier délivrerait des services non liés à ses compétences judiciaires.

Il est « totalement absurde » que le Tribunal fédéral fonctionne comme distributeur de logiciels, a déclaré Martin Baltisser, secrétaire général de l’UDC. Selon lui, d’une part le Tribunal fédéral n’aurait aucun intérêt prépondérant à agir en tant que fournisseur de logiciels, d’autre part il serait également dépourvu de base légale. Selon la Constitution et la Loi sur les finances de la Confédération, l’Etat ne peut intervenir au niveau commercial uniquement s’il n’existe pas d’offre privée et qu’une loi l’y autorise. Le Tribunal fédéral réplique qu’il ne réalise «aucun service commercial», comme le projet est open source, le logiciel est mis à disposition gratuitement.

Comme on peut le voir ci-dessous, on en a même parlé le 20 octobre dernier à la RTS mais, triste classique, en occultant complètement le libre pour n’évoquer que le gratuit :

D’autres voix se font heureusement entendre, comme celle de l’élu des Verts François Marthaler qui conteste, à juste titre et avec vigueur, cette demande de clarification de l’UDC sur son blog :

Je veux bien croire que la situation économique de Weblaw soit menacée. Mais je ne peux pas imaginer que les pouvoirs publics se trouvent empêchés de développer des solutions plus performantes et surtout moins onéreuses, dans l’intérêt de tous les contribuables et du bon fonctionnement de l’Etat. Plus encore que les coûts du développement initial du logiciel, ce qui est en jeu, c’est la maintenance et l’évolution du système au profit de l’administration, des justiciables et, finalement, des contribuables.

Sans le dire, Weblaw s’attaque au modèle économique des logiciels libres (open source). Un modèle dans lequel le prestataire ne peut prétendre encaisser plus que la réelle valeur ajoutée au produit et pas une rente de situation. Que se serait-il passé si une société privée avait conçu le logiciel OpenJustitia et avait décidé de le mettre sous licence GNU/GPL ? Rien ! L’UDC n’aurait pas pu invoquer le « moins d’Etat » pour défendre les intérêts privés de cette petite société.

Espérons que comme le dit le dicton : les chiens aboient, la caravane passe…




Lionel Dricot (alias Ploum) candidat du Parti Pirate aux élections en Belgique

De l’informatique à la politique…

Lionel Dricot, alias ploum, vient de temps en temps rédiger dans nos colonnes (clavier Bépo, monnaie Bitcoin, histoire d’OpenOffice). Plus généralement c’est un acteur engagé en faveur de la défense et promotion du logiciel libre, et ce depuis bien longtemps déjà.

Il se présente sous la bannière du Parti Pirate (Brabant-Wallon) pour les élections communales et provinciales du dimanche 14 octobre prochain.

Il a eu la gentillesse de bien vouloir répondre à quelques une des nos questions. Et je suis certain qu’il trouvera malgré tout le temps de répondre aux vôtres dans les commentaires 😉

Lionel Dricot - Ploum

Bonjour Lionel. Tu es contributeur occasionnel au Framablog mais peux-tu te présenter pour ceux qui ne te connaissent pas ?

Je m’appelle Lionel Dricot mais, sur la toile, vous me verez surtout sous le pseudonyme de Ploum. Je suis un ingénieur en informatique de 31 ans, belge une fois et actif dans le logiciel libre depuis 2001.

J’aime beaucoup réfléchir, écrire et remettre en question, sous une lumière purement rationnelle, ce qui est considéré comme acquis. Je me suis passionné pour Linux et XMPP à une époque où Windows et MSN étaient des acquis. Pour la même raison, j’ai remis en question l’Azerty pour passer au Bépo et j’ai remis en question le principe monétaire avec Bitcoin.

Et tu es candidat aux élections qui vont avoir lieu en Belgique…

La Belgique est un pays très complexe. Cette année, nous allons élire nos représentants à la province (l’équivalent des départements français) et à la commune. Les élections provinciales passionnent peu mais les élections communales sont très importantes car elles auront des conséquences immédiates sur la vie quotidienne des habitants. Le bourgmestre (équivalent du maire) est en effet nommé pour six ans suite à ces élections.

Je suis candidat du Parti Pirate, en première position dans la commune d’Ottignies-Louvain-la-Neuve et en 9ème position pour la province du Brabant-Wallon.

Sont-ce tes premiers pas en politique ?

Pas vraiment. J’ai toujours trouvé important de suivre la politique de près. Comme beaucoup de jeunes, j’ai voté pendant des années pour Ecolo, équivalent des Verts en France, avant d’être très déçu. J’ai été quelques temps membre actif du MR, parti libéral de centre-droit, souhaitant défendre les libertés individuelles. J’ai aussi été déçu par certains aspects conservateurs ou ultra-capitalistes.

J’ai découvert que, dans tous les partis, il y a des gens extraordinaires et des gens insupportables avec des idées dangereuses. Et que, malheureusement, la particratie belge lissait le tout, rabrouant ceux qui sortent un peu du lot et qui sont pourtant ceux que je voulais voir en politique.

Tu t’es alors tourné vers le Parti Pirate. Alors pourquoi lui et pas un autre ?

En fait, avec plusieurs amis, on se morfondait devant les partis politiques traditionnels. Par exemple, nous avions trouvé une erreur fondamentale dans le programme Ecolo pour sortir du nucléaire. Une erreur qui multipliait par 10 la puissance des éoliennes. Nous avons donc contacté les responsables du parti et il nous a été répondu qu’on nous répondrait après les élections.

Dans nos discussions, nous avons lancé l’idée d’un parti politique qui ne serait pas idéologique mais qui tenterait une approche pragmatique des problèmes, reconnaissant si nécessaire ses erreurs et n’hésitant pas à faire marche arrière quand une solution donnée s’avère défaillante. On avait appelé ça le Parti Intellectuel ou un truc du genre, je ne sais plus trop.

Mais quand le Parti Pirate est arrivé, j’y ai retrouvé exactement cet état d’esprit. Et je n’ai pas été le seul vu que mes amis Nicolas Ykman, blogueur sur artimuses.be, et Gauthier Zarmati s’y sont aussi retrouvés.

De là à être candidat, il y a pourtant une sacrée marge. Pourquoi s’investir autant ?

Parce qu’il n’y avait personne d’autres dans notre province. Sur le forum du Parti Pirate, je tentais de savoir qui seraient les candidats pour le Parti Pirate, demandant pourquoi il n’y avait pas quelqu’un pour lancer tout. J’ai un jour reçu un mail de Paul Bossu, coordinateur du Parti Pirate pour la Wallonie, qui m’a dit : « Tu es quelqu’un comme un autre, tu n’as pas besoin de notre permission, lance-toi ! ». Nicolas et Gauthier m’ont dit : « Si tu te lances, je me lance » et on a fondé la section locale du Parti Pirate.

Étant en mars 2012, on s’est dit qu’on était trop tard pour les élections d’octobre, on ne se préoccupait pas de ça. Mais notre section locale s’est rapidement développée, avec des membres de tous horizons, apportant chacun leur motivation. Paul nous a dit que ce serait une bonne expérience de se présenter aux élections.

Et il avait raison : refaire le monde, avoir des idées c’est bien. Mais refuser de se présenter aux élections, c’est un peu de la lâcheté. Il faut se confronter à la vraie vie.

Mais qu’est-ce qu’un geek libriste peut trouver dans la politique ? Le logiciel libre et le Parti Pirate ont-ils le moindre rapport ? Surtout à un niveau extrêmement local.

Oui, les deux sont complètement liés. Il y a tout d’abord la volonté de remettre en question l’existant, d’essayer de nouveaux modèles. Mais le logiciel libre m’a appris que, grâce aux nouvelles technologies, des centaines voire des milliers de personnes pouvaient collaborer pour gérer des projets extrêmement complexes. Et ce, malgré l’éparpillement géographique, les différences de cultures, de langues.

Si c’est possible pour de tels projets, cela doit a priori l’être pour une commune. C’est pourquoi nous proposons d’utiliser des logiciels de suivi de problème (genre Bugzilla) pour permettre aux habitants de signaler les problèmes : trottoir abîmé, égout bouché, dégradation du mobilier urbain, etc.

Nous souhaitons également que tous les projets, les règlements soient accessibles sur un wiki avec un suivi des révisions et où chacun pourrait apporter sa modification. Le tout en insistant également sur la transparence du processus politique et ce y compris jusque dans les détails du budget de la commune et du salaire des politiciens.

Tout cela est très expérimental mais Ottignies-Louvain-la-Neuve est une ville à part, un ovni dans le paysage belge. C’est donc l’endroit idéal pour tenter de renouveler le terrain politique.

Crédit photo : Adrien le Maire (Creative Commons By-Sa)




Créer et maintenir les lois comme les logiciels libres sur GitHub ou Wikipédia ?

Lorsque vous parcourez un article de l’encyclopédie libre Wikipédia, vous pouvez bien évidemment le lire, mais aussi écrire (le fameux bouton « Modifier ») et consulter tout son historique, sans oublier converser autour avec les autres contributeurs (lien « Discussion »). Il en va de même avec tout logiciel libre déposé sur une plateforme collaborative comme celle de GitHub par exemple (dont l’approche et les fonctionnalités sociales ont donné un coup de vieux à Sourceforge).

Il y a là une manière bien spécifique de fonctionner et une invitation à s’impliquer.

Dans la mesure ou Wikipédia ou GNU/Linux sont d’incontestables réussites, l’un des plus célèbres penseurs du Net, Clay Shirky, s’est récemment demandé, au cours d’une brillante intervention TED, si on ne pouvait pas fortement s’en inspirer pour faire évoluer la politique en générale et l’élaboration de nos lois en particulier.

Ce que l’on pourrait résumer également ainsi : est-ce que le logiciel libre a des choses à dire, voire à enseigner, à la démocratie ?

Fabricio Zuardi - CC by

Peut-on améliorer la politique avec les outils du logiciel libre ?

Could we use open-source tools to improve politics?

Mathew Ingram – 29 septembre 2012 – Gigaom.com
(Traduction : Lamessen, Barbidule, Evpok, David, peupleLa)

Les principes du logiciel libre ont contribué à créer de nombreux logiciels efficients et utiles, y compris le système d’exploitation GNU/Linux et la surpuissante ressource que représente Wikipédia. Cette même approche pourrait-elle être utilisée pour ouvrir le processus de création des lois ? Clay Shirky assure que c’est possible.

La philosophie du logiciel libre a permis entre autres de construire un système d’exploitation et une encyclopédie collaborative de grande qualité. Pourrait-on en faire de même avec la législation et la politique ? C’est ce que le théoricien de la communication Clay Shirky a proposé dans une récente et remarquée conférence TED (Technologie Entertainment Design) à Edimbourg. L’idée est alléchante, employer les méthodes de GNU/Linux et Wikipédia pour rendre les gouvernements plus ouverts et impliquer davantage les concitoyens, mais est-ce véritablement transposable ? L’écriture de logiciels et de services Web est très différente de celle des lois, et l’histoire du logiciel libre a connu son lot de guerres quasi-religieuses. Mais c’est peut-être notre meilleur espoir.

Après avoir fait une sorte de tour d’horizon du mouvement open source, en accordant la part belle à GNU/Linux, Shirky a consacré une grande partie de son discours à Github, plateforme collaborative et sociale de dépôt de logiciels qui permet à n’importe qui d’éditer, de « forker » en créant sa propre version, et de suivre les changement que font les autres. De GitHub à l’idée de législation collaborative, il n’y a qu’un pas. Et c’est ce que Shirky semble avoir à l’esprit. Il y a déjà eu quelques tentatives de réalisation directement via GitHub. Ainsi un développeur allemand a, par exemple, déposé l’intégralité des lois allemandes sur la plateforme. De cette façon, les citoyens peuvent recommander et suivre les changements.

C’est séduisant sur le papier : une simple plateforme logicielle dédiée à la collaboration pourrait changer la façon dont on développe et met en oeuvre les lois. Mais est-ce réaliste ?

Beaucoup de sceptiques disaient au départ que Wikipédia n’avait aucune chance de marcher. Pourtant elle est bel et bien là et sa réputation et fiabilité sont excellentes, malgré quelques ratés comme l’incident récent impliquant l’auteur Philip Roth. Il est vrai cependant que de nombreux critiques pensent que la « cabale » des éditeurs qui contrôlent l’encyclopédie collaborative a trop de pouvoir.

Force est de reconnaître que le fonctionnement des gouvernements reste de toutes les façons trop opaque à l’ère d’Internet, et donc que Github ne peut pas faire empirer les choses. D’ailleurs Shirky n’est pas le seul à le penser : le développeur Abe Voelker a proposé un « Github pour lois » qui propose exactement la même approche pour concevoir des lois collaborativement. D’autres expériences basées sur ces mêmes idées d’ouverture ont déjà eu lieu en Finlande, Irlande et surtout en Islande avec la rédaction collective de sa nouvelle Constitution (NdT : lire à ce sujet L’Islande, la crise, la révolution et moi et on notera en France l’initiative d’Étienne Chouard avec sa Constitution nationale d’origine citoyenne sur un wiki).

Un des problèmes posés par la transposition d’une solution technique comme Github à un processus culturel et politique de grande ampleur, c’est que créer des lois, même mineures, est très différent de bidouiller un bout de code afin que GNU/Linux puisse reproduire les styles de polices de caractères Windows, ou encore modifier l’article sur George Bush dans Wikipédia (sachant que ces deux exemples en apparence inoffensifs ont donné lieu à de vives polémiques au sein de leur communauté respective). Comment peut-on dès lors espérer que des politiciens puissent, dans les faits, se servir d’un processus similaire pour changer la manière dont fonctionne le gouvernement, le parlement et ses lois ? Comme le suggère Shirky dans sa conférence, il y a une bureaucratie bien installée qui n’a probablement aucun intérêt à renoncer à ce contrôle au profit du bon peuple.

Dans son livre « Here comes Everybody », Shirky a montré l’impact positif d’Internet sur la dynamiques des groupes. Son admiration pour Github semble prendre place dans une recherche d’outils collaboratifs et ouverts axée sur l’humain. Il est clair que nous en avons besoin, et même si Github n’est peut-être pas la bonne réponse, à ce stade, tout peut valoir la peine d’être tenté.

Crédit photo : Fabricio Zuardi (Creative Commons By)