Naissance du (pas très bien nommé) Conseil National du Logiciel Libre

Gruntzooki - CC by-saCe matin je reçois dans ma boite aux lettres (électronique) un communiqué de presse m’informant de la création du Conseil National du Logiciel Libre (ou CNLL).

Le nom m’a intrigué parce que de Conseil national, je connaissais surtout celui de Suisse, de la Résistance et de l’Ordre des médecins !

En fait il s’agit d’une nouvelle association nationale regroupant 10 associations régionales représentant 200 entreprises françaises spécialisées dans le logiciel libre.

Le CNLL a pour vocation de parler au nom de l’ensemble de la filière économique du logiciel libre, sans discrimination, afin de faire connaître les bénéfices du logiciel libre dans le contexte actuel de relance économique, et de faire entendre les demandes de ses membres auprès des pouvoirs publics, pour un soutien à l’activité économique de la filière.

L’union faisant la force, c’est une très bonne nouvelle que voilà.

D’ailleurs l’Aful, associée au communiqué de presse, se réjouit de cette création. Tandis que l’April salue l’initiative.

On remarquera au passage la subtile nuance entre la réjouissance et la salutation. Le titre de l’annonce n’étant d’ailleurs pas le même chez nos deux associations : Création du Conseil National du Logiciel Libre pour le premier, Création d’une fédération professionnelle du Logiciel Libre pour le second 😉

J’ai eu la curiosité de parcourir la FAQ du site.

« Logiciels Libre » ou « Open Source », quelle est la position du CNLL ?

Logiciel Libre et Open Source Software désignent des logiciels dont les licences permettent de les utiliser, de les modifier et de redistribuer librement, selon des conditions qui ont été codifiées précisément, respectivement par la FSF et l’OSI. Les deux termes ont cependant des connotations différentes, et certains préfèrent utiliser l’un plutôt que l’autre, ce que nous respectons, tout en estimant que nous n’avons pas à trancher dans ce débat.

Quelle que soit la façon dont on les appelle, nous estimons que le processus de développement et de diffusion des logiciels libres / open source est à même d’apporter plus de valeur à moindre coût, et plus de contrôle sur leurs choix technologiques, aux clients des entreprises que nous représentons.

Cette dernière phrase a tout de même de forts accents « open source » selon moi. Comme si on répondait tout de même à la question en faisant un choix (au demeurant tout à fait cohérent, logique et respectable)[1].

Mais du coup je n’aurais pas forcément adopté un tel nom de baptême, qui peut prêter à confusion dans le sens où on ne comprend pas forcément qu’il s’agit de fédérer des entreprises.

Proposition alternative : l’ANAREFOS pour Association Nationale des Associations Régionales des Entreprises Françaises Open Source. Mais c’est plus long, moins sexy et puis il y a « anar » dedans !

Certaines mauvaises langues m’objecteront qu’il existait déjà une structure similaire avec la FniLL, qui a pour « vocation de représenter en France l’ensemble des acteurs professionnels qui participent au dynamisme de l’économie du Logiciel Libre ». N’étant pas dans le secret des dieux, je me dis qu’il doit y avoir quelques bonnes raisons à une telle (saine) concurrence.

Aful / April, CNLL / FniLL, Logiciel Libre / Open Source, ce billet figurera en bonne place dans le « Hall of Troll » du blog !

Mais qu’on ne se meprenne pas. Moi aussi je salue, que dis-je, je me réjouis de la naissance de ce projet qui témoigne du dynamisme des FLOSS dans notre beau pays 😉

Notes

[1] Crédit photo : Gruntzooki (Creative Commons By-Sa)




Microsoft en Afrique : Un véritable système d’exploitation ?

OLPC - CC byDans un récent billet nous évoquions la stratégie planétaire de Microsoft dans le secteur éducatif en nous focalisant sur une école française prise consciemment ou non dans les mailles du filet.

Voici que le blog d’André Cotte apporte de l’eau à notre moulin, en signalant et hébergeant un document intéressant rédigé par Marc-Antoine Daneau, étudiant québécois en économie et politique.

Son article évoque en effet les comportements et agissements de la société dans cette région du monde[1]. Un altruisme de façade dont s’accommode souvent fort bien les hommes au pouvoir qui ont du mal à voir plus loin que le court terme. L’état des caisses de l’État faisant le reste…

Et ce n’est pas seulement le logiciel libre qui s’en trouve bloqué mais peut-être aussi le continent tout entier.

Vous trouverez dans le document d’origine une bibliographie non reproduite ici.

L’imposition d’une dépendance : les actions de Microsoft en Afrique

URL d’origine du document (pdf)

Marc-Antoine Daneau – 24 novembre 2009
GNU Free Documentation License

Avec la bulle internet de 1995 à 2000, les technologies de l’information sont entrées de plein fouet dans la culture des pays développés. D’un réseau militaire à un réseau de recherche universitaire, l’internet s’est imposé dans les années 90 telle une révolution informationnelle encore plus rapide que celle imposée par la télévision.

Tout maintenant se trouve et se fait en ligne. Le changement a été tellement rapide qu’on ne conçoit plus la vie sociale et économique sans ce formidable moyen de communication, pis encore, moins d’une génération est passée entre l’apparition des premiers hackers[2] de Berkeley et la normalisation de l’internet en occident.

Cependant et sans grande surprise, ce qui fut une révolution dans les pays développés fut l’établissement d’un retard technologique dans les pays qui le sont moins ou ne le sont tout simplement pas.

La fracture numérique

Le territoire le plus en retard au niveau des technologies de communication est bien évidemment l’Afrique. Dans ce continent où il n’y a rien, tout est à construire, tellement que dans le domaine de la technologie informatique, on y parle de fracture numérique[3]. À propos de l’informatique et d’internet précisément, l’Afrique est terriblement en retard[4][5]. Ce problème se conçoit de deux façons, pour les Africains, il importe de réduire cette fracture numérique pour profiter de la technologie existante; pour les pays développés, il convient de voir l’Afrique comme un marché à développer.

Plus précisément, ce texte porte sur les actions la firme américaine Microsoft en Afrique. Est-ce le fait que Microsoft veuille conquérir le marché africain est à l’avantage des Africains eux-mêmes ou s’agit-il de l’exploitation classique du nord envers le sud ? Ce texte tentera de démontrer qu’agissant ainsi, une firme très importante d’un pays riche tente d’exporter une vieille et désuète technologie dans des pays pauvres.

Logiciels libres versus logiciels propriétaires

Avant d’entrer dans le vif du sujet, il convient de présenter les deux modèles économiques existant actuellement en informatique.

Le premier modèle économique est celui qui domine actuellement le marché résidentiel et commercial, soit celui du logiciel propriétaire à code source fermé. Le code source, ce qui est écrit par les programmeurs, n’est pas disponible et gardé secret, ce qui permet aux fabricants de logiciels de vendre des exécutables, des logiciels d’installation autrement dit. La logique de cette mise en marché sous-tend une affirmation générale que l’acheteur doit avoir une confiance absolue envers le fabricant de logiciels. Ce dernier affirmera, à tort ou à raison, que son logiciel est le meilleur du marché, le plus sécuritaire, le plus efficace, le moins gourmand en ressource informatique, etc. La frontière entre la véracité de ces affirmations et la publicité est bien mince et en pratique souvent impossible à déterminer. Le plus gros fabricant de logiciels au monde est Microsoft, que ce soit par son système d’exploitation, le très populaire Windows ou par sa suite bureautique aussi très populaire, Office. Il est à noter que la structure de prix des produits Microsoft maximise leur marge de profits, en étant en situation de quasi-monopole, ils vendent une trop petite quantité trop cher en plus de faire de la discrimination par les prix.

Le modèle économique[6] opposé est celui du logiciel libre, à code source ouvert, ou Linux[7]. Il est reconnu que le logiciel libre est plus stable, plus rapide et plus sécuritaire que les logiciels propriétaires du type de ceux fournis par Microsoft, en plus d’être gratuit et modifiable. Ce que vendent les compagnies qui travaillent avec du logiciel libre, c’est le service. Ce qui différencie les deux modèles au niveau de leur conception est que quand le code source est confidentiel, il est produit par une petite équipe, quand il est ouvert, tout le monde peut l’améliorer ou y ajouter des fonctions, ce qui fait que la progression du logiciel libre est beaucoup plus rapide que celle du logiciel propriétaire.

Ce sont ces deux modèles économiques qui s’affrontent pour le marché africain, d’un côté une firme américaine devenue un monstre multinational qui voit dans le lent développement de l’Afrique une occasion à ne pas manquer pour placer les Africains en position de dépendance informatique[8] s’assurant ainsi un profit maximum à long terme, de l’autre un modèle axé sur l’indépendance informatique, gratuit et adaptable selon les divers besoins. Ce qui revient à la phrase célèbre de Conficius : « Quand un homme a faim, mieux vaut lui apprendre à pêcher que de lui donner un poisson ».

Un patrimoine de l’humanité fragile

Depuis 1998, l’UNESCO supportait les logiciels libres et en 2003 lui octroya ses titres de noblesse en les classant patrimoine mondial de l’humanité[9]. Néanmoins, le principal intéressé de ce progrès, Richard Stallman et la Free Software Foundation, mettait en garde contre la perte de liberté, du combat à mener pour l’indépendance logicielle dans une lettre adressée à l’Unesco :

But our freedom is not permanently assured. The world does not stand still, and we cannot count on having freedom five years from now, just because we have it today. Free software faces difficult challenges and dangers. It will take determined efforts to preserve our freedom, just as it took to obtain freedom in the first place[10].

Malheureusement, Stallman avait raison, mais en ayant surestimé le temps de réponse de l’industrie du logiciel propriétaire, la charge vint le 17 novembre 2004. En cette date, Microsoft devint un partenaire de l’Unesco, ce qui allait en direction opposée du constat émis par la Cnuced dans un rapport parut en 2003 qui conseillait : « aux pays en développement d’envisager d’adopter les logiciels libres en tant que moyen de combler le fossé numérique »[11].

Avec la signature de cet accord, « Microsoft va ainsi contribuer à la réduction de la fracture numérique » de quatre manières : recyclage de vieux ordinateurs personnels, formation d’enseignants en informatique dans les pays en voie de développement, ouverture d’un centre de ressources informatiques dans le Maghreb et la mise en place d’une « plate-forme pour le partage de contenus numériques ».

Avec cet accord, Microsoft s’engageait aussi à livrer des ordinateurs dans tous les pays d’Afrique, l’Unesco, toujours selon cet accord ferait en sorte que Microsoft en livre partout en Afrique même là où son intérêt économique serait diminué[12].

Il importe ici d’apporter une nuance essentielle, les enseignants qui seront formés par Microsoft le seront en fonction des produits de cette même firme, pas en fonction de l’informatique ou du fonctionnement d’un ordinateur en soit. Ainsi, quand ces enseignants feront leur boulot, ils enseigneront le fonctionnement des produits Microsoft, ils agiront comme formateurs bénévoles au profit de Microsoft et transmettront leur dépendance informatique à leurs élèves.

Cette même date, lors d’une conférence de presse à Paris, Koïchito Matsuura, directeur général de l’Unesco, affirma que « l’ONU avait reconnu le rôle du secteur privé pour lutter contre la fracture numérique »[13]. Loin de nous ici de douter des mauvaises intentions de l’ONU dans ce dossier, l’Unesco est tributaire des fonds qu’on daigne bien lui alouer, sans plus. Cependant, il est raisonnable de penser que les Africains qui voyaient dans le logiciel libre une façon de se défaire de la dépendance de ce continent sous-développé envers la monde industrisé y ont vu au pire une défaite dans ce combat de la part de leur allié que devrait être l’Unesco, au mieux une instrumentalisation de l’Unesco par Microsoft[14].

Le point de vue des activistes du logiciel libre

Cet accord ne tarda pas à faire réagir. Un peu plus d’une semaine après l’accord parait sur internet un article sur les réactions des activistes du logiciel libre à l’endroit de l’accord. Benoît Sibaud, président de l’April[15], affirmait que l’Unesco « sous-traite ses valeurs au secteur privée » et que « Microsoft détient là une bonne manière de s’infiltrer dans les pays en voie développement. Et ça ne lui coûte pas grand-chose, car il peut se rattraper sur la marge qu’il réalise sur le prix de ses licences dans les pays du Nord »[16]. L’article se termine sur l’affirmation que tant l’April que l’Unesco « s’accordent à dire que si les logiciels propriétaires peuvent aider au développement, ils ne contribuent certainement pas au développement durable ».

C’est bien là tout le problème, qu’un organisme de la trempe de l’Unesco soit pret à permettre un développement qu’il sait voué à l’échec à long terme puisque n’étant pas durable. Janvier 2005, une lettre d’opinion scandalisée est publiée par Benoît Sibaud, Frédéric Couchet[17] et Sergio Amadeu da Silveira[18] dans Libération. Ceux-ci affirment qu’« en faisant le choix du logiciel propriétaire, un État se limite à louer une technologie » au lieu de se l’approprier et de la développer. Ces 3 spécialistes et militants en faveur des logiciels libres mentionnent les spécificités linguistiques de l’Afrique et de ses multiples langues. À titre d’exemple, les auteurs de la lettre d’opinion mentionnent que le navigateur internet Mozilla Firefox a été traduit en luganda[19] « par une petite équipe de huit … utilisateurs motivés … sans financement et sans organisation formelle »[20].

En matière de sécurité informatique, les trois spécialistes cités ci-haut mentionnent que les États qui se fient à Microsoft vont même jusqu’à abdiquer une partie de leur souveraineté étant donné le caractère fermé du code de Microsoft. En effet, comme il est impossible de savoir ce qu’il contient, la sécurité et l’intégrité des données sont remises entre les mains de Microsoft à qui il faut faire confiance[21]. Il apparaît en effet inconcevable qu’un continent qui essaie de se sortir du sous-développement, et donc qui veut prendre la place qui lui revient sur les marchés, et donc dans le domaine de la recherche et du développement (R&D) puissent penser sérieusement pouvoir le faire avec des outils informatiques qui n’assurent en rien la confidentialité ou même l’intégrité de leurs données. Il est clair que d’un point de vue de la sécurité, les pays africains qui font ou feront confiance à Microsoft ouvre la porte à l’espionnage économique.

À ce sujet, la ville de Munich a parfaitement compris et mis en application ce principe, parut en 2008 sur papier, mais se préparant depuis 2001, elle a émis une “Declaration of Independence” informatique, “rather than lowering the IT costs, the main motive is the desire for stratregic independence from software suppliers”[22].

Toujours au niveau de la sécurité informatique, l’affirmation la plus surprennante arrive de la NSA : “Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control”[23].

C’est dans cette optique qu’il est possible de conclure qu’un pays développé exporte ses vieilles technologies désuètes dans les pays en développement. Les éléments stratégiques de la sécurité nationale américaine sont protégés autant que possible par Linux, mais en même temps, une entreprise de ce même pays exporte dans des pays déjà en difficulté un produit, Microsoft Windows, qui officiellement selon le gouvernement américain n’est pas sécuritaire. Combiné à la publicité de Microsoft et d’un point de vue stratégique, il s’agit de leur vendre un produit qu’on affirme miraculeux, mais qui est dans les faits déficient et dangereux[24].

Ce qui revient à faire payer les Africains pour qu’ils obtiennent le droit à une position de faiblesse au niveau de l’espionnage économique, scientifique et politique.

Le point de vue de Microsoft

La réponse de Microsoft aux accusations d’impérialisme fut pour le moins douteuse, publiée sur le réputé site de nouvelles informatiques Zdnet.com. Le responsable de Microsoft Nigéria, Gerald Ilukwe, affirmait sans gène que le “cost is not important” pour les gouvernements africains, tout en reconnaissant que le salaire moyen d’une Africain résidant dans l’ouest du continent est de 160 dollars américains par année.

Tout comme Neil Holloway, président de Microsoft en Europe, M.Ilukwe maintient que le problème est la connaissance des technologies, et donc implicitement, que la propriété des outils de l’information est accessoire. Tel un missionnaire généreux baignant dans l’altruisme, M.Holloway affirmait “It’s not about the cost of software, it’s about how you take your expertise to people. We are sharing our expertise…”[25].

La campagne de marketing de Microsoft continua inexorablement, toujours avec le même message, Cheick Diarra, responsable des opérations de la firme en Afrique, affirma pour répondre à ses détracteurs que “I try to advise Microsoft, as an ambassador from Africa…”[26], donc, de la manière la plus sérieuse possible, le responsable des opérations africaines de Microsoft affirma être l’ambassadeur des Africains en matière de besoin informatique auprès de la firme qui le rémunère justement pour extraire de l’Afrique le peu de profit, à court terme, qu’il soit économiquement possible d’en tirer.

L’affirmation de M.Diarra dépasse largement le stade du sophisme par l’absence de logique circulaire de son affirmation. L’image que Microsoft veut avoir en Afrique est celle d’une multinationale qui agit pour le bien et le progrès de l’humanité, sans égards à sa marge de profit. Comme si l’entreprise avait une conscience morale, qui en plus d’exister, serait tournée vers l’humanitaire.

Un article du Wall Street Journal qui donne le ton

S’il y a lieu de douter des bonnes intentions de Microsoft, encore faut-il le prouver. Malheureusement, les faits sont récents, les soupçons généreux et cette firme n’ira pas tout bonnement avouer dans un communiqué qu’elle a le comportement colonial et qu’elle tente par la fourberie d’acquérir le marché[27] africain du logiciel.

Néanmoins, un article paru dans le prestigieux Wall Street Journal sous la plume de Steve Stecklow le 28 octobre 2008[28] nous en apprend beaucoup sur les méthodes et les agissements de Microsoft en Afrique.

Premièrement illustration la plus grossière, ils ont embauché des gens bien placés en Namibie. Ils ont engagé Sean Nicholson, auparavant “adviser to Namibia’s Ministry of Education, promoting open-source software” et toujours en ce même pays, Kerii Tjitendero “as a contractor to help in (the) process”. Cependant, M.Tjitendero est le fils de Mose Tjitendero, “formerly speaker of Namibia’s national assembly, who signed the government’s Pathfinder agreement with Microsoft”. Malgré une telle proximité qui serait bannie de facto dans les pays développés, Microsoft affirma que “Kerii had the professional background that made him a good fit for this role”.

Toujours du même article, Microsoft tenta au Nigéria d’acheter pour 400 000 dollars[29] le remplacement de Linux sur les ordinateurs portables des écoles par des produits Microsoft.

Au sujet du Pathfinder, le plan d’action de Microsoft en Afrique, l’article de Stecklow nous apprend que dans une école de Namibie en 2004, à Katima Mulilo, Eric Kouskalis, alors étudiant à Harvard, était enseignant pour l’organisation WorldTeach. Il affirma des ordinateurs fournis par Microsoft qu’ils “weren’t being used at all” bien qu’il “spent weeks fixing software and hardware problems”. Et il en rajoute, si plus d’un étudiant voulait accéder à l’encyclopédie de Microsoft, Encarta, “everything would freeze up”.

Donc, de cette expérience, deux constats peuvent être tirés, soit qu’en fournissant sa propre Encyclopédie aux Africains, Microsoft leur fourni la vision américaine de l’histoire mondiale et des connaissances en général, et aussi que les problèmes logiciels que les produits Microsoft font subir aux consommateurs occidentaux sont les mêmes éprouvés par les Africains, soit l’instabilité et la médiocrité naturelle et intrinsèque de leurs produits. Quant bien même Microsoft leur vendrait un “special $3 Windows package”[30][31], avoir des ordinateurs, mais être bloqué par les logiciels ne vaut pas 3 dollars.

Néanmoins, en juin 2005, Microsoft déclara que Pathfinder était “a success” pour par la suite promettre 4000 ordinateurs usagés à la Namibie, sur ce nombre, 1300 ont été livrés. L’école de Katima Mulilo en reçut 20, le directeur de l’école, Fias Geel, affirma au sujet des ordinateurs reçus que “all but four were broken”. Un autre directeur d’école de la région, Paul Damaseb, affirma qu’aucun de ses 565 étudiants ne pouvait utiliser les ordinateurs “because of a server crash”. Par la suite, Microsoft admit que l’expérience de PathFinder était un processus d’apprentissage “valuable”, ce qui n’empêcha pas le gouvernement de la Namibie de stopper l’action des professeurs de ses écoles qui installaient Linux pour promettre 200 ordinateurs et finalement n’en livrer que 55, “all containing Microsoft software, says a person familiar with the matter”.

PathFinder et Unlimited Potential

Depuis, avec le succès limité, aux yeux de Microsoft, de PathFinder, la firme a lancé un autre programme à la conquête du marché africain, Unlimited Potential. Bien que trop récent pour pouvoir le juger, notons cependant que les éléments avec lesquels Microsoft présente Unlimited Potential sont fondamentalement les mêmes qu’avec Pathfinder, soit à l’aide d’un vocabulaire positif portant sur les engagements Microsoft à l’égard de l’avancement des Africains ou encore des phrases creuses comme “training to its next generation of citizens”, pour être bien certains qu’ils ne connaissent de l’informatique que les produits Windows. La seule différence entre les deux programmes de mise en marché est que maintenant Microsoft légitimise son action avec l’appui reçu par l’Onu[32] et l’Unesco.

La firme clame en effet qu’elle veut “supports and accelerates Africa’s progress toward the Millennium Development Goals”[33]. Quand Microsoft affirme : “… we are working to enable sustained social and economic opportunity for everyone”[34], il serait plus juste de lire qu’ils travaillent pour le profit, comme n’importe quelle entreprise privée, la satisfaction des clients ou la fonctionnalité des produits n’a pas d’importance, pour autant que les clients paient.

Cela dit, face à la critique, Microsoft par l’intermédiaire de son responsable pour le continent africain, M.Diarra, tente de faire croire qu’il ne s’agit que d’un problème de communication, “… it’s sad that sometimes reality has a hard time catching up with perception … we are competing respectfully and openly; you can verify that everywhere”, il rajoute comme pour marteler le message à propos des actions de Microsoft en Afrique “we always try to empower those communities”[35].

Cela dit, en plus de ce qui est documenté, comme la corruption en Namibie, ce qui est douteux comme le fait qu’une entreprise affirme avoir à coeur le bien-être des plus exploités de la planète au cours des derniers siècles, comme si Microsoft n’agissait pas accord avec la continuité historique des rapports nord-sud, il y a ce qui est étrangement circonstanciel. Par exemple, en recoupant les informations vagues[36] disponibles sur le site de la Bill & Melinda Gates Foundation et les pays dans lesquels il y a moyen de savoir avec assurance que Microsoft travaille[37], on arrive à la conclusion qu’environ le deux tiers des pays où la fondation est active sont des pays où Microsoft l’est aussi.

Conclusion

En 2007, l’ampleur du désastre se mesurait, selon les affirmations officielles de Microsoft, par la conquête de “15 African countries: Angola, Burkina Faso, Gabon, Ghana, Kenya, Madagascar, Mozambique, Namibia, Nigeria, Rwanda, Senegal, Seychelles, Uganda, Botswana and South Africa, and to date has trained 200,000 teachers and reached 21 million students”[38]. C’est 21 millions de personnes, en plus des fonctionnaires des différentes administrations publiques africaines, que Microsoft a placées sous son contrôle. Il s’agit ici d’une forme lourde de dépendance au sentier, un sentier par ailleurs, sombre, sinueux et vaseux, où s’en sortir requière pour une société des coûts supérieurs à ce qu’aurait été l’investissement initial de l’éviter.

En faisant le choix des logiciels propriétaires de Microsoft au détriment des logiciels libres et gratuits GNU/Linux, les pays africains choisissent de payer pour un produit dont la qualité est plus que douteuse au niveau de l’efficacité informatique et carrément incertaine en ce qui a trait à la sécurité des informations gérées. De plus, ces pays n’auront pas le choix de payer pour les autres logiciels, comme des antivirus qui sont nécessaires avec Windows, ou payeront en temps, puisque Windows est impérativement plus lent que Linux, et ainsi de suite.

Bref, les logiciels propriétaires ne peuvent qu’être un mauvais choix pour toutes les administrations publiques et spécialement pour celles des pays en voie de développement, qui n’ont pas d’argent. Selon la formule rependue sur les blogues portant sur le sujet, « l’Afrique a déjà assez de problèmes comme ça, n’y ajoutez pas Microsoft” »[39]. Clairement, entre la dépendance que leur offre Microsoft et l’indépendance que leur offre Linux, les Africains et leurs gouvernements auraient tout avantage à choisir l’indépendance.

En conclusion, quand Microsoft parle de Windows comme d’un système d’exploitation, la firme a entièrement raison et est pour une fois honnête, car c’est tout ce que c’est : un système d’exploitation.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Le terme hacker a une connotation négative depuis le milieu des années 80. Le terme se référait plutôt à ce qu’il est convenu d’appeler un bidouilleur. L’industrie informatique en générale doit beaucoup à ses hackers, que l’on pense seulement aux fondateurs de Apple ou au célèbre Captain Crunch. Ce dernier, John Drapper de son vrai nom, découvrit qu’un jouet contenu dans une boite de céréales émettait exactement la même fréquence que celle utilisée par AT&T pour indiquer qu’une ligne de téléphone est disponible, ce qui lui permit de faire des appels sans payer. Il inventa par après la blue box, un générateur de fréquences avec laquelle il testa les limites du système téléphonique de AT&T. Résultat, les compagnies de téléphone durent revoir à la hausse la sécurité de leurs réseaux de télécommunications.

[3] La définition de Statitics Canada au sujet de la fracture numérique, parue dans l’introduction d’un document de recherche intitulé The Digital Divide in Canada, est particulièrement pertinente : “Commonly understood as the gap between ICT ‘haves’ and ‘have-nots’, it serves as an umbrella term for many issues, including infrastructure and access to ICTs, use and impediments to use, and the crucial role of ICT literacy and skills to function in an information society.” ICT réfère à “information and communications technologies”.

[4] Les statistiques de l’ONU sont à ce sujet très claires. Aucun calcul n’est nécessaire pour constater qu’il y avait plus d’ordinateurs par 100 habitants aux États-Unis ou au Canada il y a 20 ans qu’il y en a maintenant par 100 habitants dans les pays africains. Concernant le nombre d’habitants qui accèdent à internet, les données de l’ONU, toujours par 100 habitants, nous indiquent que le niveau d’accès à internet est actuellement en Afrique ce qu’il était il y a 15 ans aux États-Unis et au Canada. Voir Millennium Development Golas Indicators, Internet users per 100 population et Personal computers per 100 population.

[5] En septembre dernier, une compagnie sud-africaine, Durban IT a testé la vitesse du réseau de Telkom, le plus gros fournisseur d’accès internet en Afrique du Sud. Ils ont, au même moment, lancé un transfert de 4Gb sur le réseau ADSL de Telkom tout en relâchant un pigeon sur lequel était attaché une clé usb de 4Gb. “Winston the pigeon took two hours to carry the data 60 miles – in the same time the ADSL had sent 4% of the data”. Source : BBC, 10 septembre 2009.

[6] Le Rapport sur le commerce électronique et le développement de la Cnuced en 2003 nuance avec les propos suivants : « Les logiciels libres ne devraient pas différent. Ils sont un moyen différent d’élaborer, de préserver et de modifier les règles qui régissent les flux d’information. Ils bouleversent la conception que l’on a de l’écriture de logiciels ? des personnes habilitées à les modifier et sous quelles conditions ? ainsi que des libertés et des responsabilités y afférentes. Ils donnent aux peuples et aux nations non seulement la possibilité, mais aussi, de manière plus importante, le pouvoir de gérer eux-mêmes le développement des TIC. » p.21.

[7] Il est nécessaire ici de noter, sans entrer dans les détails, qu’il existe plusieurs types de licences concernant les logiciels libres. Autrement dit, il y a des schismes au sein de la communauté des logiciels libres concernant certaines nuances à propos des droits d’auteurs des logiciels libres. Loin de nous l’idée d’entrer dans ce débat, la définition des logiciels libres qui sera utilisée est celle qui est la moins restrictive possible, soit tout ce qui est disponible sans payer ou enfreindre les droits d’auteurs des fabricants de logiciels. À titre d’exemple seulement, il est impossible d’écouter un fichier mp3 ou d’écrire ce texte en Times New Roman, comme le requière le Département de science politique, sur Linux sans enfreindre des lois de propriétés intellectuelles. La définition orthodoxe du logiciel libre définit par Richard Stallman et la Free Software Foundation se lit comme suit : « L’expression « Logiciel libre » fait référence à la liberté pour les utilisateurs d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». La définition complète est disponible à http://www.gnu.org/philosophy/free-sw.fr.html.

[8] Le phénomène de l’enfermement propriétaire est bien connu et pas seulement dans le domaine informatique. Dans ce domaine précis, l’UNESCO définie le mécanisme du Vendor Lock-In comme étant le fait que “While the software industry will continue to innovate, some product categories are reaching maturity and users should not be driven to pay for new features and product versions that have minimal impact on their needs”.

[9] Cette année là, le logiciel libre est devenu pour l’UNESCO une partie du patrimoine mondial : “Moreover, free software gives independence, from governments, from companies, from political groups, etc. And better, an economical independence: it isn’t plagued by compulsory profit. In fact, Free software is already the heritage of mankind, in the common sense”.

[10] Richard Stallman, 2003. UNESCO and Free Software. Disponible dans les archives des communications de l’UNESCO.

[11] Conférence des Nations Unies sur le Commerce et le Développement (CNUCED), 2003. Rapport sur le commerce électronique et le développement. p.21.

[12] Citations et information depuis un article de Marc Cherki, parut dans Le Figaro le 17 novembre 2004, Microsoft devient partenaire de l’Unesco.

[13] Citation depuis un article de Capucine Cousin, parut dans Les Echos le 17 novembre 2004, L’Unesco compte sur le privé pour former les enseignants aux nouvelles technologies.

[14] À ce sujet, on peut prendre pour exemple le fait que les documents statistiques de l’ONU soient disponibles en 3 formats Microsoft Office Excel, XML et CVS. Les deux derniers sont des formats textes standards, mais qui ne peuvent être lus sans quelques contorsions ou connaissances informatiques précises. Le format Excel quant à lui est propriétaire, c’est-à-dire qu’il faut avoir acheté un programme pour le lire les informations qu’il contient. L’ONU ne fournit malheureusement rien en format OpenOffice, qui aurait le mérite de pouvoir être lu correctement, facilement et sans devoir payer pour le logiciel. Il n’y a bien sûr pas de lien direct entre cette observation et les liens qui unissent Microsoft et l’Unesco depuis 2004, cependant, ça permet de constater l’incompréhension de la question des logicielles de la part de l’ONU.

[15] April, acronyme de l’Association pour la Promotion et la Recherche en Informatique Libre.

[16] Selon un article d’Yves Drothier, dans le Journal du Net, 26 novembre 2004.

[17] Fondateur de l’April et président de la Fondation des logiciels libres (Free Software Foundation, branche française) de 2004 à 2007.

[18] Président de l’Institut national de technologie et de l’information du Brésil.

[19] Langue parlée par 10 millions de personnes en Ouganda.

[20] Sérgio Amadeu da Silveira, Benoît Sibaud et Frédéric Couchet. 5 janvier 2005, La Libération. Bill Gates à la conquête du sud : Le partenariat entre Microsoft et l’Unesco risque d’assujetir les pays en développement.

[21] Les auteurs mentionnent sur ce point qu’en 2000, un rapport de la Délégation des affaires stratégiques du ministère français des Armées mentionnait, prudemment et sans accusé directement, la collusion entre la National Security Agency (NSA) et Microsoft. Aussi en 2004, un « rapport parlementaire sur l’intelligence stratégique … soulignait les mêmes dangers attachés au logiciel propriétaire en matière de dépendance informationnelle ».

[22] Declaration of Independence: The LiMux Project in Munich. Ville de Munich, 2008.

[23] Citation complète : “End systems must be able to enforce the separation of information based on confidentiality and integrity requirements to provide system security. Operating system securitymechanisms are the foundation for ensuring such separation. Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control. As a consequence, application security mechanisms are vulnerable to tampering and bypass, and malicious or flawed applications can easily cause failures in system security”. Depuis le site de la National Security Agency, http://www.nsa.gov/research/selinux/.

[24] Il est de notoriété publique que des agents de la NSA travaillent chez Microsoft, eux affirment que c’est pour renforcer la sécurité des produits de Microsoft, il y a naturellement lieu d’en douter. L’affaire éclata en septembre 1999, quand une mystérieuse clé de cryptage nommé _NSAKEY fut découverte dans Windows NT4, puis dans Windows 95, 98 et 2000. On peut lire sur le site de CNN “Microsoft operating systems have a backdoor entrance for the National Security Agency, a cryptography expert said … but the software giant denied the report and other experts differed on it”. Il n’y a donc rien de certain en ce sens, mais Microsoft a par la suite été incapable d’expliquer de manière convaincante ce qu’était cette _NSAKEY.

[25] Ingrid Marson, 18 octobre 2005, Microsoft: Africa doesn’t need free software.

[26] Nancy Gohring, 25 septembre 2008, PC World, Microsoft’s Africa Chairman Tackles Access Problems.

[27] À titre indicatif, rappelons que Microsoft a été condamnée par l’Union européenne en février 2008 à payer 899 millions d’euros, qui « s’ajoutent à une première amende de 497 millions d’euros donnée à Microsoft en mars 2004 pour « abus de position dominante » ». Selon un article parut dans Branchez-Vous!, le site qui s’occupe des nouvelles technologiques pour Le Devoir. Si Microsoft agit de telle manière dans un marché lourdement réglementé, il est possible d’imaginer ce qu’il fait sur un continent comme l’Afrique où les États sont faibles.

[28] Microsoft Battles Low-Cost Rival for Africa, 28 octobre 2008, The Wall Street Journal.

[29] Extrait de l’article : “In Nigeria, Microsoft proposed paying $400,000 last year under a joint-marketing agreement to a government contractor it was trying to persuade to replace Linux with Windows on thousands of school laptops. The contractor’s former chief executive describes the proposal as an incentive to make the switch – an interpretation Microsoft denies.”

[30] Toujours du même article de Stecklow : “Some of Africa’s poorest countries also have discovered that they can’t meet the terms of a special $3 Windows package for "underserved" students around the world, announced last year by Microsoft Chairman Bill Gates.”

[31] Pour 3$, les étudiants africains obtiennent les logiciels suivants Microsoft Learning Essential 2.0, Microsoft Math 3.0, Microsoft Office, Windows Live Mail, qui est en fait Hotmail et Windows XP Starter Edition. Cette version de Windows est conçue pour les ordinateurs peu puissants et limite plus que ne le fait la version normale de Windows XP ce que les utilisateurs peuvent faire avec leurs ordinateurs. Autrement dit, c’est le meilleur moyen d’handicaper un étudiant, surtout que le terme “Starter” signifie implicitement que ce n’est qu’un début, qu’une fois formés avec les produits Microsoft et en fonction de ceux-ci, ils devront payer pour obtenir la version normale des systèmes d’exploitation de Microsoft. Il est à noter que des distributions Linux spécialisées dans l’éducation existent, par exemple EduLinux conçue entièrement au Québec, à l’Université de Sherbrooke. Plus populaire, il y a Edubuntu, qui est disponible dans de multiples langues. Edubuntu est devenue la norme dans tous les ordinateurs des écoles primaires et secondaires de la République de Macédoine, cette distribution Linux serait définitivement meilleure pour les étudiants africains que Windows XP Starter Edition.

[32] United Nations Press Release  : United Nations hosts launch of Microsoft Programmes. Extrait  : “Amir Dossal, Executive Director of the United Nations Office for Partnerships, and Akhtar Badshah, Senior Director of Community Affairs, Microsoft Corp., welcomed participants. Mr. Dossal underscored that public-private partnerships were the key to the achievement of the Millennium Development Goals.”

[33] Microsoft, Realizing Unlimited Potential in Africa, 2009.

[34] Microsoft, Microsoft Unlimited Potential Enables Social and Economic Opportunity, 2009.

[35] Alka Marwaha, BBC News, The hi-tech battle for Africa, 2009.

[36] La plupart des liens sur la carte de l’Afrique ne fonctionnent pas, de plus les liens sont parfois situés sur des frontières. http://www.gatesfoundation.org/regions/Pages/default.aspx?4#/?action=region&id=africa

[37] Angola, Burkina Faso, Gabon, Ghana, Égypte, Kenya, Madagascar, Mozambique, Namibie, Nigeria, Rwanda, Sénégal, Seychelles, Ouganda, Botswana et Afrique du Sud.

[38] Microsoft, Unlimited Potential Engagement in Africa, 2007.

[39] J’ignore de qui est cette citation, elle se retrouve en anglais avec quelques variantes sur plusieurs blogues et forums de discussion. Il s’agit cependant de ma traduction.




L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft

Lee Carson - CC by-saLe saviez-vous ? Grâce à la caution de partenaires associatifs et institutionnels a priori au dessus de tout soupçon, Microsoft entre comme dans du beurre (ou presque) à l’Éducation nationale, en déployant tranquillement son vaste et ambitieux programme globalisé « Innovative Schools ».

Si il ne s’agissait que de se substituer financièrement à un État de plus en plus désargenté, ce serait déjà grave, mais on en profite également pour marquer voire manipuler les esprits, sous le vernis d’un discours pédagogique soit disant progressiste et « innovant » (adjectif préféré du département marketing de la société).

Principales victimes collatérales : non seulement le logiciel libre et sa culture mais aussi et surtout les enseignants et donc les élèves[1], à qui on ne donne pas accès à cette culture.

Attention, cette histoire est un peu longue et un peu triste. Mais elle se termine bien à la fin !

Mondialisation mon amour

Qu’est-ce que le programme « Innovative Schools » ? C’est un peu le jeu des poupées russes, car il s’insère dans le programme « Partners in Learning », lui-même intégré au programme « Unlimited Potential ».

Commençons par la plus grande poupée, telle que décrite sur le site de Microsoft :

Microsoft Unlimited Potential vise à aider les personnes et les communautés du monde entier à réaliser leurs objectifs et leurs rêves par l’intermédiaire de la mise à disposition de technologies adaptées, accessibles et abordables. Nous nous sommes fixé pour mission d’ouvrir de nouvelles voies de développement social et économique, en particulier pour les cinq milliards de personnes qui, selon les estimations, ne bénéficient pas encore des avantages des nouvelles technologies. Avec nos partenaires publics comme privés, nous axons notre action sur la transformation de l’éducation, la stimulation de l’innovation locale et le soutien à la création d’emplois et de débouchés afin de créer un cercle vertueux de croissance économique et sociale durable pour tous.

Poursuivons en donnant quelques chiffres significatifs avec cette présentation maison du programme « Partners in Learning » :

Microsoft Partners in Learning est une initiative internationale conçue pour rendre la technologie plus accessible aux écoles, à stimuler des conceptions innovatrices de l’éducation et à fournir aux éducateurs les outils pour gérer et mettre en oeuvre des changements. Depuis sa création en 2003, le programme Partenaires en apprentissage a bénéficié à plus de 123 millions de professeurs et d’étudiants dans 103 pays. Microsoft apporte un soutien financier continu à cette initiative depuis déjà cinq ans, et l’investissement d’une durée de dix ans atteint presque 500 millions USD, ce qui témoigne de l’engagement de la société à rendre la technologie plus adaptée et plus accessible à chacun grâce à des programmes, des formations et des partenariats de licence abordables.

Un demi-milliard de dollars… Ne cherchez pas plus loin la réponse à la question de la légitimité d’une entreprise américaine de logiciels que rien ne prédisposait au départ à vouloir ainsi participer à « transformer l’éducation » à l’échelle mondiale. Ce n’est pas avec le vinaigre des beaux discours philanthropiques (cf ci-dessus) que l’on attrape les mouches, mais bien avec cet argument massue d’un compte en banque qui donne le vertige.

Toujours est-il que c’est dans le cadre du programme « Microsoft Partners in Learning », que l’on trouve le réseau des « Microsoft Innovative Teachers », enseignants cooptés en charge notamment de mettre chaque année en place dans leur propre pays des « Microsoft Innovative Teachers Forums », dont le point d’orgue est le « Microsoft Innovative Education Forum » où sont invités tous les lauréats des forums nationaux (en 2009 c’était au Brésil).

C’est également dans ce cadre que s’inscrivent les « Microsoft Innovative Schools ». Il s’agit d’investir un établissement scolaire et d’en faire une école pilote de l’innovation à la sauce Microsoft, en mettant là encore le paquet sur les moyens.

Une nouvelle fois, tout réside dans l’art de présenter la chose :

Le programme « Écoles Innovantes » fait partie de l’initiative internationale « Partners in Learning » au travers de laquelle Microsoft engage d’importants investissements matériels et financiers pour développer la formation dans le domaine des TICE , la personnalisation de l’enseignement, le support technique et, plus généralement, l’accès aux technologies informatiques de pointe dans l’éducation. Dans ce cadre, le projet « Écoles innovantes» fondé sur l’innovation pédagogique et l’utilisation des technologies de l’information, a été lancé au niveau mondial. La première « Ecole innovante» a ouvert ses portes au début de l’année 2006 à Philadelphie. Douze autres établissements à travers le monde font aujourd’hui partie de ce projet. L’objectif de ce projet est d’accompagner les établissements et plus largement l’institution dans son évolution vers l’école du XXIème siècle.

Du discours et de la méthode

Les citations ci-dessus donnent déjà une bonne idée de l’enrobage, pour ne pas dire de l’enfumage, d’un discours faussement lisse, neutre et consensuel dont l’objectif est de rencontrer l’adhésion des enseignants.

La société a évolué et l’école se doit de se mettre au diapason, mais cet inéluctable modernisme, où la technique semble omniprésente, ne doit en rien être anxiogène, c’est au contraire une formidable opportunité d’innovation. Ne vous inquiétez pas, Microsoft est là pour vous faciliter la tâche, accompagner votre créativité et vous aider à vous concentrer sur votre seule préoccupation : la pédagogie et la réussite de vos élèves.

Le mantra est le suivant : l’important ce n’est pas la technique, c’est l’usage que l’on en fait, si possible « innovant ».

L’informatique en tant que telle est volontairement occultée. Parce que si elle se fait oublier alors son choix n’a plus aucune importance. Et dans ces cas-là autant prendre « naturellement » les produits et les logiciels du généreux mécène (qui n’a absolument pas besoin de les mettre en avant, et il s’en garde bien, ça se fait tout seul !).

Concentrons-nous donc sur les pratiques. Rassurons les enseignants et montrons-leur ce que l’on peut faire aujourd’hui de « formidable » avec les nouvelles technologies (ils se trouvent que les démonstrations se font avec des logiciels Microsoft mais c’est à peine si on a besoin de l’évoquer, c’est juste que c’est plus pratique et qu’on les avait sous la main). Mieux encore, construisons ensemble des « écoles 2.0 », mettons les enseignants en relation et organisons de grandes manifestations où les plus dynamiques d’entre eux auront l’occasion de se rencontrer pour échanger, et éventuellement recevoir la « Microsoft Innovative Médaille du Mérite ».

Deux conséquences (fâcheuses)

Puisque l’informatique est un sujet plus que secondaire qui se doit de s’effacer pour être pleinement au service de la pédagogie, il n’y a pas lieu d’en parler, et moins encore d’en débattre. Il n’y a pas de choix à faire et le logiciel libre n’est ni cité, critiqué ou comparé, il est tout simplement nié. Jamais, ô grand jamais, vous n’y verrez la moindre référence sur les sites officiels des programmes « Microsoft Innovative MachinChose ».

Soit, le logiciel libre n’existe pas. Ce n’est pas si grave après tout si on a l’assurance que nos élèves sont entre les bonnes mains des professeurs innovants. Sauf que malheureusement ça ne peut pas être véritablement le cas, parce que ces professeurs sont sans le savoir handicapés car manipulés.

En effet, le logiciel libre à l’école va bien au delà du souhait d’installer et d’utiliser telle application plutôt que telle autre dans son ordinateur. Pris au sens large, c’est d’une véritable culture dont il s’agit, englobant les formats ouverts, les ressources en partage, les pratiques collaboratives spécifiques, la vigilance sur la propriété intellectuelle et la neutralité du réseau, etc.

Il me revient en mémoire cette citation extraite d’un billet sur la politique pro-active du Canton de Genève :

Dans sa volonté de rendre accessibles à tous les outils et les contenus, le « libre » poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication.

Pensez-vous que ces objectifs soient important et qu’ils aient toute leur place dans une « école du XXIème siècle » ? Si oui, alors ne comptez ni sur Microsoft ni sur ses enseignants sous influence pour sensibiliser réellement nos élèves sur ces questions pourtant devenues majeures aujourd’hui.

Autonomie et responsabilité face aux technologies, mais surtout sens critique et indépendance envers les pouvoirs, sont autant de thèmes qui ne font pas partie de la stratégie éducative de Microsoft. Et pour cause, ils risqueraient de dévoiler quelque chose que l’on cherche pernicieusement à cacher aux enseignants et à leurs élèves : le fait qu’une autre informatique soit possible, impliquant par là-même une autre pédagogie. Et, ne vous en déplaise, cette prise de conscience est déjà « innovante » en soi.

De la déclinaison française du programme

Et en France me direz-vous ?

Je ne connais pas l’étendue du programme « Microsoft Partners in Learning » de notre beau pays. Mais pour avoir ici-même participé à lever certains lièvres par le passé, je puis toutefois émettre quelques solides hypothèses.

Les « Microsoft Innovative Teachers » c’est avant tout l’équipe du Café pédagogique. Ce n’est pas moi qui l’affirme mais le site officiel répertoriant pays par pays les membres de ce réseau d’enseignants. Lorsque vous cliquez sur « France », vous êtes automatiquement renvoyé sur la page d’accueil du Café.

Le Café est accompagné par l’association d’enseignants Projetice (lire à ce sujet Projetice ou le cas exemplaire d’un partenariat très privilégié entre Microsoft et une association d’enseignants), dont la création a, semble-t-il, été directement souhaité et suggéré par Microsoft.

En toute logique, c’est à eux qu’il incombe de monter les « Microsoft Innovative Teachers Forums » dont la création a, c’est certain, été directement souhaité et suggéré par Microsoft. Nous avons ainsi eu Rennes en 2008 et Roubaix en 2009 (lire à ce sujet Du premier Forum des Enseignants Innovants et du rôle exact de son discret partenaire Microsoft et surtout le fort instructif Forum des Enseignants Innovants suite et fin).

Quant à la grande messe qui réunit les lauréats des forums du monde entier, vous pouvez compter sur le Café pour nous en faire de magnifiques et élogieux reportages, comme le dernier en date à Salvador de Bahia (lire à ce sujet En réponse au Café Pédagogique).

Pour le supérieur, il pourrait également y avoir les chercheurs du Groupe Compas (cf la présentation Microsoft) dont la création, elle aussi, aurait été fortement souhaité et suggéré par Microsoft, mais là je manque clairement d’informations.

Toujours est-il qu’on retrouve bien tout ce petit monde dans les encadrés de la brochure commerciale Microsoft 2010 en direction des établissements scolaires.

Un petit monde que l’on peut mobiliser à tout moment, comme par exemple lorsqu’il s’agit de relayer une campagne médiatique autour d’un nouveau produit de la société (lire à ce sujet L’influence de Microsoft à l’école n’est-elle pas disproportionnée ?, campagne qui valu à Microsoft de recevoir le Grand Prix « Acquisition et Fidélisation Clients »).

L’école Châteaudun ou la « Microsoft Innovative School » de chez nous

Pour compléter cet impressionnant dispositif Microsoft, il ne manquait plus que « l’École Innovante ». Et c’est à l’école publique Châteaudun d’Amiens qu’est revenu cet insigne honneur, et ce depuis deux ans déjà.

Le Café pédagogique en a parlé ici, , et tout récemment . Rien d’anormal à cela puisque le Café étant la tête de pont des « Microsoft Innovative Teachers » français, c’est bien le moins que de relayer les annonces de cette grande famille. C’est du reste cette dernière annonce, vendredi 15 janvier, qui a motivé la rédaction de cet article (d’autant plus que chez eux, il est impossible de commenter). Et plus particulièrement cette histoire de « fées autour du berceau ».

À l’origine de ce projet, la rencontre entre le directeur de l’école primaire qui voulait améliorer l’expression écrite et orale de ses élèves, son maire, ministre de l’éducation à ce moment, et le groupe Microsoft qui soutient plusieurs écoles innovantes dans le monde avec le projet d’observer et retenir les innovations. Voilà beaucoup de fées autour du berceau et cela a joué sur le projet car l’équipe éducative a été très sollicitée par les accompagnateurs du projet.

Abondance de fées pourrait-elle nuire ? En tout cas, il y a une fée singulièrement différente des autres, et l’on pourra toujours évoquer une « rencontre » entre les différents acteurs, c’est bien plus sûrement la fée Microsoft, en pleine « Innovative Prospection », qui a su murmurer de manière convaincante à l’oreille du ministre (en l’occurrence, à l’époque, c’était Gilles de Robien).

On remarquera donc d’emblée que les fées du projet et l’équipe éducative sont deux entités bien distinctes. Des fées qui savent manifestement manier leur baguette avec, quand il le faut, l’autorité nécessaire, puisque la décision est venue d’elles, c’est-à-dire d’en haut, et non du terrain, c’est-à-dire des professeurs qui auraient eu vent des « Microsoft Innovative Schools » et qui auraient choisi d’inscrire collectivement et spontanément leur école.

Pour plus de détails sur le projet, il y a, avec toutes les précautions d’usage quant à leur objectivité, cette présentation sur le site de Microsoft (voir aussi ce reportage vidéo interne, au format propriétaire wmv) et cette visite du Café pédagogique.

On pourra également se rendre sur le blog et le site de l’école, créés à l’occasion, dont je vous laisse juge de la qualité et du dynamisme (reposant tous deux sur des solutions libres soit dit en passant).

Quant à la communication, il faut croire qu’avoir aussi bien le ministre que Microsoft penchés au dessus du berceau, aident à la mise en lumière médiatique du projet, avec titres et contenus qui ont dû faire plaisir aux fées : La première école innovante de France (Le Point – février 2008) et Amiens invente l’école numérique de demain (Le Figaro – mai 2008). Ajoutez juste un mot de plus au titre du Point et vous obtenez quelque chose qui oriente sensiblement différemment la lecture : « La première école innovante Microsoft de France ».

Mais plus intéressant et a priori plus rigoureux, on a surtout ce rapport tout chaud réalisé par l’INRP, c’est-à-dire rien moins que l’Institut National de Recherche Pédagogique. Aujourd’hui c’est donc l’heure d’un premier bilan et c’était bien là le motif principal de l’annonce du Café.

Première phrase du rapport : « Cette étude a bénéficié du soutien de Microsoft Éducation ». Et un peu après :

Sollicité par Microsoft Éducation France pour être évaluateur du projet Innovative Schools, d’une durée de deux ans (de septembre 2007 à décembre 2009), au niveau national et international, l’INRP a signé une convention de recherche-évaluation pour (…) faire un suivi du projet et du process des 6i

On retrouve notre constante : c’est toujours Microsoft qui sollicite et non l’inverse. Quant au « process des 6i », c’est absolument fascinant car il s’agit d’un véritable choc culturel.

Nous connaissons un peu les américains. Ils raffolent de ces méthodes en plusieurs points censés améliorer notre vie professionnelle, personnelle ou spirituelle (un exemple parmi d’autres, les douze étapes des Alcooliques Anonymes). On ne le leur reprochera pas, c’est dans leur ADN et certaines méthodes sont au demeurant tout à fait efficaces.

Et c’est ainsi que Microsoft, dans sa volonté universalisante (et uniformisante) de « transformer l’éducation » de ce nouveau millénaire, nous a pondu ce processus à 6 niveaux, ainsi résumé sur cette page :

Cette méthode, les 6i, se déroule en 6 étapes réparties sur 2 années scolaires. Le processus des 6i (Introspection, Investigation, Inclusion, Innovation, Implémentation, Insight) de Microsoft, est un plan de route sur l’élaboration, la mise en œuvre et la gestion des changements basés sur les TIC. Il constitue un guide à l’intention des leaders scolaires pour mettre en place des changements éducatifs sur la base d’approches éprouvées.

Pour ceux que cela intéresse, Microsoft donne plus de détails sur son site anglophone (mais, là encore, méfiance, l’enfer est pavé de bonnes intentions pédagogiquement innovantes).

Le problème (enfin, ça dépend pour qui) c’est qu’à l’école française on n’est pas forcément familier avec cette manière d’appréhender les choses. Je vous laisse imaginer la tête du professeur des écoles, qui pour rappel a subi et non voulu le projet, lorsqu’on lui met une telle méthode entre les mains ! Euh… ça veut dire quoi « Insight » déjà ?

Toujours est-il que malgré le fait que ce « process des 6i » figurait donc noir sur blanc sur la feuille de route de l’étude commandé, le rapport n’en parle presque pas. Il se contente de le décrire à un moment donné (p. 18 à 21) mais sans que cela ait visiblement donné lieu à la moindre tentative d’application avec l’équipe pédagogique puisqu’on n’y revient plus par la suite. Pour tout vous dire, on sent l’INRP comme un peu gêné aux entournures ici (comme ailleurs du reste).

Résistance passive

Les rapports au sein de l’Éducation nationale, c’est tout un poème. Il faut parfois avoir le décodeur, en particulier lorsque l’on évoque les TICE où très souvent, politique moderne oblige, aussi bien l’auteur que le lecteur ont intérêt à ce que l’on décrive, quoiqu’il arrive, une situation positive et un projet réussi. Le projet fonctionne ? On dira qu’il fonctionne très bien. Il ne fonctionne pas ? Et l’on dira alors qu’il est un peu tôt pour en faire un bilan, ou que les conditions d’observation n’étaient pas optimales, etc., mais que malgré quelques « résistances », on note d’ores et déjà de significatives avancées, etc.

Et d’ailleurs, petite parenthèse, lorsqu’il s’agit d’un projet d’envergure dont le rapport remonte en passant par les indispensables étapes de la hiérarchie, on peut se retrouver au final avec un beau décalage entre ce qui se trouve sur le bureau du Ministre et la réalité du terrain (le B2i fournissant à cet égard un excellent exemple, on tient certainement là une cause principale de son étonnante longévité).

Bref ici, je vous invite à lire la conclusion du rapport (muni du fameux décodeur). Entre les lignes, on ne décrypte pas un échec patent mais on ne peut pas dire non plus, et loin de là, que ce soit l’enthousiasme qui prédomine.

Cette conclusion comporte deux parties (c’est déjà mauvais signe) : « Quelques failles constitutives sont repérables pour diverses facettes de l’opération » (on craint le pire), mais heureusement il y a aussi « Les avancées d’une école innovante ».

Morceaux choisis :

Les circonstances de la mise en œuvre de l’innovation dans l’école observée n’ont pas été idéales de ces points de vue et sont, sans l’ombre d’un doute, à l’origine des difficultés éprouvées à la fois par les acteurs locaux et par tous ceux qui ont été chargés de les suivre. L’empilement de dispositifs, de choix, de procédures, jamais clairement négociés avec les enseignants, a pu dérouter. Pour autant, les bénéfices de la démarche d’innovation sont visibles à l’échelle de l’école et encouragent à poursuivre.

On retrouve le plan d’un rapport-type tel que décrit théoriquement ci-dessus.

L’initiative est venue du ministre de l’Éducation nationale lui-même, maire de la ville. Le faible nombre d’enseignants réellement engagés dans l’opération traduit des réticences face à une opération (…)

La forme recherche-évaluation choisie par le Stanford Research Institute (SRI) comme cadre général du pilotage de l’innovation est très éloignée des principes courants d’observation et de suivi habituellement mis en œuvre en France.

C’est peu de le dire. Mais quand on s’embarque ainsi avec des américains, il faut en être bien conscient au départ. Là c’est un peu tard et il convient donc d’assumer.


La charge de travail imposée aux acteurs de l’école, dépassant de très loin la mise en place de l’innovation elle-même, a d’autant plus vite atteint un niveau insupportable qu’elle était inattendue et incompréhensible faute d’avoir été expliquée à l’avance.

L’extrême médiatisation de l’opération (à l’échelle locale puis nationale), avec ses inexactitudes, ses excès, ses effets pervers a achevé d’exacerber une situation dont la dimension politique était relancée par le changement de majorité municipale aux élections du printemps 2008.

Rien d’étonnant à ce que ces dispositions aient accentué la circonspection des enseignants et aient pu conduire au refus de toute observation de situations de classe à partir du mois d’avril 2008. Pour autant de nombreux aspects authentiquement innovants sont apparus dans le déroulement du projet d’école.

Ce dernier paragraphe est symptomatique. Des enseignants ont carrément refusé de jouer le jeu. C’est une lourde et concrète information impossible à censurer. Mais elle est tout de suite suivie et contre-balancée par un argument positif vague et flou, que vient corroborer l’ultime phrase du rapport :

L’innovation est ainsi reconnue et même souhaitée. Ce n’est pas l’innovation en tant que telle qui est recherchée, mais c’est, bien davantage, l’amélioration des résultats de tous les élèves, y compris les moins performants, qui est attendue. Cette exigence s’inscrit dans la droite ligne de l’histoire de notre école républicaine.

Certes, certes. Mais pourquoi notre école républicaine à la si riche histoire aurait-elle besoin de s’appuyer ici sur la « méthode des 6i » tout droit sortie de la cuisse de la multinationale Microsoft ?

Et le Café pédagogique, de s’adonner lui aussi à la conclusion positive aux forceps :

S’il est trop tôt selon l’étude pour constater des changements chez les élèves, elle confirme l’impact sur l’équipe pédagogique. Le projet a bien développé sa capacité d’adaptation aux changements – une faculté tant individuelle que collective qu’exige une société en constante évolution. Ça donne déjà une longueur d’avance à cette école.

En gros, on est venu perturber des professeurs qui n’avaient au départ rien demandé. Et comme il a bien fallu qu’ils s’adaptent, on les félicite d’avoir fait face aux changements. Que l’adaptation ait été vécue positivement ou négativement ne compte pas, c’est une qualité en soi. Voilà une bien maigre « longueur d’avance ».

Et pour en avoir le cœur net, l’idéal serait de recevoir dans les commentaires de ce billet, quelques témoignages de professeurs de cette école.

Parce que, autant appeler un chat un chat , malgré la débauche d’énergies et de moyens matériels et humains mis à disposition, l’expérience Innovative School Châteaudun d’Amiens n’a semble-t-il pas forcément donné tous les résultats escomptés. Microsoft pourra toujours cocher la case « école française » sur sa jolie mappemonde, on ne m’ôtera pas de l’idée que nous sommes face à une belle déception qui ne veut dire son nom.

Résistance active

Mais il y a des résistances bien moins passives et donc bien plus intéressantes que celles de l’école Châteaudun d’Amiens.

Infiltrer une école primaire ne suffisait semble-t-il pas aux responsables de Microsoft France Éducation. Il leur fallait également un établissement du secondaire pour parfaire le tableau.

Ils avaient ainsi repéré un lycée de l’Académie de Créteil. Et là encore il s’agissait de faire passer le projet par le haut, sans en référer au préalable à l’équipe pédagogique de l’établissement.

Mais il y eut un magnifique grain de sable, quelque chose d’imprévisible et inattendu s’est alors produit. Deux enseignantes ont pris leur plume pour courageusement protester publiquement sur le site d’informations rue89. Ce qui a donc donné l’article Pour ses « innovations », l’Éducation nationale s’en remet à Microsoft, qui figure en bonne place dans ma rétrospective personnelle de l’année 2009.

Je vous invite à le lire dans son intégralité (on notera que le logiciel libre y est évoqué et même souhaité), mais je n’ai pu résister à en reproduire ici la percutante introduction :

Nous sommes professeurs de lettres et de philosophie dans un établissement public de France et nous voulons dire notre tristesse. Notre colère. Nous avons appris, il y a peu, que notre établissement déposait un projet d’« école innovante » auprès du rectorat, mené en partenariat avec Microsoft !

Les établissements publics français ont une mission publique d’éducation. Ils doivent, cela va sans dire, évoluer avec leur société : si l’on tient absolument au novlangue actuellement en vigueur à l’Éducation nationale, disons qu’ils doivent « innover » ; mais quel besoin de le faire sous le coaching de Microsoft ?

Que vient donc faire une multinationale dans nos innovations pédagogiques ? Et comment comprendre que ce soit le responsable des technologies de l’information et de la communication pour l’enseignement (TICE) au rectorat, autrement dit l’Éducation nationale elle-même, qui encadre ce « partenariat » ?

Nous, enseignantes du service public français, sommes choquées d’avoir à innover par la « méthode des 6i » (« introspection, investigation, inclusion, innovation, implémentation, insight ») mise au point – et brevetée ! – par le groupe Microsoft pour pouvoir formater de façon homogène l’innovation pédagogique de pays différents, et faire émerger l’école du XXI siècle, comme on peut le lire sur le site de Microsoft.

Quelle éloquence, mais surtout quelle évidence !

On remarquera que l’INRP s’est quant à elle tout à fait accommodée de la « méthode des 6i » à Châteaudun. Les « experts pédagogiques » sont semble-t-il plus flexibles et malléables que les profs d’en bas.

Suite à cette tribune, l’une des auteurs m’a contacté pour échanger, voire prendre conseil, parce que figurez-vous qu’elle subissait du coup menaces et pressions de la part de sa hiérarchie !

Mais la hiérarchie s’est ravisée. Je pense qu’elle a réalisé que plus cette histoire allait se médiatiser, plus sa position deviendrait intenable, car les collègues se rangeraient plus que majoritairement derrières les arguments des enseignants.

Autrement dit, victoire, on n’a plus du tout entendu parler de ce projet Microsoft depuis ! La prochaine « Innovative School » française devra attendre. Comme quoi quand on veut…

Et l’article de s’achever ainsi :

L’école en a, des profs « innovants », si l’on tient absolument à les appeler ainsi.

Non, ce n’est vraiment pas le désir d’inventer et de créer qui manque, à l’Éducation nationale.

Mais un prof qui s’entend dire qu’il devra accepter comme une condition nécessaire pour accéder aux moyens de mettre en œuvre ses projets de travailler avec telle entreprise privée, sous sa direction et dans son formatage, dans l’idéologie de ce que doit être l’école du XXIe siècle (sic) selon ladite entreprise, ce prof, dès lors, ne sent plus tellement en lui le désir d’« innover ».

Parce qu’il pressent qu’« innover » dans ces conditions impliquera qu’il abdique une part de sa liberté pédagogique au nom du modèle idéologique en question.

Ce sera également notre conclusion.

Notes

[1] Crédit photo : Lee Carson (Creative Commons By-Sa)




Le Monde et Libé main dans la main pour nous pondre des éditos serviles et crétins

Hamed Saber - CC byJe me souviens d’un temps que les moins de vingt ans ne peuvent pas connaître. C’était avant Internet. La presse avait un surnom : le quatrième pouvoir. Et il me plaisait d’y croire à ce contre-pouvoir, face aux autres pouvoirs incarnés par l’État.

Aujourd’hui, j’ai de plus en plus de peine à y croire. Jusqu’à ne plus y croire du tout lorsqu’il s’agit d’aborder « Internet ».

Que Sarkozy s’empare d’un rapport pour venir nous faire une proposition qui frise le ridicule avec sa « taxe Google », nous y sommes malheureusement désormais habitués, Hadopi étant encore (et pour longtemps) dans toutes les mémoires. Mais que des journaux aussi prestigieux que Le Monde et Libération, reprennent le même jour, sans aucun recul, cette proposition, en tentant bien maladroitement de la justifier, c’est nouveau et c’est plus que décevant[1].

Mais qu’est-ce donc que cette « taxe Google » ?

Florent Latrive (journaliste à… Libération !) la résume fort bien dans son excellent et cinglant billet La taxe Google, symbole cache-misère sur son blog Caveat Emptor :

Il n’est surtout nulle part question que cette taxe soit une source de revenus supplémentaires pour les artistes et créateurs. Elle vise simplement à compenser dans le budget de l’Etat une série de dépenses en faveur des industries culturelles, et notamment la carte jeune musique ou l’extension du crédit d’impôt pour la production musicale. Si ces dépenses auront, c’est le minimum, pour effet indirect d’assurer quelques rentrées à la filière, on ne trouve pas là trace d’une nouvelle ligne de recettes susceptibles d’apporter un revenu pérenne et conséquent aux créateurs. On taxe la pub, et on subventionne la vente de musique. Il ne s’agit pas là de rémunérer la filière sur la base d’une nouvelle circulation des oeuvres et de nouveaux partages de la valeur ajoutée, mais d’instaurer un micro-bricolage fiscal, tout en continuant, via Hadopi, la guerre au public et à ses pratiques de partage sur les réseaux.

Et Guillaume Champeau de surenchérir sur Numerama, un brin énervé :

Puisque la France et l’Europe sont incapables de favoriser l’émergence de grands acteurs de l’internet, autant taxer les sucess stories américaines pour financer ses industries vieillissantes.

Ajoutons à cela qu’elle s’annonce techniquement inapplicable (ça ne vous rappelle rien ?), puisque comme nous le précise Rue89, il sera fort délicat, pour ne pas dire impossible, de tout aussi bien choisir les sites à taxer, empêcher l’évasion fiscale et dénombrer les internautes français.

L’idée est donc définitivement mauvaise. Et, même si ça n’est pas forcément agréable à lire, on ne s’étonnera pas de se faire plus ou moins gentiment chambrer par le reste du monde.

Mais nos deux grands quotidiens ont eux décidé de passer outre…

Qu’est-ce que l’éditorial, ou l’édito, d’un journal ? C’est en quelque sorte la « signature » du journal, voire même parfois sa « vitrine idéologique ». Et comme c’est important, on ne va pas en confier la plume à n’importe qui : ce sont souvent les directeurs ou les rédacteurs en chef qui s’y collent.

Or donc ici, c’est rien moins que l’éditorial de ces deux journaux qui est sollicité pour jouer, j’exagère à peine, les porte-paroles du gouvernement. Les titres de l’un comme de l’autre sont évocateurs et en parfaite symbiose : « Juste » pour Libération et « Une taxe juste » pour Le Monde. Le parallèle est saisissant, à croire qu’ils se sont passés le mot.

L’édito de Libération : « Juste »

URL d’origine du document
Par Laurent Joffrin (directeur du journal) – 8 janvier 2010

Internet, notre ennemi ? Voilà bien la manière la plus niaise de poser le problème de la création et de la presse en ligne. Le réseau mondial porte en lui un tel progrès de civilisation – culture et information à la disposition de tous sur un simple clic – qu’il est ridicule d’invoquer cette dichotomie sommaire.

Ce serait effectivement ridicule, mais alors pourquoi le rappeler en introduction ? On est à la limite de la faute avouée à moitié pardonnée.

Non, l’ennemi est plus insidieux, et plus dangereux : c’est le tout gratuit, en ligne ou ailleurs.

Qu’est-ce que le « tout gratuit » ? Je n’en ai personnellement aucune idée. Toujours est-il que « l’ennemi » est donc désigné et que l’on se trouve face à une autre dichotomie sommaire dans laquelle on souhaiterait nous enfermer : gratuit contre payant. Le refrain est désormais connu, occultons totalement la constitution de biens communs, le partage de ressources sous licences libres et ouvertes (gratuites ou payantes) et les échanges non marchands. C’est pourtant aussi et surtout là qu’Internet est susceptible d’être un « progrès de civilisation ».

Pendant des lustres, les ravis de la fausse modernité nous ont expliqué que la gratuité totale, par des sources principalement publicitaires, créerait son modèle économique. On s’aperçoit aujourd’hui que cette prophétie n’a aucune réalité pour les producteurs de contenus culturels (musique, livres, cinéma, information…)

Merci de cet aveu. Il fallait effectivement être bien naïf pour croire ces « ravis de la fausse modernité » (on veut des noms !).

Quelques géants, agrégateurs comme Google ou fournisseurs d’accès Internet, ont capté l’essentiel des revenus. Le libre marché a créé cette originale répartition des tâches : les créateurs de contenu supportent les dépenses, les diffuseurs perçoivent les recettes.

Mélangeons allègrement deux entités aussi hétéroclites que Google et un fournisseur d’accès pour en faire d’étranges boucs émissaires à qui on reproche d’avoir « capté » les revenus des contenus.

Les premiers subissent déficits, précarité et licenciements, les autres amassent des montagnes d’argent.

Non, non, on ne nous parle pas de la crise des subprimes mais bien de la crise des industries culturelles (qui, contrairement à la première, n’inquiète qu’elles-mêmes). Toujours est-il que « les autres », vautrés sur des montagnes d’argent injustement récolté, sont coupables. Il est alors sain et logique de les punir par une taxe en faveur des pauvres victimes.

Dès lors, le rapport Zelnik est dans le vrai quand il cherche le moyen de rééquilibrer une situation qui mènera sans cela à l’anémie et au formatage des contenus.

Classique. On confond un problème (réel) avec l’une des solutions (plus que discutable) pour le traiter. On ne s’y est pas pris autrement pour justifier l’Hadopi. « Dès lors… », le raisonnement est un peu court et l’affirmation péremptoire. Si vous ne voulez pas d’une presse malade (anémie) et uniforme (formatage des contenus) alors vous ne pouvez qu’adhérer au rapport Zelnik et à sa taxe Google. La ficelle est un peu grosse mais CQFD.

Et ce qui vaut pour la musique vaut, a fortiori, pour l’information, dont le rôle civique est évident.

Journalisme et musique, même combat dans l’adversité, d’où l’existence de cet édito. Et c’est encore pire avec le journalisme dont l’évidence du rôle civique est telle qu’il convient tout de même de le rappeler.

A moins de considérer, dans un rêve ultralibéral, qu’en raison d’un commandement du Saint Marché, créateurs et journalistes doivent désormais vivre d’amour et d’eau fraîche.

J’ai connu Libération moins critique vis-à-vis de l’économie de marché. Mais résumons-nous : Internet tend vers un tout gratuit capté par un Google causant tristesse et désolation dans le monde des « vrais » producteurs de contenus culturels. La taxe est juste, la taxe est la solution.

L’édito du Monde : « Une taxe juste »

URL d’origine du document
Non signé – 8 janvier 2010

Taxer Google. En prenant position, jeudi 7 janvier, lors de ses voeux à la culture, en faveur d’une fiscalisation des revenus publicitaires en ligne des géants d’Internet, Nicolas Sarkozy fait-il preuve de démagogie ou, au contraire, de cohérence ? Un peu des deux. Il est facile de pointer uniquement le grand méchant loup américain. Les maisons de disques, par exemple, ont longtemps refusé de prendre au sérieux les évolutions technologiques, préférant profiter des revenus considérables qu’elles tiraient du CD.

Départ identique à l’édito précédent (Internet n’est pas l’ennemi, etc.). On est lucide parce qu’on a bien compris la démagogie de la proposition, mais comme c’est aussi de nous, les journalistes et notre avenir dont il s’agit, on va tenter malgré tout de vous en montrer sa cohérence (si possible sans recourir aux forceps).

D’un autre côté, la position des moteurs de recherche, Google en tête – l’immense majorité des internautes français entrent sur la Toile avec lui -, devient intenable.

Intenable pour qui exactement ? On pourrait d’ailleurs faire également le même procès à Microsoft et ses ventes liées (lui aussi basé fiscalement en Irlande soit dit en passant). Ce qui donne alors : « D’un autre côté, la position des systèmes d’exploitation, Windows en tête – l’immense majorité des utilisateurs français entrent en informatique avec lui -, devient intenable ».

Depuis des années, Google profite de contenus qu’il n’a pas créés et qui ne lui appartiennent pas : musiques, films, livres, presse, produits audiovisuels… Google ne paie presque rien et il rend les contenus gratuits. Pire, il capte des pages de publicité, et donc des revenus, qui devraient aller à d’autres.

Pareil que tout à l’heure. Google capte, profite sans donner, et rend tout gratuit. On ne va pas dire que Google est un voleur, mais on en a tout de même fortement envie. « Il est facile de pointer uniquement le grand méchant loup américain », disait-on pourtant en préambule. Que Google pose de nombreuses questions et de nombreux problèmes est une évidence, mais aborder aussi radicalement le débat ne risque pas de faire avancer les choses.

Le résultat est ravageur : hormis le cinéma, qui se porte bien – la magie de la salle opère toujours -, la musique est sinistrée, la presse souffre, le livre est menacé.

Et n’oublions pas aussi qu’en 2012 c’est l’Apocalypse. Et il semblerait, mais c’est à vérifier, que Google n’y soit cette fois-ci pour rien.

Comment convaincre des consommateurs de musique de payer pour un produit qu’ils peuvent trouver gratuitement ? Lorsque l’on a 20 ans, que l’on a grandi une souris à la main, que le plaisir d’un meilleur son ou d’une belle pochette de disque compte moins, la mission paraît impossible.

J’invite l’éditorialiste du Monde, fin connaisseur de la jeunesse, à lire l’article de Jean-Pierre Archambault, Gratuité et prix de l’immatériel, pour constater qu’à l’impossible nul n’est tenu.

Ces dernières années, les gouvernements ont, pour punir les fraudeurs, multiplié les textes de loi et accumulé les maladresses. La filière musicale, elle, a pris beaucoup de retard dans la mise en place d’une offre riche et attractive.

Donc, en toute logique, si on tire les leçons du passé, il n’y a aucune raison de ne pas se trouver en face d’une nouvelle maladresse. Mais pas du tout…

Dès lors, les mesures incitatives, préconisées par le rapport de la mission Création et Internet, présidée par l’éditeur Patrick Zelnik, sont justes. Et juste aussi l’idée de financer celles-ci par une taxe sur la publicité en ligne. Le rapport aurait pu aller plus loin en mettant à contribution les autres grands bénéficiaires du système que sont les fournisseurs d’accès.

Le mimétisme avec Joffrin me laisse songeur. Ils ont dû s’enfermer ensemble dans une pièce commune pour nous rédiger cela, c’est la seule explication. Jusqu’à la même locution « Dès lors… ». En tout cas, le raisonnement (bancal) et la conclusion (partiale) sont en tout point identiques, jusqu’à l’inclusion des fournisseurs d’accès dans le même galère que Google.

Restent deux difficultés. La faisabilité, d’abord. Dans un monde dématérialisé, évaluer les recettes spécifiquement françaises et contraindre des entreprises étrangères à acquitter leur dû fiscal en France ne sera pas simple.

Cette première difficulté est une impossibilité.

Cela suppose aussi de bouleverser la philosophie d’Internet, réseau créé pour permettre la circulation libre du savoir. Pour les artistes et auteurs, ce serait justice. Pour les utilisateurs, ce sera une révolution culturelle.

Pincez-moi ! Suis-je bien en train de lire un éditorial du Monde ? S’en prendre à la libre circulation du savoir sur Internet serait une nouvelle « révolution culturelle » ???

Une partie de moi-même s’en trouve glacé d’effroi ! (surtout la partie « bobo de gauche », qui n’a pas encore totalement disparue)

On pourrait en rire si ça n’était point si grave. Parce que, mine de rien, ces deux éditos, consciemment ou non, nous préparent magnifiquement à l’épisode suivant qui participe du même état d’esprit, à savoir la mise en place du filtrage du Net et la remise en cause de sa neutralité.

La peur est décidément mauvaise conseillère. Monsieur Joffrin, vous aviez raison tantôt de rappeler le rôle civique de la presse, parce qu’il y a des jours, comme ce 8 janvier 2010, où il peut nous être permis d’en douter.

Notes

[1] Crédit photo : Hamed Saber (Creative Commons By)




Ne pas entrer à reculons dans la société et l’économie numériques

Tibchris - CC by« Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques. »

Telle est la conclusion de Gratuité et prix de l’immatériel, le nouvel article de Jean-Pierre Archambault que nous vous proposons aujourd’hui. Il n’apporte fondamentalement rien de plus que ce que tout lecteur du Framablog connaissait déjà. Mais l’agencement des faits, la pertinence des exemples et l’enchaînement des arguments en font une excellente synthèse en direction du grand public. Á lire et à faire lire donc[1].

Je ne résiste d’ailleurs pas à vous recopier d’emblée cette petite fiction que l’on trouvera dans le paragraphe en faveur de la licence globale, histoire de vous mettre l’eau à la bouche : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »

Gratuité et prix de l’immatériel

URL d’origine du document

Jean-Pierre Archambault – CNDP et CRDP de Paris – Chargé de mission Veille technologique et coordonnateur du Pôle de compétences logiciels libres du SCÉREN – Médialog n°72 – Décembre 2009

Internet bouleverse les modalités de mise à disposition des biens culturels et de connaissance. Dans l’économie numérique, le coût de production d’une unité supplémentaire d’un bien (musique, film, logiciel…) étant, pour ainsi dire, nul, que doit-on payer ?
La réflexion sur les logiciels libres, biens communs mis à la disposition de tous, peut contribuer à éclairer la question des relations complexes entre gratuité, juste prix et légitime rémunération des auteurs.

Le thème de la gratuité est omniprésent dans nombre de débats de l’économie et de la société numériques, qu’il s’agisse de morceaux de musique, de films téléchargés, ou de logiciels qui, on le sait, se rangent en deux grandes catégories : libres et propriétaires. Les débats s’éclairent les uns les autres, car ils portent sur des produits immatériels dont les logiques de mise à disposition ont beaucoup de points communs.

Concernant les logiciels, « libre » ne signifie pas gratuit. La méprise peut venir de la double signification de free en anglais : libre, gratuit. À moins que son origine ne réside dans le fait qu’en pratique il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Il peut s’agir également d’une forme d’hommage à la « vertu » des logiciels libres, et des standards ouverts. En effet, à l’inverse des standards propriétaires qui permettent de verrouiller un marché, ceux-ci jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Ils s’opposent aux situations de rentes et de quasi monopole. De diverses façons, les logiciels libres contribuent à la baisse des coûts pour les utilisateurs. Par exemple, l’offre gratuite, faite en 2008 par Microsoft, sur sa suite bureautique en direction des enseignants, mais pas de leurs élèves, est une conséquence directe de la place du libre en général, d’OpenOffice.org en particulier, dans le paysage informatique. Et, c’est bien connu, les logiciels libres sont significativement moins chers que leurs homologues propriétaires.

Gratuit car payé

Il peut arriver que la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, le problème étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Et l’on sait que dans l’économie des biens immatériels, contrairement à l’économie des biens matériels, les coûts fixes sont importants tandis que les coûts marginaux (coûts de production et diffusion d’un exemplaire supplémentaire) sont peu élevés. Dupliquer un cédérom de plus ou fabriquer un deuxième avion, ce n’est pas la même chose. Télécharger un fichier ne coûte rien (sauf l’accès au réseau).

Mais, même quand un logiciel n’est pas gratuit, il le devient lorsqu’il a été payé ! Enfin, quand il est sous licence libre. Qu’est-ce à dire ? Prenons le cas d’un client qui commande la réalisation d’un logiciel à une société et la lui paye intégralement, dans une relation de sous-traitance. Un travail a été fait et il est rémunéré. Si, en plus, le client a conservé ses droits de propriété sur le logiciel et décide de le mettre à disposition des autres sous une licence libre, le dit logiciel est alors librement et gratuitement accessible pour tout un chacun. Exit les licences par poste de travail. Bien commun, un logiciel libre est à la disposition de tous. À charge de revanche, mais c’est l’intérêt bien compris des uns et des autres de procéder ainsi, même s’il est vrai qu’il n’est pas toujours évident d’enclencher pareil cycle vertueux… Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Il en va pour l’informatique comme pour les autres sciences. Les mathématiques sont libres depuis vingt-cinq siècles. Le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations est bien lointain ! Les mathématiques sont donc libres, ce qui n’empêche pas enseignants, chercheurs et ingénieurs d’en vivre.

Argent public et mutualisation

Le libre a commencé ses déploiements dans les logiciels d’infrastructure (réseaux, systèmes d’exploitation). Dans l’Éducation nationale, la quasi totalité des logiciels d’infrastructure des systèmes d’information de l’administration centrale et des rectorats sont libres. Il n’en va pas (encore…) de même pour les logiciels métiers (notamment les logiciels pédagogiques), mais cette situation prévaut en général, que ce soit dans les entreprises, les administrations, les collectivités locales ou dans des filières d’activité économique donnée.

Dans L’économie du logiciel libre[2], François Elie, président de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales), nous dit que l’argent public ne doit servir à payer qu’une fois ! Comment ne pas être d’accord avec pareille assertion ? En effet, si des collectivités territoriales ont un besoin commun, il n’y a aucune raison pour qu’elles fassent la même commande au même éditeur, chacune de son côté dans une démarche solitaire, et payent ce qui a déjà été payé par les autres. François Elie propose la mutualisation par la demande.

L’Éducation nationale est certes une « grande maison » riche de sa diversité, il n’empêche qu’il existe des besoins fondamentalement communs d’un établissement scolaire à l’autre, par exemple en matière d’ENT (espaces numériques de travail). Pourquoi des collectivités territoriales partiraient-elles en ordre (inutilement trop) dispersé ? Alors, qu’ensemble, elles peuvent acheter du développement partagé ou produire elles-mêmes. Et, dans tous les cas, piloter et maîtriser les évolutions. Ce qui suppose d’avoir en interne la compétence pour faire, ou pour comprendre et « surveiller » ce que l’on fait faire, aux plans technique et juridique. Dans le système éducatif, les enseignants ont la compétence métier, en la circonstance la compétence pédagogique, sur laquelle fonder une mutualisation de la demande, la production par les intéressés eux-mêmes se faisant dans des partenariats avec des éditeurs publics (le réseau SCÉREN) et privés. L’association Sésamath en est l’illustration majeure mais elle n’est pas seule : il y a aussi AbulEdu, Ofset, les CRDP…[3].

L’argent public ne doit servir qu’une fois, ce qui signifie une forme de gratuité selon des modalités diverses. C’est possible notamment dans l’équation « argent public + mutualisation = logiciels libres ». Le libre a fait la preuve de son efficacité et de ses qualités comme réponse à la question de la production de ce bien immatériel particulier qu’est le logiciel. Rien d’étonnant à cela. La production des logiciels restant une production de connaissances, contrairement à d’autres domaines industriels, elle relève du paradigme de la recherche scientifique. L’approche du logiciel libre, à la fois mode de réalisation et modalité de propriété intellectuelle, est transférable pour une part à d’autres biens, comme les ressources pédagogiques. Le logiciel libre est également « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance.

Gratuité et rémunération

Revenons sur les coûts fixes et marginaux dans l’économie à l’ère du numérique. L’économie de l’information s’est longtemps limitée à une économie de ses moyens de diffusion, c’est-à-dire à une économie des médias. Elle ne peut désormais plus se confondre avec l’économie du support puisque les biens informationnels ne sont plus liés rigidement à un support donné. L’essentiel des dépenses était constitué par les coûts de production, de reproduction matérielle et de distribution dans les divers circuits de vente. Aujourd’hui, les techniques de traitement de l’information, la numérisation et la mise en réseau des ordinateurs permettent de réduire les coûts de duplication et de diffusion jusqu’à les rendre à peu près nuls. Dans ces conditions, la valeur économique de l’information ne peut plus se construire à partir de l’économie des vecteurs physiques servant à sa distribution. De nouvelles sources de valeur sont en train d’apparaître. Le modèle économique de mise en valeur de l’information déplace son centre de gravité des vecteurs physiques vers des services annexes ou joints dont elle induit la consommation ou qui permettent sa consommation dans de bonnes conditions (services d’adaptation d’un logiciel au contexte d’une entreprise, de facilitation de l’accès à des ressources numérisées, commerce induit sur des produits dérivés, etc.).

Le copyright, qui défend principalement l’éditeur contre des confrères indélicats, aussi bien que le droit d’auteur, qui défend principalement l’auteur contre son éditeur, ont ceci en commun qu’ils créent des droits de propriété sur un bien abstrait, l’information[4]. Tant que cette information est rigidement liée à un vecteur physique, c’est-à-dire tant que les coûts de reproduction sont suffisamment élevés pour ne pas être accessibles aux particuliers, ces droits de propriété peuvent être imposés aisément. Mais le monde bouge…

Les débats sur la loi Création et Internet dite « loi Hadopi » ont tourné autour de la gratuité et de la rémunération des auteurs (et des éditeurs !). Face aux difficultés de recouvrement du droit d’auteur dans l’économie numérique, certains pensent manifestement que la solution réside dans le retour au modèle classique de l’information rigidement liée à son support physique, ce que certaines techniques de marquage pourraient permettre, annulant ainsi les bienfaits économiques de la numérisation et de la mise en réseau. Mais le rapide abandon des DRM (Digital Rights Management ou Gestion des Droits Numériques en français) qui se sont révélés inapplicables (après le vote en 2006 de la transposition en France de la directive européenne DADVSI[5] ) aurait tendance à démontrer le caractère illusoire de ce genre d’approche. Beaucoup pensent qu’un sort identique arrivera aux dispositions contenues dans la « loi Hadopi », que ces façons (anciennes) de poser les problèmes (nouveaux) mènent à une impasse. Pour, entre autres, les mêmes raisons de non faisabilité : le droit se doit d’être applicable. On sait, par ailleurs, que le Conseil constitutionnel a, dans un premier temps censuré le volet sanction de la « loi Hadopi », considérant que le droit de se connecter à Internet relève de la liberté de communication et d’expression et que ce droit implique la liberté d’accès à Internet (seule une juridiction peut être habilitée à le suspendre). Il a estimé que le texte conduisait à instituer une présomption de culpabilité.

Dans le cas d’un transfert de fichier, nous avons déjà signalé que le coût marginal est nul. Que paye-t-on ? Une part des coûts fixes. Mais il arrive un moment où la réalisation du premier exemplaire est (bien) amortie. D’où ces situations de rentes dans lesquelles on paye un fichier téléchargé comme s’il était gravé sur un support physique qu’il aurait fallu fabriquer et acheminer. De plus, l’économie générale des productions (les best sellers et les autres titres) d’un éditeur évolue avec Internet. Dans son ouvrage La longue traîne, Chris Anderson[6] théorise le principe de la longue traîne dans lequel la loi des 20/80 (20% des produits font 80% du chiffre d’affaires) disparaît avec Internet qui, en réduisant les coûts de fabrication et de distribution, permet à tous les produits qui ne sont pas des best-sellers (qui constituent des longues traînes) de rapporter parfois jusqu’à 98% du chiffre d’affaires.

Une licence globale

Il y a donc des questions de fond. Quel est le prix des biens culturels dématérialisés ? Quels doivent être leurs modes de commercialisation ? Alain Bazot, président de l’UFC-Que choisir, les pose[7]. Rappelant qu’un support physique a un coût et qu’il est « rival »[8], que l’on peut multiplier les fichiers numériques d’une oeuvre pour un coût égal à zéro, il en tire la conclusion que « la dématérialisation, parce qu’elle permet un partage sans coût de la culture, parce qu’elle constitue un accès à l’information et à l’art pour tous, remet fondamentalement en cause les modèles économiques existants. Dès lors, il apparaît essentiel de proposer de nouvelles formes de rémunération pour allier les avantages d’Internet à une juste rétribution des artistes/créateurs ». Et comme « dans une économie de coûts fixes, distribuer un ou 10 000 MP3 ne fait pas varier le coût de production », il est plus pertinent « de faire payer l’accès et non pas la quantité. Ce mode de commercialisation, apparu avec la commercialisation de l’accès à internet (le forfait illimité), est le modèle consacré par l’économie numérique ».

Et, pour illustrer le propos, Alain Bazot s’appuie sur une fiction fort pertinente de Nicolas Curien : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »[9]

On retrouve donc la « licence globale », financée par tous les internautes ou sur la base du volontariat, mais également financée par les fournisseurs d’accès qui ont intérêt à avoir des contenus gratuits pour le développement de leurs services. En effet, comme le dit Olivier Bomsel[10], la gratuité est aussi un outil au service des entreprises, pour conquérir le plus rapidement possible une masse critique d’utilisateurs, les innovations numériques voyant leur utilité croître avec le nombre d’usagers, de par les effets de réseau.

Des créateurs ont déjà fait le choix du partage volontaire de leurs oeuvres numériques hors marché. Philippe Aigrain envisage une approche partielle (expérimentale dans un premier temps ?) dans laquelle les ayants droit qui « refuseraient l’inclusion de leurs oeuvres dans un dispositif de partage hors marché garderaient le droit d’en effectuer une gestion exclusive, y compris par des mesures techniques de protection ou par des dispositifs de marquage des oeuvres protégés contre le contournement ». Mais, « ils devraient cependant renoncer à imposer des dispositifs destinés à leurs modèles commerciaux dans l’ensemble de l’infrastructure des réseaux, appareils ou procédures et sanctions. »[11]

Enfin, s’il existe des modèles économiques diversifiés de l’immatériel, il ne faut pas oublier certains fondamentaux. C’est le reproche que Florent Latrive fait à Chris Anderson, « archétype du Californien hype », en référence à son livre paru récemment Free : « Dans son monde, les modèles économiques ne sont l’affaire que des seules entreprises. C’est un monde qui n’existe pas. Chris Anderson zappe largement le rôle de l’État et de la mutualisation fiscale dans sa démonstration. C’est pourtant fondamental : cela fait bien longtemps que l’importance sociale de certains biens, matériels ou immatériels, justifie l’impôt ou la redevance comme source de financement principale ou partielle. La santé gratuite en France n’implique pas le bénévolat des infirmières et des médecins. La gratuité de Radio France ne fait pas de ses journalistes des crève-la-faim »[12]. Effectivement, la santé et l’éducation représentent des coûts importants (des investissements en fait). La question posée n’est donc pas celle de leur gratuité mais celle de l’organisation de l’accès gratuit pour tous aux soins et à l’éducation. La réponse s’appelle sécurité sociale et école gratuite de la République financée par l’impôt.

Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques.

Notes

[1] Crédit photo : Tibchris (Creative Commons By-Sa)

[2] François Elie, L’économie du logiciel libre, Eyrolles 2009.

[3] Voir J-P. Archambault, « Favoriser l’essor du libre à l’École » , Médialog n°66 et J-P Archambault, « Un spectre hante le monde de l’édition », Médialog n°63.

[4] Concernant la rémunération des auteurs, rappelons qu’elle ne représente en moyenne que 10% du prix d’un produit.

[5] Droits d’auteur et droits voisins dans la société de l’information

[6] Chris Anderson, La longue traîne, 2ème édition, Pearson 2009.

[7] Alain Bazot, « La licence globale : il est temps d’entrer dans l’ère numérique ! », billet posté sur le blog Pour le cinéma – La plateforme des artistes en lutte contre la loi Hadopi

[8] Un bien rival (ou bien privé pur) est un bien pour lequel une unité consommée par un agent réduit d’autant la quantité disponible pour les autres agents.

[9] Nicolas Curien, « Droits d’auteur et Internet : Pourquoi la licence globale n’est pas le diable ? », Janvier 2006.

[10] Olivier Bomsel, Gratuit ! Du développement de l’économie numérique, Folio actuel, 2007.

[11] Philippe Aigrain Internet & création, InLibroVeritas, 2008.

[12] Le modèle économique est un choix éditorial




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)




L’avenir libre de Bernard Stiegler ou gratuit de Jacques Attali ?

Un titre un peu caricatural pour un billet qui met simplement en parallèle deux récentes et intéressantes interviews vidéos, la première de Jacques Attali, la seconde de Bernard Stiegler.

Choisis ton camp camarade ? Pas vraiment, parce que les deux intellectuels n’abordent pas exactement le même sujet, bien qu’il soit à chaque fois question de l’avenir de nos sociétés (on remarquera qu’ils citent tous deux Wikipédia mais pas avec le même dessein).

Jacques Attali

La gratuité – Dans le cade de l’émission Conversation d’avenirs sur Public Sénat
22 décembre 2009 – URL d’origine de la vidéo

Bernard Stiegler

Vers une économie de la contribution – En visite chez Siné-Hebdo
24 novembre 2009 – URL d’origine de la vidéo




La tragédie des pommes

Jeroen Kransen - CC by-sa« An apple a day keeps the doctor away » dit l’adage anglophone. Sauf que c’est désormais la pomme[1] elle-même qui a besoin d’un docteur.

Car si on nous suggère de « manger des pommes », encore faudrait-il que la pomme demeure effectivement plurielle. Ce qui est malheureusement de moins en moins le cas aujourd’hui.

La faute à qui ?

Peut-être aux mêmes forces et logiques économiques qui mettent à mal les biens communs (cf ce manifeste), de l’eau au logiciel en passant par la culture prise au piège des industriels[2].

L’enclosure des pommes

The Enclosure of Apples

David Bollier – 10 novembre 2009 – OnTheCommons.org
(Traduction Framalang : Goofy)

L’agriculture moderne a drastiquement réduit les variétés naturelles de pommes.

Il y a un siècle, en 1905, il y avait plus de 6500 variétés distinctes de pommes comestibles, d’après Verlyn Klinkenborg du New York Times. Les gens avaient leur pommes saisonnières favorites en ce qui concerne la cuisine ou pour manger directement. Ils en utilisaient différentes sortes selon qu’ils voulaient faire des tartes, du cidre ou du jus de pomme. Ils avaient le choix entre de nombreuses variétés exotiques portant des noms tels que Scollop Gillyflower, Red Winter Pearmain, Kansas Keeper.

Maintenant d’après Klinkenborg, « seulement 11 variétés constituent 90% de toutes les pommes vendues dans le pays, et la Red Delicious en représente à elle seule la moitié ». Pour ceux qui se demandent ce que signifie enclosure, en voici un bon exemple.

Depuis que les forces du marché en sont venues à dominer la production et la distribution des pommes au cours du 20ème siècle, les variétés naturelles qu’auparavant nous croyions garanties ont pour la plupart disparu. Certaines variétés ont été abandonnées parce qu’elles avaient des peaux fines et s’écrasaient trop facilement, faisant d’elles des denrées moins transportables pour le commerce de masse. D’autres semblaient être trop petites ou répondaient uniquement à des besoins de niche du marché. La Red Delicious s’est probablement imposée sur le marché parce qu’elle était grosse et très brillante.

Le point clé est que notre système d’agriculture moderne, dirigé par l’efficacité à grande échelle et les motivations commerciales, ne trouve aucun intérêt à la diversité, la différence et la singularité.

Heureusement, les différentes variétés de pommes fantastiques dont nous pouvions profiter auparavant n’ont pas disparu pour toujours, fait remarquer Klinkenborg. Beaucoup des anciens pommiers existent toujours, et ils fonctionnent comme une sorte de conservatoire des variétés de pommes perdues ou abandonnées. Sur un terrain, une propriété ou dans un endroit abandonné, il y a toujours des pommiers qui produisent des fruits, témoins silencieux de la biodiversité des pommes qui était autrefois normale.

Klinkenborg note que « les chercheurs du Centre National pour la préservation des ressources génétiques étudient les marqueurs génétiques de 280 vénérables pommiers qui poussent dans de vieux corps de fermes dans le sud ouest. Certains proviennent de pépinières commerciales, d’autres de stations d’agriculture expérimentale, mais la plupart sont uniques. »

Il est triste de penser que, nous autres les consommateurs modernes, nous sommes habitués à une offre si restreinte de pommes standardisées. Dans un sens, nous sommes devenus des créatures conditionnées par les restrictions du marché. Nos goûts sont devenus aussi ternes et génériques que la nourriture que nous consommons.

Un des buts remarquables que vise le mouvement Slow Food, c’est de retrouver la diversité naturelle de notre nourriture locale. J’aime à penser que, à mesure que nous apprécierons de plus en plus la richesse de la diversité naturelle et de ses manifestations locales, nous ferons beaucoup plus pour rebâtir le bien commun.

Notes

[1] Crédit photo : Jeroen Kransen (Creative Commons By-Sa)

[2] Le titre de mon billet est un clin d’œil à la tragédie des biens communs.