Quand Bill Gates testait les qualités de Windows

Maveric2003 - CC byBill Gates n’est plus aujourd’hui à la tête de Microsoft, préférant consacrer plus de temps à sa Fondation. Il avait peut-être beaucoup de défauts mais certainement pas celui de s’être enfermé dans sa tour d’ivoire à compter ses milliards.

Ainsi il pouvait lui arriver de faire lui-même « l’expérience utilisateur » de Windows comme aurait pu le faire n’importe quel employé de sa société[1]. Quitte à connaître par là-même parfois quelques épiques mésaventures…

Attention, nous sommes ici en 2003. Rien ne dit que la situation ne se soit pas améliorée depuis 😉

Quand Bill Gates vide son sac… un courriel épique !

Full text: An epic Bill Gates e-mail rant

Todd Bishop – 24 juin 2008 – Seattlepi.com
(Traduction Framalang : Olivier, Penguin et Don Rico)

Il arrive que les logiciels ne soient pas si magiques. Même pour Bill Gates.

En guise d’introduction à notre série d’articles sur la fin de l’ère Gates chez Microsoft, nous voulions décrire avec précision le rôle de son co-fondateur, de manière à jauger l’impact qu’aura son départ. Mon investigation m’a donc amené à relire les mails internes présentés par l’accusation lors du procès antitrust visant l’entreprise, à la recherche de nouveaux indices sur sa personnalité.

Voici l’un des joyaux qui a été révélé : on y découvre Gates dans le rôle d’agitateur en chef (Document original : PDF, 5 pages). On y découvre que même le co-fondateur de Microsoft, qui prêche la « magie du logiciel », n’est pas immunisé contre les frustrations que rencontrent chaque jour les utilisateurs de PC. N’oubliez pas que cela remonte à cinq ans, cela ne reflète pas nécessairement les choses telles qu’elles le sont aujourd’hui. En fin d’article, vous pourrez lire ce que Gates m’a répondu quand je l’ai interrogé sur ce message, la semaine dernière.

Voici le courrier d’origine :

De : Bill Gates Envoyé : Mercredi, 15 Janvier 2003, 10:05
À : Jim Allchin
Cc : Chris Jones (WINDOWS); Bharat Shah (NT); Joe Peterson; Will Poole; Brian Valentine; Anoop Gupta (RESEARCH)
Objet : La dégradation systématique de l’ergonomie de Windows

Je suis très déçu par l’évolution négative de l’ergonomie de Windows et par le fait que les groupes de gestion des programmes ne règlent pas ces problèmes d’ergonomie.

Laissez-moi vous conter ma petite expérience d’hier.

J’ai décidé de télécharger MovieMaker et d’acheter le service Digital Plus… je me suis donc connecté à Microsoft.com. On y trouve une page de téléchargement, je m’y suis donc rendu.

Mes 5 premières tentatives pour me rendre sur la page de téléchargement se sont soldées par des échecs à cause de temps d’attente trop long. Enfin, après un délai de 8 secondes, elle s’est affichée.

Le site est tellement lent qu’il en devient inutilisable.

Le programme ne se trouvait pas dans le top 5 et j’ai donc déroulé la liste des 45 autres.

Ces 45 noms n’ont aucun sens. En comparaison, des trucs comme ce qui suit semblent limpides :
C:\Documents and Settings\billg\My Documents\My Pictures

Ils ne sont pas filtrés par le système… et beaucoup de ces noms sont étranges.

Je me suis limité à la partie Multimédia. Toujours pas de Moviemaker. J’ai cherché dans Film. Rien. J’ai cherché moviemaker. Rien.

J’ai alors abandonné et j’ai envoyé un e-mail à Amir pour lui demander où se trouve le lien pour Moviemaker… s’il existe.

On m’a alors répondu qu’ils ne s’attendaient pas à ce qu’on utilise la page de téléchargements pour télécharger quelque chose.

On m’a recommandé de me rendre sur la page principale et d’utiliser la fonction de recherche avec movie maker (et pas moviemaker !).

J’ai donc essayé ça. Le site était d’une lenteur pathétique mais après 6 secondes d’attente, la page est apparue.

J’étais alors persuadé qu’il ne me resterait plus qu’à cliquer sur un lien pour lancer le téléchargement.

En fait, ça tient plus de la résolution d’un puzzle. Il m’a redirigé vers Windows Update pour y faire un tas d’incantations.

J’ai trouvé ça carrément bizarre. Pour quelle raison dois-je me rendre ailleurs et faire un scan pour télécharger Moviemaker ?

J’ai donc ouvert Windows Update. Windows Update décide alors qu’il faut que je télécharge un tas de contrôles et je me retrouve face à des boîtes de dialogues ésotériques, pas seulement une fois mais plusieurs fois.

Est-ce que Windows Update ne sait pas communiquer avec Windows ?

Ensuite, j’ai procédé à la recherche de mises à jour. Cela a pris un certain temps, et on m’a alors annoncé que je devais télécharger de toute urgence 17 Mo de fichiers divers et variés.

Ça, c’était après qu’on m’ait dit que l’on fournissait des correctifs incrémentaux, mais plutôt que de pouvoir ne télécharger que les 6 trucs qui sont signalés de la manière la plus effrayante qui soit, j’ai dû télécharger les 17 Mo.

Alors j’ai procédé au téléchargement. Là, ç’a été rapide. Ensuite, j’ai voulu passer à l’installation. Ça a pris 6 minutes, et la machine est devenue si lente que je n’ai rien pu faire d’autre pendant ce temps.

Mais qu’est-ce qui se passe, durant ces 6 minutes ? C’est fou. C’était après que le téléchargement soit terminé.

Ensuite j’ai dû redémarrer ma machine. Pourquoi ? Je redémarre toutes les nuits, pourquoi redémarrer à ce moment précis ?

Alors j’ai redémarré parce que le programme a INSISTÉ. Évidemment, ça signifiait aussi que j’allais perdre ma session Outlook en cours.

Une fois la machine redémarrée, je suis retourné sous Windows Update. Mais j’avais déjà oublié ce que j’y faisais, puisque tout ce que je voulais, c’était installer Moviemaker.

Je suis retourné sur Microsoft.com pour y suivre les instructions. J’ai alors dû cliquer sur un dossier nommé WindowsXP. Pourquoi est-ce que je devrais faire ça ? Windows Update sait que je suis sur Windows XP.

Et ça m’avance à quoi de cliquer sur ce dossier ? Apparaît alors tout un tas de trucs déstabilisants, mais cette fois c’est bon, Moviemaker en fait partie.

Je commence alors le téléchargement. Le téléchargement en lui-même est rapide mais l’installation prend quelques minutes. C’est dingue comme c’est lent. À un moment, on m’annonce que je dois télécharger Windows Media Series 9.

Je décide donc de gentiment suivre les instructions. Là, une boîte de dialogue disant Ouvrir ou Sauvegarder apparaît, sans indication de ce que je dois faire. Je n’ai aucune idée de ce sur quoi je dois cliquer.

Le téléchargement est rapide et l’installation prend 7 minutes.

À ce moment-là je pense être en possession de Moviemaker. Je vais dans Ajouter/Supprimer programmes pour m’assurer qu’il s’y trouve bien.

Il n’y est pas.

Qu’est-ce qu’il y a à la place ? On y trouve le bordel suivant. Microsoft Autoupdate Exclusive test package, Microsoft Autoupdate Reboot test package, Microsoft Autoupdate testpackage1. Microsoft Autoupdate testpackage2, Microsoft Autoupdate Test package3.

Quelqu’un a donc décidé de foutre en l’air la seule partie de Windows qui fonctionnait bien ? Le système de fichier n’est plus utilisable. La base de registre n’est pas utilisable. La liste des programmes était encore jusque-là un endroit sensé, mais désormais c’est un grand foutoir.

Et encore, ce n’est que le début des emmerdes. Par la suite j’ai trouvé des trucs comme Windows XP Hotfix voir Q329048 pour plus d’informations. C’est quoi Q329048 ? Pourquoi ces correctifs figurent-ils ici ? Certains étaient même simplement notés Q810655 sans le voir 329048 pour plus d’informations.

Quel bordel !

Et Moviemaker est toujours aux abonnés absents.

J’ai donc abandonné mon idée d’installer Moviemaker et j’ai décidé de télécharger le Digital Plus Package.

On me dit que je dois entrer quelques informations personnelles.

Je remplis tous les champs et, parce qu’il a décidé que j’ai mal tapé quelque chose, je dois recommencer. Et évidemment, il a effacé presque tout ce que j’avais déjà tapé.

Je m’y reprends à 5 fois et il continue à tout effacer pour que je recommence.

Donc après plus d’une heure de péripéties douteuses, après avoir rendu ma liste de programmes inutilisable, après m’être fait quelques frayeurs et m’être rendu compte que Microsoft.com est un site horrible, je n’ai pas pu lancer Moviemaker,et je n’ai pas le Digital Plus Package.

Le manque d’attention portée à l’ergonomie, que ces péripéties ont démontré, me dépasse. Je pensais qu’on avait touché le fond avec Windows Network ou avec les messages que je reçois quand je tente d’utiliser le Wi-Fi (vous aussi vous adorez ce message avec le certificat administrateur, non ?).

Quand j’aurai réussi à utiliser tout ça pour de bon, je suis sûr que j’aurai encore d’autres commentaires à vous soumettre.

Alors que notre interview de la semaine passée touchait à sa fin, j’ai montré à Gates une copie de ce mail et lui ai demandé s’il avait finalement réussi à faire fonctionner MovieMaker. Il m’a répondu que Microsoft envisageait d’inclure Moviemaker dans Windows Live, afin que l’on dispose du programme lorsqu’on téléchargera ce paquet. Il n’y a pour le moment rien d’officiel de la part de Microsoft, mais ce n’est pas vraiment une surprise.

Quant au courrier en lui-même, Gates a souri et a dit : « Il n’y pas un seul jour où je n’envoies pas de mails… comme cet email. C’est mon boulot. »

Notes

[1] Crédit photo : Maveric2003 (Creative Commons By)




Drupal : entretien avec Dries Buytaert

Gabor Hojtsy - CC by-saQuel est le point commun entre l’APRIL, Ubuntu-fr et Framasoft ? Une volonté commune de faire avancer le logiciel libre francophone, oui, certes, mais plus pragmatiquement ces trois vénérables institutions ont décidé, sans se concerter, de migrer cette année leur site vers Drupal. Enfin pour être précis, Framasoft n’y est pas encore mais on y travaille en coulisses.

Ce CMS, connu pour sa grande souplesse et modularité a en effet le vent en poupe actuellement[1]. Du coup nous avons eu envie d’en savoir plus en traduisant cette interview de son créateur, le belge Dries Buytaert.

Le créateur de Drupal imagine l’avenir de la publication Web en plug-and-play

Drupal’s Creator Envisions Web Publishing’s Plug-and-Play Future

Entretien conduit par Michael Calore – 19 juin 2008 – Webmonkey.com
(Traduction Framalang : Vincent, Olivier et Don Rico)

L’aventure de Dries Buytaert[2] commence à l’université quand il code un forum privé pour sa résidence étudiante. Neuf ans plus tard, ce modeste logiciel de forum est devenu Drupal, l’un des systèmes de gestion de contenu Open Source le plus populaire sur le Web, qui compte des milliers de contributeurs actifs. En mars 2008, Dries Buytaert se rapproche de l’entrepreneur Jay Batson, et ensemble ils fondent Acquia, entreprise commerciale qui propose un support technique aux inconditionnels de Drupal et la promotion, l’adoption ainsi que le développement de la plate-forme.

Webmonkey a rencontré Dries et Jay pour discuter de l’histoire de Drupal, des nouveautés à venir et du rôle que leur société va jouer dans l’avenir du projet.

Webmonkey : Dries, peux-tu nous raconter l’histoire de Drupal ? La naissance de l’idée et comment la plate-forme a pris corps ?

Dries Buytaert : C’est arrivé un peu par accident. En 1999, j’étais étudiant à l’Université d’Anvers en Belgique. Je faisais du développement Web en CGI et avec des « server-side includes » (programmation côté serveur), mais je voulais en savoir plus sur des technologies telles que PHP et MySQL. Au même moment, nous avons eu besoin d’un système de messagerie interne pour notre résidence étudiante. J’ai alors écrit un forum de discussion simple. Et une fois mon diplôme obtenu, j’ai décidé de mettre mon forum interne sur Internet.

Quand j’ai enregistré un nom de domaine pour ce projet, j’ai voulu inscrire le nom « Dorp », qui veut dire « petit village » en néerlandais. Mais à cause d’une faute de frappe je me suis retrouvé à enregistrer le nom de domaine Drop. Ça peut paraître étonnant, mais Drop.org était disponible, et comme c’est un mot anglais qui a plusieurs significations, j’ai décidé de le conserver.

Notre communauté d’utilisateurs originelle s’est éteinte assez rapidement, mais j’ai continué à y travailler en apportant de nouvelles fonctionnalités comme les flux RSS ou un système de notation du contenu par les utilisateurs. Les visites sur le site ont été de plus en plus nombreuses, et chacun apportait idées et des suggestions, comme par exemple modifier l’algorithme qui gère la modération des commentaires. À un moment, je recevais tellement de suggestions que j’ai décidé d’ouvrir le code source. C’était la version 1.0 de Drupal, qui est sortie début 2001.

Au moment de la sortie, j’étais assez sûr d’avoir un bon système. Je pensais qu’il tenait la comparaison avec les autres technologies Open Source telles que PHP-Nuke, et que c’était donc la bonne décision.

Webmonkey : L’un des aspects clés de la conception de Drupal est sa modularité. Les utilisateurs installent un noyau logiciel et ajoutent ensuite des fonctionnalités en installant des modules spécialisés. D’où vient cette idée d’architecture modulaire ?

Buytaert : Ça faisait partie de l’idée de départ. J’étais presque choqué que la plupart des autres systèmes ne proposent pas de conception modulaire – pour moi, avec mon background d’étudiant en informatique, ça me semblait très naturel. En ce temps-là, j’étais aussi impliqué dans le noyau Linux, à travailler sur les pilotes de réseau sans-fil. C’est à l’évidence aussi un système modulaire, j’y ai certainement puisé mon inspiration.

Jay Batson : Moi qui ai eu à faire à pas mal de systèmes de gestion de contenu avant de rencontrer Dries, je peux dire que la plupart des autres CMS ne viennent pas de personnes qui sont diplômés en informatique. Ils ont été élaborés par des web-designers ou des programmeurs qui étaient peut-être autodidactes et avaient bidouillé un système qui fonctionnait plus ou moins. Ils n’émanaient pas de personnes qui ont une réelle formation en informatique. C’est là une des grandes différences entre Drupal et les autres systèmes.

Webmonkey : La popularité de Drupal auprès de ceux qui cherchent à construire un site autour d’une sorte de réseau social n’est plus à démentir. Est-ce parce qu’il offre un contrôle précis de la gestion des utilisateurs, ou est-ce parce que Drupal est devenu populaire en même temps que les réseaux sociaux prenaient leur essor ?

Buytaert : À mon avis, la gestion des utilisateurs en est bel et bien la raison principale. Drupal est un système multi-utilisateurs depuis le début, mais la plupart des autres systèmes ne sont pas au niveau de Drupal pour ce qui est de la gestion des utilisateurs et des droits d’accès.

C’est un système très communautaire de par sa conception. Par exemple, le site d’origine Drop.org ressemblait beaucoup à Digg, où l’on pouvait soumettre des liens et voter pour chaque suggestion. Ce type d’interaction entre les utilisateurs a été une fonction clé de Drupal dès le départ. Au fil du temps, nous nous sommes éloignés de ces fonctionnalités. Le système de vote a été retiré du cœur du système, mais il existe toujours sous forme de module. À la place, nous évoluons vers une plate-forme capable d’en faire plus, aussi bien pour ce qui concerne la gestion de contenu Web traditionnelle que pour la partie « sociale ».

Batson : Ils ont aussi eu un coup de booster parce que Drupal 5 avait comme slogan « Plomberie pour la communauté ». Au moment où les sites communautaires gagnaient en importance, le système se vendait lui-même comme étant optimisé pour cette fonction.

À ce moment là également, beaucoup de monde est venu grossir les rangs de la communauté Drupal et contribuer au code. Ainsi, une part importante du code a été écrite autour de ces fonctionnalités communautaires. Je sais qu’à cette époque Dries consacrait l’essentiel de son temps à la gestion de ces contributions, afin de garder un noyau Drupal réduit tout en s’assurant que les fonctions clés étaient présentes et, en même temps, en insistant sur l’importance des modules.

Buytaert : J’ai toujours encouragé les autres à être créatifs dans leurs contributions au code de Drupal. Je pense qu’il est extrêmement important de ne brider personne. Ainsi, pour ceux qui veulent bâtir un réseau social ou un clone de Flickr, il est à mon sens essentiel que Drupal, en tant que plate-forme, les y aide. C’est ce que permet la conception modulaire.

Webmonkey : Parlez-nous d’Acquia, la société que vous avez fondée ensemble.

Batson : Notre but est de devenir pour Drupal ce que sont Red Hat et Canonical pour Linux. Si vous cherchez une version de ce logiciel Open Source avec support technique, vous venez nous voir et vous payez un abonnement. Pour le prix de l’abonnement, vous obtenez une distribution, un ensemble de services pour la maintenance et les mises à jour, plus un accès à notre centre de support technique. Si par exemple vous êtes responsable d’un site de média important dont toute la partie logicielle est construite autour de Drupal et que vous avez une question, vous aurez alors la possibilité de nous contacter directement par téléphone. Vous obtiendrez votre réponse en moins d’une heure, au lieu d’envoyer un courriel et de patienter une journée ou d’attendre sur IRC que la personne qualifiée se connecte. À l’opposé, notre service est également adapté aux petits sites qui ont besoin d’aide pour l’installation des modules ou pour gérer les mises à jour. C’est un modèle économique qui a déjà fait ses preuves dans l’Open Source.

L’autre rôle que peut jouer Acquia, c’est le support de la communauté des développeurs Drupal. Drupal a une merveilleuse croissance organique. En gros, la communauté double chaque année. C’est impressionnant, mais nous voudrions la voir croître d’un facteur dix.

Webmonkey : Combien de développeurs travaillent sur Drupal à l’heure actuelle ?

Buytaert : Pour Drupal 6, la dernière sortie importante en date, 900 personnes environ ont contribué au cœur. À titre de comparaison, c’est équivalent au nombre de personnes qui contribuent au noyau Linux. Il y a plus de 2000 modules additionnels et chaque module est maintenu par un ou plusieurs développeurs. Le site Drupal.org compte entre 250000 et 300000 utilisateurs enregistrés. Ils ne sont pas nécessairement développeurs, mais ces personnes participent à la communauté d’une façon ou d’une autre.

Webmonkey : Que nous réserve Drupal pour l’avenir ?

Buytaert : Nous travaillons en ce moment même sur Drupal 7. Nous aurons une meilleure couche d’abstraction pour les bases de données, un meilleur support pour les outils WYSIWYG, et des améliorations dans la facilité d’utilisation pour les administrateurs, ce qui rendra Drupal plus facile à configurer.

Nous développons une nouvelle fonctionnalité essentielle, appelée Kit de Construction du Contenu (CCK). Celle-ci vous permet de définir de nouveaux types de contenu en passant par une interface Web. Par exemple, si vous avez un site de vélo et que vous voulez que vos utilisateurs puissent partager leurs balades favorites, vous pouvez créer un nouveau contenu que vous appellerez "parcours". Ce contenu pourra inclure un point de départ, un point d’arrivée, un lien vers Google Maps, quelques photos de la route, du texte décrivant le parcours. Une fois que vous avez toutes ces données, vous pouvez choisir de visualiser ce parcours sur une carte Google, de l’afficher dans un tableau, ou d’en faire ce que bon vous semble. Plusieurs vues différentes peuvent être extraites de ce grand sac de données utilisateur, et tout ceci à partir d’une simple interface Web.

Avec Drupal, notre objectif à long terme, c’est de vraiment démocratiser la publication en ligne grâce aux contributions de la communauté, de rendre possible, pour tout un chacun, la création de sites Web puissants et intéressants, en quelques clics seulement. Drupal vous permet d’avoir un prototype opérationnel en quelques heures, sans avoir à écrire une seule ligne de code. C’est vraiment un outil très puissant.

Notes

[1] Qu’il me soit tout de même permis de remercier vivement la communauté Spip pour l’extraordinaire service rendu et de saluer comme il se doit la toute nouvelle version 2.0.

[2] Crédit photo : Gabor Hojtsy (Creative Commons By-Sa)




La campagne d’Obama et l’Open Source

Marcn - CC byLe sujet du jour c’est Obama et, j’ouvre les guillemets, « l’Open Source ».

Nombreux sont les observateurs qui ont en effet remarqué l’usage pointue des nouvelles technologies réalisé à cette occasion par le candidat victorieux. Certains allant même jusqu’à se demander dans quelle mesure cela n’a pas été un atout déterminant dans la campagne (contre McCain mais également contre Clinton). Déterminant aussi bien pour créer la dynamique, communiquer, faire adhérer au projet, coordonner les manifestations sur le terrain et, last but not least, lever des fonds.

Il y a souvent confusion entre Open Source et Web 2.0 mais il nous a semblé tout de même intéressant de solliciter Framalang pour d’abord un petit sous-titrage vidéo faisant une originale référence à l’un des ouvrages les plus célèbres du logiciel libre, la Cathédrale et le Bazar de Eric S. Raymond, puis ensuite un article plus détaillé au cœur des équipes techniques de la campagne[1].

La Cathédrale, le Bazar, et Obama

Le journaliste Alex Castellanos sur CNN le 5 novembre dernier :

—> La vidéo au format webm

(Sous-tirage : Xavier et Yostral)

La dynamique Open Source derrière la campagne d’Obama

The Open Source Force Behind the Obama Campaign

Doc Searls – 24 novembre 2008 – Linux Journal
(Traduction Framalang : Olivier et Yostral)

JFK a dit un jour « La victoire à cent pères, mais la défaite est orpheline ». Je viens donc aujourd’hui réclamer moi aussi la paternité du succès de la campagne d’Obama au nom de tous les fans de Linux. Les geeks n’étaient pas seuls évidemment, mais ils ont joué un rôle majeur.

J’étudie ce rôle depuis que j’ai couvert la campagne présidentiel d’Howard Dean en 2003-2004 pour le Linux Journal. Pour vous rafraichir la mémoire je vous conseille les lectures suivantes : Saving the Net, The Syndication Solution, Letters from the Campaign Pressure Cooker, Hacking Democracy, Lessons on Open Source Politics from the Campaign Forge, dans cet ordre.

Quand on s’est aperçu que les geeks étaient sérieusement impliqués dans la campagne d’Obama, une mission m’a été confiée : assurer la couverture de l’évènement pour le numéro de novembre 2008 du Linux Journal. Ce numéro devait sortir fin octobre, donc juste avant les élections.

Je m’y suis donc attelé. Après un intense travail de recherche et d’écriture et après avoir réduit ma prose à 3000 mots, nous nous sommes rendus compte que nous avions déjà largement assez d’articles traitant de Linux pour ce numéro et mon article a donc été mis de côté pour après les élections… et nous voici donc maintenant après les élections.

Plutôt que de mettre à jour l’article avec des données ou des citations plus récentes j’ai décidé de le publier tel que je l’avais écrit en août. A ma grande surprise son contenu n’est pas périmé. Je crois même qu’il touche à quelque chose d’important, une chose parmi tant d’autres, alors que l’Histoire était en marche. On s’en doutait à l’époque. On le sait maintenant.

Voici l’article :

Le 11 août 2008

Depuis l’avènement des médias de masse, le point crucial des campagnes politiques, surtout pour les campagnes présidentielles, a été de donner une image aux candidats. Vous dépeignez de vous-même un portrait flatteur tandis que vous dépréciez l’image de votre opposant. Durant le « cycle » de campagne présidentielle de 2008 (comme les professionnels le nomme), le candidat qui a réussi à se forger la meilleure image jusqu’à maintenant (au moment de l’écriture à la mi-août) est certainement Barack Obama. Advertising Age dit dans « What Obama can teach you about millenial marketing » (NdT : Une leçon de marketing ciblant la génération connectée par Obama) : « …la dévotion vouée à certaines marques par la génération connectée, que l’on parle de technologie, de boisson ou encore de mode, a fait de cette décennie un âge d’or du marketing pour ceux qui savent ce qu’ils font ». Et : « …concernant le marketing, la campagne de Barack Obama sait ce qu’elle fait. Le gestion de la marque Obama, du jamais vu lors d’une campagne présidentielle, montre une compréhension parfaite des rouages pour attirer les jeunes votants… Ce sont à la fois le produit à vendre et la manière de le vendre qui sont à l’origine de ce succès. »

Et c’est là que me revient à l’esprit la distinction que fait Isaac Asimov (dans le deuxième volet de la trilogie Fondation) entre « la réponse qui satisfait » et « la réponse qui était vraie ». Le succès de la campagne d’Obama jusqu’à maintenant ne repose pas entièrement sur la création d’une marque, sur la démographie ou même sur la politique telle que nous l’avons connue pendant trop longtemps, loin s’en faut. Il repose principalement sur l’usage de la technologie pour permettre à la démocratie de fonctionner.

L’histoire commence en 2001, quand un conseiller politique du nom de Joe Trippi s’est engagé en tant que conseiller de la firme Progeny, une entreprise dirigée par Ian Murdock donc le prénom est la deuxième moitié de Debian. Deux ans plus tard Joe dirigeait la campagne de Howard Dean. Le succès de cette campagne est largement dû a l’utilisation intelligente (et bon marché) d’Internet… et aussi à beaucoup de trucs open source de geeks. « Je me suis toujours demandé comment on pourrait transposer cette collaboration qui fait avancer Linux et l’open source pour l’appliquer ici », confiait Joe à Larry Lessig en 2003 au cours d’une interview. « Qu’est ce que cela donnerait si l’on pouvait y parvenir et qu’on implique tout le monde dans une campagne présidentielle ? » Quand Larry demanda à Joe si cela faisait de la campagne de Dean un campagne open source Joe répondit « Oui… je suppose qu’elle est aussi ouverte que peut l’être une campagne dans le monde politique actuel. »

Dans son blog, Ian Murdock écrit de Joe : « Après juste une heure de discussion avec lui, Joe comprenait le mouvement open source aussi bien que moi et il a aussi réussi à me faire voir des choses que je n’avais pas vues en 8 ans. »

La première fois que j’ai rencontré Joe c’était par vidéo interposée lors d’une session de chat. Le visage de Joe est apparu sur l’écran de mon portable en Californie tandis que le mien était sur le portable de Britt Blaser, l’ordinateur qu’il trimballait dans les couloirs et les salles de conférences du quartier général de campagne de Dean à Burlington dans le Vermont, un peu comme s’il était un serveur, mais avec un plateau qui parle. Cette visite a été si efficace que je me sentais déjà à l’aise dans le bâtiment quand j’y suis arrivé au plus profond de l’hiver, quand l’énergie de la campagne était à son paroxysme : mi-janvier 2004, la veille du caucus de l’Iowa.

Je garde en mémoire quelques souvenirs en particulier de cette visite. Par exemple celui de Nicco Mele qui s’occupait des racks de serveurs et d’autres appareils électroniques tournant sous LAMP et qui pestait contre le bordel que c’était de faire cohabiter les différents groupes au niveau des états et au niveau local sachant que chaque groupe possédait son propre système informatique créé de toute pièce, ce qui s’avéra être plus un problème qu’une solution. Je me souviens également de Zack Rosen, assis sur une boîte dans le coin d’un bureau avec trois ou quatre autres geeks entrain de hacker quelque chose dans Drupal. Zack s’est lancé dans la campagne avec le site HackersForDean (les hackers en faveur de Dean), qu’il a créé avec Josh Koenig. Un autre souvenir est celui de Daver Winer, il travaillait sur ce qu’il appelle « un projet de flux RSS très intéressant qui doit être lancé juste à temps pour les résultats du caucus de l’Iowa lundi soir ». Dans un message daté du même jour (le 17 janvier), Dave ajoute « Je reste neutre quant aux candidats à l’élection présidentiel. J’ai mes opinions, mais elles n’ont rien à faire dans mon travail technique. Je crois que les outils politiques doivent rester agnostiques. »

Maintenant que j’y repense je pense que j’ai assisté à l’équivalent en politique d’un club d’adeptes de trains miniatures ou d’un club de programmation maison. C’est là qu’est né un nouveau mouvement où l’on met vraiment la main à la pâte. Pour Britt Blaser c’est même « la première campagne dirigée comme un service Web plutôt que comme une campagne marketing disproportionnée ».

Dean s’est retiré de la course après avoir perdu l’Iowa, mais ce ne sont pas les techniciens ou leur code qui se présentaient. C’est à ce moment là que la « Diaspora Dean » s’est attelée à améliorer la démocratie grâce à des technologies libres et ouvertes.

L’un des membres de cette diaspora était Jascha Franklin-Hodge. « De retour à Boston j’ai commencé à reprendre contact avec des amis que j’avais ignoré pendant 6 mois » me racontait Jascha. « Et les gens n’arrêtaient pas de me dire : Ah, tu as travaillé pour Howard Dean, c’est super ! Je me suis rendu à des réunions et je suis devenu volontaire de l’antenne régional du partie démocratique. J’ai fait du porte à porte.. Ce sont des gens qui ne se sont pas contentés de supporter un candidat. Ils voulaient aussi trouver leur propre opinion politique, leur propre talent civique. »

Jasha a donc monté un petit groupe avec trois autres vétérans de la campagne pour Dean ; Clay A. Johnson, Joe Rospars, and Ben Self ; et il a lancé Blue State Digital. Dans un article paru dans le numéro de juin 2008, Business Week voyait Blue Stat Digital comme « l’arme secrète d’Obama ». En juillet, les efforts de Blue State étaient déjà à l’origine de plus de 200 millions de dollars de dons faits en ligne, de 75 000 évènements de campagne et comptaient plus d’un million d’utilisateurs. D’ici à ce que vous lisiez cet articles ces chiffres auront encore largement augmenté.

J’ai pris connaissance du travail réalisé par Blue State Digital pour la campagne Obama le 3 juin dernier par le biais d’un e-mail me redirigeant vers une publicité MyBO intitulée techinterest?foo. Cette publicité visait le recrutement de « développeurs Web exceptionnellement talentueux » possédant « une bonne connaissance des processus de développement LAMP et de leur bonne utilisation, expérience dans le déploiement à grande échelle d’applications Lamp, expérience requise dans la mise au point d’applications en PHP et MySQL et une bonne connaissance des performances de MySQL et de l’optimisation des requêtes » et enfin « utilisateur avancé voir expert en CSS, Javascript et Ajax ». L’e-mail précisait également que le site de campagne de McCain tournait sous Windows.

Mais Blue State n’avait pas vraiment besoin de cette publicité. Jasha me l’explique en ces termes : « Le travail que nous réalisons nous confère un énorme avantage lorsque nous sommes à la recherche de talents. Ce que nous faisons est bien plus important aux yeux de nombreux développeurs que de créer un logiciel pour une banque. Nous souhaitons que des geeks soient heureux en se réveillant le matin et qu’ils se disent Je construis aujourd’hui quelque chose que des millions de personnes utiliseront demain pour aider à changer le monde. »

La campagne Obama ne s’appuie pas trop sur les « réseaux sociaux » comme Facebook ou MySpace. Mais elle excelle dans l’utilisation du réseau pour rendre la campagne sociale dans le monde réel.

Quand je me rends sur MyBO et que je recherches les évènements qui ont lieu dans un rayon de 40 km autour de chez moi je reçois 64 réponses. On y retrouve : des groupes organisant des rencontres, des concerts, des soirées discours, des réunions aux marchés du terroir et aux fêtes foraines, des levées de fonds auxquelles participent des grands noms, des pique-niques ou des barbecues paroissiaux, des marches pour s’enregistrer sur les listes de vote, du co-voiturage, des rallyes de groupes de jeunes, des cafés organisés par des anciens de l’école… la liste est interminable. Et tout ceci juste pour le mois à venir. Chaque évènement est repéré par un petit symbole sur une carte en ligne. Trois boutons surplombent la liste et la carte : un bouton KML vert pour Google Earth, un bouton XML orange pour les flux RSS et un bouton iCAL vert pour ajouter ces dates à votre calendrier.

À droite de la carte se trouve la colonne my.BarackObama. Du haut vers le bas on retrouve Mon tableau de bord, Mon quartier, Amis, Évènements, Messages, Groupes, Levée de fonds et Mon Blog. Les six derniers sont des menus accompagnés d’un petit « + ». Déroulez ces menus et vous découvrirez 18 façons d’entrer en contact avec d’autres personnes ou de vous engager dans la campagne… voire les deux. Et malgré tout il reste encore beaucoup d’espace inutilisé. La page est conçue pour être rapide, agréable, simple et propre.

Si je me rends sur le site Web de campagne de McCain et que je recherches les évènements se déroulant dans le même rayon de 40 km autour de chez moi je reçois 16 réponses : 13 enjoignent les gens à s’engager dans des centres d’appels ou par d’autres manières et 3 concernent des fêtes organisées par des individus pour le même « jour national », chacune construite sur le même modèle.

Évidemment ces résultats sont très partiaux car le Massachusetts est non seulement un état très bleu mais c’est aussi là qu’est basé Blue State Digital.

J’ai donc refait le test pour le 85018, le code postal d’un quartier en plein centre de Phoenix : le cœur même du pays McCain. J’obtiens 23 réponses pour des évènements pour Obama et 16 pour McCain. On y retrouve la même variété pour Obama que dans les environs de Boston. Pour McCain on dirait qu’ils ont utilisé un tampon. 13 fêtes sont organisées (principalement par les gens eux-mêmes) pour le même « jour national » qu’à Boston. On dirait qu’ils sont tous sortis du même moule. Trois sont prévus à d’autres dates, parmi ceux-ci deux concernent les vétérans.

Quel est le secret de Blue State alors ? Et quelle est la part de Linux et de l’Open Source dans tout ça ? Voici la réponse de Jascha :

« Nos outils donnent la parole à la créativité des utilisateurs. Si on prend les systèmes d’organisation d’évènements par exemple. Par le passé ils étaient conçus pour qu’une association puisse mettre en ligne son calendrier officiel. C’est très bien, mais c’est loin d’être aussi intéressant que de permettre à vos supporteurs de créer leurs propres calendriers. Nous avons donc mis au point des outils dont la priorité première est d’aider les visiteurs du site à organiser une soirée, un grand ramassage d’ordures le long des routes en portant un t-shirt pour leur camp : de l’évènement le plus mondain au plus innovant. Nous voulions faciliter la création de manifestations, leur planification, augmenter leur visibilité, permettre la gestion des réponses et aider les gens à organiser leurs propres levées de fond.

Les deux services dont nous faisons le plus usage pour les évènements sont les cartographies de Google et de Yahoo ainsi que leurs API de géolocalisation. Nous utilisons votre adresse pour vous géolocaliser grâce à la longitude et la lattitude et nous mettons ces informations à profit pour vous communiquer les évènements proches de chez vous.

Nous possédons beaucoup de bases de données d’informations géographiques. Comme par exemple le centre d’un ZIP+4 désigné par sa longitude et sa lattitude. Nous rentrons également les congressional districts (NdT : zone électorale qui désigne un membre du congrès) pour y regrouper les codes postaux, les informations concernant les sondages, les tracts de sondages, les numéros des pâtés de maison… Si vous remplissez un formulaire d’inscription nous ne vous demandons pas de renseigner toutes ces informations. Si vous faites un don plus tard nous aurons votre adresse à ce moment là si vous ne souhaitez pas la donner tout de suite.

Nous travaillons avec LAMP : Linux, Apache, MySQL, PHP. Nous utilisons beaucoup de librairies et d’outils Open Source comme par exemple YUI et Ext qui sont des librairies d’interfaces utilisateur en javascript. Nous comptons parmi nous le créateur du projet Horde qui est un gros cadre de développement PHP Open Source.

On ne cherche pas à ré-inventer la roue. Par exemple, nous n’écrivons pas notre propre librairie de connexion à la base de données. Nous nous servons de ADOdb, l’une des librairies les plus populaires pour PHP, et de Python aussi. Nous utilisons PEAR, qui est la librairie d’outils PHP. Les modules PEAR nous rendent un fier service pour tout, depuis l’envoi d’e-mail à la mise en cache… On se sert aussi d’outils comme memcached et des utilitaires de surveillance Open Source.

Chez nous les flux RSS sont omniprésents : évènements, blogs… ils nous sont également utiles pour relier en interne des parties de notre propre système, comme par exemple partager des informations entre deux systèmes clients ou entre deux parties de notre système. A chaque fois que c’est possible nous tentons de construire ces points d’échange en respectant les standards. S’ils doivent être ouverts, ou si un client demande un accès direct, nous répondons : pas de problème, utilisez la librairie RSS de votre choix.

Si nous travaillons avec un outil et que nous y ajoutons une fonctionnalité importante ou que nous corrigeons un bogue, nous le partageons évidemment avec les développeurs du projet.

L’interface d’utilisation est, quant à elle, entièrement construite sur-mesure pour des organismes politiques ou à but non lucratif… ou n’importe-qui désirant s’engager dans un projet avec un but en tête. »

Alors que la campagne Obama monopolise l’attention, d’autres hackers de l’équipe initiale, celle de Dean, s’affèrent à travailler sur quelque chose que Obama et McCain ont tous les deux défendus en tant que sénateurs : une gouvernance transparente et responsable. Témoignage de Greg Elin, spécialiste des données à la Sunlight Foundation et pour tous les organismes qu’elle supporte (OpenCongress.org, Congresspedia.org, FedSpending.org, OpenSecrets.org, EarmarkWatch.org, LOUISdb.org…) :

« Presque tous nos projets sont Open Source, mais il arrive qu’on modifie un peu le code et ça prend du temps pour le publier. On n’est pas loin d’avoir convertit tous nos groupes à l’Open Source : MySQL, PostgreSQL, Apache, … La structure est rapidement adoptée : Rails, Django, Symfony…

Dernièrement je m’intéresse plus particulièrement aux scripts dynamiques, ce que j’appellerai des ensembles de données “débiter et terminer” en opposition à ce que Jeff Jonas appelle des ensembles de données entreposer et empiler. Les scripts dynamiques c’est ce qui fait Unix ! C’est à dire que chaque application a des données d’entrée et des données de sortie. Nous laissons derrière nous le monde des bases de données-créer-rapport pour entrer dans le monde des RSS en entrée et RSS en sortie.

Voici deux exemples de flux. Une base de données Sunlight, LouisDB.com, épluche le Congressional Daily Record quotidiennement, transformant son contenu en un fichier XML. Garrett Schure (développeur chez Sunlight Labs) et Josh Ruihley ont mis au point un algorithme de comptage de mot pour présenter le Mot du Jour du Congress et le microsite http://capitolwords.org, site qui date de 2001 et qui dispose d’un flux RSS, d’API et d’un widget que les gens peuvent incorporer à leur site. Louisdb.com facilite la recherche du contenu du Congressional Record. Un script est même disponible maintenant pour en faire du contenu pour Tweeter que d’autres peuvent utiliser aussi. Le deuxième exemple vient de MySociety: TheyWorkForYou. En analysant les archives quotidiennes du parlement et les votes il dresse un portrait de qui fait quoi au parlement. Et enfin, de nombreux sites s’appuient sur le travail de Josh Tauber http://govtrack.us b/c. Josh rassemble toutes les données qui ont trait aux lois votées au Congrès et les transforme en XML. Les données de Josh sont ouvertes, tout comme son code. C’est une contribution énorme. »

Et que devient Howard Dean ? Tout va bien pour lui, en 2005 il est devenu président du comité national démocratique. Son ancien site de campagne, DeanForAmerica, s’est doucement transformé en DemocracyForAmerica, qui soutient de nombreux candidats et non plus un seul. Jascha nous raconte : « Il a rassemblé toutes ces personnes, dont certaines avaient pris les rênes de leur antenne locale du parti démocrate, et les a aidé à canaliser cette énergie et cet esprit citoyen dans le but de faire élire les candidats défendant la démocratie et le progrès dans tout le pays. Ils ont fait des levées de fond. Ils ont mis en marche le bouche à oreille, coordonné les volontaire. Ici même à Boston un conseiller municipal, Sam Yoon, a emporté son siège haut la main grâce au formidable support de DFA. Tous ceux qui ont fait campagne pour Dean sont devenus des supporteurs de Yoon. »

Britt Blaser :

« Avant Dean, les hommes politiques ne savaient pas qu’Internet avait été créé par des “makers” et non pas par des “machers”, terme politique qui désigne ces personnes qui naviguent en politique grâce à leur influence, l’argent et l’intimidation. L’équipe de campagne de Dean, ses “makers”, est la graine d’une nouvelle classe d’experts en politique, une nouvelle classe qui se concentre sur les moyens et non sur la fin. Tout comme les hackers de Linux, les makers de Dean ont agi comme un guilde plutôt que comme des partisans et de la même manière ils se sentaient plus proches des personnes qui ne participaient pas à la campagne que de leurs supérieurs. Puisqu’ils sont tous volontaires, l’idée de supérieur ne signifiait pas grand chose à leurs yeux. Ils étaient à la recherche de collaborateurs en dehors de la campagne avec un objectif politique en tête. Mais les outils qu’ils ont élaborés s’accordent particulièrement bien avec les objectifs gouvernementaux puisque tout problème devient une loi après une campagne réussie pour les cœurs et les esprits et l’argent. »

Ce qui est très bien, mais est-ce suffisant. De tous les contacts que j’ai eu avec des anciens de la campagne de Dean, il y en a un qui se démarque des autres, celui avec Liza Sabater. Elle se plaignait du dernier né : CivicSpaceLabs (une création de Zack Rosen et d’autres personnes) et elle n’était pas la seule. Sa synergie avec Drupal a fait des merveilles et ce n’est pas tout.

« La vérité est qu’il n’existait aucun autre projet Open Source dont les promesses arrivaient à la cheville de celles de CivicSpaceLabs » nous dit Liza. « Et c’est là, à mes yeux, la différence fondamentale entre les élections de 2004 et de 2008. Malgré tout ce qu’on peut dire à propos de la campagne Obama, qu’elle s’appuie sur le net et qu’elle est avant-gardiste, le code du site est quand même propriétaire. Et je ne prédis pas d’ouverture du code pour que n’importe qui puisse répliquer ce qu’ils ont créé. Il en va de même d’ailleurs pour MoveOn.org, Democracy For America et même des outils d’organisations créés par le DNCC. »

Aucune des deux campagnes ne laissent une bonne impression à Phil Windley, ancien président de Utah : « Ce que je vois, c’est que le Net est perçu comme un grande média de diffusion de masse avec une tirelire intégrée. »

Greg Elin met ce déséquilibre en perspective :

« Les programmeurs et technologues qui ont grandit avec le Web et l’Open Source ont commencé à entrer dans l’arène politique, ou e-politique, ces dernières années et ils amènent avec eux les outils et les pratiques de l’Open Source et du Web 2.0. Ils collaborent, et des fois font concurrence, des technologues déjà en place qui était souvent des activistes qui ont appris à se servir d’abord des feuilles de calculs, des bases de données et de la publication et ensuite du Web pour faire passer leurs messages. Nous assistons donc à une geek-i-fication générale, des campagnes aux groupes gouvernementaux et même du gouvernement lui-même. Plus d’Open Source. Plus de structure. Plus de communication entre les développeurs. C’est encore loin d’être beau et lisse, mais une chose est sûr, on y arrive progressivement. Le point de non retour a été atteint maintenant en politique, la seule question qui reste en suspend concerne l’impact que cela aura. »

Dans une démocratie les candidats ne devraient pas être vendus comme des produits ou des marques. L’image compte, mais elle reste superficielle. La substance de la démocratie est ce que les hackers ont appris sur la durée : la liberté de faire, la liberté d’être, l’ouverture, la générosité et la responsabilité constructive. Le meilleur code n’est pas celui qui gagne, c’est celui qui marche. Il nous faut poursuivre cet effort maintenant et il nous faut l’enseigner aussi.

Notes

[1] Crédit photo : Marcn (Creative Commons By)




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ?

Jesse Gardner - CC by-saIl arrive que Framalang s’aventure parfois parfois en dehors des sentiers battus du logiciel libre, en particulier lorsqu’il s’agit d’éducation (comme ce fut par exemple le cas pour notre traduction tentant de comprendre le fameux système finlandais).

Aujourd’hui nous mettons un peu les pieds dans le plat en interrogeant la pertinence d’un des socles de l’éducation du millénaire précédent, à savoir la mémorisation et le « par cœur ». Est-ce que le numérique, et son accès immédiat à des informations telles que celles de Wikipédia (via nos appareils nomades connectés en permanence), change la donne ? Telle est la question.

Une question qui rejoint le débat sur la capacité de concentration déclinante des élèves de la nouvelle génération[1] alors que s’élèvent leurs capacités de sélection et de prise de décision rapide dans un univers saturé d’informations[2].

Éducation 2.0 : la fin du par cœur ?

Education 2.0: Never Memorize Again?

Sarah Perez – 2 décembre 2008 – ReadWriteWeb
(Traduction Framalang : Don Rico, Penguin et Olivier)

Apprendre par cœur est une perte de temps lorsqu’on n’est qu’à quelques clics de Google. Telle est la conviction de Don Tapscott, auteur de Wikinomics et Growing Up Digital, deux livres à grand succès. Tapscott, que beaucoup considèrent comme un commentateur influent de notre ère de l’Internet, pense que le temps de l’apprentissage par la mémorisation des faits et des chiffres touche à sa fin. Il estime que l’on devrait plutôt enseigner aux écoliers et aux étudiants à fournir une réflexion créative et à mieux comprendre les connaissances disponibles en ligne.

Apprendre par cœur ? Une perte de temps

D’après Tapscott, l’existence des Google, Wikipédia et autres bibliothèques en ligne induit que l’apprentissage par cœur n’est plus un élément nécessaire de l’éducation. « Le puits de science, ce n’est plus l’enseignant, c’est Internet », a déclaré Tapscott dans un entretien donné au Times. « Les enfants doivent certes apprendre l’histoire pour comprendre le monde et savoir pourquoi les choses sont comme elles sont. En revanche, inutile de connaître toutes les dates sur le bout des doigts. Il leur suffira de savoir ce qu’a été la bataille d’Hastings sans forcément devoir retenir qu’elle a eu lieu en en 1066[3]. Ça, ils peuvent le chercher et le situer sur l’échelle de l’Histoire en un clic sur Google, » a-t-il expliqué.

Il estime que cette méthode d’apprentissage n’a rien d’anti-pédagogique, puisque les renseignements que nous devons tous digérer nous parviennent à une cadence étourdissante. « Les enfants vont devoir réinventer leurs bases de connaissances de nombreuses fois, » poursuit-il. « Pour eux, mémoriser des faits et des chiffres est donc une perte de temps. »

Aux yeux des générations précédentes, qui ont grandi en devant apprendre par cœur dates historiques et formules mathématiques, l’idée que la mémorisation ne fasse pas partie de l’expérience de l’apprentissage est assez choquante. Allons, il est indispensable de savoir exactement en quelle année un évènement s’est produit… n’est-ce pas ? À moins qu’il soit plus utile de n’en avoir qu’une idée approximative de façon à se concentrer davantage sur une meilleure compréhension de son contexte et de son sens ?

Un cerveau câblé

Les écoliers d’aujourd’hui grandissent dans un monde où, par leur capacité à faire plusieurs choses en même temps, ils sont totalement plongés dans l’univers numérique. Ils envoient des textos et surfent sur Internet tout en écoutant de la musique et en mettant à jour leur page Facebook. Cette « attention partielle permanente » et ses effets sur notre cerveau est un sujet qui fait actuellement largement débat dans les milieux pédagogiques. Sommes-nous en train de perdre notre capacité de concentration ou notre cerveau s’adapte-il à un afflux continu de stimuli ?

Un nouvel ouvrage traitant de ce sujet, « iBrain: Surviving the Technological Alteration of the Modern Mind, »[4] émet l’hypothèse que cette exposition au Web a des conséquences sur la façon dont le cerveau forge les chemins neuronaux. Câbler ainsi notre cerveau accroît notre capacité à trier les informations, à prendre des décisions rapides et à séparer le bon grain de l’ivraie numérique, mais en revanche, nous perdons de notre aptitude à nous concentrer de façon soutenue, à déchiffrer le langage corporel et à nous faire des amis dans le monde réel.

Si notre cerveau est réellement en train de modifier son câblage, la logique ne voudrait-elle pas que nous adaptions aussi notre façon d’enseigner aux élèves ? À vrai dire, ceux qui le pensent ne sont pas légion. La plupart des pédagogues, tel Richard Cairns, proviseur du Brighton College, un des meilleurs établissements privés d’Angleterre, estiment que posséder des bases de connaissances solides est essentiel. « Il est important que les enfants apprennent les faits. Si l’on ne peut puiser dans aucune réserve de connaissances, difficile de participer à un débat ou de prendre une décision éclairée, » affirme-t-il.

Et vous, qu’en pensez-vous ?

Notes

[1] On pourra lire à ce sujet les deux ouvrages de Bernard Stiegler : Prendre soin, de la jeunesse et des générations et La Télécratie contre la démocratie.

[2] Crédit photo : Jesse Gardner (Creative Commons By-Sa)

[3] La bataille d’Hastings est une date très importante dans l’histoire de l’Angleterre, puisque c’est celle du début de l’invasion de l’île par Guillaume le Conquérant. Un équivalent français pourrait être la prise de la Bastille.

[4] « iCerveau : survivre à l’altération de l’esprit moderne par la technologie. »




USA – Obama – 3 principes pour assurer un gouvernement ouvert

Matthias Winkelmann - CC byDésolé d’en remettre une couche sur Barack Obama et son site de transition Change.gov mais il se passe décidément des choses bien intéressantes actuellement du côté des États-Unis.

Comment en effet ne pas mettre en lumière cette initiative (sous forme de lettre ouverte) qui propose trois principes clairs et plein de bon sens non seulement en direction de cette transition mais également pour le futur gouvernement.

Ne pas mettre de barrières juridiques et technologiques au partage dans un environnement qui garantit la libre concurrence (aussi bien entre les entreprises privées qu’entre le privé et le public), tels sont résumés ces trois principes qui valent pour le prochain gouvernement américain mais peut-être aussi pour d’autres pays ![1]

On en profite pour tacler au passage YouTube (qui l’a bien mérité).

Vous trouverez sur le site d’origine la liste des premiers signataires et le moins que l’on puisse dire c’est que l’on y retrouve du beau monde : Mozilla, Cory Doctorow, Dan Gillmor, Internet Archive, Xiph.Org, Mitch Kapor, Tim O’Reilly, Jimmy Wales, etc.

Sans oublier Lawrence Lessig que je soupçonne d’être directement à l’initiative de la chose ne serait-ce que parce que c’est lui qui intervient dans l’allocution audio qui est également proposée sur le site (allocution qui a été placée sur blip.tv mais est aussi disponible en téléchargement direct et au format ouvert ogg theora, histoire d’être en parfaite cohérence avec les principes exposées).

Nombreux sont ceux qui prétendent que le gouvernement américain a eu souvent tendance à donner le mauvais exemple ces dernières années. Pour ce qui concerne les libertés numériques il se pourrait bien que dans un futur proche le mouvement s’inverse, surtout si ces principes se trouvent réellement mis en œuvre et respectés.

Principes pour une transition ouverte

Principles for an Open Transition

Collectif d’auteurs – 2 décembre 2008 – Open-Government.us
(Traduction Framalang : Eric Moreau)

Le futur Président, Barack Obama, s’est clairement engagé à changer la façon dont le gouvernement interagit avec le Peuple. Sa campagne a été une démonstration de la valeur d’un tel changement, et offert un aperçu de son potentiel. Son équipe de transition vient de franchir un pas décisif en rendant ce travail de transition légalement ouvert au partage, apportant ainsi la preuve que les valeurs qu’a prônées Obama sont celles qui guideront son administration.

Afin de soutenir plus avant cet engagement en faveur du changement et favoriser sa mise en œuvre, nous proposons tois « principes pour une transition ouverte » destinés à orienter cette équipe de transition dans l’usage qu’elle fera d’Internet pour produire ce qui se fera de mieux en matière de gouvernement ouvert.

1. Pas d’obstacles légaux au partage

Le contenu mis publiquement à disposition au cours de cette transition, telles que les vidéos du futur Président Obama, ou les projets politiques publiés sur le site Change.gov, devrait être placé sous licence libre de sorte que les citoyens puissent le partager, en citer des extraits, le retravailler ou encore le redistribuer sans être freiné par la complexité inutile qu’impose la loi.

Le sénateur McCain et le futur Président Obama se sont tous les deux prononcés en faveur de ce principe pour ce qui concernait les droits de diffusion du débat présidentiel. Ce même principe devrait être appliqué à la transition.

Le site Change.gov respecte à présent ce principe. Le contenu présent sur ce site est placé par défaut sous une licence Creative Commons Paternité, laquelle en autorise l’usage, à but commercial ou non, tant que la source du document est citée. Cette liberté est cohérente avec les valeurs promises par la nouvelle administration. L’application de droits d’auteurs restrictifs est parfois nécessaire pour créer une créativité productrice de valeur, mais dans le cas de discours politiques et de débats publics, celle-ci ne serait qu’un obstacle réglementaire superflu.

L’engagement de l’équipe de transition en faveur de ce principe est d’une importance capitale, et l’attention qu’elle porte à cette question, aussi rapidement, malgré d’innombrables problèmes urgents, est fort louable.

2. Pas d’obstacles technologiques au partage

Une liberté de partager et de modifier le contenu qui ne serait que juridique peut néanmoins être entravée par des limitations techniques. Le contenu mis à la disposition de tous devrait aussi être librement accessible, et non contraint par des obstacles technologiques. Les citoyens doivent être en mesure de télécharger du contenu en rapport avec cette transition de sorte qu’il soit aisé de le partager, d’en citer des extraits, de le modifier ou de le redistribuer. Il s’agit là d’une liberté numérique essentielle.

Par exemple, quand bien même ce contenu pourrait être mis en ligne sur un site donné tel que YouTube, ce dernier n’autorisant pas le téléchargement des vidéos présentes sur son site, le contenu créé par l’équipe de transition devrait être également mis à disposition sur un site qui lui le permet. Il serait par ailleurs inacceptable que les sites du gouvernement empêchent les copier/coller de texte mis à la disposition du public ; de la même façon, mettre en ligne des vidéos à l’aide d’un procédé ne permettant pas d’en extraire et d’en réutiliser des passages facilement et légalement en empêche l’accès et interdit la participation.

Nous encourageons donc fortement l’équipe de transition à faire en sorte que le matériau qu’elle a placé sous licence libre soit en outre librement accessible. Il existe un grand nombre de services, tel que blip.tv, qui en plus de permettre aux utilisateurs de télécharger librement du contenu sous licence libre indiquent clairement les libertés associées au contenu proposé. Quelle que soit la façon dont l’équipe de transition choisira de distribuer le contenu qu’elle créera, elle devrait s’assurer qu’un moins un canal de diffusion respecte cette liberté numérique essentielle.

3. La libre concurrence

Les gouvernements doivent rester neutres sur le marché des idées. Le contenu créé par l’équipe de transition devrait ainsi ne pas être publié de manière à avantager de façon déloyale une entité commerciale par rapport à une autre, ou des entités commerciales par rapport à des entités non commerciales.

Par exemple, si la vidéo d’une conférences de presse est fournie en temps réel à des chaînes de télévision, elle devrait mise à disposition sur le Web en simultané sous un format standard et universel permettant le téléchargament et le partage. La décision de l’équipe de transition de rendre les vidéos de conférences de presse sur son site est un pas dans la bonne direction. Enfin, pour s’assurer que les nouveaux médias puissent faire jeu égal avec les médias traditionnels dans le traitement des nouvelles à chaud, il serait souhaitable de diffuser en temps réel sur le site Web conférences de presse et autres évènements médiatiques en direct.

De la même façon, si l’équipe de transition choisit de mettre à disposition une vidéo sur YouTube, diffuser la même vidéo dans un format standard et universel permettra aux autres sites de vidéo de publier eux aussi ce contenu.

Dans l’idéal, ce format devrait être un format ouvert, non propriétaire. Mais le contenu étant placé sous licence libre (cf. Principe n°1), et l’accès libre à ce contenu étant garanti (Principe n°2), la conversion dans un autre format ne sera pas interdite. L’équipe de transition ne favorisera donc pas une plateforme à l’exclusion des autres.

Au cours de la campagne, nous avons tous été galvanisés par l’engagement du futur Président en faveur d’un gouvernement ouvert, idéaux qui ont en partie poussé une génération à l’action. Son équipe de transition vient de faire un pas important pour concrétiser cet engagement.

Ce pas en avant mérite des éloges sincères. Sans vouloir minimiser son importance, nous proposons cependant dans ce texte ces principes supplémentaires comme une manière concrète de rendre tangibles les valeurs que le Président désigné a défendu avec tant de verve. Nous sommes convaincus que ces valeurs devraient servir de guide pour toute son entreprise de transition, ainsi qu’au nouveau gouvernement. Nous sommes aussi convaincus qu’elles sont cohérentes avec les idéaux que le futur Président a placés au cœur de sa campagne.

Notes

[1] Crédit photo : Matthias Winkelmann (Creative Commons By)




Innovation et logiciel libre

Les logiciels libres n’innovent pas, il ne font que copier les nouveautés pertinentes de leurs petits camarades propriétaires, entend-t-on parfois ça et là. Certains vont même jusqu’à dire qu’ils font planer une menace sur cette innovation car ils combattent les brevets logiciels tout en dynamitant, à grands coups de partage et de gratuité, le modèle économique de certaines entreprises qui souhaitent tirer profit de leurs inventions.

Le débat mérite d’être posé (d’autant qu’on peut très bien considérer qu’un logiciel qui a choisi d’être libre est innovant en soi) mais toujours est-il qu’il y a indéniablement des progrès qui viennent directement des logiciels libres. En voici quelques uns, issus de la liste de M. Saunders. Cette liste non exhaustive est peut-être discutable alors nous vous attendons de pied ferme dans les commentaires.

Une traduction Olivier pour Framalang. Nous avons ajouté quelques liens wikipédia francophones à l’article d’origine qui n’en comportait aucun, histoire que ce soit plus clair pour un public non averti. Nous avons également choisi de conserver « Open Source » plutôt que de le traduire par « logiciel libre » parce qu’il nous a semblé que c’était plus proche de l’auteur qui manipule les deux termes, mais si vous voyez les choses différemment n’hésitez pas là aussi à troller vous manifester 😉

screenshot_linux-format.jpg

Les innovations de l’Open Source

Open source innovations

M. Saunders – 28 octobre 2008 – LinuxFormat.co.uk

L’Open Source ou les logiciels libres n’ont pas une réputation d’inventeurs. Ils se contentent de copier les logiciels commerciaux, n’est-il pas ? Pas vraiment, comme l’explique Neil Bothwick, du simple gadget jusqu’à l’Internet, les logiciels libres et open source sont à l’origine de nouvelles technologies et de nouvelles façons de travailler…

« L’Open Source ne fait que plagier les logiciels commerciaux. Si les logiciels commerciaux ne dépensait pas autant d’argent dans la recherche, les logiciels Open Source seraient à cours d’innovation. L’Open Source a besoin des logiciels commerciaux pour survivre. » Voici un florilège de déclarations sur les logiciels Open Source faites par ceux qui ont un intérêt particulier à les voir échouer ou piétiner, mais est-ce justifié ou est-ce simplement de l’intimidation ?

Même si on peut répondre à ceci par quelques arguments logiques, et nous en aborderons quelques uns, la meilleure réponse se trouve dans les exemples de tous les jours où ce sont les développeurs Open Source qui innovent et les logiciels commerciaux qui se contentent de suivre.

Avant toute chose, il faut préciser que suivre l’exemple donné par les autres et utiliser leur expérience n’est pas une mauvaise chose en soi. Si vous voyez une bonne idée, ne l’ignorez pas sous le seul prétexte que d’autres l’ont eu avant vous. Les produits concurrents, quelque soit leur domaine, ont bien plus de points communs que de différences. L’ergonomie est également un facteur : une interface graphique intuitive, ça n’existe pas vraiment.

Ce que l’on décrit comme étant intuitif n’est en fait que familier ; aucune personne censée ne créerait une voiture dans laquelle les commandes sont disposées différemment de ce qui se fait habituellement, pourquoi est-ce que ça devrait être différent pour une interface en informatique ? C’est la raison pour laquelle toutes les interfaces utilisateur graphiques sont basées sur l’interface Wimp (Windows, Icons, Menus, Pointer pour Fenêtres, Icônes, Menus et Pointeur) conçue par le centre de recherche de Xerox à Palo Alto. Ce sont aussi eux qui sont à l’origine de l’Ethernet, des imprimantes laser et de bien d’autres choses encore, donc ils savent ce qu’ils font.

Alors, dans quels domaines les développeurs Open Source sont-ils des pionniers, où ont-ils explorés des terres encore vierges ? Voici quelques exemples issus de différents domaines.

compiz-fusion.jpg

Bureau 3D

Que vous les aimiez ou que vous les détestiez, les gadgets sont partis pour durer et ils font vendre des systèmes d’exploitation. Que l’on parle d’Aqua de MacOS ou des bordures de fenêtres translucides (et illisibles) de Vista, les systèmes d’exploitation se battent pour rendre leurs bureaux « attirants ». La communauté Open Source est à la base de cette innovation grâce à Compiz Fusion qui a donné une nouvelle dimension aux gadgets sur le bureau, au sens propre du terme car le projet a apporté les effets 3D. Alors que certains fonctionnalités font la part belle aux effets visuels au détriment de l’ergonomie, d’autres permettent vraiment d’avoir une interface sensationnelle. Faites simplement démarrer le PC de votre pote qui ne jure que par Windows sur un LiveCD avec Compiz Fusion et regardez le demeurer bouche bée. Les bureaux en 3D n’iront qu’en s’améliorant avec le développement naturel du matériel qui leur permettra de tourner sans effort sur ce qui sera bientôt les machines d’entrée de gamme et un bureau en 3D sous Linux demande aujourd’hui toujours moins de ressources qu’un bureau en 2D sous Vista.

En fait, le nom Compiz Fusion lui-même dissipe un autre mythe à propos de l’Open Source : les projets sont perpétuellement en train de se diviser et de se fragmenter. De Compiz est née la sous division Beryl, mais les deux projets ont à nouveau fusionnés, mettant en commun les résultats de l’effort des deux communautés pour en faire un projet bien plus fort.

knoppix.jpg

LiveCD

L’un des grands avantages de l’Open Source est que les programmeurs peuvent utiliser le travail d’un autre, en faire un nouveau paquet et le sortir. C’est exactement ce qu’à fait Klaus Knopper avec Debian quand il a créé le LiveCD Knoppix. Les disques Knoppix possédaient des outils avancés de détection du matériel et de configuration automatique, quelque chose que l’on peut considérer déjà comme novateur. Pendant le démarrage, le disque se configure tout seul pour la majorité du matériel. Même si Knopper n’a pas inventé le concept du LiveCD (Suse en avait déjà une démo), il a été le premier a rendre ce concept utilisable, avec un disque capable de démarrer et de faire tourner un OS complet sur la majorité des configurations. Maintenant un système live dérivé de celui de Knoppix est derrière le disque d’installation de beaucoup de distributions.

Grâce à l’Open Source, Knopper a pu s’appuyer sur le travail de la communauté Debian plutôt que d’avoir à tout créer par lui même. Imaginez que l’envie vous prenne de développer un liveCD de Windows, simplement parce que l’idée vous plaît. Les seuls personnes qui seraient vraiment intéressées par votre idée seraient les avocats.

wikipedia.jpg

L’édition collective Wiki

Aux début du Web vous ne trouviez que des pages fixes où le contenu de chaque page était un fichier HTML. Ensuite le HTML dynamique a pointé le bout de son nez, se servant de modifications qui touchaient uniquement les serveurs au moyen de divers langages de programmations, mais le contenu n’était toujours que le contenu que le webmaster vous fournissait. Vous pouviez le lire ou l’imprimer, mais c’était tout. Le WikiWikiWeb a changé tout cela grâce à un concept novateur : le site Web pouvait être édité par n’importe quel visiteur. A partir de ce moment tout visiteur d’un wiki a le pouvoir de créer, d’éditer ou de supprimer des pages. Cette idée anarchique au demeurant a plutôt bien fonctionné et maintenant un site peut être amélioré par n’importe qui et n’est possédé par personne, le site Web Open Source.

Internet était bien moins sauvage en 1995 quand est apparu WikiWikiWeb, sa population se composait principalement de geeks et d’universitaires inoffensifs. De nos jours, le vandalisme peut devenir problématique et de nombreux wikis nécessitent la création d’un compte avant de se lancer dans l’édition, mais cela ne change en rien leur nature ouverte. Open Source n’est pas synonyme d’irresponsabilité protégée par l’anonymat, il est question d’échange et de reconnaissance de la contribution apportée par les autres. Le wiki n’est donc pas seulement une innovation de la communauté Open Source, c’est aussi un exemple vivant de ce qu’il y a de bon dans le concept d’ouverture.

vnc.jpg

Virtual Network Computing

VNC est l’exemple type d’invention qui ne pouvait émaner que de l’open source. VNC permet à un ordinateur de voir et, potentiellement, de prendre le contrôle d’un autre ordinateur. C’est utile pour accéder à votre propre machine lorsque vous n’êtes pas au bureau mais aussi pour assister à distance un autre utilisateur. « Appuie sur ce bouton et dis-moi ce que ça fait. » Toute personne ayant déjà eu ce genre de conversation téléphonique avec ses parents en comprendra l’utilité.

Même ceux qui sont le moins à cheval sur la sécurité de leur ordinateur devraient être horrifiés à l’idée de laisser quelqu’un contrôler leur ordinateur par Internet. Même si vous faites entièrement confiance à l’utilisateur de l’autre ordinateur (qui peut être vous-même) vous n’avez aucun moyen de savoir avec certitude ce qui advient des données lorsque vous utilisez un système propriétaire. L’Open Source n’est pas simplement à l’origine d’une innovation ici, c’est aussi un gage de sécurité : vous avez accès au code source et vous pouvez déterminer si les données de votre session ne seront pas envoyées dans une base souterraine secrète.




Linux conquista América Latina

Vacacion - CC byCe blog propose souvent des traductions anglophones. Voici notre première traduction réalisée à partir d’un article en langue espagnole par Bertille (merci pour elle).

Comme pour l’anglais nous cherchons à constituer un petit groupe de traducteurs autour de l’espagnol. Il s’agirait non seulement de traduire mais également d’exercer une petite veille autour du « software libre », histoire de nous tenir au courant, comme ici, de ses avancées et péripéties dans le monde hispanophone[1].

Si vous souhaitez rejoindre l’équipe, inscrivez-vous directement à partir de cette page.

Linux conquiert l’Amérique Latine

Linux conquista América Latina

Miguel Angel Criado – 27 octobre 2008 – Publico.es
(Traduction Framalang : Bertille)

Les gouvernements sud américains poussent à l’utilisation du logiciel libre face au logiciel propriétaire, à la recherche de l’indépendance technologique, de la sécurité et du développement local.

Le logiciel libre est en train de conquérir l’Amérique Latine. La vague des victoires des partis de gauche se traduit, sur le plan technologique, par la substitution des programmes informatiques propriétaires par des autres à codes ouverts. Contrairement à l’Europe, les gouvernants d’Amérique Latine sont persuadés que la seule manière d’impulser la société de l’information pour en faire un levier pour le développement est d’utiliser Linux.

Du Brésil de Lula jusqu’au Vénézuela de Chávez, une migration de Windows à Linux est en train de se produire dans l’administration, les entreprises publiques ou les écoles. L’économie d’argent que suppose le non achat de licences pour l’utilisation de programmes privateurs n’est pas l’unique motif de ce changement. Les raisons que présentent les différents gouvernements sont l’indépendance technologique face aux multinationales, la sécurité qu’offre le logiciel libre en permettant de voir son code source, et l’intérêt de développer une industrie informatique locale.

Lors de la Conférence Internationale du logiciel libre qui eut lieu à Malaga la semaine dernière[2], les responsables technologiques de différents gouvernements d’Amérique Latine ont partagé leurs expériences et ont expliqué le fonctionnement de ce mouvement qui, avec ses rythmes et objectifs distincts, semble difficile à arrêter.

Vénézuela :

Le gouvernement le plus belliqueux à l’encontre du logiciel propriétaire est peut-être celui d’Hugo Chávez. Depuis l’adoption du décret 3 390 en décembre 2004, tout matériel informatique acheté par l’administration ou les entreprises publiques doit porter la mention logiciel libre.

Carlos Figueira, responsable du CNTI[3] du Ministère du Pouvoir Populaire pour les Télécommunications et l’Informatique du gouvernement du Venezuela, présente la souveraineté et l’indépendance technologique comme des raisons de passer à Linux. De même, il ajoute que « le logiciel libre incite à un modèle économique basé sur les services, ce qui favorise le développement des industries locales au détriment des grandes entreprises ».

Équateur :

Ce pays, où le président Rafael Correa fait partie du gouvernement depuis moins longtemps, a suivi une partie des étapes initialisées par son voisin vénézuelien. Ainsi, la promulgation du décret présidentiel 1 014 oblige les entités publiques à utiliser le logiciel libre.

Paraguay :

Le gouvernement de l’ex évêque Fernando Lugo (qui est arrivé au pouvoir en août dernier) ne peut pas se permettre le luxe de payer le coût des programmes propriétaires. Nicolas Caballero, directeur des Politiques TIC[4] du nouveau gouvernement, l’explique : « Une licence XP coûte 95 euros, le même prix qu’une tonne de soja. Combien de personnes se nourrissent avec une tonne de soja ? Et à qui cet argent profite ? Une société qui est on ne sait où. Cela cesse d’être un problème technologique pour se convertir en problème éthique ».

Brésil :

Le pays carioca dispose d’une des communautés de hackers[5] et de développeurs de logiciels libres les plus importantes au monde. C’est pour cela que, lorsque Lula est arrivé au pouvoir, GNU/Linux était déjà utilisé dans l’administration. Depuis, le changement est devenu stratégique. Au Brésil, comme l’explique Corinto Meffe, le Gérant des Innovations Technologiques du gouvernement du Brésil, « l’essentiel, ce n’est pas la gratuité mais l’indépendance ». Le Brésil, qui mise sur les programmes libres depuis plus de dix ans, voit en eux une façon de réduire la dépendance face aux technologies des autres pays.

Uruguay :

En Uruguay, la neutralité technologique compte ses jours. L’idée lancée par l’industrie du logiciel selon laquelle les gouvernements doivent être neutres dans le choix d’un système ou d’un autre est rejetée par le Parti Socialiste. Son conseiller, Fernando da Rosa, annonce qu’ils préparent un projet de loi qui exigera que le systèmes soient basés sur des standards ouverts. « Nous voulons que se produise une migration sûre, même si elle ne sera peut-être pas rapide. »

Cuba :

Le gouvernement cubain subit un « blocus informatique », comme l’explique Miriam Valdés, directrice d’analyse du Bureau pour l’Informatisation. Cuba ne peut pas acheter de licences de logiciels. De même qu’ils ne peuvent pas non plus télécharger les programmes libres hébergés sur les sites américains. « C’est pour cela que la migration est stratégique » dit-elle. Dans un pays où les cours d’informatique se donnent depuis la maternelle, 96 % des systèmes publiques utilisent déjà le logiciel libre.

Veiller aux droits et aux libertés

Analyse de Caroline Grau, directrice générale de CENATIC[6].

Ces dix dernières années, de nombreuses technologies ont vu le jour afin de favoriser la bien nommée « société de l’information ». Le logiciel libre et open-source est, sans nul doute, l’une des technologies qui démontre avoir le plus d‘influence pour favoriser ce développement, surtout dans le milieu des administrations publiques, conditionnées par leur profil de gestion d’information et de traitement des données.

Les administrations publiques doivent rester attentives aux changements et innovations qui se produisent dans le secteur du logiciel, et elles doivent encourager leur intégration à la structure de gestion afin d’optimiser le service qu’elles prêtent au citoyen et afin de veiller à leurs droits et libertés.

En ce sens, le logiciel libre et open-source permet aux administrations publiques de tenir leurs engagements de responsabilité face aux citoyens. C’est ce type de logiciel qui s’adapte le mieux à leurs nécessités techniques, tel que l’illustrent de nombreux rapports, comme le plan « Europe 2002 » ou bien le rapport « Logiciel open-source pour le développement de l’Administration Publique Espagnole », publié par le CENATIC.

L’ économie significative de coûts, en n’ayant pas à payer chaque copie d’un programme, est un des motifs les plus fréquemment avancés pour utiliser ce type de logiciel. À ceci s’ajoutent d’autres aspects, comme le libre accès au code des programmes et la possibilité de les adapter, de les modifier et d’éliminer progressivement leurs failles, sans dépendre pour cela du support exclusif d’une seule société (ce qui permet en plus de développer le tissu technologique local), qui sont de fortes raisons en faveur de son utilisation dans toute administration publique.

Une autre importante motivation pour son utilisation est le haut niveau de sécurité que ces programmes déploient généralement par rapport aux alternatives propriétaires, en bénéficiant de plus de révisions de code. Le critère de sécurité est, dans de nombreuses occasions, déterminant au moment de se décider pour l’utilisation du logiciel libre ou open-source dans des plateformes qui entreposent et administrent de l’information sensible.

Notes

[1] Crédit photo : Vacacion (Creative Commons By)

[2] NdT : Conférence Internationale du logiciel libre : du 20 au 22 octobre 2008 à Malaga, Espagne. http://www.opensourceworldconference.com

[3] NdT : CNTI : Centro Nacional de Tecnologias de Información / Centre National des Technologies de l’Information. http://www.cnti.gob.ve

[4] NdT : Politicas TIC : politiques des Technologies de l’Information et de la Communication.

[5] NdT : le hacker désigne un expert en informatique, et non pas un pirate.

[6] NdT : CENATIC : Centro Nacional de Referencia de Aplicación de las Tecnologías de la Información y la Comunicación / Centre National de Référence d’Application des Technologies de l’Information et de la Communication. http://www.cenatic.es