Tout, vous saurez tout sur Google et l’Open Source

Cubes at Google - CC-BY-NDProfitons de l’actualité récente de Google, qui a fermé plusieurs de ses services ou s’apprête à le faire (exemple parfait qu’il faut développer et encourager les services Web Open Source pour que, à l’instar des logiciels libres "classiques", leur pérennité soit assurée) pour évoquer la politique du géant incontournable de la recherche (mais aussi de la messagerie électronique, des documents en ligne, de la gestion de photos et j’en passe…) concernant l’Open Source. Chacun sait que Google, même s’il garde jalousement l’algorithme de son moteur de recherche, contribue largement au monde de l’Open Source (Google Summer of Code, GoogleCode, Android etc.). [1]

Cet article, entretien avec Chris DiBona, responsable de l’Open Source chez Google, n’est pas des plus récents, mais il est d’autant plus intéressant à relire aujourd’hui qu’entre-temps Google a sorti son navigateur Chrome (la question de la relation entre Google et Mozilla est abordée dans l’entretien) et s’apprête par exemple à libérer le code d’applications (parce qu’elles n’étaient pas rentables) telles que le réseau de microblogging Jaiku.

Entretien avec Chris DiBona de Google

Interview with Chris DiBona of Google

Sean Ammirati – 26 avril 2007 – ReadWriteWeb
Traduction Framalang : Penguin, Olivier, Don Rico

Il y a quelques semaines, j’ai eu l’occasion d’écouter Chris DiBona, le responsable du programme Open Source chez Google, qui a fait une intervention lors du TiE de Pittsburgh. Pendant la conférence, Chris a donné une présentation extrêmement perspicace de l’état du marché de l’Open Source. Après la conférence, Chris et moi avons échangé des e-mails et il a accepté une interview pour Read/WriteWeb.

Avant de rejoindre Google, Chris était rédacteur chez Slashdot. On peut également lire d’autres réflexions de sa part sur l’Open Source et la vie chez Google sur son blog personnel, et écouter son podcast avec Leo Laporte, sur FLOSS Weekly.

J’ai essayé d’aborder les trois thèmes principaux suivants dans les questions que j’ai posé à Chris :

  • Comment Google tire profit de l’Open Source
  • Comment Google contribue à l’Open Source
  • Questions générales concernant le marché du logiciel Open Source

J’ai décidé de publier l’interview dans son intégralité dans ce billet plutôt que de ne mettre en avant que certaines réponses sur des points particuliers. Ce choix est en partie dû au fait que je les trouvais toutes très intéressantes (même les questions auxquelles Chris ne pouvait/voulait pas répondre). Je conclus ce billet par quelques réflexions personnelles, mais j’aimerais surtout m’appuyer sur l’interactivité que nous offre le web – je vous invite à laisser vos réflexions et vos observations dans les commentaires ci-dessous.

Comment les produits Google tirent-ils profit de l’Open Source

Q : Quel est le processus de vérification avant d’inclure un composant Open Source dans un produit Google ?

R : Nous avons tout une variété d’outils que nous avons écrit pour nous assurer de la compatibilité avec les licences utilisées par les projets Open Source, et nous faisons une revue de code sur les programmes et les bibliothèques en entrée.

Q: Combien de projets Open Source sont utilisés par Google au sein de toutes les applications Google ?

R: Désolé, nous ne donnons pas de chiffres. Un paquet.

Q: Quels projets Open Source sont utilisés le plus activement ?

R: Il existe deux projets qui nous feraient défaut plus que tout autre. Le premier, c’est le noyau Linux, et le second, c’est MySQL. Chez Google, on se sert énormément des deux.

Comment Google contribue-t-il à l’Open Source

Q: Quel est le processus suivi par Google pour décider quels projets doivent être libérés ?

R: Le problème principal est d’avoir une équipe d’ingénieurs pour travailler sur le problème. Nous avons une grande variété d’ingénieurs qui donnent 20% de leur temps pour libérer des logiciels qu’ils souhaitent voir distribuer par l’entreprise. Il faut aussi procéder à quelques petites vérifications légales concernant les marques et les brevets.

Q: Quel est le projet du "Summer of code" de l’année dernière dont vous êtes le plus fier ?

R: En choisir un seul, c’est impossible ! J’étais surtout fier que nous ayons été capable de collaborer avec autant d’étudiants dans autant de pays. C’était un bel exploit de faire fonctionner un programme d’étude réellement mondial.

Q: Quelles sont les autres initiatives (hormis le Summer of code) pour soutenir des projets Open Source ?

R: Nous consacrons de grosses sommes d’argent et beaucoup de temps à des projets tels que le OSU Open Source Labs, les projets Apache, l’EFF, les creative commons et d’autres réussites plus modestes comme MusicBrainz. Nous employons également des tas de développeurs qui travaillent sur des projets extérieurs pendant leur temps de travail. Par exemple, nous employons Andrew Morton, le second dans la hiérarchie de Linux, Jeremy Allison, co-développeur de Samba, Guido Van Rossum de Python, et de nombreux autres.

Questions diverses sur le "Marché de l’Open Source"

Q: A votre avis, dans quel domaine du logiciel se créera-t-il le plus de projets Open Source, l’année prochaine ?

R: Je n’ai pas d’opinion à ce sujet. Je pense que tout ce qui concerne la VoIP va continuer à se développer et s’avérer très excitant.

Q: Pensez-vous qu’il existe des logiciels commerciaux qui soient spécialement vulnérables à un rival Open Source émergent ?

R: Je pense que le terme vulnérable n’est pas le bon. Voici comment je vois les choses : si une entité commerciale constate qu’elle ne peut plus vendre son logiciel parce qu’un projet open source viable a emergé pour les supplanter, elle doit décider si elle veut se lancer dans la vente de services autour d’offres open source, ou sortir de ce secteur d’activité précis. IBM a réalisé un boulot incroyable après avoir opté pour la première solution.

Q: Quel est le point de vue de Google sur les différentes licences Open Source ?

R: Nous pensons qu’il y en a trop, et c’est pour cela que nous n’en supportons qu’une partie dans notre système d’hébergement de projet sur code.google.com. Cette partie inclut les licences que nous considérons comme les plus importantes : les BSD, Apache, GPL et certaines autres. Cela reflète la façon dont nous les voyons en interne. J’aime à penser que nous avons un point de vue très nuancé sur la façon d’adapter ces licences en interne.

Q : D’après vous, quel pourcentage des projets GPL actuels vont, à votre avis, migrer vers la version 3 de la GPL ? Et quel effet cela aura-il ?

R: Tous les projets de la FSF vont migrer, ainsi que Samba. D’autres migreront plus tard si les drafts de la GPLv3 continue d’évoluer dans la même direction, aussi l’effet sera-t-il plutôt mineur. Cela dit, à chaque révision de licence, il y aura une période de confusion pendant laquelle les gens modifieront leur point de vue pour incorporer la nouvelle licence.

Q: Puisque la plupart des produits Google sont liés au navigateur, et étant donné que Firefox 3 sera un ‘fournisseur d’information’ et supportera les applications web hors-ligne, les relations de Google avec Mozilla semblent cruciales pour les années à venir. Comment Google se rapproche-t-il donc de Mozilla concernant ces développements ?

R: Je ne gère pas les relations avec Mozilla, je vais donc passer sur cette question. Nous sommes heureux qu’ils soient impliqués dans le ‘Summer of Code’, c’est certain!

Conclusion

Dans l’interview qu’à donnée Eric Schmidt à John Battele à l’expo Web 2.0 de la semaine dernière, Eric a évoqué les quatre ‘moteurs principaux’ sur lesquels s’appuie Google (cf. interview sur YouTube – la référence aux quatre moteurs principaux commence @ 7:28). La première consiste à "construire les super-ordinateurs les plus intéressants du monde, qui feront fonctionner de nouveaux services de données, d’applications, de recherche et bien d’autres". Note: les trois autres ‘moteurs’ sont les services pour l’utilisateur final, la publicité et l’adaptation à leur culture particulière.

Bien que Google n’ait pas libéré l’algorithme de son ‘page rank’ (NdT : classement des pages) ni d’autres morceaux de ses systèmes, il m’a paru intéressant d’étudier l’engagement de Google dans l’Open Source puisque cela concerne la construction de super-ordinateurs. Il est presque certain que la seule entreprise en mesure de recréer des application comme MySQL et Linux est Google. Quoiqu’il en soit, ils ont plutôt choisi d’adopter et de supporter les différentes communautés Open Source et de tirer profit de leurs outils existants.

De plus, je trouve les observations de Chris sur IBM "qui vend des services autour de l’offre Open Source" particulièrement pertinentes. Il s’agit là d’un prolongement intéressant de certains sujets discutés à l’expo Web 2.0 sur les modèles de commerce Open Source.

Enfin, j’aimerai remercier Chris d’avoir pris le temps de répondre à mes questions. Je sais qu’il est débordé, et j’espère que vous aurez trouvé l’interview aussi intéressante que moi.

Notes

[1] Crédit photo : revdancatt (Creative Commons BY-ND)




La tête dans les nuages mais les pieds sur terre

Nicholas T - CC byGMail, Google Apps, Zoho, Flickr, Del.icio.us, Box.net, Wuala, DropBox, Plaxo… Ça vous parle ? Vous savez, ces applications en ligne (ou Web Apps) pratiques et séduisantes qui poussent comme des champignons aux quatre coins de la Toile, souvent accompagnées de la mention beta pour faire hi-tech. On a même trouvé un terme pour englober tout ce petit monde, le très à la mode Cloud Computing, soit l’informatique dans les nuages ou dématérialisée[1].

Que celui qui n’a pas un compte chez l’un de ces services en ligne me jette la première pierre. Reconnaissons qu’il est fort commode, notamment pour qui travaille sur plusieurs postes ou de façon nomade, de pouvoir accéder à ses courriels, à ses documents et à certaines données depuis n’importe quel PC (voire téléphone mobile) à condition de disposer d’une connexion Internet.

Mais n’est-on pas en droit de s’inquiéter de savoir que tant de nos données se baladent on ne sait trop où dans l’espace virtuel ? Plaxo, par exemple, avait été critiqué à ses débuts car assez porté sur le spam et l’exploitation peu scrupuleuse des carnets d’adresses qu’on lui confiait (même si ce service a depuis redressé la barre). Quid des documents créés avec Google Docs, des fichiers conservés chez Box.net, des mails échangés avec GMail ? De plus en plus de grands groupes ou de start-ups se lancent sur ce marché apparemment juteux et se battent pour posséder nos données.

Il y a quelque temps déjà, plusieurs voix s’élevaient contre contre ces services en ligne : Larry Ellison, le fondateur d’Oracle, qualifiait le Cloud Computing de mode, et Richard Stallman, dans un entretien accordé au quotidien anglais The Guardian, allait plus loin en taxant ces services en ligne de pièges. Stallman mettait en garde les utilisateurs contre ces Web Apps et le stockage de données personnelles sur les serveurs d’entreprises commerciales : selon lui, confier ses données à de tels services revient à en perdre le contrôle et pose donc les mêmes problèmes que l’utilisation des logiciels propriétaires.

Stallman, qui n’a pas l’habitude de faire dans la nuance, recommandait donc de n’utiliser aucun de ses services et de leur préférer nos bonnes vieilles applis en dur sur lesquelles nous gardons tout contrôle. (Nul doute qu’il pensait par là à la Framakey…)

Tim O’Reilly, dans son blog, s’est lui aussi penché sur la question et a publié un billet assez fourni, dans lequel il estime qu’il faudrait appliquer au Cloud Computing les principes de l’Open Source et rappelle qu’il avait déjà mis en garde contre le verrouillage du Web, pourtant basé sur des programmes et outils Open Source, par des applications Web 2.0.

Cette question de la confidentialité, du contrôle des données et de l’indépendance de l’utilisateur face au logiciel concerne tous ceux qui ont un usage intensif du Web et de l’outil informatique, mais semble cruciale pour les adeptes du logiciel libre, très sensibles à ces questions. Comme dans le software classique, certains acteurs du Cloud Computing proposent des solutions libres. C’est le cas de Clipperz, qui a développé un gestionnaire de mots de passe et d’informations personnelles sous licence GPL.

Sur le blog de Clipperz , un des auteurs appelle les utilisateurs et les développeurs à agir pour préserver la liberté et la confidentialité dans les nuages, et propose quelques mesures pour que les applications Web 2.0 soient en accord avec les valeurs du libre, du point de vue des licences et du comportements des navigateurs Internet par exemple. On y retrouve par billet interposé Richard Stallman, avec qui l’auteur s’est entretenu et qui y va lui aussi de ses conseils.

Histoire de redescendre un peu sur terre après tant de temps passé dans les nuages, nous vous présentons donc la traduction de ce billet, réalisée par notre équipe Framalang.

Liberté et protection de la vie privée en ligne : agissez !

Freedom and Privacy in the Cloud – a call for action

Marco – 30 mai 2008 – Clipperz
(Traduction Framalang : Olivier, Burbumpa et Don Rico)

Ce message traite de la liberté. La liberté de posséder vos données et la liberté d’utiliser des logiciels libres. Vous devriez aussi pouvoir exiger ces libertés et en jouir quand vous utilisez des applications web.

Si vous soutenez le mouvement du logiciel libre, vous pouvez facilement opter pour Gimp au lieu de Photoshop, pour Firefox au lieu d’Internet Explorer. Vous pouvez également protéger le caractère privé de vos données en utilisant les outils de cryptage disponibles (GPG, TrueCrypt…). Mais dès qu’il s’agit d’applications web, tout se complique.

Les avantages des applications web – ou web apps – (accessibles partout et tout le temps, mises à jour transparentes, stockage fiable, …) sont nombreux, mais bien souvent les utilisateurs perdent la liberté d’étudier, de modifier et de discuter du code source qui fait tourner ces web apps.

De plus, nous sommes contraints de confier nos données aux fournisseurs de ces web apps (marque-pages, documents rédigés, copies des discussions, informations financières et désormais… dossiers médicaux) qui ne résident alors plus sur nos disques durs mais qui sont rangés quelque part dans les nuages. Ce n’est pas vraiment une situation confortable de devoir choisir entre aspect pratique et liberté.

Que l’on soit clair : les web apps sont formidables et je les adore. Mais je pense que le moment est venu de réclamer plus de liberté et de confidentialité. Voilà comment nous pouvons obtenir ces deux résultats en trois étapes.

1. Choisissez l’AGPL

Quelle est l’importance de l’AGPL ? Si vous êtes un fournisseur de services et que vos services s’appuient sur des logiciels placés sous licence AGPL, vous devez rendre le code source disponible à toute personne utilisant ce service. La FSF suggère dans ses directives de placer un lien Source qui renvoie à une archive contenant le code source directement dans l’interface de l’application web.

(Ne me demandez pas pourquoi la communauté des logiciels libres a mis tant de temps à réagir !)

Mesures
  • Aider Clipperz à mettre au point une suite AGPL : un ensemble d’applications web répondant aux besoins les plus courants.
  • Cette suite devrait comprendre : un traitement de texte, un logiciel de discussion, un gestionnaire de mots de passe, un carnet d’adresses, un pense-bête, un calendrier, un gestionnaire de marque-pages … Et chaque web app devra être soumise à la licence AGPL ! Vous pourrez alors oublier Google, del.icio.us, Plaxo, Meebo … à moins qu’ils ne se mettent à l’AGPL aussi.
  • Nous avons déjà deux candidats pour certains postes (Ajax Chat pour les discussions en ligne et, bien sûr, Clipperz pour le gestionnaire de mots de passe), mais la plupart des places sont encore à pourvoir !
  • Aider Clipperz à diffuser les bienfaits de l’AGPL auprès des développeurs de projets web open-source. Demandez-leur de se convertir à l’AGPL.

2. Ajoutez-y une pointe de divulgation nulle de données

Les développeurs Web, comme les utilisateurs, connaissent encore assez peu les possibilités offertes par le chiffrage via un navigateur pour rendre les applications web aussi sécurisées et confidentielles que les logiciels classiques.

Chez Clipperz, nous voulons apporter une nouvelle vision que nous appelons les web apps à divulgation nulle de données (description plus détaillée ici) qui associe l’idée d’un hébergement auquel même l’hébergeur n’a pas accès et un ensemble de règles basées sur le credo confidentialité absolue.

Ce nom est aussi bien un hommage au chiffrage (une garantie de divulgation nulle de données est un protocole de chiffrage standard) que la promesse d’une relation particulière entre l’utilisateur et le fournisseur d’application. Le serveur hébergeant la web app peut ne rien savoir sur ses utilisateurs, pas même leurs identifiants ! Clipperz applique cette vision pour mettre en œuvre son gestionnaire de mots de passe en ligne.

Mesures
  • Appliquer les techniques divulgation nulle de données à chaque composant de la suite AGPL. Convertir une application web à l’architecture divulgation nulle n’est pas simple, mais chez Clipperz nous avons développé un savoir-faire important et nous serons heureux de partager aussi bien ces connaissances que le code de base.

Nous pourrons ainsi finalement jouir d’un traitement de texte en ligne qui ne pourra pas lire nos documents, un logiciel de discussion qui n’enregistrera pas nos conversations, un wiki sur lequel on pourra conserver sans crainte des données importantes, etc.

  • Établir et maintenir à jour une liste des Fournisseurs de Service d’Application (NdT : ASP pour Application Service Provider en anglais) qui hébergent la suite complète sous AGPL. Cette référence sera utile à tous ceux qui attachent de l’importance aux logiciels libres et à la confidentialité mais ne possèdent pas les compétences et les ressources pour faire tourner des web apps sur leur propre serveur.

3. Créer un navigateur plus intelligent

On y est presque, mais il nous reste encore à fournir aux utilisateurs de web apps un environnement encore plus flexible et sécurisé. Dans la pratique, du fait de l’architecture des web apps à divulgation nulle de données, le serveur réalise de façon générale les tâches suivantes :

  • charger le code Javascript dans le navigateur de l’utilisateur (charger le programme) ;
  • authentifier l’utilisateur (optionnel et par un protocole à divulgation nulle de données)
  • rapatrier et stocker les données chiffrées demandées par le navigateur de l’utilisateur.

Logiciel libre est synonyme de contrôle total de ce qui se passe sur mon ordinateur. Se posent alors deux questions :

  • Comment faire tourner une version modifiée du code Javascript à la place de celui chargé par le serveur ?
  • Comment être alerté des modifications apportées au code Javascript que le serveur envoie à mon navigateur ?

J’ai récemment eu l’immense honneur d’échanger mes idées avec Richard Stallman lui-même au sujet de ces problèmes, et il a suggéré une solution futée pour les résoudre tous les deux.

Stallman propose d’ajouter une fonctionnalité au navigateur qui permette à l’utilisateur de dire : « Quand tu charges l’URL X, utilise le code Javascript de l’URL Y comme s’il venait de l’URL X ». Si l’utilisateur fait appel à cette fonctionnalité, il peut utiliser sa propre copie du code Javascript et peut toujours échanger des données avec le serveur hébergeant l’application web.

Un navigateur possédant cette capacité pourrait aussi facilement vérifier si le script Java de l’URL X est différent du script Java sauvegardé à l’URL Y. Si l’utilisateur fait confiance à la version courante du code Javascript de l’URL X, il peut en faire une copie à l’URL Y et sera ainsi alerté de tout changement. Cette solution protège l’utilisateur du code malveillant qu’il pourrait exécuter sans le savoir dans son navigateur, du code qui pourrait voler ses données et détruire l’architecture à divulgation nulle d’information.

Mesures :
  • Écrire des extensions pour les principaux navigateurs libres (Mozilla, Webkit, …) qui mettent en œuvre l’idée de Stallman.

Militer pour l’adjonction de la "suite AGPL" et des navigateurs améliorés pré-cités dans les distributions GNU/Linux.

  • Continuez à lire ce blog où je posterai de nouveaux articles régulièrement.
  • Faites-moi part de vos commentaires et suggestions.
  • Faites passez le message au travers de vos blogs, de vos messages sur les forums, …
  • Faites un don.

Et le meilleur pour la fin : comment nommeriez-vous cet ambitieux projet ? Faites-moi part de vos idées dans les commentaires !

Notes

[1] Crédit photo : Nicholas T (Creative Commons By)




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ?

Jesse Gardner - CC by-saIl arrive que Framalang s’aventure parfois parfois en dehors des sentiers battus du logiciel libre, en particulier lorsqu’il s’agit d’éducation (comme ce fut par exemple le cas pour notre traduction tentant de comprendre le fameux système finlandais).

Aujourd’hui nous mettons un peu les pieds dans le plat en interrogeant la pertinence d’un des socles de l’éducation du millénaire précédent, à savoir la mémorisation et le « par cœur ». Est-ce que le numérique, et son accès immédiat à des informations telles que celles de Wikipédia (via nos appareils nomades connectés en permanence), change la donne ? Telle est la question.

Une question qui rejoint le débat sur la capacité de concentration déclinante des élèves de la nouvelle génération[1] alors que s’élèvent leurs capacités de sélection et de prise de décision rapide dans un univers saturé d’informations[2].

Éducation 2.0 : la fin du par cœur ?

Education 2.0: Never Memorize Again?

Sarah Perez – 2 décembre 2008 – ReadWriteWeb
(Traduction Framalang : Don Rico, Penguin et Olivier)

Apprendre par cœur est une perte de temps lorsqu’on n’est qu’à quelques clics de Google. Telle est la conviction de Don Tapscott, auteur de Wikinomics et Growing Up Digital, deux livres à grand succès. Tapscott, que beaucoup considèrent comme un commentateur influent de notre ère de l’Internet, pense que le temps de l’apprentissage par la mémorisation des faits et des chiffres touche à sa fin. Il estime que l’on devrait plutôt enseigner aux écoliers et aux étudiants à fournir une réflexion créative et à mieux comprendre les connaissances disponibles en ligne.

Apprendre par cœur ? Une perte de temps

D’après Tapscott, l’existence des Google, Wikipédia et autres bibliothèques en ligne induit que l’apprentissage par cœur n’est plus un élément nécessaire de l’éducation. « Le puits de science, ce n’est plus l’enseignant, c’est Internet », a déclaré Tapscott dans un entretien donné au Times. « Les enfants doivent certes apprendre l’histoire pour comprendre le monde et savoir pourquoi les choses sont comme elles sont. En revanche, inutile de connaître toutes les dates sur le bout des doigts. Il leur suffira de savoir ce qu’a été la bataille d’Hastings sans forcément devoir retenir qu’elle a eu lieu en en 1066[3]. Ça, ils peuvent le chercher et le situer sur l’échelle de l’Histoire en un clic sur Google, » a-t-il expliqué.

Il estime que cette méthode d’apprentissage n’a rien d’anti-pédagogique, puisque les renseignements que nous devons tous digérer nous parviennent à une cadence étourdissante. « Les enfants vont devoir réinventer leurs bases de connaissances de nombreuses fois, » poursuit-il. « Pour eux, mémoriser des faits et des chiffres est donc une perte de temps. »

Aux yeux des générations précédentes, qui ont grandi en devant apprendre par cœur dates historiques et formules mathématiques, l’idée que la mémorisation ne fasse pas partie de l’expérience de l’apprentissage est assez choquante. Allons, il est indispensable de savoir exactement en quelle année un évènement s’est produit… n’est-ce pas ? À moins qu’il soit plus utile de n’en avoir qu’une idée approximative de façon à se concentrer davantage sur une meilleure compréhension de son contexte et de son sens ?

Un cerveau câblé

Les écoliers d’aujourd’hui grandissent dans un monde où, par leur capacité à faire plusieurs choses en même temps, ils sont totalement plongés dans l’univers numérique. Ils envoient des textos et surfent sur Internet tout en écoutant de la musique et en mettant à jour leur page Facebook. Cette « attention partielle permanente » et ses effets sur notre cerveau est un sujet qui fait actuellement largement débat dans les milieux pédagogiques. Sommes-nous en train de perdre notre capacité de concentration ou notre cerveau s’adapte-il à un afflux continu de stimuli ?

Un nouvel ouvrage traitant de ce sujet, « iBrain: Surviving the Technological Alteration of the Modern Mind, »[4] émet l’hypothèse que cette exposition au Web a des conséquences sur la façon dont le cerveau forge les chemins neuronaux. Câbler ainsi notre cerveau accroît notre capacité à trier les informations, à prendre des décisions rapides et à séparer le bon grain de l’ivraie numérique, mais en revanche, nous perdons de notre aptitude à nous concentrer de façon soutenue, à déchiffrer le langage corporel et à nous faire des amis dans le monde réel.

Si notre cerveau est réellement en train de modifier son câblage, la logique ne voudrait-elle pas que nous adaptions aussi notre façon d’enseigner aux élèves ? À vrai dire, ceux qui le pensent ne sont pas légion. La plupart des pédagogues, tel Richard Cairns, proviseur du Brighton College, un des meilleurs établissements privés d’Angleterre, estiment que posséder des bases de connaissances solides est essentiel. « Il est important que les enfants apprennent les faits. Si l’on ne peut puiser dans aucune réserve de connaissances, difficile de participer à un débat ou de prendre une décision éclairée, » affirme-t-il.

Et vous, qu’en pensez-vous ?

Notes

[1] On pourra lire à ce sujet les deux ouvrages de Bernard Stiegler : Prendre soin, de la jeunesse et des générations et La Télécratie contre la démocratie.

[2] Crédit photo : Jesse Gardner (Creative Commons By-Sa)

[3] La bataille d’Hastings est une date très importante dans l’histoire de l’Angleterre, puisque c’est celle du début de l’invasion de l’île par Guillaume le Conquérant. Un équivalent français pourrait être la prise de la Bastille.

[4] « iCerveau : survivre à l’altération de l’esprit moderne par la technologie. »




Les 46 meilleurs logiciels libres et/ou gratuits ?

Guillermo Esteves - CC byHier, c’était Thanksgiving aux USA. Et « ce jour-là, on remercie Dieu par des prières et des réjouissances pour les bonheurs que l’on a pu recevoir pendant l’année » (source Wikipédia).

Et si l’on détournait la chose pour se demander pour quel(s) logiciel(s) nous sommes le plus reconnaissant en le(s) remerciant de ce qu’il(s) nous apporte(nt) pendant toute l’année ? C’est cette idée qu’a eu Lifehacker, l’un des blogs références outre-atlantique pour tout ce qui tourne autour du logiciel.

Et comme c’est une référence, il est fort fréquenté et cela a donné… près de 800 réponses ! Réponses que l’on peut supposer signifiantes si l’on se hasarde à penser que le public de ce blog est lui aussi un peu spécialiste[1].

La question exacte était : « What Free Software are You Most Grateful For? », ce qui (au grand dam de Richard Stallman) aboutit à une liste qui mélange les free software libres et les free software gratuits, autrement appelés freewares ou gratuiciels.

Voici en tout cas ci-dessous la fameuse liste dont je me suis permis, contrairement à Lifehacker, de mettre en exergue les logiciels libres (accompagnés parfois de quelques liens bien sentis du réseau Framasoft) histoire de bien faire la distinction.

Pour ce qui me concerne elle m’aura permis de renouer un peu le contact avec certains free softwares non libres que j’avais perdu de vue depuis un certain temps déjà…

Quelques petites remarques à la va-vite :

  • Près de la moitié des logiciels de la liste sont libres
  • Les 6 premiers sont libres
  • Firefox est le grand gagnant puisque quasiment cité dans 50 % des cas (voir le camembert sur le site d’origine)
  • Le trio Firefox + VLC + Ubuntu approchent les 75% de citations
  • Pas beaucoup de nouveaux logiciels a priori (mais je ne les connais pas tous), certains sont là depuis un bail et se bonifient avec le temps
  • Pas mal de produits Google (Gmail, Picasa, Apps, Docs, Calendar) sans concurrence libre sur le terrain qu’ils occupent à savoir l’informatique dans les nuages
  • Un peu plus de logiciels pour Mac que pour un échantillon lambda
  • C’en est fini des eMule et autres Bittorrent
  • Ubuntu est largement devant Linux et sans autre distributions citée (cette remarque est hautement trolliphère)

The Lifehacker List

1. Firefox (FramasoftFramakey)
2. VLC Media Player (FramasoftFramakey)
3. Ubuntu (FramasoftFramabook)
4. OpenOffice.org (FramasoftFramakeyFramabook)
5. Pidgin (FramasoftFramakey)
6. Launchy (Framasoft)
7. Digsby
8. Gmail
9. Adium (Framasoft)
10. CCleaner
11. Picasa
12. AutoHotKey (Framasoft)
13. Google
14. Quicksilver
15. GIMP (FramasoftFramakey)
16. Foobar 2000
17. Thunderbird (FramasoftFramakeyFramabook)
18. 7-Zip (FramasoftFramakey)
19. DropBox
20. uTorrent
21. Winamp
22. Google Apps
23. AVG Antivirus
24. Evernote
25. IrfanView
26. Opera
27. Google Chrome
28. Google Calendar
29. HandBrake
30. Skype
31. Linux
32. Paint.NET (FramasoftFramakey)
33. Ad-Aware
34. Avast Antivirus
35. Google Docs
36. LogMeIn
37. Transmission (Framasoft)
38. TrueCrypt (FramasoftFramakey)
39. Amarok (Framasoft)
40. FileZilla (FramasoftFramakey)
41. Notepad++ (Framasoft)
42. PortableApps.com
43. Rocket Dock
44. Spybot Search & Destroy
45. UltraVNC (Framasoft)
46. VirtualBox

Et bien entendu, vous avez les commentaires pour nuancer, amender, critiquer et ajouter les logiciels selon vous scandaleusement oubliés 😉

Notes

[1] Crédit photo : Guillermo Esteves (Creative Commons By)




Sur la place des grands hommes du logiciel libre

À ces quelques noms, la communauté du logiciel libre reconnaissante !

Vous ne serez pas forcément d’accord avec le choix de l’auteur[1] mais nous sommes aussi là pour en discuter dans les commentaires 😉

PS : Le titre est un peu provocateur eu égard à un récent billet sur les femmes et le logiciel libre, d’autant qu’il y a bien une femme dans le lot. On pourra également remarquer qu’il n’y a pas beaucoup de non américains.

Copie d'écran - Free Software Magazine

Les héros du logiciel libre : de Stallman à Google, les figures emblématiques grâce à qui tout est devenu possible.

Free software heroes: from Stallman to Google, a list of inspiring individuals who made everything possible

Tony Mobily – 15/06/2008 – Free Software Magazine

Dans chaque domaine, on trouve un certain nombre d’acteurs majeurs qui ont consacré beaucoup de leur temps aux idées auxquelles ils croyaient. Tous nous rappellent qu’il revient à chacun d’entre nous de changer la donne et d’écrire l’histoire. Leur travail touche un grand nombre de personnes et peut avoir une influence extraordinaire sur notre façon de voir et de percevoir le monde.

Le monde du logiciel libre compte lui aussi ses héros. Vous connaissez déjà sans doute bon nombre d’entre eux; et si ce n’est pas le cas, il est fort probable que vous utilisiez tous les jours le fruit de leur travail.

Le but de cet article est à la fois de leur rendre hommage et d’offrir un résumé à ceux qui découvrent l’univers du logiciel libre.

Quelques figures emblématiques

Richard Stallman

Richard Stallman. Pour RMS, difficile de savoir par où commencer. C’est lui qui a initié le projet GNU, composante majeure du système d’exploitation GNU/Linux, en 1983 (vous lisez bien : mille neuf cent quatre-vingt trois !), et fondé la Free Software Foundation en 1985. C’est également lui qui a écrit le compilateur C GNU, oui, l’outil permettant de transformer le langage de programmation en code exécutable. Il consacre la majeure partie de son temps à l’action politique et à la promotion du logiciel libre. Pour avoir une idée de ce que dévouement veut dire, lisez son blog et consultez son agenda de voyages plus que surchargé.

Pamela Jones. Encore un bel exemple de dévouement : Pamela Jones est l’auteure de Groklaw, le site qui a sans doute sauvé GNU/Linux et le logiciel libre en général des griffes de SCO et de Microsoft. Pamela Jones est quelqu’un d’époustouflant : ces trois dernières années, elle a signé un millier d’articles, et une grande partie d’entre eux sont des papiers très fouillés qui ont eu un écho retentissant dans toute l’industrie des nouvelles technologies.

Linus Torvalds

Linus Torvalds. C’est lui qui a codé Linux, le noyau, sans lequel les applications GNU ne pourraient fonctionner. Le noyau de Linus, qui est arrivé à point nommé, a été distribué sous licence GPL (établie par Richard Stallman) en 1991. Linux est une composante essentielle du projet GNU/Linux.

Mark Shuttleworth

Mark Shuttleworth. C’est le fondateur de Canonical, la société qui a créé la distribution Ubuntu Linux. La version abrégée de la biographie de Shuttleworth est simple : il a gagné une fortune en vendant Thawte (qui fabriquait des certificats numériques) à VeriSign. Il a ensuite suivi le programme d’entraînement des cosmonautes Russes et est allé dans l’espace. À son retour, il a fondé Canonical afin de créer Ubuntu Linux, que l’on peut considérer comme la plus populaire et la plus innovante des distributions GNU/Linux destinées aux utilisateurs finaux.

Larry Page - Sergey Brin

Larry Page et Sergey Brin. Les créateurs de Google. Indépendamment de la grosse faute d’orthographe que cache ce mot (NdT : Le terme exact est googol, qui définit le nombre 10 suivi de cent zéros), vous en avez sans doute entendu parler : on tape quelques mots sur leur page Web, et l’on obtient comme par magie une liste pertinente de pages qui s’y rapportent… jetez-y donc un coup d’œil à l’occasion ! Bien que Google ne soit pas une entreprise qui se consacre au logiciel libre, et qu’une bonne partie de leurs logiciels soient au contraire sous licence propriétaire, ils ont néanmoins produit une quantité importante de logiciels libres et (plus important encore) contribué à la création de standards ouverts facilitant l’usage des logiciels libres (par exemple OpenSocial – en opposition à Facebook, ou Android – en opposition à l’iPhone et à Windows Mobile).

Matthew Szulik - Bob Young

Bob Young et Matthew Szulik. Bob Young est le fondateur de Red Hat, une des entreprises de logiciel libre connaissant le plus de succès. Sous la direction de Young, Red Hat s’est imposée comme la distribution GNU/Linux la plus implantée dans le domaine des serveurs. Les contributions de Red Hat au noyau Linux et au logiciel libre en général sont innombrables. Matthew Szulik a pris la succession de Young à la tête de Red Hat et a accru le succès de l’entreprise. Plus important encore, Szulik aurait eu un dîner célèbre (mais qui n’a jamais été avéré) avec Steve Ballmer, le PDG de Microsoft, qui aurait tenté de le convaincre de signer avec Microsoft un accord compromettant concernant les brevets. Szulik a refusé, même si un tel accord se serait révélé fort lucratif pour Red Hat. Le signer aurait causé un tort immense au monde du logiciel libre.

Jimmy Wales

Jimmy Wales. C’est le créateur d’un autre site dont vous avez dû entendre parler : Wikipédia. Inutile que je vous fournisse un lien : tapez ce qui vous passe par la tête dans Google (voir ci-dessus : c’est le moteur de recherche sympa dont je vous parlais un peu plus tôt), et il y a de fortes chances qu’une ou plusieurs pages de Wikipédia apparaissent dans les résultats… La technologie sur laquelle est basée Wikipédia est disponible sous une licence libre (GPL). C’est bien ça – la licence créée par Richard Stallman (voir plus haut). Même si Wikipédia en soi n’est pas un logiciel libre, c’était une des premières fois (voire la toute première) qu’on appliquait la philosophie du libre à un domaine ne relevant pas de la technique. Et depuis, son succès est énorme.

Lawrence Lessig

Lawrence Lessig. Il est à l’origine des licences Creative Commons, grâce auxquelles les artistes peuvent distribuer leurs œuvres sous des licences fonctionnant selon les principes du Libre.

Tim Berners Lee

Sir Tim Berners-Lee. L’inventeur du Wold Wide Web (NdT : L’Internet comme on le connaît aujourd’hui) Il a préféré mettre gratuitement ses spécifications (HTTP et HTML) à la disposition de tous plutôt que de demander à des entreprises et à des développeurs de se conformer à des accords inacceptables afin de respecter des termes soi-disant non-discriminatoires. Sans lui, l’Internet pourrait être aujourd’hui la chasse gardée de protocoles propriétaires de l’acabit de MSN ou AOL, et en proie au chaos. Et quand je dis chaos, je pèse mes mots.

Blake Ross

Blake Ross. C’est celui qui, alors qu’il était encore adolescent (en 2003), s’est rendu compte que le mouvement du Libre disparaissait du paysage des navigateurs parce qu’aucun navigateur libre et léger n’était disponible. Il a donc initié un fork de Mozilla et créé un autre logiciel dont vous avez sans doute entendu parler : Firefox. La suite, vous la connaissez. En fait, c’est une suite qui totalise 25% de parts de marché, résultat impressionnant sachant qu’il faut télécharger et installer volontairement sa copie de Firefox, contrairement à ce qui est livré directement avec Windows.

Dries Buytaert

Dries Buytaert. L’inventeur de Drupal, l’un des meilleurs CMS (Système de gestion de contenu) disponibles à l’heure actuelle. (Oui je sais, je ne suis pas objectif, puisque je suis un des développeurs de Drupal.) La plupart des internautes n’utilisent pas Drupal, mais nombreux sont ceux qui fréquentent des sites construits avec cet outil.

Keith Packard

Keith Packard. C’est l’instigateur du projet XOrg, un fork de XFree86. Grâce à lui, GNU/Linux possède aujourd’hui un sous-système graphique d’une qualité extraordinaire. Dans un entretien, qui date de 2003, Keith Packard explique en partie comment cet épisode s’est déroulé. À noter qu’au moment de l’entretien, rien n’était encore acquis, et XOrg n’était encore plus ou moins qu’une « idée ». À présent, c’est une réalité solide dans le monde du Libre.

Bram Cohen

Bram Cohen. Le petit génie de la mathématique qui a créé BitTorrent. À contre courant de la tendance générale, il a mis à disposition gratuitement les spécifications de son protocole. BitTorrent est depuis un outil crucial pour le logiciel libre, car il rend possible le téléchargement de distributions qui ne cessent de se développer. D’autres (cf : la RIAA) ne voient pas du même œil le potentiel de ce protocole.

Michael Tiemann

Michael Tiemann. Il a fondé Cygnus en 1989. Cygnus Solutions fut une des premières tentatives de « monétiser » le logiciel libre. Tiemann a aussi codé le compilateur C++ GNU et travaillé sur le compilateur et débogueur C GNU, deux logiciels d’une importance cruciale sans lequel le monde des nouvelles technologies ne serait pas le même.

Le monde s’ils n’avaient pas été là

À quoi ressemblerait le monde si ces personnages clé avaient préféré embrasser une carrière de plombier ? On pourrait avancer que si ça n’avait pas été eux, d’autres s’en seraient peut-être chargé. Mais dans le cas qui nous intéresse, c’est bien ce « peut-être » qui interpelle (soulevant la question plus théorique de la liste des « ça s’est joué à pas grand chose »).

Sans Pamela Jones, nombreux sont ceux (et j’en fais partie) qui pensent que le procès de SCO contre Linux aurait pu beaucoup plus mal se finir. Sans Stallman, le mouvement du Libre serait loin d’être aussi solide et organisé. Sans Shuttleworth, une distribution GNU/Linux propriétaire aurait pu prédominer sur le marché (ce qui était en train de se profiler, petit à petit, avec Linspire). Sans Larry Page et Sergey Brin, pas de Google. Pas de Summer of Code. Pas d’Android. Pas d’OpenSocial, la liste est longue comme le bras. Sans Bob Young et Matthew Szulik, pas de chef de file bien défini sur le marché des serveurs GNU/Linux, ou, pis encore, Red Hat aurait pu céder à la pression de Microsoft et signer un accord désastreux sur les brevets. Sans Jimmy Wales, pas de Wikipédia. Sans Lawrence Lessig, des milliers d’œuvres d’art ne seraient pas disponibles sur le World Wide Web. Et d’ailleurs, sans Sir Tim Berners-Lee, il n’y aurait même pas de World Wide Web. Sans Blake Ross, vous n’auriez sans doute pas d’autre choix que d’utiliser Internet Explorer pour aller sur Internet. Sans Dries Buytaert, Drupal n’existerait pas. Sans Keith Packard, nous serions coincés avec le XFree86 monolithique que nous connaissions avant, plus ou moins libre mais pas vraiment.

Sans eux, en gros, le monde serait aujourd’hui bien plus gris.

Faire partie du club, ça vous tente ?

À la lecture de cet article, vous voyez sans doute où je veux en venir : tous ces acteurs du Libre sont des gens brillants, dévoués et prêts à consacrer une grande part de leur vie à l’amélioration du monde dans lequel nous vivons.

Un des aspects formidables des logiciels libres, c’est qu’il s’agit d’un monde sans barrières. Peut y entrer qui veut. Votre nom pourrait bien figurer un jour dans cette liste. Pour y parvenir, il suffit de fournir une somme de travail phénoménale et de nourrir une immense passion pour le domaine, quel qu’il soit, auquel vous la consacrez.

Quant à moi, je ne figure pas dans cette liste, même si je crois en rêver depuis toujours. Je fais de mon mieux au sein de Free Software Magazine, et chaque fois que la lassitude ou le manque d’inspiration me saisissent, je pense à ceux qui ont rendu possible l’existence de cet univers, et m’efforce d’en faire autant, et aussi bien.

À notre niveau, nous n’apporterons pas forcément à l’édifice des pièces aussi majeures que celles de Sir Tim Berners-Lee, Richard Stallman ou Pamela Jones, mais rien ne nous empêche d’essayer.

Notes

[1] Traduction Don Rico sous l’œil avisé de Burbumpa et Olivier.




Quand Google Chrome s’annonce sur Google.fr

Google Chrome sur Google.fr

C’est tout de même pratique de posséder la page web la plus vue dans le monde pour annoncer le sortie d’un nouveau produit.




Google Chrome et Mozilla Firefox : une différence réelle ou fantasmée ?

Google Chrome - Mozilla Firefox

Dans la série « poil dans la main dominical »…

Si j’avais un peu de temps je tenterais de développer l’hypothèse suivante : Google Chrome est plus Open Source que Logiciel Libre tandis que Mozilla Firefox est plus Logiciel Libre qu‘Open Source.

J’irais même jusqu’à penser, un brin optimiste, que l’apparition de Google Chrome va obliger la Mozilla Foundation à se recentrer sur le Logiciel Libre pour se différencier.

Que diriez-vous d’apporter vous-même, dans les commentaires, moult arguments pertinents pour valider ou non cette supputation spéculative ?