Maximum respect for the Ubuntu french team

Voici une petite interview de Christophe Sauthier, président de la french LoCo team à savoir l’association Ubuntu-fr, réalisée début décembre à Mountain View (oui, oui, chez Google) lors du récent Ubuntu Developer Summit, UDS chez les initiés.

Il a beaucoup impressionné l’assemblée, c’est-à-dire ses petits camarades ubunteros venus du monde entier pour l’occasion, avec ses 4000 visiteurs de la récente Ubuntu Party de Paris à la Villette (d’ailleurs il est désormais surnommé 4K, c’est vous dire). Il évoque également tous les avantages de devenir Masters of the Universe (MOTU) chez Ubuntu et son souci de faciliter la tâche et l’accueil des nouveaux contributeurs.

PS : C’est en anglais mais comme c’est un français qui parle anglais on comprend encore mieux que d’habitude 😉

—> La vidéo au format webm

Si jamais il vous venait l’envie d’en savoir plus sur Christophe Sauthier et son rôle au sein d’Ubuntu, vous trouverez ci-dessous un entretien paru dans la lettre hebdomadaire Ubuntu n°121 (7 au 13 décembre 2008) sous licence GNU FDL.

Entretien avec huats, leader de l’équipe d’Ubuntu-fr

Qui es-tu ? Où habites-tu ? Que fais-tu dans la vie ?

Je m’appelle Christophe Sauthier et mon pseudo IRC est huats. J’ai 31 ans, j’habite à Toulouse et je vis en couple. Je travaille pour une société de service (makina corpus) qui travaille exclusivement dans le monde de l’open-source. Je suis impliqué dans tout ce qui est formation, assistance, migration à Ubuntu, ainsi que sur certains dévelopements en PHP (Drupal) ou Python (Plone). Je suis impliqué directement dans Ubuntu en tant que président de la LoCo française. Mon autre rôle dans la communauté est de coordonner les tutorats des MOTU, dont le but est d’aider les nouveaux venus dans le monde du développement pour Ubuntu. J’essaye aussi d’être actif au niveau développement en aidant au packaging de quelques applications, essentiellement autour de l’environnement GNOME.

Comment es-tu entré dans le monde de Linux et d’Ubuntu ?

Il y a très très longtemps (quelque chose comme 1996), j’avais demandé son avis à quelqu’un au sujet d’un script Perl sur lequel je bossais (un CGI pour site web en l’occurence) et il m’avait dit : « Si tu veux coder un peu en Perl, fais-le sous Linux. Tu peux faire comme ça pour l’installer… » Ça a été mon premier contact avec Linux. À cette époque, j’utilisais surtout Suse et Debian. Et puis un beau jour, je tombe sur quelque chose basé sur Debian, mais qui n’avait pas encore de nom. C’est devenu Ubuntu. C’était en 2004, et depuis ce jour, Ubuntu est l’unique distribution que j’utilise.

Comment as-tu démarré avec la communauté française ?

Je faisais depuis un moment quelques traductions pour des logiciels (essentiellement dans GNOME) et je suis tombé un jour sur un billet du wiki de la LoCo française qui mentionnait des projets sur le point d’être lancés. L’un d’eux était l’organisation d’entretiens (puis leur traduction) avec quelques membres clés de la communauté. Ce projet a évolué plus tard en diverses choses comme BehindUbuntu.

Qu’est-ce qui t’a amené à prendre la tête de la LoCo française ?

Après cette première expérience dans la communauté française, j’ai décidé de rester dans les parages, fréquentant différents chats IRC francophones, ou passant de temps en temps sur les forums. C’est là que j’ai vu la campagne pour vendre des t-shirts pour la LoCo. Ma première pensée a été « j’en veux un ! », et ma deuxième « je suis sûr que je peux les aider à organiser ça »… après avoir commandé le mien, j’ai pris contact avec le gars qui s’occupait de ce projet, et il y avait tellement de boulot que mon coup de main a été le bienvenu… Il s’est trouvé que Yann (le gars que j’avais contacté) était le président de la communauté française, et après pas mal de discussions, il m’a dit qu’un coup de main serait bien utile aussi pour le développement du site web. Il m’a demandé de montrer que je pouvais aider en codant un module pour PunBB (le forum que nous utilisons). J’ai pris en charge de plus en plus de choses dans la LoCo, et quand le président a décidé de passer la main, on m’a demandé si je me sentais de relever le défi : monter une nouvelle équipe, avec une nouvelle organisation. C’est ainsi que je suis devenu le président d’Ubuntu-fr, et que j’ai essayé de changer l’organisation en me basant sur le concept de «travail d’équipe».

Quels sont les défis dans la gestion d’une grande LoCo? Comment votre LoCo fait-elle pour communiquer et couvrir un si grand territoire ?

Il y a de nombreux défis, mais c’est aussi un boulot passionnant. Le premier défi est, bien sûr, d’en faire le maximum tous les jours. Il y a beaucoup de sollicitations et nous ne pouvons satisfaire tout le monde, même si nous essayons. A la fin, certains peuvent croire que nous ne sommes concentrés que sur un domaine et que nous nous fichons des autres. En fait, nous manquons tout simplement de main-d’oeuvre et de temps, et pour le montrer, nous communiquons de plus en plus au travers d’un blog pour les rapports. Ce blog fait partie du Planet francophone et donc tout le monde peut y accéder. Mais nous ne voulons pas seulement nous limiter au blog, nous essayons d’être aussi transparents que possible sur les décisions prises. Environ une fois par mois, nous tenons une réunion publique sur IRC. Nous essayons de nous occuper de chaque aspect de notre communauté : nous parlons des actions passées (depuis la dernière réunion), des actions en cours, et de celles à court et moyen terme. Nous consacrons aussi du temps à répondre aux questions et tout le monde peut proposer un nouveau sujet de discussion. Je pense que cette transparence intéresse les gens, ainsi à la dernière réunion, environ 60 personnes étaient présentes.

Comment la LoCo française est-elle organisée? Est-elle centralisée ou décentralisée ?

C’est un mélange. Il y a bien sûr un groupe de personnes qui forme le noyau de la LoCo, mais avec la nouvelle organisation de l’équipe, ce groupe s’est quelque peu agrandi. Le but est que chaque personne ait une vue d’ensemble de tout ce qui se passe dans la LoCo, ou du moins qu’elle en sache autant que possible. De cette manière, si quelqu’un se désiste, il est plus facile de le remplacer. Autour du noyau, il y a un plus grand cercle d’individus qui sont plus particulièrement investis dans un ou deux domaines. Ce deuxième groupe peut être considéré comme plusieurs équipes vouées à un domaine en particulier. Donc, pour résumer : un noyau de moins de 10 personnes, qui mène des activités de groupe indépendantes les unes des autres. Chaque équipe a une grande liberté d’action, même si nous aimons être tenu au courant des décisions importantes.

Parfois, les communautés connaissent des périodes creuses, pendant lesquelles la motivation ou la participation peuvent retomber. Comment fait la communauté française pour remédier à cela ?

Je pense que nous avons également eu un tel épisode, mais son effet a été amoindri par les changements d’organisation que j’ai mentionné plus tôt. C’était perceptible lorsque les principaux protagonistes de la communauté ont ralenti un peu, mais il n’y a pas eu de gros ralentissement de nos activités. C’est le signe distinctif des communautés les plus importantes, qui peuvent s’autogérer sans dommage majeur… Tant que cela ne dure pas trop longtemps bien sûr… Depuis, la communauté est revenue sur les rails, et elle très active. Les séances que nous avons eu dans tout le pays pour Intrepid, ainsi que l’évènement de Paris avec plus de 4000 visiteurs dans le week-end en sont de bons exemples. Puisque nous ne voulons plus ralentir, nous avons lancé quelques petits projets qui devraient nous aider à aborder des sujets qui nous intéressent. Cela devrait nous aider à maintenir la croissance de notre communauté. Il y a quelques projets qui m’ont donné envie de m’investir dans la communauté, donc vous pouvez imaginer que j’y suis très attaché. Nous avons le sentiment que, de cette façon, nous pourrons compenser une décroissance, ou un ralentissement de la participation en ajoutant de nouveaux centres d’intérêts dans lesquels s’impliquer.

Quels sont les projets de la LoCo à court et long terme ?

Je dirais continuer le travail actuel que nous avons juste initié : compléter les diverses équipes (certaines sont encore un peu floues, ou commençent seulement à prendre forme). Par exemple, il n’y avait pas vraiment d’équipe de développement web, puisque nous nous contentions de réunir les ressources au besoin. Aujourd’hui, un groupe de personnes très talentueuses travaille sur divers aspects de l’utilisation à long terme, pas seulement à la demande. C’est nécessaire si nous voulons pouvoir continuer à innover. Donc pour le court terme, cela signifie trouver une nouvelle apparence pour l’ensemble des sites ubuntu-fr (site web, documentation, forum et planet), utiliser au mieux notre nouveau site web (drupal), et donner à nos éditeurs les droits pour plusieurs équipes (celles de kubuntu ou d’edubuntu). Nous espérons être capables de faire ceci dans les prochains mois. Pour le long terme, nous voulons vraiment continuer nos efforts de diffusion d’Ubuntu en France, ce qui demande l’organisation de sessions supplémentaires dans tout le pays (en continuant sur notre lancée après tous les évènements accompagnant la sortie d’Intrepid). Nous souhaitons aussi organiser des colloques réguliers, où les gens pourront se rencontrer physiquement plutôt qu’à travers IRC. Cela permettrait d’aider les novices à ressentir une appartenance à la communauté. Cela pourrait aussi se traduire par des ateliers de débuggage, des ateliers de documentation (comme un atelier de débuggage mais pour vérifier la documentation disponible), ou même quelques ateliers de traduction. Enfin, nous essaierons de définir une réelle politique pour la participation aux évènements pour permettre aux gens de rencontrer l’équipe personnellement pour poser des questions et obtenir des réponses.

Une des idées que vous avez évoquées avec le conseil de la communauté est le jumelage. Qu’est-ce que c’est? L’avez-vous déjà mis en pratique?

Le jumelage des LoCo peut prendre plusieurs significations. Celle qui me tient à coeur est l’aide qu’une communauté importante, comme la communauté française, peut apporter aux plus modestes. Cette aide pourrait être de l’expérience, ou l’organisation de campagnes à grande échelle, ou même des dons pour les aider à lancer leurs évènements. C’est quelques chose à laquelle notre équipe a du faire face à ses débuts, et sans l’implication financière de quelques membres, nous n’aurions jamais pu faire autant de choses. Comme la communauté française est plus puissante maintenant, cela pourrait être une bonne chose d’aider les autres équipes à se lancer. En fait, c’est plutôt proche des concepts clés qui menèrent à la création de Ubuntu-eu il y a quelques années. Ubuntu-eu est un effort commun pour partager l’hébergement de leur site web. Depuis, plusieurs communautés ont trouvé un hébergement à cet endroit, ce qui est clairement une aide fort utile pour les équipes les plus récentes. Pour revenir au processus de jumelage, nous avons commencé à travailler un peu sur le sujet, avec la communauté tunisienne, mais nous n’avons pas avancé beaucoup dans le processus par manque de temps. Je suis sûr que nous travaillerons bientôt à nouveau là-dessus.

L’équipe française Ubuntu a organisé une Ubuntu Party à laquelle ont participé 4000 personnes. Pouvez-vous la décrire ? Comment l’avez-vous préparé ? Combien de temps cela a-t-il pris?

Cet évènement, qui a eu lieu à Paris, était un mélange de tous les différents types d’atelier qu’on peut avoir : installation, nouvelle version, conférence… C’est pourquoi on peut simplement l’appeler un “atelier Ubuntu”. On prépare cet évènement tous les 6 mois, pendant le week-end, un mois à peu près après la sortie d’une nouvelle version. Pendant l’atelier, les gens viennent pour avoir une installation d’Intrepid ou parce qu’ils ont des problèmes avec leur installation. On a aussi présenté plus de 14h de conférences, et un atelier débuggage…une station de radio a même émis depuis l’Ubuntu Party pendant tout le week-end. L’équipe préparait cet évènement depuis la fin du précédent (c’est-à-dire début juin), donc on a assisté au résultat de 6 mois de travail par l’équipe toute entière. Certains travaillaient sur la communication (les médias et le public visé), d’autres sur les besoins matériels de l’évènement, et d’autres sur les conférences. Maintenant, on fait l’analyse de cet évènement, ce qui nous aidera à préparer le suivant en mai 2009.

Que fais-tu dans ton temps libre ?

À part mes activités LoCo, je fais aussi du développement pour Ubuntu. Même si je sais que cela est lié a notre communauté, je considére cela clairement comme une activité à part. Cependant, je fais aussi pas mal de sport : du basketball et de la randonnée dans les Pyrénées (les montagnes près de chez moi). À part cela, j’aime cuisiner pour mes amis. D’ailleurs, je pense qu’il y a clairement un point commun entre cuisiner pour les autres et participer à des activités liées aux logiciels libres…




La documentation sur le logiciel libre doit-elle être libre ?

Kennymatic - CC byTous les livres devraient-ils être « libres », au sens où ils seraient tous placés sous une licence libre ? Bien évidemment non. Si un auteur (romancier, essayiste, historien, poète…) ne souhaite pas voir son ouvrage modifié ou commercialisé sans son consentement, il en va de son plus respectable choix. Et puis n’oublions pas qu’au bout d’un certain temps le domaine public prend le relai (temps peut-être un peu trop long actuellement mais là n’est pas le propos).

Il existe cependant certains domaines bien précis où l’adoption de telles licences est à évaluer avec attention, surtout si l’objectif visé est l’édition, le partage et la diffusion de la connaissance, et plus particulièrement de la connaissance « en perpétuel mouvement ». On peut ainsi sans risque affirmer que l’encyclopédie Wikipédia et les manuels scolaires de Sésamath ne seraient pas ce qu’ils sont sans les licences libres qui les accompagnent.

Quant à la documentation des logiciels libres, ce choix apparait si ce n’est « naturel » en tout cas cohérent et pertinent. Car il s’agit non seulement d’une question de principe et de fidélité aux licences des logiciels libres mais également d’une question d’efficacité et de qualité collectivement déclinées. Avec à la clé une ressource utile et disponible constituant un atout supplémentaire pour faire connaître et diffuser le logiciel libre traité[1].

C’est ce que vient nous rappeler cet article du site Gnu.org que nous avons choisi de reproduire ici et qui encourage les éditeurs à vendre des manuels sous licences libres lorsque le sujet de l’ouvrage est un logiciel libre (ce qui n’est pas le cas actuellement, à quelques rares exceptions près comme, désolé pour la citation réflexive, la collection Framabook).

Il est bien évident que le principal frein est d’ordre financier. Les éditeurs « traditionnels » du monde informatique en langue française (Eyrolles, Dunod, ENI, Pearson, Campus Press, Micro Application…) imaginent qu’une mise sous licence libre de leurs ouvrages aurait un impact négatif sur les ventes, les bénéfices et le retour sur investissement. Cela reste difficile à prouver car la perte de clients potentiels (qui se contenteraient de la version numérique « gratuite ») est susceptible d’être compensée par une plus large publicité faite aux ouvrages en particulier parmi l’active et influente communauté du logiciel libre francophone (sans même évoquer la question du « capital sympathie » de l’éditeur qui pourrait s’en trouver là renforcée).

Wikipédia a atteint en quelques semaines les objectifs de sa campagne de dons (six millions de dollars), Sésamath possède des salariés rémunérés avant tout grâce à la « vente physique » de leurs manuels pourtant sous licence libre. Quant au plus modeste projet Framabook, son volume sur Ubuntu dépasse aujourd’hui les trois mille exemplaires achetés quand bien même cet achat se fasse encore presque exclusivement en ligne (et ce n’est pas fini puisqu’Ubuntu est bien partie pour durer encore un petit bout de temps).

N’ayez pas peur, comme dirait l’autre. Il me tarde de voir par exemple l’excellente collection Accès Libre d’Eyrolles porter encore mieux son nom.

Logiciels et manuels libres

Free Software and Free Manuals

GNU.org – dernière mise à jour : 24 mars 2008
(Traduction : Benjamin Drieu)

Le plus grand défaut des systèmes d’exploitation libres n’est pas dans le logiciel, mais dans le manque de bons manuels libres que nous pouvons y inclure. Beaucoup de nos programmes les plus importants ne sont pas fournis avec des manuels complets. La documentation est une partie essentielle de tout logiciel; quand un logiciel libre important n’est pas fourni avec un manuel libre, c’est un manque majeur. Aujourd’hui, nous avons de nombreux manques importants.

Il y a de nombreuses années, j’ai voulu essayer d’apprendre Perl. J’avais une copie d’un manuel libre, mais je ne l’ai pas trouvé facile d’accès. Lorsque j’ai demandé à des utilisateurs de Perl s’il existait une alternative, ils me dirent qu’il y avait de meilleurs manuels d’introduction, mais que ceux-ci n’étaient pas libres.

Mais pourquoi cela ? Les auteurs de ces bons manuels les ont écrit pour O’Reilly Associates, qui les publie sous des termes restrictifs (pas de copie, pas de modification, les sources ne sont pas disponibles). Cela les exclut de la communauté du logiciel libre.

Ce n’était pas la première fois que ce genre de choses se produisait, et (malheureusement pour notre communauté) c’en est loin d’être fini. Les éditeurs de manuels propriétaires ont encouragé un grand nombre d’auteurs à restreindre leurs manuels depuis. J’ai souvent entendu un utilisateur de GNU me parler d’un manuel qu’il était en train d’écrire et avec lequel il comptait aider le projet GNU, puis décevoir mes espoirs en expliquant qu’il avait signé un contrat avec un éditeur qui restreindrait son manuel de telle manière que nous ne pourrions pas l’utiliser.

Etant donné la rareté de bons rédacteurs en langue anglaise parmi les programmeurs, nous ne pouvons pas nous permettre de perdre des manuels de cette manière.

L’intérêt d’une documentation libre (tout comme pour un logiciel libre) est la liberté, pas le prix. Le problème avec ces manuels n’était pas que O’Reilly Associates vende les versions imprimées de ses manuels, ce qui est bon en soi. (La Free Software Foundation vend aussi des impressions des manuels GNU). Mais les manuels GNU sont disponibles sous forme de code source, alors que ces manuels-là ne sont disponibles que sous forme imprimée. Les manuels de GNU sont distribués avec la permission de les copier et de les modifier; mais pas ces manuels de Perl. Ces restrictions sont le problème.

Les conditions à remplir pour un manuel libre sont à peu près les mêmes que pour un logiciel; il s’agit de donner à tous les utilisateurs certaines libertés. La redistribution (y compris une distribution commerciale) doit être autorisée afin que le manuel accompagne chaque copie du programme, de manière électronique ou imprimée. Permettre les modifications est crucial aussi.

En règle générale, je ne crois pas qu’il soit essentiel que nous ayons la permission de modifier toutes sortes d’articles ou de livres. Les problèmes de l’écriture ne sont pas forcément les mêmes que ceux du logiciel. Par exemple, je ne crois pas que vous ou moi devrions nous sentir obligés de donner la permission de modifier des articles tels que celui-ci, qui décrivent nos actions et nos positions.

Mais il y a une raison particulière pour laquelle la liberté de modifier des documentations libres traitant de logiciels libres est cruciale. Lorsque les programmeurs exercent leur droit de modifier un logiciel et d’ajouter ou de modifier des fonctionnalités, s’il sont consciencieux, ils changeront aussi le manuel afin de pouvoir fournir une documentation précise et utilisable avec leur propre version du programme. Un manuel qui interdirait aux programmeurs d’être consciencieux et de finir leur travail, ou qui leur imposerait d’écrire un nouveau manuel à partir de zéro s’ils modifient le programme ne répond pas aux besoins de notre communauté.

Même si un refus total des modifications est inacceptable, quelques limites sur la manière de modifier une documentation ne pose pas de problème. Par exemple, il est normal d’avoir des injonctions de préserver la notice de copyright originale, les termes de distribution ou la liste des auteurs. Il n’y a pas non plus de problème à demander que les versions modifiées incluent une notice expliquant qu’il s’agit d’une version modifiée, et même d’avoir des sections entières qui ne puissent ni être supprimées ni être modifiées, du moment qu’il ne s’agit pas de sections ayant trait à des sujets techniques (certains manuels GNU en ont).

Ce type de restrictions n’est pas un problème, car d’une manière pratique elles n’empêchent pas le programmeur consciencieux d’adapter le manuel pour correspondre au programme modifié. En d’autres termes, elles n’empêchent pas la communauté du logiciel libre de faire son oeuvre à la fois sur le programme et sur le manuel.

De toutes façons, il doit être possible de modifier toute la partie technique du manuel ; sinon ces restrictions bloquent la communauté, le manuel n’est pas libre, et nous avons besoin d’un autre manuel.

Malheureusement, il est souvent difficile de trouver quelqu’un pour écrire un autre manuel quand un manuel propriétaire existe déjà. L’obstacle est que la plupart des utilisateurs pensent qu’un manuel propriétaire est suffisament bon, alors ils ne ressentent pas le besoin d’écrire un manuel libre. Il ne voient pas qu’un système d’exploitation libre a une fissure qui nécessite un colmatage.

Pourquoi ces utilisateurs pensent-ils que les manuels propriétaires sont suffisament bons ? La plupart ne se sont pas penchés sur le problème. J’espère que cet article sera utile dans ce sens.

D’autres utilisateurs considèrent les manuels propriétaires acceptables pour la même raison qu’énormément de personnes considèrent le logiciel propriétaire acceptable : ils pensent en termes purement pratiques, sans mettre la liberté en compte. Ces personnes sont attachées à leurs opinions, mais comme ces opinions découlent de valeurs qui n’incluent pas la liberté, ils ne sont pas un modèle pour ceux d’entre nous qui s’attachent à la liberté.

Je vous encourage à parler de ce problème autour de vous. Nous continuons à perdre des manuels au profit d’éditions propriétaires. Si nous faisons savoir que les manuels propriétaires ne sont pas suffisants, peut-être que la prochaine personne qui voudra aider GNU en écrivant de la documentation réalisera, avant qu’il soit trop tard, qu’elle devra avant tout la rendre libre.

Nous pouvons de plus encourager les éditeurs à vendre des manuels libres et dénués de copyright au lieu de manuels propriétaires. Une façon de le faire est de vérifier les termes de distribution de manuels avant de les acheter, et de préférer les manuels sans copyright à des manuels copyrightés.

La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Notes

[1] Crédit photo : Kennymatic (Creative Commons By)




Au secours, mon livre est sous licence Microsoft !

Gwilmore - CC byDans son livre Rapture for the Geeks: When AI Outsmarts IQ, que l’on pourrait traduire par Au bonheur des geeks : Quand l’IA l’emporte sur le QI, Richard Dooling s’est amusé à imaginer son ouvrage sous un contrat de licence type de logiciels Microsoft en suivant presque mot à mot les termes de son contenu.

Le résultat est à la limite du surréalisme, jusqu’à se demander si ces licences Microsoft ne sont pas intrinsèquement surréalistes, quand bien même uniquement appliquées aux logiciels ! L’occasion du reste pour certains lecteurs[1] de ce blog sous Windows d’enfin lire « le contrat qu’on ne lit jamais » qu’ils ont passé à l’achat avec Microsoft.

Et si le CLUF de Microsoft s’appliquait aux livres

If Microsoft’s EULA Applied To Books

Richard Dooling – 7 octobre 2008
(Traduction Framalang : Don Rico et Yonnel)

RAPTURE FOR THE GEEKS : (VENTE AU DÉTAIL)

CONTRAT DE LICENCE POUR L’UTILISATEUR FINAL (CLUF)

Date de publication : 7 octobre 2008

1. CONCESSION DE LICENCE. Richard Dooling vous concède les droits suivants, sous réserve que vous respectiez les termes du présent CLUF :

2. INSTALLATION ET UTILISATION. Vous êtes autorisé à installer, utiliser, accéder à, afficher ou exécuter UN (1) EXEMPLAIRE DE CE LIVRE sur UNE SEULE PERSONNE, telle qu’un adulte, un homme, une femme, un adolescent ou tout autre être humain. Ce livre NE PEUT être lu par plus d’une personne.

3. ACTIVATION OBLIGATOIRE. Les droits de licence qui vous sont concédés au titre du présent CLUF sont limités aux trente (30) premières minutes à compter de votre installation initiale du LIVRE, à savoir son ouverture, à moins que vous ne fournissiez les informations requises pour activer votre exemplaire sous licence, de la manière décrite dans cette page. Il est possible que vous deviez également réactiver le livre si vous vous modifiez ou changez de personnalité. Par exemple, si vous vieillissez et gagnez en maturité, développez une maladie mentale, changez de régime alimentaire, ou recevez des membres ou des articulations artificiels, un pacemaker, des implants, ou bénéficiez d’une greffe d’organe, vous devrez alors réactiver votre licence avant d’être autorisé à pouvoir de nouveau consulter le livre.

4. UTILISATION FRAUDULEUSE. Ce livre contient des technologies conçues pour empêcher toute utilisation frauduleuse ou illégale du livre. Un puce intégrée permet à l’éditeur de scanner vos rétines de temps à autre afin de s’assurer que c’est bien VOUS et VOUS SEULEMENT qui lisez ce livre, et non quelque pirate voleur de livres. Au cours de ce processus, Richard Dooling ne collectera sur vous aucune information permettant de vous identifier personnellement, mais seulement des échantillons de sang, de tissus organiques et de moelle épinière (de force si nécessaire) afin de déterminer votre séquence d’ADN. Si vous ne disposez pas d’un exemplaire sous licence valable du livre, vous n’êtes pas autorisé à lire le livre ni ses mises à jour ultérieures.

5. TRANSFERT DU LIVRE. Vous êtes autorisé à effectuer un transfert permanent du livre à un autre utilisateur final, mais après ledit transfert vous devrez procéder à la suppression de tout souvenir du livre présent dans le cerveau du lecteur précédent. Si le livre était mémorable au point que les souvenirs ne peuvent être totalement retirés du lecteur précédent, exécutez ce dernier avec le moins de cruauté possible (liste des méthodes à employer fournie en Appendice A) et adressez sous pli la preuve de l’exécution et l’acte de décès (avec cachet du notaire) à Richard Dooling, à l’adresse indiquée ci-dessous.

6. RÉSILIATION. Sans préjudice de tous autres droits, Richard Dooling pourra résilier le présent CLUF si vous n’en respectez pas les termes. Dans ce cas, vous devrez détruire tous les exemplaires de ce livre et tous ses composants, détruire toute note que vous auriez prise concernant ce livre, et oublier tout passage du livre que vous seriez tenté de vous remémorer. Si vous trouvez ce livre absolument inoubliable, décapitez-vous et envoyez votre tête par colis postal à Richard Dooling, afin d’obtenir un remboursement de 50$. Veillez bien à joindre l’original de votre facture (pas de photocopie !), le code-barre préalablement découpé sur la couverture du livre, et le formulaire de remboursement fourni dans votre exemplaire, que vous prendrez soin de remplir avant de détacher et poster votre tête.

7. PROTÉGEZ-VOUS ! Ne lisez que des livres authentiques achetés chez un revendeur autorisé. Ne téléchargez pas de livres piratés ! Chaque fois que vous lisez un livre contrefait, vous encourez de graves dangers. Dans une enquête récente, un institut mandaté par Richard Dooling a montré que 25% des sites Web proposant des exemplaires piratés de livres tentaient également d’installer des espiogiciels et des troyens susceptibles d’endommager votre système d’exploitation et de vous empêcher de consulter des sites porno sur votre ordinateur dans de bonnes conditions.

Assurez-vous que votre exemplaire de Rapture for the Geeks est AUTHENTIQUE ! Vous bénéficierez alors d’un accès facile aux mises à jour, suites, deuxième et troisième éditions du livre, téléchargements, support technique et offres spéciales. Validez SANS TARDER votre exemplaire de Rapture for the Geeks grâce au Richard Dooling’s Genuine Advantage !

À présent, si vous êtes sûr d’être en possession d’un exemplaire AUTHENTIQUE de Rapture for the Geeks, il est sans doute sans danger de poursuivre.

Extrait de Rapture for the Geeks: When AI Outsmarts IQ, par Richard Dooling.

Notes

[1] Crédit photo : Gwilmore (Creative Commons By)




Quand Bill Gates testait les qualités de Windows

Maveric2003 - CC byBill Gates n’est plus aujourd’hui à la tête de Microsoft, préférant consacrer plus de temps à sa Fondation. Il avait peut-être beaucoup de défauts mais certainement pas celui de s’être enfermé dans sa tour d’ivoire à compter ses milliards.

Ainsi il pouvait lui arriver de faire lui-même « l’expérience utilisateur » de Windows comme aurait pu le faire n’importe quel employé de sa société[1]. Quitte à connaître par là-même parfois quelques épiques mésaventures…

Attention, nous sommes ici en 2003. Rien ne dit que la situation ne se soit pas améliorée depuis 😉

Quand Bill Gates vide son sac… un courriel épique !

Full text: An epic Bill Gates e-mail rant

Todd Bishop – 24 juin 2008 – Seattlepi.com
(Traduction Framalang : Olivier, Penguin et Don Rico)

Il arrive que les logiciels ne soient pas si magiques. Même pour Bill Gates.

En guise d’introduction à notre série d’articles sur la fin de l’ère Gates chez Microsoft, nous voulions décrire avec précision le rôle de son co-fondateur, de manière à jauger l’impact qu’aura son départ. Mon investigation m’a donc amené à relire les mails internes présentés par l’accusation lors du procès antitrust visant l’entreprise, à la recherche de nouveaux indices sur sa personnalité.

Voici l’un des joyaux qui a été révélé : on y découvre Gates dans le rôle d’agitateur en chef (Document original : PDF, 5 pages). On y découvre que même le co-fondateur de Microsoft, qui prêche la « magie du logiciel », n’est pas immunisé contre les frustrations que rencontrent chaque jour les utilisateurs de PC. N’oubliez pas que cela remonte à cinq ans, cela ne reflète pas nécessairement les choses telles qu’elles le sont aujourd’hui. En fin d’article, vous pourrez lire ce que Gates m’a répondu quand je l’ai interrogé sur ce message, la semaine dernière.

Voici le courrier d’origine :

De : Bill Gates Envoyé : Mercredi, 15 Janvier 2003, 10:05
À : Jim Allchin
Cc : Chris Jones (WINDOWS); Bharat Shah (NT); Joe Peterson; Will Poole; Brian Valentine; Anoop Gupta (RESEARCH)
Objet : La dégradation systématique de l’ergonomie de Windows

Je suis très déçu par l’évolution négative de l’ergonomie de Windows et par le fait que les groupes de gestion des programmes ne règlent pas ces problèmes d’ergonomie.

Laissez-moi vous conter ma petite expérience d’hier.

J’ai décidé de télécharger MovieMaker et d’acheter le service Digital Plus… je me suis donc connecté à Microsoft.com. On y trouve une page de téléchargement, je m’y suis donc rendu.

Mes 5 premières tentatives pour me rendre sur la page de téléchargement se sont soldées par des échecs à cause de temps d’attente trop long. Enfin, après un délai de 8 secondes, elle s’est affichée.

Le site est tellement lent qu’il en devient inutilisable.

Le programme ne se trouvait pas dans le top 5 et j’ai donc déroulé la liste des 45 autres.

Ces 45 noms n’ont aucun sens. En comparaison, des trucs comme ce qui suit semblent limpides :
C:\Documents and Settings\billg\My Documents\My Pictures

Ils ne sont pas filtrés par le système… et beaucoup de ces noms sont étranges.

Je me suis limité à la partie Multimédia. Toujours pas de Moviemaker. J’ai cherché dans Film. Rien. J’ai cherché moviemaker. Rien.

J’ai alors abandonné et j’ai envoyé un e-mail à Amir pour lui demander où se trouve le lien pour Moviemaker… s’il existe.

On m’a alors répondu qu’ils ne s’attendaient pas à ce qu’on utilise la page de téléchargements pour télécharger quelque chose.

On m’a recommandé de me rendre sur la page principale et d’utiliser la fonction de recherche avec movie maker (et pas moviemaker !).

J’ai donc essayé ça. Le site était d’une lenteur pathétique mais après 6 secondes d’attente, la page est apparue.

J’étais alors persuadé qu’il ne me resterait plus qu’à cliquer sur un lien pour lancer le téléchargement.

En fait, ça tient plus de la résolution d’un puzzle. Il m’a redirigé vers Windows Update pour y faire un tas d’incantations.

J’ai trouvé ça carrément bizarre. Pour quelle raison dois-je me rendre ailleurs et faire un scan pour télécharger Moviemaker ?

J’ai donc ouvert Windows Update. Windows Update décide alors qu’il faut que je télécharge un tas de contrôles et je me retrouve face à des boîtes de dialogues ésotériques, pas seulement une fois mais plusieurs fois.

Est-ce que Windows Update ne sait pas communiquer avec Windows ?

Ensuite, j’ai procédé à la recherche de mises à jour. Cela a pris un certain temps, et on m’a alors annoncé que je devais télécharger de toute urgence 17 Mo de fichiers divers et variés.

Ça, c’était après qu’on m’ait dit que l’on fournissait des correctifs incrémentaux, mais plutôt que de pouvoir ne télécharger que les 6 trucs qui sont signalés de la manière la plus effrayante qui soit, j’ai dû télécharger les 17 Mo.

Alors j’ai procédé au téléchargement. Là, ç’a été rapide. Ensuite, j’ai voulu passer à l’installation. Ça a pris 6 minutes, et la machine est devenue si lente que je n’ai rien pu faire d’autre pendant ce temps.

Mais qu’est-ce qui se passe, durant ces 6 minutes ? C’est fou. C’était après que le téléchargement soit terminé.

Ensuite j’ai dû redémarrer ma machine. Pourquoi ? Je redémarre toutes les nuits, pourquoi redémarrer à ce moment précis ?

Alors j’ai redémarré parce que le programme a INSISTÉ. Évidemment, ça signifiait aussi que j’allais perdre ma session Outlook en cours.

Une fois la machine redémarrée, je suis retourné sous Windows Update. Mais j’avais déjà oublié ce que j’y faisais, puisque tout ce que je voulais, c’était installer Moviemaker.

Je suis retourné sur Microsoft.com pour y suivre les instructions. J’ai alors dû cliquer sur un dossier nommé WindowsXP. Pourquoi est-ce que je devrais faire ça ? Windows Update sait que je suis sur Windows XP.

Et ça m’avance à quoi de cliquer sur ce dossier ? Apparaît alors tout un tas de trucs déstabilisants, mais cette fois c’est bon, Moviemaker en fait partie.

Je commence alors le téléchargement. Le téléchargement en lui-même est rapide mais l’installation prend quelques minutes. C’est dingue comme c’est lent. À un moment, on m’annonce que je dois télécharger Windows Media Series 9.

Je décide donc de gentiment suivre les instructions. Là, une boîte de dialogue disant Ouvrir ou Sauvegarder apparaît, sans indication de ce que je dois faire. Je n’ai aucune idée de ce sur quoi je dois cliquer.

Le téléchargement est rapide et l’installation prend 7 minutes.

À ce moment-là je pense être en possession de Moviemaker. Je vais dans Ajouter/Supprimer programmes pour m’assurer qu’il s’y trouve bien.

Il n’y est pas.

Qu’est-ce qu’il y a à la place ? On y trouve le bordel suivant. Microsoft Autoupdate Exclusive test package, Microsoft Autoupdate Reboot test package, Microsoft Autoupdate testpackage1. Microsoft Autoupdate testpackage2, Microsoft Autoupdate Test package3.

Quelqu’un a donc décidé de foutre en l’air la seule partie de Windows qui fonctionnait bien ? Le système de fichier n’est plus utilisable. La base de registre n’est pas utilisable. La liste des programmes était encore jusque-là un endroit sensé, mais désormais c’est un grand foutoir.

Et encore, ce n’est que le début des emmerdes. Par la suite j’ai trouvé des trucs comme Windows XP Hotfix voir Q329048 pour plus d’informations. C’est quoi Q329048 ? Pourquoi ces correctifs figurent-ils ici ? Certains étaient même simplement notés Q810655 sans le voir 329048 pour plus d’informations.

Quel bordel !

Et Moviemaker est toujours aux abonnés absents.

J’ai donc abandonné mon idée d’installer Moviemaker et j’ai décidé de télécharger le Digital Plus Package.

On me dit que je dois entrer quelques informations personnelles.

Je remplis tous les champs et, parce qu’il a décidé que j’ai mal tapé quelque chose, je dois recommencer. Et évidemment, il a effacé presque tout ce que j’avais déjà tapé.

Je m’y reprends à 5 fois et il continue à tout effacer pour que je recommence.

Donc après plus d’une heure de péripéties douteuses, après avoir rendu ma liste de programmes inutilisable, après m’être fait quelques frayeurs et m’être rendu compte que Microsoft.com est un site horrible, je n’ai pas pu lancer Moviemaker,et je n’ai pas le Digital Plus Package.

Le manque d’attention portée à l’ergonomie, que ces péripéties ont démontré, me dépasse. Je pensais qu’on avait touché le fond avec Windows Network ou avec les messages que je reçois quand je tente d’utiliser le Wi-Fi (vous aussi vous adorez ce message avec le certificat administrateur, non ?).

Quand j’aurai réussi à utiliser tout ça pour de bon, je suis sûr que j’aurai encore d’autres commentaires à vous soumettre.

Alors que notre interview de la semaine passée touchait à sa fin, j’ai montré à Gates une copie de ce mail et lui ai demandé s’il avait finalement réussi à faire fonctionner MovieMaker. Il m’a répondu que Microsoft envisageait d’inclure Moviemaker dans Windows Live, afin que l’on dispose du programme lorsqu’on téléchargera ce paquet. Il n’y a pour le moment rien d’officiel de la part de Microsoft, mais ce n’est pas vraiment une surprise.

Quant au courrier en lui-même, Gates a souri et a dit : « Il n’y pas un seul jour où je n’envoies pas de mails… comme cet email. C’est mon boulot. »

Notes

[1] Crédit photo : Maveric2003 (Creative Commons By)




Le logiciel libre profitera-t-il de la crise ?

Powderruns - CC byLe logiciel libre : on y vient pour le prix, on y reste pour la qualité, ironise Nat Torkington dans cette traduction issue de site d’O’Reilly. Sachant que nous traversons actuellement une période difficile où les investissement se font plus rares (et donc plus tâtillons), n’y a-t-il pas là comme une opportunité pour le logiciel libre ? Et d’ailleurs il faudrait peut-être aussi se mettre d’accord car il s’agit bien plus d’économie ici que de liberté. Donc je reformule la question : n’y a-t-il pas là comme une opportunité pour l’Open Source ?

C’est le sujet du jour. L’article est certes américano-centrée mais la crise l’était également au départ, ce qui ne nous a pas empêché d’être nous aussi touchés[1].

Conséquences de la crise sur les technologies

Effect of the Depression on Technology

Nat Torkington – 7 octobre 2008 – O’Reilly Radar
(Traduction Framalang : Olivier, Daria, Don Rico)

Voici comment je vois les choses : emprunter de l’argent devient coûteux et difficile, et ce n’est pas près de changer puisque la dette des États-Unis progresse au lieu de diminuer, entraînée par la guerre en Irak et par notre dépendance aux produits chinois qui n’est pas réciproque. Et tout ceci s’accumule dans une période qui est déjà difficile pour les affaires aux États-Unis depuis au moins trois ans, voire plus. En partant de ce constat, il est possible de faire une tentative de prévision de ce que nous réserve l’avenir (en gardant à l’esprit que chaque jour apporte son lot de nouvelles révélations concernant l’état inquiétant de la finance mondiale, notre boule de cristal est donc, au mieux, trouble).

En premier lieu, l’innovation profitera de la récession, parce que c’est ce qui se produit en général. Durant les périodes de forte croissance, les entreprises limitent la recherche et développement et gâchent de grands talents à n’apporter que des améliorations minimales aux produits dernier cri. Les entreprises sont douées pour s’équiper en nouveautés, mais elles sont souvent médiocres dès qu’il s’agit d’en concevoir. En temps de crise, les technologues ne sont plus payés des mille et des cents pour répliquer le travail réalisé par d’autres. L’explosion de la bulle Internet en 2001 a donné naissance à 37Signals, Flickr, del.icio.us, et l’on peut avancer sans crainte de se tromper que de nombreuses entreprises ont depuis passé six ans à suivre le mouvement.

En deuxième lieu, la crise profitera au libre et à l’Open Source à cause du manque de liquidités. La dernière crise a fait entrer les systèmes d’exploitation Open Source dans les mœurs (petite note pour les plus jeunes d’entre vous : il fut un temps où il n’était pas forcément bien vu d’utiliser Linux dans un service informatique) car ils offraient le meilleur rapport qualité/prix, et de loin. J’aime utiliser l’expression « Venez pour le prix, restez pour la qualité ». Cette crise affectera peut-être le même des logiciels (CRM, finance, etc.) hauts placés dans la chaîne. (En revanche, je ne m’avancerai pas à prédire que 2009 sera l’année du bureau Linux).

Troisièmement, les services Open Source et le cloud computing profiteront de la conjoncture économique actuelle, laquelle favorisera les dépenses de fonctionnement sur les dépenses d’investissement. Il sera presque impossible d’emprunter de l’argent pour acheter du matériel ou une licence logicielle importante. Adopter un logiciel Open Source est gratuit, et les services qui y sont associés font partie des dépenses de fonctionnement et non des dépenses d’investissement. De même, le cloud computing permet à une entreprise de payer peu pour se servir des investissements énormes effectués par quelqu’un d’autre. À en croire les rumeurs, il semblerait que Microsoft soit prêt à sortir Windows Cloud juste à temps. Ce n’est pas demain la veille que d’autres entreprises installeront de nouveaux centres de données, car les temps où des investisseurs aux fonds inépuisables couvraient ce genre de frais énormes sont révolus et ne reviendront pas avant un certain temps.

La plupart des logiciels clients auront du mal à se vendre tant que le dollar sera aussi bas et que le pays continuera de déverser tout son argent à l’étranger. Ce n’est pas une bonne chose, mais cela ne signifie pas qu’il sera impossible d’engranger des bénéfices, il suffira de proposer quelque chose qui réponde à un réel besoin des consommateurs. Des logiciels comme Wesabe trouveront un nouveau public en temps de crise (NdT : O’Reilly est un investisseur de Wesabe). L’heure n’est pas aux acquisitions spéculatives, attendez-vous à voir un retour aux sources comme on y a assisté (brièvement) après l’éclatement de la bulle Internet en 2001. Désolé, mais vos rêves de trouver acquéreur pour votre réseau social de collectionneurs de cure-dents devront patienter jusqu’en 2013 et un éventuel retour de l’argent employé à tort et à travers.

Comme le dit Phil Torrone, on aura plus de temps que d’argent, ce qui est profitable aux logiciels Open Source, mais cela favorisera aussi un nouvel intérêt pour les objets et le matériel informatique qui nous entourent, inspiré par le magazine Make. Les rencontres que nous avons créées (Ignite, hacker meetups, coworking spaces, foo/bar camps), qui ne coûtent pas grand chose mais qui ont une portée importante, vont se multiplier, alors que les grosses conférences pâtiront de cette période de vache maigre. La killer app du futur proviendra peut-être de l’un de ces bidouilleurs qui emploiera son temps libre à combler un manque.

Telle est ma vision du monde et des conséquences de la crise. Quel est votre point de vue ? Qu’est-ce qui m’échappe ? Faites-moi part de votre opinion dans les commentaires – le commentaire le plus perspicace vaudra à son auteur un aimant « Head first SQL » qu’il pourra coller sur son frigo.

Notes

[1] Crédit photo : Powderruns (Creative Commons By)




L’influence de Microsoft à l’école n’est-elle pas disproportionnée ?

Lettre aux enseignants - Offre Microsoft Office 2007Les enseignants doivent se sentir flattés d’un tel intérêt. En effet, en moins de six mois voici la troisième lettre qui leur est adressée par la société américaine Microsoft, et comme les précédentes missives nominativement dans leurs casiers de la salle des professeurs (vous en trouverez une image scannée en fin d’article).

Quel que soit son enrobage pédagogique cautionné par des associations d’enseignants complices de la manœuvre, le fond du sujet est toujours le même : la suite bureautique Microsoft Office 2007. On ne s’en cache pas du reste puisque l’objet de la lettre est texto : « Téléchargez Office 2007 chez vous sans frais ! ».

À croire que malgré la véritable machine de guerre déployée elle peine à être adoptée. Il faut dire qu’il n’y a pas que cette suite en jeu. Tapis derrière elle, c’est le nouveau système d’exploitation Windows Vista que Microsoft voudrait voir massivement installé dans les établissements scolaires (jackpot financier à la clé), alors que, répétons-le, absolument rien ne le justifie. Et encore plus loin c’est d’un véritable choix « culturel » qu’il s’agit. Souhaitez-vous que vos logiciels, formats, ressources, pratiques, échanges… soient majoritairement libres ou propriétaires ?

Vous connaissez notre réponse. Voici celle de Microsoft et ses acolytes avec cette nouvelle lettre aux enseignants qui a le mérite de synthétiser et d’exposer au grand jour toute la stratégie Microsoft en la matière. Nous vous proposons ci-dessous une petite lecture décryptée commentée. Pour finir pour nous demander en guise de conclusion si nous devons ou pouvons y faire quelque chose.

En route vers le B2i !

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé la justification pédagogique…

C’est par ce slogan lancé par une charmante jeune femme que s’ouvre la lettre. Il est à noter que le Brevet Informatique et Internet (B2i) existe depuis plus de sept ans déjà mais qu’à cela ne tienne, allons vers… et allons-y gaiement et en confiance puisque Microsoft est justement là pour nous accompagner et nous faciliter la vie numérique.

Il y aurait beaucoup à dire d’ailleurs sur ce B2i, véritable fausse bonne idée de l’Éducation Nationale. Moins on a d’élèves et plus il est vanté, jusqu’à se montrer dithyrambique lorsque l’on a n’a plus d’élèves du tout ! Quitte au passage à donner mauvaise conscience aux collègues qui se permettraient de montrer quelques signes de perplexité quant à sa mise en application effective, accusés alors un peu vite de faire de la « résistance au changement ».

Il n’empêche que le B2i est là, qu’il y a désormais obligation de le valider, par exemple pour obtenir son Brevet en fin de collège, et qu’on doit donc faire avec et en l’état pour le moment. Et c’est plutôt bien vu de la part de Microsoft que de choisir cet angle d’attaque.

Depuis le mois de juin, vous avez le droit de télécharger sans frais Microsoft Office 2007 sur www.officepourlesenseignants.fr, comme tous les membres du corps enseignant des écoles, des collèges et des lycées, conformément à l’Accord cadre signé entre Microsoft et le Ministère de l’Éducation Nationale.

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé la justification contractuelle…

Tout ce passage est rédigé en gros et gras. On notera qu’on prend bien soin de ne pas prononcer le mot gratuit, le droit conféré est un « droit pour une installation sur votre PC à domicile pour votre usage professionnel ». Drôle de licence que voilà, quid d’un ordinateur portable qui sortirait du domicile et quid d’un enseignant qui souhaiterait ponctuellement en faire un usage non professionnel ?

En tout cas après le B2i, et c’est toujours aussi bien vu de la part de Microsoft, on va s’appuyer sur ce fameux Accord cadre contracté en décembre 2003 et reconduit depuis. Je vous invite à le parcourir dans son ensemble mais si l’on devait n’en retenir qu’une phrase ce pourrait être la suivante, qui apparait à même le très officiel site Educnet : « L’Accord cadre a pour objectif de rendre plus homogènes et d’actualiser les systèmes d’exploitation du parc de PC des écoles, collèges et lycées, en favorisant l’accès à la dernière version de la suite bureautique Microsoft Office. » On ne peut être plus clair, la mise à jour vers Vista trouvant ici un magnifique alibi. Et tant pis pour le logiciel libre.

Rapport Becta en main, il pourrait être facile de critiquer cette prise de position discutable et arbitraire du Ministère de l’Éducation Nationale. Sauf qu’on ne peut l’accuser frontalement de favoritisme puisqu’il existe d’autres Accord cadres (Apple, IBM, Intel, Sun…) dont un très particulier que l’AFUL présentait ainsi dans un récent communiqué : « Le 28 octobre 1998, le Ministère de l’Éducation nationale signait un accord avec l’Association Francophone des Utilisateurs de Linux et des Logiciels Libres (AFUL), accord cadre permettant le développement de l’usage des technologies de l’information et de la communication auprès de l’ensemble des établissements d’enseignement français et des enseignants en ce qui concerne l’emploi des ressources informatiques libres et la disponibilité de ressources commerciales liées à l’informatique libre. Depuis dix ans, conséquences directes de l’accord cadre ou souvent simplement facilitées par son existence, de très nombreuses réalisations ont vu le jour dans ce secteur capital qu’est l’éducation, et les logiciels et les ressources libres y sont désormais bien présents, à tous les niveaux. »

Soit. L’AFUL met en valeur et c’est bien normal ce qui à l’époque constituait symboliquement une magnifique reconnaissance pour le logiciel libre à l’école. Il n’empêche qu’on se retrouve selon moi dix ans plus tard quelque peu piégé par la co-présence de ces deux Accord cadres que Microsoft fait bien plus fructifier que l’AFUL. Si ce constat est partagé, il conviendrait de voir ce que l’on peut faire ensemble pour remédier à cela.

Mais poursuivons la lecture de la lettre…

L’association d’enseignants Projetice vous propose plus de 120 formations réparties dans les Académies pour échanger et prendre en main des applications pratiques d’usages pédagogiques des TICE autour notamment des nouvelles fonctionnalités offertes par Microsoft Office 2007.
http://www.projetice.fr/formations/formations_office.aspx

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé l’association d’enseignants qui prêchent la bonne parole sur le terrain…

Et revoici l’association d’enseignants Projetice. J’en avais parlé l’année dernière sans que personne ne vienne m’apporter la contradiction sauf… Thierry de Vulpillières, directeur des partenariats éducation chez Microsoft France ! Mes hypothèses non encore infirmées étaient les suivantes : Projetice a été créée sous l’impulsion de Microsoft, Projetice est quasi exclusivement financée par Microsoft, et les prestations de ses membres ne sont pas bénévoles et donnent lieu à rémunération et couvertures de frais par l’association et donc indirectement par Microsoft.

Et parmi les prestations il y a donc désormais ces « plus de 120 formations ». Quelle force de frappe ! Un véritable réseau parallèle au très officielle plan de formation continue de l’Education Nationale. Une aubaine pour le Ministère qui cherche à faire des économies à tous les étages (dont celui de la formation continue justement). Et comme ce n’est pas Microsoft qui entre dans les établissements scolaires mais de vrais collègues, les portes se trouvent être bien entendu grandes ouvertes.

J’aimerais beaucoup recueillir ici-même quelques témoignages d’enseignants qui ont eu l’honneur d’assister à l’une des ces formations. Parce que là encore on mélange allègrement dans le libellé les « pratiques d’usages pédagogiques des TICE » avec les « nouvelles fonctionnalités offertes par Microsoft Office 2007 ». On va finir par croire que l’un ne va pas sans l’autre ! La confusion venant de fait que les formateurs endossent simultanément leurs habits d’enseignants et de « VRP Microsoft ». Alors réelle formation pédagogique ou « publi-information » qui ne veut pas dire son nom ?

Les éditions Nathan vous propose l’ouvrage « Maîtriser les fonctions indispensables d’Office 2007 » qui permet une prise en main rapide et simplifiée de la nouvelle suite bureautique Office 2007. Nathan s’associe également à une offre très attractive d’équipement des établissements disponible sur le site www.nathan.fr/Office2007

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé le partenaire éditeur scolaire…

Il fallait bien aussi un grand éditeur. Je note au passage qu’avec le titre proposé, « Maîtriser les fonctions indispensables d’Office 2007 », le rôle de Nathan ici est bien moins celui d’un éditeur scolaire que celui d’un éditeur informatique. Sachant que pour l’un comme pour l’autre, nous avons d’autres modèles à proposer comme par exemple Génération 5 pour le scolaire et… Framabook pour l’informatique 😉

Nathan nous offre lui aussi son petit service autour du B2i. Pas très conforme à son esprit du reste puisqu’il nous est proposé en ligne « d’évaluer et valider les connaissances de vos élèves » pour au final « délivrer l’attestation de réussite à chaque élève ». On se retrouve en fait avec une sorte de QCM que le Café Pédagogique devrait tout particulièrement apprécier. On remarquera par ailleurs que le site n’est pas non plus très conforme avec les standards du Web puisque « Attention, le site B2i est consultable uniquement sur PC et utlisant le navigateur Explorer ».

Curiosphere.tv (la web educative de France 5) vous propose désormais plus d’une centaine de vidéos à usage pédagogique et notamment à travers le site thématique consacré au B2i « tutoriels vidéos, se former au B2i »
http://www.curiosphere.tv/ressource/19636-tutoriels-video-se-former-au-b2i

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé le partenaire institutionnel…

J’ai eu également déjà l’occasion de consacrer un billet (puis un deuxième) à Curiosphere.tv. La principale critique venant du fait qu’à parcourir les vidéos proposées, on hésitait entre formation B2i et formation aux logiciels Microsoft, l’un servant un peu de couverture à l’autre.

Comprenez-vous pourquoi par exemple la vidéo titrée « Tutoriel Word : modifier un schéma » se trouve être placée dans la catégorie « B2i > Adopter une attitude responsable » ? Et tout est à l’avenant. On participe à la réalisation de vidéos de promotion des produits Microsoft et après on les place aux forceps, un peu n’importe comment, dans les « cases B2i ». À trop vouloir tirer sur la corde de la justification pédagogique, elle finit par casser…

Mais arrêtons-nous quelques instants plus en détail sur ces vidéos. Si vous avez huit minutes, prenez le temps de regarder « Tutoriel Word : créer une frise chronologique » où un virtuose de Word vient nous montrer effectivement comment réaliser de but en blanc un tel objet. C’est franchement spectaculaire (et je ne crois pas qu’OpenOffice.org 3.0 dispose d’une telle fonctionnalité).

Le problème est double. D’abord on peut légitimement se demander si le jeu en vaut la chandelle pour un enseignant qui, si il se met à la tâche, passera certainement plus de temps que notre virtuose. Sans oublier que peut-être, après tout, notre enseignant était satisfait des frises qu’il proposait à ses élèves « du temps d’avant Microsoft Office 2007 ». Il s’agit donc déjà de faire la part des choses entre le gadget aussi clinquant soit-il et ses réels besoins.

Mais admettons qu’il estime que cette « frise qui fait jolie » mérite d’être insérée dans ses cours. On se retrouve alors face à un nouveau problème et non des moindres. En effet, il n’a pas, me semble-t-il, été prévu de mutualiser, échanger, éditer, modifier… collaborativement les ressources « pédagogiques » ainsi produites. Et ce n’est malheureusement guère étonnant car Microsoft n’a ni expérience ni culture en la matière. Ses formats de fichiers sont fermés et non interopérables, ses produits et ses ressources ne sont pas sous licences libres, et surtout la société ne s’est jamais appuyée sur des communautés d’utilisateurs pour « créer ensemble ». Elle n’a que des clients, et c’est aussi pour cela qu’elle se trouve parfois mal à l’aise voire parfois carrément en porte-à-faux lorsqu’elle aborde les rives du secteur éducatif.

Il n’y qu’à visiter les sites de Projetice et du Café Pédagogique, tous deux réalisés avec le concours de Microsoft, pour s’en convaincre. Les possibilités d’interactions avec le visiteur y sont minimales. Le plus emblématique étant le site du fameux Forum des enseignants innovants de Rennes qui « visait à faire connaître et à valoriser les nombreux projets pédagogiques innovants ». Que reste-t-il aujourd’hui sur le site de la centaine de projets sélectionnés ? Rien. Personne n’a pensé qu’il pouvait être a posteriori opportun de les mettre à disposition des collègues internautes qui n’ont pu se rendre à la manifestation.

Parce que c’est bien gentil mais pourquoi devrais-je réinventer la roue et créer de A à Z ma propre « frise qui fait jolie » ? Pourquoi ne me propose-t-on pas le document qui a permis de réaliser cette frise ? Cela me permettrait de ne pas démarrer à vide, de mieux comprendre comment le virtuose s’y est pris et surtout de pouvoir la modifier pour l’adapter à mes besoins. En lien et place on trouve sous la vidéo le texte suivant : « Extrait de : Office pour les enseignants – Word 2007 © 2008 Microsoft Corporation. Tous droits réservés. » qui n’invite pas forcément à la collaboration.

On remarquera que le site de Microsoft dédiée à l’opération propose lui aussi la même vidéo. La seule différence c’est la possibilité de télécharger la vidéo (au format fermé .wmv) mais aussi de… « l’envoyer à un ami » ! Que la dimension collective se résume à prévenir un ami en dit long sur l’état d’esprit du projet.

J’ajoute que la mise à disposition du document source ayant permis de créer la « frise qui fait jolie » est une condition nécessaire mais non suffisante à une collaboration optimale. Il conviendrait en effet d’en proposer un format ouvert et pérenne (ce qui n’est malheureusement pas encore le cas du .docx) et de placer le tout sous une licence qui favorise le partage. Et puis, si l’on veut vraiment bien faire les choses, pourquoi ne pas regrouper toutes ces ressources sur un site dédié permettant aux enseignants de réellement communiquer avec leurs pairs ? Vous verrez qu’alors des synergies apparaîtront spontanément entre les collègues et des projets insoupçonnés se mettront en place.

C’est toute la différence entre la culture du logiciel libre et celle du logiciel propriétaire. Et c’est ici je crois que le logiciel libre a beaucoup à apporter à l’école. Ce que la société Microsoft, malgré sa pléthore de moyens et ses alliés de circonstance, est bien incapable d’imaginer, enfermée qu’elle est par son modèle économique traditionnel. Aujourd’hui, en l’absence de toutes ces considérations, la « frise qui fait jolie » demeure au niveau de la pure poudre aux yeux. Ce n’est plus de la pédagogie, c’est du simple marketing.

Réalisé par un collectif d’enseignants, le Café Pédagogique publie chaque jour « l’Expresso », un flash d’information sur l’éducation. Le « Café Mensuel » partage entre profs les « bonnes pratiques » et les ressources pédagogiques nouvelles dans votre discipline. Vous êtes déjà plus de 180.000 abonnés à ces éditions. Le « Guide de Web pédagogique » vous donne les clés pour faire entrer les TICE dans la classe. Le « Guide du BAC et du Brevet » aidera vos élèves dans leurs révisions.
http://www.cafepedagogique.net/lesdossiers/Pages/Entrezlestice.aspx

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé l’association d’enseignants qui prêchent massivement la bonne parole sur internet…

Je me demande si parmi « les clés pour faire entre les TICE dans la classe », on ne trouve pas aussi celles de Microsoft.

Toujours est-il que le Café Pédagogique a lui aussi fait l’objet d’un billet dédié tout récemment. Je n’y reviens pas si ce n’est pour dire que la seule réponse obtenue fut un mail privé. La porte est fermée, le débat public refusé et je le regrette.

En vous souhaitant une bonne prise en main de ces offres, nous vous prions d’agréer, Madame, Monsieur, l’expression de nos respectueuses salutations. Eric le Marois, Directeur Éducation et Recherche, Microsoft France.

Avec en bas de page, les logos de tous les partenaires (dont celui de Microsoft qui joue ici les modestes en se fondant avec les autres).

Voilà. Qu’ai-je voulu dire ici quitte à radoter pour la énième fois et irriter le lecteur avec mes idées fixes ?

Tout d’abord montrer la solidité et l’intelligence de la toile tissée par Microsoft au sein de l’Éducation Nationale. Je félicite sincèrement Thierry de Vulpillières pour cette politique d’entrisme menée de main de maître en fort peu de temps. L’école ayant de nombreux chats à fouetter, des difficultés budgétaires et peu d’expérience en matière « d’intelligence économique », elle ne pouvait clairement et momentanément pas lutter, surtout si l’on se permet de montrer patte blanche via un réseau de partenaires et d’associations d’enseignants financièrement dépendants du bailleur de fonds. Franchement, et n’en déplaisent à mes détracteurs, il est difficile, quand on regarde l’envergure et l’ambition de l’opération, de considérer Microsoft comme une société commerciale comme les autres. Et puis d’abord quelle est sa réelle légitimité pour venir nous parler de pédagogie ?

Mais je tenais également à témoigner, et ceci n’engage que moi, de la faiblesse actuelle de ceux qui souhaitent faire une plus juste place aux logiciels libres à l’école (« culture du libre » incluse !). Oui, comme le dit l’AFUL, et ce n’est pas le réseau Framasoft qui va la contredire, « de très nombreuses réalisations ont vu le jour dans ce secteur capital qu’est l’éducation, et les logiciels et les ressources libres y sont désormais bien présents, à tous les niveaux ». Mais oui aussi ces réalisations, aussi nombreuses soient-elles, sont éparses, pas encore assez structurées et organisées, et faiblement soutenues par l’Institution. Oui encore cette trop forte présence et prégnance de Microsoft à l’école freine non seulement le logiciel libre mais une certaine idée que l’on se fait des TICE. Et oui surtout nous ne sommes pas capable aujourd’hui de proposer des actions similaires d’une telle cohérence et d’une telle dimension. Non pas, comme certains aimeraient le croire, pour « bouter Microsoft hors de l’école », mais simplement pour faire entendre notre voix et, parce que l’indifférence amène l’ignorance, offrir ainsi à une majorité d’enseignants les conditions du choix. Un choix qui, nous le savons, va bien au delà de la praticité d’usage de tel ou tel logiciel.

Pouvons-nous adresser un courrier personnalisé dans le casier de chaque enseignant ? Pouvons nous proposer plus de cent formations non pas aux nouvelles fonctionnalités de la dernière version d’OpenOffice.org mais plutôt à l’utilisation pédagogique d’une suite bureautique illustrée par exemple avec OpenOffice.org ? (formations que l’Accord cadre avec l’AFUL autorisent pleinement du reste) Pouvons-nous, comme on nous y invite, réaliser plus d’une centaine de vidéos didactiques ? Pouvons-nous enfin communiquer d’un coup avec des centaines de milliers d’enseignants comme peut le faire le Café Pédagogique avec les produits de son partenaire ? (ce qui serait pratique par exemple pour diffuser le rapport Becta).

Malheureusement non. Rien nous oblige bien entendu à vouloir reproduire à l’identique cette manière de faire. Mais force est de constater qu’aujourd’hui nous ne pouvons rivaliser. On peut bien sûr décider de ne rien faire de plus que ce l’on fait actuellement (ne serait-ce que parce qu’on ne peut en faire plus) et s’en remettre à la sagesse et à la clairvoyance de nos collègues en se disant que jour après jour, dans l’ombre du terrain, le logiciel libre et son état d’esprit avancent et finiront par atteindre une telle masse critique qu’on ne pourra plus feindre de les ignorer.

Certes, mais on peut aussi être plus volontariste, surtout si l’on accepte le fait que ce qui est exposé dans cet article est potentiellement à même de nous faire reculer de dix bonnes nouvelles années ! Ce recul étant bien moins celui des logiciels que celui des mentalités. Si cela ne tenait qu’à moi, et si j’avais la moindre légitimité pour le faire, j’irai même jusqu’à convoquer d’urgence un… « Grenelle du Logiciel Libre dans l’Éducation » !

C’est une boutade, mais je crois sincèrement que, la balle étant dans notre camp, il y a là prétexte à se mettre en mouvement et unir nos quelques forces. Partout ailleurs dans l’administration publique, le logiciel libre est évalué et bien souvent adopté. Pourquoi en irait-il autrement à l’Éducation Nationale ? Parce qu’avec la complicité passive du Ministère, Microsoft aura fait acte héroïque de résistance en compagnie de quelques enseignants que le court terme aveugle ?

Je ne puis m’y résoudre et vous pose pour conclure la question suivante : Ce billet n’est-il qu’une nouvelle déclinaison de l’obsession paranoïaque d’un adepte de la théorie du complot ou bien au contraire sommes-nous face à un réel problème qui nécessite de réelles réponses ?




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ?

Jesse Gardner - CC by-saIl arrive que Framalang s’aventure parfois parfois en dehors des sentiers battus du logiciel libre, en particulier lorsqu’il s’agit d’éducation (comme ce fut par exemple le cas pour notre traduction tentant de comprendre le fameux système finlandais).

Aujourd’hui nous mettons un peu les pieds dans le plat en interrogeant la pertinence d’un des socles de l’éducation du millénaire précédent, à savoir la mémorisation et le « par cœur ». Est-ce que le numérique, et son accès immédiat à des informations telles que celles de Wikipédia (via nos appareils nomades connectés en permanence), change la donne ? Telle est la question.

Une question qui rejoint le débat sur la capacité de concentration déclinante des élèves de la nouvelle génération[1] alors que s’élèvent leurs capacités de sélection et de prise de décision rapide dans un univers saturé d’informations[2].

Éducation 2.0 : la fin du par cœur ?

Education 2.0: Never Memorize Again?

Sarah Perez – 2 décembre 2008 – ReadWriteWeb
(Traduction Framalang : Don Rico, Penguin et Olivier)

Apprendre par cœur est une perte de temps lorsqu’on n’est qu’à quelques clics de Google. Telle est la conviction de Don Tapscott, auteur de Wikinomics et Growing Up Digital, deux livres à grand succès. Tapscott, que beaucoup considèrent comme un commentateur influent de notre ère de l’Internet, pense que le temps de l’apprentissage par la mémorisation des faits et des chiffres touche à sa fin. Il estime que l’on devrait plutôt enseigner aux écoliers et aux étudiants à fournir une réflexion créative et à mieux comprendre les connaissances disponibles en ligne.

Apprendre par cœur ? Une perte de temps

D’après Tapscott, l’existence des Google, Wikipédia et autres bibliothèques en ligne induit que l’apprentissage par cœur n’est plus un élément nécessaire de l’éducation. « Le puits de science, ce n’est plus l’enseignant, c’est Internet », a déclaré Tapscott dans un entretien donné au Times. « Les enfants doivent certes apprendre l’histoire pour comprendre le monde et savoir pourquoi les choses sont comme elles sont. En revanche, inutile de connaître toutes les dates sur le bout des doigts. Il leur suffira de savoir ce qu’a été la bataille d’Hastings sans forcément devoir retenir qu’elle a eu lieu en en 1066[3]. Ça, ils peuvent le chercher et le situer sur l’échelle de l’Histoire en un clic sur Google, » a-t-il expliqué.

Il estime que cette méthode d’apprentissage n’a rien d’anti-pédagogique, puisque les renseignements que nous devons tous digérer nous parviennent à une cadence étourdissante. « Les enfants vont devoir réinventer leurs bases de connaissances de nombreuses fois, » poursuit-il. « Pour eux, mémoriser des faits et des chiffres est donc une perte de temps. »

Aux yeux des générations précédentes, qui ont grandi en devant apprendre par cœur dates historiques et formules mathématiques, l’idée que la mémorisation ne fasse pas partie de l’expérience de l’apprentissage est assez choquante. Allons, il est indispensable de savoir exactement en quelle année un évènement s’est produit… n’est-ce pas ? À moins qu’il soit plus utile de n’en avoir qu’une idée approximative de façon à se concentrer davantage sur une meilleure compréhension de son contexte et de son sens ?

Un cerveau câblé

Les écoliers d’aujourd’hui grandissent dans un monde où, par leur capacité à faire plusieurs choses en même temps, ils sont totalement plongés dans l’univers numérique. Ils envoient des textos et surfent sur Internet tout en écoutant de la musique et en mettant à jour leur page Facebook. Cette « attention partielle permanente » et ses effets sur notre cerveau est un sujet qui fait actuellement largement débat dans les milieux pédagogiques. Sommes-nous en train de perdre notre capacité de concentration ou notre cerveau s’adapte-il à un afflux continu de stimuli ?

Un nouvel ouvrage traitant de ce sujet, « iBrain: Surviving the Technological Alteration of the Modern Mind, »[4] émet l’hypothèse que cette exposition au Web a des conséquences sur la façon dont le cerveau forge les chemins neuronaux. Câbler ainsi notre cerveau accroît notre capacité à trier les informations, à prendre des décisions rapides et à séparer le bon grain de l’ivraie numérique, mais en revanche, nous perdons de notre aptitude à nous concentrer de façon soutenue, à déchiffrer le langage corporel et à nous faire des amis dans le monde réel.

Si notre cerveau est réellement en train de modifier son câblage, la logique ne voudrait-elle pas que nous adaptions aussi notre façon d’enseigner aux élèves ? À vrai dire, ceux qui le pensent ne sont pas légion. La plupart des pédagogues, tel Richard Cairns, proviseur du Brighton College, un des meilleurs établissements privés d’Angleterre, estiment que posséder des bases de connaissances solides est essentiel. « Il est important que les enfants apprennent les faits. Si l’on ne peut puiser dans aucune réserve de connaissances, difficile de participer à un débat ou de prendre une décision éclairée, » affirme-t-il.

Et vous, qu’en pensez-vous ?

Notes

[1] On pourra lire à ce sujet les deux ouvrages de Bernard Stiegler : Prendre soin, de la jeunesse et des générations et La Télécratie contre la démocratie.

[2] Crédit photo : Jesse Gardner (Creative Commons By-Sa)

[3] La bataille d’Hastings est une date très importante dans l’histoire de l’Angleterre, puisque c’est celle du début de l’invasion de l’île par Guillaume le Conquérant. Un équivalent français pourrait être la prise de la Bastille.

[4] « iCerveau : survivre à l’altération de l’esprit moderne par la technologie. »