Geektionnerd : Debian Squeeze

L’un des trolls classiques et récurrents de la communauté consiste à se gausser de l’hypothétique date de sortie de la prochaine version de la mythique distribution GNU/Linux Debian.

Certes, mais ne vaut-il pas mieux arriver en retard qu’arriver en corbillard ?

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




De la motivation au sein d’une communauté

Il est fort probable que vous ayez déjà vu la vidéo ci-dessous. Elle m’est revenue en mémoire à la faveur du précédent billet De la confiance au sein d’une communauté dont elle lui fait en quelques sorte écho.

Cette vidéo me passionne dans le fond et dans la forme.

Le fond c’est son sujet, à savoir la motivation. Qu’est-ce qui nous motive au juste ?, se demande ici Dan Pink, en fustigeant l’efficacité des récompenses traditionnelles, argent en tête de gondole.

Pour vous la résumer, rien de tel que ce commentaire glané sur le site Rue89 :

« Des études comportementales scientifiques, indubitablement indépendantes du complot socialo-communiste mondial (MIT, unversité de Chicago et Carnegie, financées par la banque fédérale US), démontrent que, si l’amélioration de la productivité d’une tâche mécanique peut-être induite par sa récompense en terme de rémunération, ce n’est pas le cas des tâches cognitives et créatives.

Dans ce cas, le principe de la carotte est plutôt contre-productif. Pour les œuvres humaines plus compliquées que le travail à la chaine, en effet, les trois facteurs identifiés comme induisant une amélioration de la créativité, de la productivité et de la qualité sont :

  • Autonomy, qui se traduit comme ça se prononce.
  • Mastery, le développement personnel et la recherche de l’expertise.
  • Purpose, le but de l’activité, qui sera autant de motivation qu’il satisfait aux critères éthiques et moraux du collaborateur.

Ces résultats, outre qu’ils expliquent l’efficacité de modèles de développement coopératifs tels que Linux ou Wikipédia, remettent en question les dogmes du management, voire de notre modèle économique.

  • Taf à la con où humain = machine : motivation = thunes.
  • Taf intelligent où humain = 1 cerveau au bout des bras : motivation = autonomie + développement personnel + éthique.

C’est-à-dire le contraire de l’idéologie globalement à l’œuvre dans l’organisation de nos sociétés. »

Rien d’étonnant à ce que les deux plus célèbres projets libres soient cités en exemple parce qu’ils corroborent à merveille la théorie. On prend d’ailleurs bien soin de souligner que la participation à ces projets se fait après le boulot (alimentaire ?), sur notre temps libre.

Confiance et motivation ont assurément contribué à leur réussite. Et comme par hasard c’est ce qui semble faire le plus défaut aujourd’hui dans le monde du travail (cf par exemple les interventions de Bernard Stiegler sur la déprolétarisation et l’économie de la contribution).

Mais la forme de la vidéo est tout aussi remarquable, c’est-à-dire la mise en graphique, réalisée par la société londonienne Cognitive Media pour le compte de la RSA (Royal Society for the encouragement of Arts, Manufactures & Commerce), qui suit, illustre et structure visuellement en temps réel les propos de Dan Pink. Le dessin sollicite autrement la vue et donne sens à ce que l’on entend, apportant véritablement quelque chose en plus.

Il est vrai que cela a un côté un peu violent, parce qu’on est en quelque sorte bombardé d’informations multi-directionnelles. Mais ne pouvant prendre notre souffle, on est comme happé par l’exposé. Impossible d’en sortir ou de s’ennuyer, sauf à complètement se déconnecter.

À l’heure de la rentrée scolaire qui s’en vient à grands pas, l’enseignant que je suis trouve cette approche pédagogique extrêmement intéressante. Non seulement j’ai bien compris (alors que je n’ai qu’un piètre niveau d’anglais) mais je crois déjà, en une seule vision, en avoir retenu l’essentiel, sachant que, malgré la densité du discours, on fait tenir le tout en une dizaine de minutes top chrono[1] !

Et si jamais quelque chose vous a échappé, il suffit de la regarder à nouveau, quand vous voulez sur Internet, sans compter que, cerise sur le gâteau, vous obtenez à la fin un énorme, unique et cohérent poster de tous les dessins effectués prêt à être imprimé !

Le format est donc tout bonnement excellent (faudrait que Thierry Stœhr en consacre un billet sur son blog dédié, si ne c’est déjà fait).

Je me prends déjà à rêver d’une forge libre pleine à craquer de ce genre d’animations. Ce sont mes élèves qui seraient contents ! Mais aurait-on alors besoin des profs ? Si, oui, quand même un peu je pense 😉

D’ailleurs à ce propos, je suggère aux collègues d’anglais de trouver un prétexte pour montrer un jour cette vidéo à leurs lycéens, ça en vaut la peine et pourrait faire l’objet d’un intéressant débat dans la foulée, surtout si quelques uns ne savent pas encore ce qu’est Linux ou comment fonctionne Wikipédia.

Bon, il serait peut-être temps de la montrer, cette vidéo après une telle introduction…

—> La vidéo au format webm

URL d’origine de la vidéo sur RSA.org et au format Ogg sur TinyOgg.

Il en existe aussi une version sous-titrée en français, mais c’est presqu’alors impossible de suivre les dessins en direct live ! (mieux vaut plutôt écouter Dan Pink dire à peu près la même chose lors d’une conférences TED, autre format riche et pertinent).

Remarque : Il y a d’autres animations sur RSA.org sur des sujets aussi passionnants que l’empathie de notre civilisation, la question de l’éthique et de la charité et la crise du capitalisme.

Notes

[1] Note : L’article sur La Confiance a été peu parcouru, un commentaire me faisant de suite remarquer qu’il souffrait d’un syndrome qui affectie souvent ce blog, le syndrome TLDR, à savoir « Too Long; Didn’t Read » soit « Trop long pour être lu ». Il aurait dû lui aussi faire l’objet d’une telle animation !




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




Pourquoi je ne participerai pas au Concours Lépine

BookLiberatorTout le monde connaît ou tout du moins a déjà entendu parler du Concours Lépine. Il s’agit d’un concours annuel récompensant une invention originale.

Souvent la presse s’amuse à mettre en avant les projets un peu farfelus, comme cette toilette auto-nettoyantes pour chiens (sur tapis roulant) ou cette caravane qui tracte la voiture (et non l’inverse), mais d’autres ont été de véritables succès qui continuent de nous être grandement utiles : le stylo à bille, le moteur à deux temps, le fer à repasser à vapeur ou encore les verres de contact.

Maintenant la question du titre de ce billet.

Si je ne participerai jamais au Concours Lépine, c’est que je manque cruellement d’imagination, ai peu de sens pratique et suis un bien piètre bricoleur.

Mais il y a une autre raison. Pour s’inscrire au concours il faut « avoir une invention ou innovation protégée par un titre de propriété industrielle et/ou intellectuelle ». Dans tout dossier d’inscription, on vous demande invariablement votre « numéro de brevet ».

Le Concours Lépine a vu le jour en 1901. On comprend assez bien pourquoi tout au long du XXe siècle on ait eu besoin de cette condition.

Mais au XXIe siècle, avec les licences libres, Internet, les communautés, etc. est-on toujours obligé de conserver cette modalité ?

RepRap, Arduino… de plus en plus d’inventeurs envisagent dès le départ leur projet comme un projet libre et s’inscrivent alors dans une tout autre démarche (ce qui n’interdit en rien d’en faire profit).

C’est la réflexion que je me suis faite en tombant sur le BookLiberator (cf image ci-dessus), sorte de cage à numériser plus facilement les livres (cf cette vidéo pour tout de suite comprendre le principe).

C’est encore pas mal artisanal pour le moment et on ne peut pas vraiment dire que ce soit l’invention du siècle. Mais si ça s’améliore collectivement, si d’autres arrivent avec des projets d’appareils photos libres associés à de performants logiciels d’OCR libres, ça peut devenir fort intéressant. Sachant que c’est un élément de plus à ajouter dans la marmite des Biens Communs.

Et puis un jour, on aura ainsi dépassé Google Books sans même s’en apercevoir 😉

PS : Ceci étant dit, inventer un super truc, le breveter et vivre tranquillement des rentes de cette invention jusqu’au restant de mes jours (et même ma descendance après ma mort), ça pourrait être pratique pour financer Framasoft !




Le Libre Accès ou le retour de la Grande Conversation par Jean-Claude Guédon

« Pour partir de loin, je dirai que le Libre Accès répond a une situation de base importante, qui est que la science, globalement et mondialement, est une Grande Conversation.

Et ce processus de découvertes et d’inventions, que l’on trouve dans la science et la technologie d’ailleurs, repose sur la facilite de converser, d’échanger et de construire sur la base de choses antérieures et ainsi de site.

Or on est dans une situation où pour des raisons multiples, complexes et historiques largement, la conversation a été entravée, empêchée, diminuée, ralentie, rendue plus exclusive pour certains au détriment d’autres et ainsi de suite.

Et tout le mouvement du Libre Accès vise quelque part à restaurer les conditions optimales de cette Grande Conversation.

C’est-à-dire de permettre à n’importe qui a les moyens de lire ces textes d’une façon ou d’une autre, d’aller chercher ces textes facilement, de les consulter facilement, de travailler avec eux, d’élaborer d’autres textes, d’autres recherches, d’autres résultats, et ainsi de suite.

Donc le Libre Accès est simplement une manière de mettre en oeuvre un rêve ancien qui était celui de la République des Lettres et des Sciences du XVIIe siècle, qui était de créer une Grande Conversation avec un certains nombres de pairs. Les pairs en l’occurrence étant ces gens qui étaient égaux les uns aux autres par la façon dont ils avaient réussi à se former, à devenir des scientifiques, à travailler ensemble.

Le Libre Accès à lui tout seul ne résoudra pas tous les problèmes de la science contemporaine. Mais le Libre Accès déjà donne une première réponse partielle aux inégalités qui se sont développées graduellement dans le monde scientifique, dans la Républiques des Sciences, en donnant une chance nouvelle à cette Grande Conversation.

Et aussi en développant peut-être des possibilités tout à fait nouvelles pour la question de l’enseignement. Car évidemment quand on a accès aux derniers résultats de la recherche, on peut enseigner une science plus à jour, plus proche du fond de la recherche, et ainsi amener les étudiants plus près d’une capacité d’intervenir beaucoup plus forte… »

La suite de ce passionnant entretien avec Jean-Claude Guédon, ci-dessous en vidéo :

—> La vidéo au format webm

URL d’origine du document

Réalisation Alain Ambrosi – Image et montage Abeille Tard – Production Vecam / C&F éditions

Ce document est issue du très intéressant DVD, ou plutôt doculivre, Sciences & démocratie, véritable mémoire du premier Forum mondial éponyme qui s’est déroulé à Belém en janvier 2009. D’autres extraits sont disponibles sur le site du projet.

L’occasion pour nous de saluer et faire connaître l’excellent travail de la maison d’édition C & F Éditions animée entre autres par Hervé Le Crosnier.




Est-ce grave docteur quand Linux baisse et Ubuntu stagne dans Google Trends ?

Dans un récent billet intitulé Quel avenir pour Linux sur le poste de travail ?, Tristan Nitot posait la question suivante, que l’on peut aussi qualifiée de question qui tue : « Alors qu’on constate que le marché du PC est en fort déclin et que le téléphone mobile se profile comme étant le moyen d’accès à Internet premier pour une majorité de gens, Linux aura-t-il le temps de percer avant que la fenêtre d’opportunité ne se ferme ? Linux aura-t-il le temps de conquérir l’ordinateur de bureau avant que celui-ci ne devienne marginal ? »

Une chose est sûre, si l’on se fie à Google Trends, « Linux » est en spectaculaire déclin :

Google Trends - Linux

Voyez par vous-même

Pour rappel Google Trends « est un outil issu de Google Labs permettant de connaître la fréquence à laquelle un terme a été tapé dans le moteur de recherche Google, avec la possibilité de visualiser ces données par région et par langue » (source Wikipédia).

On pourrait se dire que peut-être est-ce à cause de l’irrésistible envolée d’Ubuntu. Mais non Ubuntu, quand bien même il ait rattrapé Linux, stagne aussi, jusqu’à baisser même sensiblement ces derniers temps :

Google Trends - Ubuntu

Voyez par vous-même

Les deux ensemble :

Google Trends - Linux + Ubuntu

Voyez par vous-même

Attention, cela ne signifie donc rien d’autre que le fait suivant : les internautes passant par le moteur de recherche Google tapent moins souvent les mots clés « Linux » et « Ubuntu » qu’avant. Et c’est tout.

Mais j’ai bien peur que cela soit quand même signifiant…




10 différences entre les OS libres Linux et BSD

Beastie - Logo BSDIl est trop rare que nous évoquions le système d’exploitation libre BSD (Berkeley Software Distribution). La dernière fois il s’agissait d’un billet consacré à l’histoire d’Unix, à l’occasion de son quarantième anniversaire.

Et c’est dommage parce que cela finit par laisser à penser qu’il n’existe que GNU/Linux dans le monde des OS libres. Or il y a aussi la famille BSD (FreeBSD, OpenBSD, NetBSD…), louée pour la propreté de son code, sa sécurité, sa fiabilité et sa stabilité, que l’on compare souvent à son « cousin » GNU/Linux justement, histoire de l’appréhender plus facilement et de mieux comprendre ce qui fait sa spécificité.

Si on le rencontre peu souvent sur ce blog, c’est aussi parce qu’il serait difficile de le conseiller de prime abord à un utilisateur lambda pour sa machine personnelle, surtout si ce dernier provient de l’univers Windows. La matériel est moins bien et moins vite supporté, il y a moins d’applications disponibles et il se destine surtout au monde des serveurs. Mais rien ne dit qu’un jour, vous aussi…

Ce billet s’adresse donc à tous les curieux et plus particulièrement à ceux qui se sont déjà frottés de près ou de loin à une distributions GNU/Linux. Il s’adresse également aux experts et aux aficionados de BSD qui sont cordialement invités à témoigner, compléter et surtout critiquer l’article et ses arguments dans les commentaires.

D’autant plus que l’auteur propose en conclusion une classification des OS en fonction de la maîtrise de leurs utilisateurs qui ne fera sans doute pas l’unanimité !

Remarque 1 : Le personnage ci-dessus s’appelle Beastie (bi-esse-di), c’est la mascotte BSD et il représente un charmant petit démon, oups, je veux dire daemon.

Remarque 2 : Il y a du BSD dans Mac OS X, comme aiment à la rappeler certains Macfans et les geeks qui, ayant adopté cet OS, « culpabilisent » moins ainsi 😉

10 différences entre Linux et BSD

10 differences between Linux and BSD

Jack Wallen – 4 août 2010 – TechRepublic
(Traduction Framalang : Loque huaine et Mathieu)

Malgré une tendance courante à minimiser leurs différences, Linux et BSD ont un certain nombre de caractéristiques qui les distinguent. Jack Wallen attire l’attention sur plusieurs différences importantes.

Combien de fois avez-vous déjà entendu les gens mettre Linux et n’importe quel BSD dans le même panier ? Bien sûr, il existe un grand nombre de similarités entre Linux et BSD : ils sont tous les deux basés sur UNIX. Dans l’ensemble, les deux systèmes sont développés par des organisations à but non lucratif. Et je dois dire que Linux comme les variantes BSD ont un but commun : créer le plus utile et le plus fiable des systèmes d’exploitation qui soit.

Toutefois, il y a aussi des différences significatives. Et quand les gens n’y font pas attention, c’est toute la communauté BSD qui frissonne de colère. Aussi, j’ai pensé que je pourrais aider mes frères de BSD et expliquer un peu en quoi Linux est différent de BSD.

1. Licences

Comme nous le savons tous, le système d’exploitation Linux est sous licence GPL. Cette licence est utilisée pour empêcher l’inclusion de logiciels aux sources fermées et pour assurer la disponibilité du code source. La GPL essaye d’empêcher la distribution de sources sous forme de binaires seulement.

La Licence BSD est bien moins restrictive et autorise même la distribution de source sous forme de binaires. La principale différence peut cependant être vue de la façon suivante : la GPL vous donne le droit d’utiliser le logiciel de n’importe quelle façon, mais vous DEVEZ vous assurer que le code source est disponible pour la prochaine personne qui utilisera le logiciel (ou votre variante du logiciel). La licence BSD n’exige pas que vous soyez sûr que la prochaine personne qui utilise (ou modifie votre code) rende ce code disponible.

2. Contrôle

Le code BSD n’est pas « contrôlé » par une personne en particulier, ce que beaucoup de gens voient comme un gros plus. Alors que le noyau Linux est principalement contrôlé par Linus Torvalds (le créateur de Linux), BSD n’est pas régi par une personne unique dictant ce qui peut ou ne peut pas aller dans le code. À la place, BSD utilise une « équipe centrale » (NdT : core team) pour gérer le projet. Cette équipe centrale a un droit de parole dans la direction du projet plus important que celui des autres membre de la communauté BSD.

3. Noyau contre système d’exploitation

Le projet BSD maintient un système d’exploitation entier, alors que le projet Linux se focalise principalement sur le seul noyau. Ce n’est pas aussi fondamental que ça en a l’air parce qu’un grand nombre d’applications qui sont utilisées le sont sur les deux systèmes d’exploitation.

4. UNIX-like

Il y a un vieux dicton à propos de BSD contre Linux : « BSD est ce que vous obtenez quand une poignée d’hackers UNIX se rassemblent pour essayer de porter un système UNIX sur un PC. Linux est ce que vous obtenez quand une poignée d’hackers PC se rassemblent et essaient d’écrire un système UNIX pour le PC » (NdT : BSD is what you get when a bunch of UNIX hackers sit down to try to port a UNIX system to the PC. Linux is what you get when a bunch of PC hackers sit down and try to write a UNIX system for the PC).

Cette expression en dit long. Ce que vous pourrez constater, c’est que les BSD ressemblent beaucoup à UNIX parce qu’ils sont en fait des dérivés directs du traditionnel UNIX. Linux, en revanche, était un OS nouvellement créé, vaguement basé sur un dérivé d’UNIX (Minix, pour être précis).

5. Systèmes de base

Ce point est crucial pour comprendre les différences entre BSD et Linux.

Le « système de base » pour Linux n’existe pas vraiment, puisque Linux est un conglomérat de systèmes plus petits qui s’imbriquent ensemblent pour former un tout. La plupart diront que le système de base de Linux est le noyau. Le problème c’est qu’un noyau est plutôt inutile sans aucune application utilisable. BSD en revanche, a un système de base comprenant de nombreux outils — même libc fait partie du système de base. Parce que ces pièces sont toutes traitées comme un système de base, elles sont toutes développées et packagées ensemble. D’aucun argueront du fait que cela crée un tout plus cohésif.

6. Plus à partir des sources

À cause de la façon dont BSD est développé (en utilisant le système de Ports), davantage d’utilisateurs ont tendance à installer à partir des sources plutôt que de paquets binaires pré-empaquetés.

Est-ce un avantage ou un inconvénient ? Cela dépend des individus. Si vous êtes adepte de la simplicité et de la convivialité, vous vous en détournerez. Ceci est particulièrement vrai pour les nouveaux utilisateurs. Peu de nouveaux utilisateurs veulent avoir à compiler à partir des sources. Cela peut engendrer une distribution pataude. Mais installer à partir des sources a aussi ses avantages (gestion des versions des bibliothèques, construction de paquets spécifiques au système, etc.).

7. Changements de version

Grâce à la façon dont BSD est développé (voir le point 5), vous pouvez mettre à jour l’ensemble de votre système de base vers la plus récente des versions avec une seule commande. Ou bien vous pouvez télécharger les sources de n’importe quelle version, les décompresser, et compiler comme vous le feriez pour n’importe quelle autre application. Avec Linux, vous pouvez aussi changer un système de version en utilisant le gestionnaire de paquets du système. La première façon ne mettra à jour que le système de base, la seconde mettra à jour l’ensemble de l’installation. Rappelez-vous cependant que passer à la nouvelle version du système de base ne veut pas dire que tous vos paquets supplémentaires seront mis à jour. Alors qu’avec les mises à jour de version de Linux, tous vos paquets bénéficieront du processus de mise à niveau. Est-ce que cela signifie que la façon de faire de Linux est meilleure ? Pas nécessairement. J’ai vu de mes propres yeux une mise à jour Linux qui s’est horriblement mal passée, nécessitant la réinstallation du système tout entier. Cela a beaucoup moins de chances de se produire avec un changement de version BSD.

8. Dernier cri

Il est peu probable que vous voyiez un BSD exécuter la toute dernière version de quoi que ce soit. Linux au contraire, a beaucoup de distributions qui offrent les dernières versions des paquets. Si vous êtes fan du « Si ce n’est pas cassé, ne le corrigez pas » (NdT : If it isn’t broken, don’t fix it), vous serez un grand fan de BSD. Mais si vous êtes du genre à avoir besoin que tout soit le plus récent possible, vous feriez mieux de migrer vers Linux aussi vite que possible histoire de ne pas être à la traîne.

9. Support matériel

Vous constaterez, en général, que Linux supporte le matériel bien plus tôt que BSD. Ça ne veut pas dire que BSD ne supporte pas autant de matériel que Linux. Ça veut juste dire que Linux le supporte avant BSD (dans certains cas, BIEN avant BSD). Donc si vous voulez la toute dernière carte graphique, ne pensez même pas à BSD. Si vous voulez le nouveau portable qui en jette avec un chipset sans-fil dernier cri, vous aurez plus de chance avec Linux.

10. Communauté d’utilisateurs

Je vais me risquer ici à généraliser sur les utilisateurs d’ordinateurs. En préambule je dirai qu’il y a des exceptions à TOUTES les règles (ou généralités, dans le cas présent). Mais je vous présente ma généralisation sur la répartition des distributions en fonction des utilisateurs. De la gauche vers la droite on passe des utilisateurs maîtrisant le moins un PC à ceux le maîtrisant le plus. Comme vous pouvez le constater, Linux est au milieu, alors que BSD penche plus sur la droite. Beaucoup ne seront pas d’accord ; certains en seront même offensés. Mais c’est d’après moi une généralité assez juste sur l’usage du système d’exploitation selon l’utilisateur.

Mac —–> Windows —–> Linux —–> BSD —–> UNIX

Autres différences ?

Cette liste n’est en aucune façon destinée à dire que l’un est meilleur que l’autre. Je trouve que BSD et Linux ont chacun leur place. Et vous ?

Trouvez-vous les différences entre Linux et BSD assez significatives pour préférer rester sur l’un plutôt que l’autre ? Avez-vous essayé les deux ? Qu’est-ce qui vous fait préférer l’un par rapport à l’autre ? Argumentez, et faites connaître votre opinion à vos amis lecteurs.




Le Loup et le Chien

Simaje - CC byLe petit garçon s’ennuyait tout seul chez lui.

Il avait un devoir scolaire à faire pour le lendemain mais il préférait contempler le panorama, par la fenêtre du douzième étage de son appartement : trois barres d’immeuble identiques au sien entourant un parking et un parc, les murs de la résidence, plus loin la route et puis encore plus loin la rivière qu’il aimait bien, même si on ne pouvait plus s’y baigner l’été. Trop polluée avaient dit les autorités.

La vue n’avait rien d’extraordinaire en soi mais elle lui était familière. Et puis c’était amusant de voir tout ça de si haut perché.

Il y avait des enfants qui jouaient juste en bas, dans le parc. Il en connaissait quelques uns. Mais il n’avait pas le droit de les rejoindre. Sa maman disait que ce n’était pas sûr et que c’était de « mauvaises fréquentations ».

Il trouvait que sa maman exagérait parce que tout cela se passait à l’intérieur de la résidence. Une résidence protégée par une enceinte et contrôlée en son unique point d’entrée par un gardien et des caméras de surveillance. En plus chaque immeuble avait ses propres caméras, et pour y pénétrer il y avait un digicode puis un interphone. Le code changeait souvent mais en ce moment c’était « 3142 ». C’est drôle, non, la valeur approchée de Pi arrondie au millième ! Il était fier d’avoir trouvé cela tout seul.

Bon, alors, ce devoir scolaire… Il n’avait pas vraiment d’excuses parce que, contrairement à d’habitude, c’était pas mal intéressant. Il fallait apprendre par coeur la fable de La Fontaine Le Loup et le Chien.

C’est l’histoire d’un loup qui jalouse la vie tranquille et confortable d’un chien jusqu’à ce qu’il découvre que « le prix à payer pour sa sécurité c’est d’être tenu en laisse ». C’est la maîtresse qui disait cela comme ça et c’est vrai qu’elle formulait bien les choses la maîtresse.

Quand elle l’a lu pour la première fois devant nous, elle a posé le livre, s’est assurée que tout le monde avait bien compris et elle a demandé si on préférait le loup ou le chien. Au début, c’était un peu le silence dans la classe. On cherchait surtout à savoir ce que la maîtresse voulait qu’on réponde. Et quand on a pigé qu’elle voulait justement qu’on soit pas d’accord, alors on s’est détendu et on a répondu comme on voulait. Moi, j’ai choisi le chien mais j’étais bien content que la maîtresse ne me demande pas pourquoi.

Le problème, c’est que même quand je les aime bien, je ne suis pas très fort en poésie. Je retiens pas tout et j’ai du mal à me concentrer longtemps sur une tâche. Je le sais puisque c’est ce qu’on me dit depuis la maternelle.

Alors le petit garçon se remit à sa fenêtre. Et il vit alors plusieurs caravanes s’engager puis parcourir lentement la route…

Ils s’en vont, pensa-t-il spontanément. Et cela ne l’étonna pas.

C’est normal, non, pour des « gens du voyage » de s’en aller ailleurs au bout d’un moment ! Sauf que là, il en était sûr, le départ avait été un peu forcé. Et puis d’abord on ne dit pas gens du voyage mais Roms.

Il avait appris cela – et d’autres choses encore comme la signification des mots « nomade » et « sédentaire » – parce que depuis leur arrivée, un mois auparavant, on en parlait souvent dans le quartier, à l’école et même à table avec les parents. On en parlait souvent mais on n’en parlait pas avec eux.

Ils s’étaient installés pas loin, à quelques centaines de mètres, mais là encore interdiction familiale formelle d’aller y voir de plus près. Pourtant, maman, contrairement à papa, elle en disait plutôt du bien à table. Elle disait que c’était une communauté ancestrale, avec une riche culture, qui se montrait solidaire et ne s’était pas perdue dans l’individualisme et le consumérisme, et que c’était à nous de nous adapter et non l’inverse. Alors papa lui souriait et lui répondait qu’il ne tenait qu’à elle de tous les inviter ce soir à dormir dans notre salon. Et maman, ça n’avait pas l’air de l’amuser que papa dise ça. Elle répondait un peu énervée qu’il fallait qu’il arrête de faire son malin et que c’était de la « responsabilité des pouvoirs publics », expression que j’avoue je ne comprenais pas bien – « individualisme » et « consumérisme » non plus d’ailleurs – mais vu l’état de maman, ce n’était vraiment pas la peine d’en rajouter.

C’est dommage parce que je lui aurais bien aussi demandé sur le ton de la provocation pourquoi on disait souvent à la récré que « c’étaient tous des voleurs » ! Moi j’y croyais pas, même si je me demandais comment ils faisaient pour vivre. Faut dire que je me posais aussi d’autres questions moins importantes à leur sujet. Je me disais par exemple qu’ils n’avaient sûrement pas de connexion Internet et que ça doit faire bizarre aujourd’hui de vivre sans. D’ailleurs, nous aussi on est des voleurs. Ben oui, puisqu’on télécharge tous sur Internet !


En tout cas, ils avaient éprouvé toutes les peines du monde à s’installer de manière provisoire quelque part. Même quand le terrain était vide depuis des années, il possédait toujours un propriétaire. Et celui-ci ne tardait pas à se manifester pour refuser vigoureusement leur venue et leur demander plus ou moins gentiment de quitter les lieux. On les avait ainsi déjà déplacés quatre fois. Et c’était visiblement une fois de trop.

Voici donc tout ce que se disait le petit garçon, le nez collé à la fenêtre, en voyant défiler cet étrange cortège.

Il y avait des gens qui marchaient à côté des caravanes, sans se dire un mot, ou alors doucement parce qu’on n’entendait rien de loin. Lorsque la dernière caravane disparut de son champ de vision, il resta un moment suspendu puis se souvint qu’il avait une poésie à mémoriser.

À la réflexion, il se dit qu’il préférait peut-être le loup finalement.

Crédit photo : Simaje (Creative Commons By)