De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




Le Libre Accès ou le retour de la Grande Conversation par Jean-Claude Guédon

« Pour partir de loin, je dirai que le Libre Accès répond a une situation de base importante, qui est que la science, globalement et mondialement, est une Grande Conversation.

Et ce processus de découvertes et d’inventions, que l’on trouve dans la science et la technologie d’ailleurs, repose sur la facilite de converser, d’échanger et de construire sur la base de choses antérieures et ainsi de site.

Or on est dans une situation où pour des raisons multiples, complexes et historiques largement, la conversation a été entravée, empêchée, diminuée, ralentie, rendue plus exclusive pour certains au détriment d’autres et ainsi de suite.

Et tout le mouvement du Libre Accès vise quelque part à restaurer les conditions optimales de cette Grande Conversation.

C’est-à-dire de permettre à n’importe qui a les moyens de lire ces textes d’une façon ou d’une autre, d’aller chercher ces textes facilement, de les consulter facilement, de travailler avec eux, d’élaborer d’autres textes, d’autres recherches, d’autres résultats, et ainsi de suite.

Donc le Libre Accès est simplement une manière de mettre en oeuvre un rêve ancien qui était celui de la République des Lettres et des Sciences du XVIIe siècle, qui était de créer une Grande Conversation avec un certains nombres de pairs. Les pairs en l’occurrence étant ces gens qui étaient égaux les uns aux autres par la façon dont ils avaient réussi à se former, à devenir des scientifiques, à travailler ensemble.

Le Libre Accès à lui tout seul ne résoudra pas tous les problèmes de la science contemporaine. Mais le Libre Accès déjà donne une première réponse partielle aux inégalités qui se sont développées graduellement dans le monde scientifique, dans la Républiques des Sciences, en donnant une chance nouvelle à cette Grande Conversation.

Et aussi en développant peut-être des possibilités tout à fait nouvelles pour la question de l’enseignement. Car évidemment quand on a accès aux derniers résultats de la recherche, on peut enseigner une science plus à jour, plus proche du fond de la recherche, et ainsi amener les étudiants plus près d’une capacité d’intervenir beaucoup plus forte… »

La suite de ce passionnant entretien avec Jean-Claude Guédon, ci-dessous en vidéo :

—> La vidéo au format webm

URL d’origine du document

Réalisation Alain Ambrosi – Image et montage Abeille Tard – Production Vecam / C&F éditions

Ce document est issue du très intéressant DVD, ou plutôt doculivre, Sciences & démocratie, véritable mémoire du premier Forum mondial éponyme qui s’est déroulé à Belém en janvier 2009. D’autres extraits sont disponibles sur le site du projet.

L’occasion pour nous de saluer et faire connaître l’excellent travail de la maison d’édition C & F Éditions animée entre autres par Hervé Le Crosnier.




Les AMAP : c’est quoi ? c’est bien !

Mzelle Biscotte - CC by-saIl y a quelques semaines, nous tentions une nouvelle escapade parmi les Hors-sujet… ou presque du blog en vous parlant de Couchsurfing, cette pratique sociale et solidaire qui prend le contre-pied des canons de la société de consommation, et remise au goût du jour par le réseau des réseaux.

Aujourd’hui, nous poursuivons l’exploration en évoquant une autre pratique solidaire aux valeurs humanistes proches de celles portées par le logiciel libre.

Il ne s’agit pas d’un site ou d’un projet, mais d’un véritable phénomène de société, émergeant enfin en France : les AMAP. Ces Associations pour le Maintien d’une Agriculture Paysanne, poussent en effet comme des champignons et il est fortement probable qu’elles soient déjà plus nombreuses que les GUL[1] en France comme on peut s’en convaincre en se promenant sur le site Réseau-AMAP.org[2].

Les AMAP proposent tout simplement une autre façon de faire ses courses alimentaires. À l’image de l’émergence de GNU/Linux et des logiciels libres face à Windows et aux logiciels privateurs, les AMAP se composent d’hommes et de femmes qui ont décidé de s’organiser pour ne plus subir un système jugé déloyal, représenté par les coopératives agricoles et la grande-distribution, qui imposent aux paysans une agriculture intensive et polluante, tout en achetant à des prix irresponsablement bas des denrées que le consommateur paye au prix fort.

Ensemble, ils ont imaginé une autre solution, et elle fonctionne tellement bien qu’aujourd’hui, que l’on profite de l’air pur de la campagne, ou du bruit des villes, on a sûrement une AMAP à proximité. Et si elle se révèle trop éloignée, c’est qu’il y a la place pour en créer une nouvelle plus près 🙂

D’ailleurs, une fois qu’on a pris l’habitude de ne plus consommer passivement, tout s’illumine !

Voyez par vous-même : en se rapprochant du G.U.L. le plus proche, on installe un système d’exploitation libre sur sa machine, et rapidement au fil des discussions, on lance le site FDN dans son Firefox. De là, on libère sa connexion Internet et on commence à produire l’Internet qu’on consomme… Dès lors, pour peu qu’on aide à tenir le stand de l’association (par exemple au Village du Libre de la fête de l’Huma) on risque fortement de rencontrer d’autres membres qui vous présentent à leur tour : Énercoop, la coopérative d’intérêt collectif des producteurs et consommateurs d’électricité 100% renouvelable, qui permet de s’affranchir d’EDF. Et finalement, lorsqu’on a décidé d’avancer tant que la voie serait libre, on se rend compte que la route s’allonge sous les pieds, sans cul de sac, jusqu’à trouver naturel de prévenir son AMAP qu’on ne viendra pas chercher son panier pendant deux semaines puisqu’on s’évade en co-voiturage pour des vacances à l’aventure en Couchsurfing, ou avec les enfants en club CPN

Je vous présente donc « Framap », l’innocent nouveau projet de Framasoft, qui tient en un billet de blog…

Un article rédigé à Kervelgan près de Baud en Bretagne, par mon frère Denys. Et attention, Daphné K. n’a qu’à bien se tenir car il est lui aussi guitariste et poète à ses heures !

Framap : Favoriser la Reconnaissance des « Association pour le Maintien d’une Agriculture Paysanne »

Denys Descarpentries – 19 août 2010

Dans un monde où les entreprises seraient délocalisées pour augmenter les profits des grands actionnaires, dans un monde où les agriculteurs n’auraient d’autre choix pour survivre que de s’agrandir et de produire de façon intensive, à grand renfort d’engrais et de pesticides ; dans un monde qui ressemblerait étrangement au nôtre donc, quels seraient les leviers d’action des consommateurs non consentants ?

Une piste qui a fait ses preuves est celle des « consom’acteurs » qui se réunissent en AMAP (Associations pour le Maintien d’une Agriculture Paysanne) et s’émancipent des circuits de grande-distribution, tout en mangeant bon et bio.

Le principe des AMAP est relativement simple. Il s’agit de mettre en relation un groupe de consommateurs et une ou plusieurs fermes locales, pour organiser une distribution hebdomadaire de paniers, composés de « produits de la ferme ». C’est un contrat solidaire entre d’un côté des producteurs qui s’engagent à nous fournir toutes les semaines des produits bio et d’un autre des consommateurs qui paient à l’avance la totalité de leur consommation pour une période donnée[3].

En ce qui me concerne, je suis adhérent d’une AMAP avec mon amie depuis deux ans. Nous nous fournissons en légumes, lait, produits laitiers (beurre, fromages, crème fraîche, desserts…), en pain, œufs, miel, jus de pomme et en cidre (et oui, nous habitons en Bretagne ^^). Nous avons un contrat avec chacun des 7 producteurs membres de l’AMAP et les intérêts que nous y trouvons sont nombreux. Je vais les classer en trois catégories : les aspects économiques, environnementaux et sociaux (les initiés remarqueront au passage qu’il s’agit là des trois piliers du développement durable…!).

L’aspect économique

Pour les producteurs adhérents, l’aspect économique est le plus important. Le fait de recevoir la totalité des paiements au début de chaque période permet aux agriculteurs de compter sur une trésorerie suffisante pour réaliser des investissements lourds. Ces investissements sont nécessaires pour faire évoluer leur outil de travail, et à plus forte raison en agriculture biologique où les techniques d’élevage et de culture sans « produit artificiel » et dans le respect du bien-être des animaux demandent des outils spécifiques.

Pour les « amapiens » que nous sommes, il s’agit en revanche du point le plus délicat. En effet cela demande de faire un chèque environ tous les 6 mois, ce qui représente une grosse sortie d’argent à prévoir dans le budget. En fonction des AMAP, il est tout de même possible de faire plusieurs chèques pour un même producteur et d’étaler ainsi les versements.

Concernant le budget alimentation, il faut bien se rendre compte d’une part que les produits bio achetés à l’AMAP ne sont pas plus chers que sur les marchés et si vous habitez en ville, ils sont même moins chers que dans les grandes surfaces. Et ensuite, que même s’il faut toujours se rendre dans les magasins pour acheter les produits qui ne sont pas proposés par l’AMAP (tout bonnement le « non alimentaire »), les passages en supermarché sont beaucoup moins fréquents. Cela entraîne des économies de déplacement et une baisse notable des achats impulsifs des lots en super promo exposés en tête de gondole ou des produits qu’on ne pensait pas acheter avant d’entrer dans le magasin mais sur lesquels on craque quand on a le malheur d’aller faire les courses le ventre vide… Au final, nous observons que notre budget pour les courses n’a pas changé, alors que désormais nous mangeons bio et que nous contribuons activement à tous les autres aspects développés dans cet article.

Le dernier aspect économique (et non le moindre) c’est que les producteurs de l’AMAP sont des producteurs locaux. Cela permet de maintenir un tissu économique autour de chez nous, évite de passer par des intermédiaires qui s’enrichissent sur notre dos et celui des agriculteurs et cela réduit les coûts environnementaux liés aux transports des marchandises par camion ou pire, par avion. Il s’agit donc de lutter à notre échelle contre une forme de délocalisation bien réelle : celle des productions agricoles. D’ailleurs, soit dit en passant, lorsqu’on achète des produits en supermarché la logique reste la même : mieux vaut accorder sa préférence aux fruits et légumes du terroir, ou à défaut « origine France », par rapport aux autres provenances. Mais nous débordons déjà là sur le second aspect.

L’aspect environnemental

Il s’agit de l’aspect le plus facilement identifiable des AMAP. Les producteurs qui nous fournissent s’inscrivent dans une démarche d’agriculture biologique. Ils conduisent leurs cultures sans utiliser de produits synthétiques polluants tels que les engrais de laboratoire et les pesticides (herbicides, insecticides, fongicides, etc…). Pour la conduite des animaux, les hormones et les antibiotiques sont interdits et le bien-être animal est également un critère d’évaluation à respecter pour être labellisé.

Une autre facette de l’aspect environnemental se trouve dans la sauvegarde de la biodiversité. Les producteurs n’étant pas soumis aux contraintes de la grande distribution, ils peuvent « se faire plaisir » en cultivant des légumes méconnus[4] ou d’anciennes variétés presque oubliées (à l’heure des productions intensives et uniformisées) malgré leurs qualités. Je vous recommande de tester certaines espèces de tomates roses et biscornues[5] absolument délicieuses mais délaissées car ne répondant pas aux standards « toute ronde et bien rouge » ! Ou encore les délicieuses chips de panais, une espèce de grosse carotte blanche et savoureuse. Cette découverte de nouveaux légumes dans les paniers s’apparente un peu à ouvrir les « dragées surprises de Bertie Crochue » dans Harry Potter : on ne sait pas sur quoi on va tomber ! Des fois on aime, et parfois moins… Heureusement, il y a un panier d’échange où l’on peut remplacer ce qu’on n’aime pas par des légumes qu’on préfère, à condition d’y avoir goûté au moins une fois ! D’ailleurs nous sommes régulièrement surpris avec mon amie par la saveur des légumes bio, tellement meilleurs que ceux qu’on trouve dans le commerce (et ce n’est pas un cliché).

Quand le panier contient des espèces méconnues, notre producteur (qui est un passionné), accompagne toujours le sac d’un petit mot pour expliquer de quelle variété de légume il s’agit, préciser son histoire et indiquer comment le cuisiner facilement. Ainsi, il s’agit non seulement de faire revivre certaines espèces mieux adaptées à nos sols et à nos climats, mais également de piquer les curiosités, ajoutant toujours un peu de surprise à la découverte de la composition du panier de la semaine.

L’aspect social

Après avoir détaillé les aspects les plus matériels de l’affaire, abordons maintenant ce volet, un peu plus « bonus », un peu moins quantifiable, mais où pour ma part, je trouve aussi mon compte : l’aspect social. Tout d’abord, quand on est enfermé toute la journée chez soi et que l’on ne voit quasiment personne (quand on travaille à domicile par exemple, ou quand on cherche du travail), c’est pas plus mal d’avoir rendez-vous avec son panier de courses et donc avec les autres adhérents de l’AMAP par la même occasion. Comme ça on sort un peu de la maison (au moins une fois dans la semaine…) et on rencontre des personnes qui partagent des valeurs communes. Comme la distribution en elle-même est assez rapide, ça laisse du temps pour engager des discussions. Les profils classiques que l’on rencontre sont des couples d’enseignants (souvent à l’origine de la création de l’AMAP), beaucoup de jeunes dans la trentaine [6], des actifs de la classe moyenne (si si, il y en a encore) et bien sûr des écologistes convaincus.

Ensuite, pour approfondir les connaissances et surtout pour faciliter le bon déroulement des distributions, tous les adhérents sont conviés à s’inscrire à tour de rôle pour prêter main-forte aux agriculteurs, au moins une fois par semestre. On s’inscrit par trinôme, en fonction des places disponibles, ce qui nous amène à passer l’heure de distribution avec d’autres personnes et à voir défiler l’ensemble des adhérents (dont certains qu’on ne verrait pas autrement à cause des impératifs horaires propres à chacun). Les missions des « amapiens » de permanence sont : d’aider les producteurs à installer les tables, de porter les produits (cagettes, bidons de lait…) des camionnettes jusqu’aux tables, de peser les légumes et de les mettre en sachet pour gagner du temps pendant la distribution, puis de tout débarrasser à la fin. Cela nous permet également de voir l’envers du décors et de participer au groupe.

Enfin, nous sommes invités occasionnellement (une à deux fois par semestre) à venir apporter notre aide directement sur la ferme d’un des producteurs adhérents. Cela présente plusieurs avantages pour chaque partie. Tout d’abord c’est un renfort bienvenu pour l’agriculteur (arrachage de mauvaises herbes, récolte de plants de pomme de terre…). C’est également l’occasion pour l’agriculteur de nous présenter sa ferme et comment il travaille, et on est bien entendu invité à poser toutes nos questions. Mais c’est surtout un bon prétexte pour prendre l’apéro tous ensemble après le travail et la visite, puis de sortir les salades, les tartes au fromage de chèvre ou les pains d’épices que chacun a préparé chez lui la veille (avec les produits de l’AMAP évidemment) et de se faire un bon repas dans une ambiance conviviale, au soleil (même en Bretagne) à la campagne, en échangeant nos convictions associatives (et nos meilleures recettes).

C’est dans ce contexte et dans cette ambiance qu’en fonction de l’âge et du dynamisme de l’AMAP, d’autres services peuvent se mettre en place. Nous avons par exemple commencé cette année un service de « prêts de matériel » pour des outils qu’on n’a pas forcément tous chez soi (taille-haies, perceuses…). C’est vraiment le côté associatif de l’AMAP qui ressort. D’ailleurs dans le même état d’esprit, un des derniers courriels en date qui a circulé dans notre AMAP proposait de s’intéresser à la possibilité d’héberger soi-même sa boîte aux lettres électronique via une connexion Internet du fournisseur d’accès « dont vous êtes le héros », un certain FDN.fr[7].

Conclusion

Pour conclure ce billet, je ne serais pas tout à fait honnête si je ne vous faisais pas part des quelques inconvénients que j’ai pu constater au cours de mes deux années d’AMAP. Tout d’abord, comme je l’ai déjà mentionné, il faut payer tous les paniers au début du semestre. Au moins le budget est fixe, et puis c’est un réel atout pour les petits producteurs, mais il faut pouvoir sortir l’argent.

Ensuite, on ne sait pas à l’avance ce qu’on va avoir dans son panier… Mais une chose est sûre, ce sont des produits bios et ce sont des produits de saison (ce qui permet au passage d’apprécier à nouveau le rythme des saisons : non, on ne mange pas de haricots verts en hiver !).

Enfin, il n’y a presque pas de pause dans les distributions. Les agriculteurs prennent rarement de vacances et donc il faut être là toutes les semaines pour la distribution car on n’est pas remboursé d’un panier que l’on n’a pas pu venir chercher. Une solution consiste à proposer son panier à quelqu’un d’autre quand on n’est pas là… on peut donc faire passer un mot à l’AMAP la semaine précédente pour savoir si quelqu’un est intéressé pour le racheter, mais c’est quand même quelque chose à prévoir. Avec mon amie, on préfère offrir le panier à nos voisins, pour leur faire découvrir le concept et peut être les compter prochainement comme de nouveaux adhérents 🙂

Car, si la voie est libre, la route est encore longue…

Notes

[1] Trois sites qui recensent les Groupes d’Utilisateurs de GNU/Linux en France : l’annuaire de l’AFUL, l’InterLUG, et l’initiative TrouveTonGUL.

[2] Crédit photo : Mzelle Biscotte (Creative Commons By-Sa)

[3] Il y a souvent deux saisons de production : « printemps/été » et « automne/hiver ».

[4] Voici un lien vers le blog de l’association « Le Sens de l’Humus » qui expérimente différentes méthodes d’agriculture biologique autour des murs à pêche de Montreuil. Vous y trouverez plusieurs billets présentant ces « légumes méconnus ».

[5] Tomates rose de Berne

[6] En majorité des filles, et pas forcément en couple 😉

[7] Note de Siltaar : et cette anecdote authentique n’est pas de mon fait !




Geektionnerd : La poule aux oeufs d’Oracle

La société Oracle est dans l’œil d’un cyclone actuellement. Et les craintes liées au rachat de Sun l’année dernière ne cessent de se confirmer.

C’est en effet Sun qui développait la solution libre OpenSolaris (cf cette news ZDNet) et qui possédait les brevets Java dont il est question ci-dessous (cf cette news LinuxFr).

On se demande dès lors à quelle sauce la suite bureautique libre OpenOffice.org, elle aussi chapeautée par Sun, va être mangée !

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




La démocratie 2.0 à l’œuvre en France pour défendre la neutralité du réseau

Codice Internet - cc-by-saSujet récurrent depuis maintenant de nombreuses années, la Neutralité du Net, principe pourtant fondateur de l’Internet, est de plus en plus menacée. En France, plusieurs lois récentes l’attaquent, comme la Hadopi, la Loppsi ou l’Arjel. Mais c’est le cas partout en Europe, comme au Royaume Uni, en Allemagne ou en Italie. Et finalement, le reste du monde n’est pas non plus dans une ère favorable aux libertés comme on le constate en Australie ou en Nouvelle-Zélande, ainsi que dans beaucoup d’autres démocraties et de non-démocraties. La Neutralité du Net n’existe tout simplement plus en Chine ou en Iran ainsi que dans d’autres pays qui tentent ouvertement de contrôler l’opinion publique.

Les enjeux de cette Neutralité sont considérables, tant sur un plan économique, que politique et culturel. C’est l’existence même du réseau qui est en cause, car la Neutralité du Net c’est la prévention des discriminations à l’égard de la source, de la destination et du contenu de l’information transmise via le réseau.

Préserver cette situation de non-privilèges dans les télé-communications pourrait être naturel pour tous, mais ça ne l’est apparemment pas pour les fournisseurs d’accès à Internet, quand bien même la loi française définit la neutralité des réseaux de communication de manière claire et sans équivoque :

Article L32-1 du Code des Postes et communications électroniques :
II.-Dans le cadre de leurs attributions respectives, le ministre chargé des communications électroniques et l’Autorité de régulation des communications électroniques et des postes (note: ARCEP) […] veillent :
« 5° Au respect par les opérateurs de communications électroniquesdu secret des correspondances et du principe de neutralité au regard du contenu des messages transmis, ainsi que de la protection des données à caractère personnel; »
« 13° Au respect de la plus grande neutralité possible, d’un point de vue technologique, des mesures qu’ils prennent […] »

C’est cette liberté de transmission qui met tous les utilisateurs d’Internet sur un pied d’égalité, qui donne la même chance à tout le monde (qu’on soit une multinationale ou un artisan local) et qui permet à tous de recevoir et de distribuer l’information de son choix, et ce, quelques soient ses ressources financières ou son statut. C’est grâce à cette « neutralité » que de petites entreprises peuvent se faire connaître sur la toile et que les petits projets libres peuvent se développer. C’est comme ça que sont apparus Microsoft (un lecteur nous indique en commentaire que l’ancienneté de Microsoft, créé 1975, dessert l’argument, lisons donc « eBay » à la place), Google, ou Facebook… Et maintenant, des projets prometteurs voient le jour tels que Seeks, Diaspora ou Movim et peuvent se développer sans se faire phagocyter voire interdire par leurs « aînés » devenus d’influentes puissances commerciales.

Pourtant, aujourd’hui de nombreux opérateurs de télécommunications (Orange, Comcast, SFR, Free…) mais aussi des gouvernements souhaitent remettre en cause cette neutralité dans le but de monopoliser, ou de censurer les différents flux d’information, les protocoles, les sites, les blogs, nos paroles.

On peut parler entre autres de l’affaire Free / Dailymotion, de la polémique que le filtrage du Port 25 (SMTP) par Orange a suscité, de la loi LOPPSI ou de la loi sur les jeux en lignes (ARJEL) et de son obligation de filtrage alors qu’il a été démontré, plusieurs fois, que ce filtrage est impossible et peut avoir des effets collatéraux dangereux et simplement sans précédents. Autant de « petits » détails qui nous rappellent que la liberté d’expression, rendue possible par le numérique [1], est menacée et que la liste des dérives s’allonge.

Les gouvernements eux, cherchent à mettre en place des techniques de filtrage du réseau, bridant notre liberté d’expression (Hadopi en France), ou dans le but d’avoir la mainmise sur les organes de presses (Berlusconi en Italie), pour empêcher les manifestants de se concerter (Iran), ou filtrer des sites prétenduement « pédophiles » (Australie)…

C’est dans ce contexte qu’une loi sur la Neutralité du Net vient d’être proposées en France pour la fin de l’année. Et elle est bienvenue car la lecture du rapport « La neutralité de l’Internet. Un atout pour le développement de l’économie numérique » de la secrétaire d’État chargée de la Prospective et du Développement de l’économie numérique Nathalie Kosciusko-Morizet (UMP), fait froid dans le dos, comme le disait récemment Benjamin Bayart sur Écrans.fr : « Dans ce rapport, ce qui saute aux yeux, c’est l’incompétence ». Et en effet, de l’incompétence on en trouve dans ce rapport mais pas seulement, on trouve également des traces de lobbyisme de vendeurs de contenus ayant racheté un FAI, ou de FAI ayant acheté du contenu à vendre

C’est un autre personnage politique donc, le député Christian Paul (PS), qui a mis en ligne sur son blog une ébauche de proposition de loi consacrant la Neutralité du Net.

Pour compléter cette ébauche, il invite les citoyens à commenter et améliorer le texte en-ligne grâce à un outil libre : co-ment. Et il a également rédigé une tribune ré-affirmant l’importance de la Neutralité du Net en guise d’introduction à son projet de loi. C’est cette tribune, publiée conjointement sur Numérama et sur son blog (sous licence libre) que nous vous invitons à lire ci-dessous.

Il est primordial de réaliser l’importance de la Neutralité du Net et d’établir des règles pour la pérenniser. Cette loi ne doit pas être faite dans l’intérêt privé de certains groupes industriels, mais pour et par les citoyens. La France pourrait, sur ce sujet, retrouver ses Lumières et montrer la voie à suivre…

Merci à Skhaen pour la rédaction originale de cette introduction.

Proposition de loi visant à affirmer le principe de neutralité de l’internet, et son contenu

Christian Paul – 16 août 2010 – Numerama

I had a dream… J’ai fait un rêve, ou plutôt un cauchemar. Je me réveillais en 2030, buvais une tasse de café noir, puis allumais mon ordinateur, et me voyais soudain interdire l’accès à l’Internet. Mes dernières déclarations sur les pratiques abusives des géants de l’Internet n’y étaient certainement pas pour rien. Ou, du moins, quelques propos sur le « filtrage de bordure », directement intégré à ma « box » sous prétexte de lutte contre les contenus illicites, avec un « moteur de contrôle » jugeant automatiquement de la légalité de mes faits et gestes. Le service où je publiais jusqu’ici régulièrement des tribunes (lointain successeur de Médiapart, de Rue 89 ou de Numérama !), où j’avais accès à une information que l’on ne trouvait plus forcément dans les médias traditionnels, venait de fermer, après une longue descente aux enfers au gré de la généralisation des accords de priorisation de certains services et contenus. Un de mes principaux canaux d’expression avait disparu.

Ces derniers temps, ma « box » Internet me conseillait fermement (m’imposait même parfois) plusieurs heures par jour le visionnage de programmes choisis par mon opérateur. J’étais certes informé de cette limitation, mais que faire alors que tous les opérateurs se comportaient à l’identique et que le contournement de ce dispositif de contrôle était passible de prison ? J’avais eu par ailleurs à changer ces dernières années plusieurs fois d’équipement, au gré des accords exclusifs entre mon FAI avec le constructeur ou l’éditeur le plus offrant. Mes plaintes contre cette censure et cette vente forcée avaient été classées sans suite par le procureur compétent du tribunal de Nevers.

Je me souvenais alors qu’il y a plus de 20 ans, l’irruption de l’Internet portait la promesse d’une croissance durable de la diversité, de nouvelles médiations, d’un plus grand accès à l’information et à la culture et d’une amélioration du droit réel à l’initiative économique pour le plus grand nombre.

Mais depuis son ouverture au grand public au milieu des années 90, les coups de canifs à la liberté et l’égalité des utilisateurs du « réseau des réseaux » s’étaient multipliés. Les réseaux « de pair à pair » avaient été combattus en tant que tel, alors qu’ils ne sont pourtant que de simples outils dont seuls certains usages sont répréhensibles. Le choix de l’appareil de raccordement au réseau, la « box », avait progressivement été imposé aux particuliers par tous les opérateurs. Les services « exclusifs » s’étaient généralisés, après une période transitoire où ils étaient seulement plus prioritaires que les autres.

Retour à 2010, au cœur de l’été. Pourquoi faut-il s’inquiéter ? Le cadre juridique garantissant nos libertés a considérablement évolué [2], et les dernières années ont donné le signal de la régression. Mais aujourd’hui, le socle même de ces libertés est en jeu, du fait de l’évolution du cadre technique que préfigurent les débats actuels. Comme le dit Lawrence Lessig, « Code is Law », « le logiciel et le matériel font du cyberespace ce qu’il est » [3]. Pour autant, la menace n’est pas que technique. Jiwa, sur lequel j’aimais écouter de la musique, n’est pas aujourd’hui en liquidation du fait d’une censure généralisée du net ou de mutations du réseau, mais à cause du maintien d’un modèle inadapté de négociation de gré à gré des droits. Il produit des effets également très négatifs, et la responsabilité du gouvernement qui tarde à agir, écrasante.

Le débat sur la « neutralité du net », qui a cours en France ou aux Etats-Unis depuis des mois, doit être l’occasion de réaffirmer les principes d’ouverture et de liberté auxquels nous sommes attachés. À la laïcité garantissant la liberté de conscience et le libre exercice des cultes doit correspondre dans l’espace numérique une « laïcité informationnelle » garantissant nos libertés de choix, d’initiative et d’expression.

Qu’on ne s’y trompe pas ! Notre amour de la liberté nous conduit non pas au laisser-faire, mais au choix d’une « bonne » régulation. La transparence et l’information sur les pratiques des opérateurs ne suffisent à l’évidence pas. Les pouvoirs publics doivent prendre leurs responsabilités et garantir de nouveaux droits à tous les internautes. Nous n’accepterions pas que tel ou tel opérateur de réseau autoroutier n’accueille plus que les automobiles d’une certaine marque. De même, nous n’accepterions pas que les fournisseurs d’énergie électrique nous imposent le choix d’un panneau de raccordement ou de la marque de notre machine à laver. Il doit en être de même dans le monde numérique. Un accès à l’Internet n’est, au niveau le plus simple, qu’un ensemble de signaux électriques convoyés par notre fournisseur d’accès. Le choix de notre appareil de raccordement doit être libre, pour peu que les normes en vigueur ou à inventer rapidement soient respectées. Sous réserve du paiement permettant de disposer d’une puissance suffisante, chacun est également libre de faire fonctionner simultanément autant d’appareils électriques qu’il le souhaite. Il doit en être de même pour le numérique. Les règles de circulation des signaux numériques en notre domicile doivent relever de notre seul choix.

Choisissons un combat juste. Il ne s’agit pas ici de défendre le tout gratuit. Il est logique que celui qui consomme plus de ressources, par exemple en visualisant continuellement des vidéos en haute définition, ait à payer plus cher que celui qui envoie et reçoit quelques courriers électroniques par jour. Il s’agit par contre de s’assurer que l’utilisation du réseau restera libre et non faussée, tant en émission qu’en réception.

C’est pourquoi je transmets ces jours-ci à Jean-Marc Ayrault, président du groupe PS à l’Assemblée nationale le texte d’une proposition de loi affirmant le principe de neutralité de l’internet, et son contenu. Son article 1er est sans ambiguïté : « Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage commercial ou privé des réseaux numériques. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux tarifications, aux émetteurs ou aux destinataires des échanges numériques de données. »

Vous en lirez le texte complet sur mon blog. Aidez-moi à enrichir cette proposition, le principe et son contenu. C’est un nouveau combat pour la liberté du net, pour sa « bonne » régulation, pour résister à son asservissement commercial.

Vite, prenons date ! Mieux vaut prévenir, que tenter de réparer tardivement. La neutralité du net apparait, d’ores et déjà, comme un principe offensif, efficace et indispensable.

Christian PAUL, député de la Nièvre

Notes

[1] « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire » – Benjamin Bayart dans La bataille HADOPI 2009

[2] Avec les lois LCEN, DADVSI, la loi sur les jeux en ligne, HADOPI 1 et 2, en attendant la LOPPSI2…

[3] À lire en français sur le Framablog




Bagdad et Gaza : OpenStreetMap 1 Google Maps 0

Il y a deux mois, nous publiions un article sur le zoo de Berlin illustrant le fait qu’OpenStreetMap pouvait être plus pertinent que Google Maps dans ce cas très particulier.

Un commentaire nous signala alors qu’il en était de même pour certaines zones sensibles et de donner alors l’exemple de la ville de Bagad où la comparaison se révèle effectivement spectaculaire.

Bagdad

Sur Google Maps :

Bagdad - Google Maps - 2010

Sur OpenStreetMap (accueil du projet de cartographie de Bagdad) :

Bagdad - OpenStreetMap - 2010

Mais la bande de Gaza n’est pas en reste.

Gaza

Ici la ville de Gaza (ou Gaza City) n’existe carrément pas chez Google Maps !

Gaza - Google Maps - 2010

Chez OpenStreetMap (accueil du projet de cartographie de Gaza) :

Gaza - OpenStreetMap - 2010

But why ?

Pourquoi Google Maps se montre si peu précis ici ?

J’attends vos commentaires. La réponse est peut-être à rechercher du côté de la géopolitique américaine et des restrictions imposées à ses entreprises ?

Google a beau travailler dans les nuages, Google n’en a pas moins un pays d’origine et d’appartenance qui a ses propres règles et suit ses propres intérêts…

Règles et intérêts qui heureusement ne sont les mêmes que ceux d’un projet libre et coopératif comme OpenStreeMap !




Les statistiques du réseau Framasoft réactualisées au début 2010

Au mois d’octobre/novembre 2008, nous présentions ici-même les statistiques de l’ensemble du réseau Framasoft. Les voici réactualisées en janvier/février 2010 pour comparaison.

Globalement nous n’avons ni progressé ni régressé sachant cependant que nous n’avons pas pris en compte les nouveaux projets que sont par exemple Framalang, Framapack ou EnVenteLibre, qui drainent eux aussi leur petit lot de visiteurs. Ainsi sur une période d’un mois on dénombre 816.000 visiteurs, 1.132.000 visites et 2.726.000 pages vues (en 2008 : 807.000 visiteurs, 1.124.000 visites et 2.911.000 pages vues).

Plusieurs facteurs internes peuvent expliquer cette relative stagnation. Mais il est possible que les Facebook et les Twitter associés aux flux RSS aient eux aussi leur influence (ce qui pourrait expliquer que le Framablog se retrouve lui dans une bonne dynamique).

Du côté des OS, Linux et Mac ont pris en un peu plus d’un an quelques points à Windows, mais cela reste bien (trop) faible. Quant aux navigateurs, IE poursuit sa chute annoncée (mais plus lentement que prévu/souhaité) et Firefox a très légèrement baissé au profit de Chrome (comme nous avons eu l’occasion de le remarquer dans ce billet polémique).

Statistiques Framasoft entre le 11 janvier et le 10 février 2010

  • Framasoft
    • visiteurs/mois : 560 000
    • visites/mois : 717 000
    • pages vues/mois : 1 831 000
    • Les 3 premiers OS : Windows 81%, Linux 11%, Mac 7%
    • Les 3 premiers navigateurs : Firefox 57%, IE 29%, Chrome 6%
  • Framakey
    • visiteurs/mois : 106 000
    • visites/mois : 224 000
    • pages vues/mois : 563 000
    • Les 3 premiers OS : Windows 95%, Linux 4%, Mac 1%
    • Les 3 premiers navigateurs : Firefox 82%, IE 11%, Chrome 2%
  • Framabook
    • visiteurs/mois : 24 000
    • visites/mois : 28 000
    • pages vues/mois : 52 000
    • Les 3 premiers OS : Windows 66%, Linux 30%, Mac 4%
    • Les 3 premiers navigateurs : Firefox 68%, IE 18%, Chrome 6%
  • Framablog
    • visiteurs/mois : 53 000
    • visites/mois : 78 000
    • pages vues/mois : 122 000
    • Les 3 premiers OS : Windows 58%, Linux 33%, Mac 8%
    • Les 3 premiers navigateurs : Firefox 66%, IE 14%, Chrome 7%
  • Framagora
    • visiteurs/mois : 73 000
    • visites/mois : 85 000
    • pages vues/mois : 158 000
    • Les 3 premiers OS : Windows 73%, Linux 22%, Mac 5%
    • Les 3 premiers navigateurs : Firefox 63%, IE 23%, Chrome 6%



Pourquoi faut-il se mobiliser pour le logiciel libre ? La réponse de Richard Stallman

La Tribu FM - CC by-saEn 2006, et en pleine tourmente DRM et DADVSI, Richard Stallman était interviewé par les Ecrans, qui n’était alors qu’un simple blog du site de Libération[1].

« Pourquoi faut-il, d’après vous, se mobiliser pour le logiciel libre ? », lui demanda alors la journaliste.

Et voici sa réponse plus que jamais d’actualité et qui peut vous être d’un grand secours pour expliquer à vos proches pourquoi vous vous intéressez tant au logiciel libre et ses enjeux.

« Toutes les libertés dépendent de la liberté informatique, elle n’est pas plus importante que les autres libertés fondamentales mais, au fur et à mesure que les pratiques de la vie basculent sur l’ordinateur, on en aura besoin pour maintenir les autres libertés. Profitant de la faiblesse de la démocratie contemporaine, les grandes entreprises sont en train de prendre le contrôle de l’État, ce sont elles qui contrôlent les lois, pas les citoyens. »

Mais ce qui m’intéresse tout autant, c’est votre propre réponse ci-dessous 😉

Notes

[1] Crédit photo : La Tribu FM (Creative Commons By-Sa)