De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




De l’hacktivisme au web 2.0 – De la révolution à sa dissolution ?

Daniel Zanini H. - CC byLes mouvements alternatifs d’émancipation portés par le numérique, dont le logiciel libre fait partie, ont été récupérés et domestiqués par le système et sa force marketing sous la bannière et le vocable du « web 2.0 ».

Un web 2.0 qui présente de plus l’avantage de favoriser l’institution d’une sorte de totalitarisme global décentralisé avec notre complicité et toutes les traces personnelles, permanentes et continues, que nous laissons, le plus souvent volontairement, dans les nuages d’Internet.

Avec l’avènement du web 2.0, non seulement vous voyez s’éloigner le rêve d’une autre société mais vous renforcez le contrôle et la surveillance de l’actuelle ! Difficile de faire pire en quelque sorte…

Telle n’est pas mon opinion mais mon propre (et donc faillible) résumé d’un article parcouru récemment sur Indymedia dont le titre exact est “Become the media!” : de l’hacktivisme au web 2.0.

Attention, c’est dense, politisé et plein de références à des auteurs qui vous seront peut-être peu familiers si vous ne baignez pas dans une certaine culture intellectuelle « de gauche » (cf Félix Guattari, Jello Biafra, Walter Benjamin, Jean Baudrillard, Gilles Deleuze, Michel de Certeau, Michel Maffesoli).

Nous en avons reproduit la fin ci-dessous pour vous donner (ou non) l’envie de le parcourir dans son intégralité[1].

Je ne vous cache pas qu’il m’intéresse d’avoir vos réactions dans les commentaires. En espérant que les uns et les autres sauront s’écouter et échanger en toute sérénité sur un sujet, je le reconnais bien volontiers, un peu glissant. Un petit débat courtois et non un gros troll poilu pour le dire autrement 😉

Pour ce qui me concerne, je ne partage pas la radicalité et le pessimisme du propos et j’ai justement l’impression que les actions que nous menons participent modestement à échapper à ce piège. Mais il est vrai que lorsque le « logiciel libre » devient « open source », il prend le risque de perdre en route tout ce qui fait sa substantifique moelle.

“Become the media!” : de l’hacktivisme au web 2.0 (extraits)

URL d’origine du document

Dr No – 26 juillet 2010 – Indymedia Nantes

(…)

Quoiqu’il en soit, ce dont il s’agit là encore finalement, avec cette « réappropriation », ce « devenir-media » de la masse et cette « démocratisation » des dispositifs d’informations et de communication, c’est du déploiement toujours plus important d’un macro-système technique, d’un maillage global comme dispositif de socialisation forcée par dressage à la discipline inconsciente d’un code, c’est-à-dire – à l’instar du système électoral ou de la consommation – d’imposition de règles du jeu (ici de la communication) et d’intériorisation de ces règles comme subtil mode de mobilisation et de contrôle social. Indépendamment des contenus qui n’en sont que l’alibi, le médium – le code, le modèle, la forme, le canal, le dispositif, la technique – est le message, il influe directement sur nos modes de perception sensibles, modifie nos rapports à l’espace et au temps et par conséquent nos modes d’être-au-monde. En l’occurrence, « ce qui est médiatisé, ce n’est pas ce qui passe par la presse, la TV, la radio : c’est ce qui est ressaisi par la forme/signe, articulé en modèles, régi par le code. » La réappropriation du code ne jouant donc là au final que comme « reproduction élargie du système » sous couvert de nouvelles modalités. C’est pourquoi il ne faut jamais sous-estimer la capacité de ce système à intégrer les innovations (même et peut-être surtout si elles se veulent « révolutionnaires ») a fortiori si celui-ci fonctionne sur les principes d’interaction, de réversibilité, de participation et de feed-back comme c’est d’ailleurs le cas aujourd’hui beaucoup plus qu’hier.

« l’éthique hacker », l’utopie cyberpunk et les expérimentations cyberculturelles, les trouvailles de « l’hacktivisme » électronique et de « l’Internet militant », du mouvement des logiciels libres, l’Open Source, l’Open Publishing, le P2P, le Wi-Fi, les média-tactiques alternatives, collaboratives et communautaires elles-mêmes, c’est-à-dire en somme toutes ces « pratiques moléculaires alternatives » que Félix Guattari appelaient de ses vœux pour renverser le pouvoir grandissant de l’ingénierie logicielle et les nouvelles modalités de la « société de contrôle » ont pour la plupart, dans ce qu’elles avaient d’original et novateur, été absorbées et recyclées par celle-ci et les industriels pour donner naissance à ce que l’on peut appeler les nouveaux « agencements post-médiatiques » du web 2.0.

C’est-à-dire toutes ces nouvelles applications de l’Internet « participatif » et « collaboratif » basé sur le principe du « contenu généré par les utilisateurs », ce qui précisément, on l’aura remarqué, était bien l’idée de « l’open publishing » (publication libre) proposé par le réseau international des sites Indymedia dans l’esprit du partage horizontal de l’information, de la participation et de la collaboration en vue de favoriser l’auto-organisation des groupes et des individus constitués en « machines de guerre » contre l’axiomatique mondiale exprimée par les Etats.

Un Web 2.0 dit « participatif » et « collaboratif » donc, où effectivement, convergence numérique aidant, la masse devient son propre média (MySpace, Facebook, YouTube, Twitter, Wikis et autres blogs), engendrant à leur tour de nouveaux usages qui inspirent également de nouveaux produits, services et dispositifs reconfigurant de fond en comble notre rapport au monde et nos relations sociales, tout en développant de nouveaux marchés ainsi que de nouveaux « business models » (management 2.0, marketing 2.0, « gratuité », « co-création de valeur », etc.) qui incarnent des changements de paradigmes économiques par où se joue la mutation du capitalisme. Car en effet, force est de constater que les principes du « participatif », du « collaboratif », de la « coopération » et du « partage » sont aujourd’hui devenus les principaux éléments d’un nouvel esprit du capitalisme de l’ère 2.0 fonctionnant par « boucles de récupération » et recyclage écosystémique des singularités comme moteur et dynamique de l’innovation (technologique, économique, culturelle, sociale, etc.). C’est en quelque sorte ce qui se présente plus communément aujourd’hui sous l’appellation d’ « innovation ascendante » qui consiste justement pour les entreprises et/ou les institutions à observer, et même à favoriser, les pratiques de réappropriation, investissement, exploration, détournement, expérimentation par les usagers/consommateurs des produits, services et technologies dans le but de réintégrer les éventuelles micro-inventions et les « usages innovants » dans leur propre processus de création et développement industriel, commercial, technocratique, etc.

C’est une dynamique qui s’appuie sur la compréhension des comportements que permet en l’occurrence la « sociologie des usages » et notamment les travaux de Michel de Certeau sur ce qui constitue en quelque sorte les « arts de faire avec » . Recherche qui se voulait un travail de compréhension et en premier lieu de mise en valeur des arts de vivre la société de consommation, par élaboration de « lignes de fuites » (Deleuze et Guattari) pourrait-on dire, c’est-à-dire plus particulièrement des ruses subtiles, des tactiques de résistance, de contournements, détournement, réappropriation, braconnage, dissimulation, en somme toute la multitude de pratiques inventives et créatives qui se disséminent dans la banalité du quotidien des usagers/consommateurs et que la rationalité occidentale, selon les mots de l’auteur, aurait eu trop tendance à occulter. Et on pourrait voir dans ce travail la saisie de l’essence même de la notion anglo-saxonne de « hacking », de son esprit ou de son éthique élargie à l’ensemble de la société. Quoiqu’il en soit, on le voit bien, ce dont il s’agit avec « l’innovation ascendante » mise en œuvre dans le nouveau paradigme économique des entreprises les plus à l’avant-garde du capitalisme c’est de capter/capturer la puissance créatrice de la socialité de base, l’énergie et le vitalisme qui émergent de ce que Michel Maffesoli appelle la « centralité souterraine ». Dans le même ordre d’idée se développe aujourd’hui dans les milieux du marketing et du management, par le biais des différentes plateformes multimédias de la société en réseaux, le « crowdsourcing » (approvisionnement par la foule) qui consiste pour une entreprise là encore à faire « participer » et « collaborer » directement la foule des internautes comme usagers/consommateurs à la recherche et au développement de nouveaux produits et services, à apporter des améliorations, etc..

Enfin, toutes choses mettant en œuvre un processus communicationnel global s’appuyant sur des dispositifs de « feed-back » et des mécanismes circulaires tout à fait caractéristiques des boucles causales rétroactives qui furent à la base de la modélisation des systèmes cybernétiques qui simulent les lois de la nature et dont la finalité, rappelons-le, est le Contrôle par auto-régulation comme mode de management et de gouvernance.

Des systèmes de contrôle et de gouvernance de l’ère des machines de « troisième espèce » qui se déploient sur toute l’étendue de la vie quotidienne par le biais de la globalisation d’un méga-réseau engagé dans un processus matriciel. Une « matrice communicationnelle », un maillage systémique à vocation ubiquitaire qui tend par ailleurs à rendre obsolètes les modèles panoptiques de surveillance hyper-centralisés et transcendants de type orwellien qu’incarne la fameuse figure de « Big Brother ». Car en effet, ce à quoi on a de plus en plus nettement affaire aujourd’hui c’est à un processus de capillarisation du Contrôle en quelque sorte et qui tend par là à devenir totalement immanent.

Comme le remarquait déjà pertinemment Jean Baudrillard au début des années 70 « même à long terme, l’impossibilité des mégasystèmes policiers signifie simplement que les systèmes actuels intègrent en eux-mêmes, par le feed-back et l’autorégulation, ces métasystèmes de contrôle désormais inutiles. Ils savent introduire ce qui les nie comme variables supplémentaires. (..) Ils ne cessent donc pas d’être totalitaires : ils réalisent en quelque sorte l’idéal de ce que l’on peut appeler un totalitarisme décentralisé. » Par ailleurs, dans son texte annonçant l’avènement d’une "subjectivité post-médiatique" Félix Guattari rappelait que toutes les anciennes formations de pouvoir et leurs façon de modéliser le monde avaient été déterritorialisées. C’est ainsi, disait-il, que « la monnaie, l’identité, le contrôle social passent sous l’égide de la carte à puce. » Car en effet, ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

Mutation post-industrielle du capitalisme de plus en plus flexible, flottant, immatériel, sémiotique et cognitif, où le « service de vente » devient le centre ou l’âme de « l’entreprise » qui a remplacé « l’usine » de production désormais démantelée, automatisée, externalisée et assez souvent reléguée en périphérie du tiers-monde à l’instar des grandes enseignes multinationales qui se concentrent sur les logiques de Communication et le développement médiatique, si ce n’est psycho-technique, de leur « image de marque ». « On nous apprend que les entreprises ont une âme, ce qui est bien la nouvelle la plus terrifiante du monde. Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze. De même, « il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Vision qui prend d’autant plus d’importance aujourd’hui avec l’informatisation généralisée de la société, l’injonction à la mobilité, l’hyperconnectivité et les projets de dissémination des technologies numériques et autres puces communicantes (informatique ubiquitaire/ubimedia) dans tout l’environnement physique de nos métropoles postmodernes où peut désormais s’opérer de façon massive, par la grâce de l’ingénierie logicielle, la traçabilité, la géolocalisation, le fichage et le profilage des « dividus » dispersés dans les flux et les réseaux, dans et par lesquels se dispensent désormais leur être-au-monde fantomatique sous « le règne de la Technique planétaire »

Notes

[1] Crédit photo : Daniel Zanini H. (Creative Commons)




Pourquoi je ne participerai pas au Concours Lépine

BookLiberatorTout le monde connaît ou tout du moins a déjà entendu parler du Concours Lépine. Il s’agit d’un concours annuel récompensant une invention originale.

Souvent la presse s’amuse à mettre en avant les projets un peu farfelus, comme cette toilette auto-nettoyantes pour chiens (sur tapis roulant) ou cette caravane qui tracte la voiture (et non l’inverse), mais d’autres ont été de véritables succès qui continuent de nous être grandement utiles : le stylo à bille, le moteur à deux temps, le fer à repasser à vapeur ou encore les verres de contact.

Maintenant la question du titre de ce billet.

Si je ne participerai jamais au Concours Lépine, c’est que je manque cruellement d’imagination, ai peu de sens pratique et suis un bien piètre bricoleur.

Mais il y a une autre raison. Pour s’inscrire au concours il faut « avoir une invention ou innovation protégée par un titre de propriété industrielle et/ou intellectuelle ». Dans tout dossier d’inscription, on vous demande invariablement votre « numéro de brevet ».

Le Concours Lépine a vu le jour en 1901. On comprend assez bien pourquoi tout au long du XXe siècle on ait eu besoin de cette condition.

Mais au XXIe siècle, avec les licences libres, Internet, les communautés, etc. est-on toujours obligé de conserver cette modalité ?

RepRap, Arduino… de plus en plus d’inventeurs envisagent dès le départ leur projet comme un projet libre et s’inscrivent alors dans une tout autre démarche (ce qui n’interdit en rien d’en faire profit).

C’est la réflexion que je me suis faite en tombant sur le BookLiberator (cf image ci-dessus), sorte de cage à numériser plus facilement les livres (cf cette vidéo pour tout de suite comprendre le principe).

C’est encore pas mal artisanal pour le moment et on ne peut pas vraiment dire que ce soit l’invention du siècle. Mais si ça s’améliore collectivement, si d’autres arrivent avec des projets d’appareils photos libres associés à de performants logiciels d’OCR libres, ça peut devenir fort intéressant. Sachant que c’est un élément de plus à ajouter dans la marmite des Biens Communs.

Et puis un jour, on aura ainsi dépassé Google Books sans même s’en apercevoir 😉

PS : Ceci étant dit, inventer un super truc, le breveter et vivre tranquillement des rentes de cette invention jusqu’au restant de mes jours (et même ma descendance après ma mort), ça pourrait être pratique pour financer Framasoft !




Les AMAP : c’est quoi ? c’est bien !

Mzelle Biscotte - CC by-saIl y a quelques semaines, nous tentions une nouvelle escapade parmi les Hors-sujet… ou presque du blog en vous parlant de Couchsurfing, cette pratique sociale et solidaire qui prend le contre-pied des canons de la société de consommation, et remise au goût du jour par le réseau des réseaux.

Aujourd’hui, nous poursuivons l’exploration en évoquant une autre pratique solidaire aux valeurs humanistes proches de celles portées par le logiciel libre.

Il ne s’agit pas d’un site ou d’un projet, mais d’un véritable phénomène de société, émergeant enfin en France : les AMAP. Ces Associations pour le Maintien d’une Agriculture Paysanne, poussent en effet comme des champignons et il est fortement probable qu’elles soient déjà plus nombreuses que les GUL[1] en France comme on peut s’en convaincre en se promenant sur le site Réseau-AMAP.org[2].

Les AMAP proposent tout simplement une autre façon de faire ses courses alimentaires. À l’image de l’émergence de GNU/Linux et des logiciels libres face à Windows et aux logiciels privateurs, les AMAP se composent d’hommes et de femmes qui ont décidé de s’organiser pour ne plus subir un système jugé déloyal, représenté par les coopératives agricoles et la grande-distribution, qui imposent aux paysans une agriculture intensive et polluante, tout en achetant à des prix irresponsablement bas des denrées que le consommateur paye au prix fort.

Ensemble, ils ont imaginé une autre solution, et elle fonctionne tellement bien qu’aujourd’hui, que l’on profite de l’air pur de la campagne, ou du bruit des villes, on a sûrement une AMAP à proximité. Et si elle se révèle trop éloignée, c’est qu’il y a la place pour en créer une nouvelle plus près 🙂

D’ailleurs, une fois qu’on a pris l’habitude de ne plus consommer passivement, tout s’illumine !

Voyez par vous-même : en se rapprochant du G.U.L. le plus proche, on installe un système d’exploitation libre sur sa machine, et rapidement au fil des discussions, on lance le site FDN dans son Firefox. De là, on libère sa connexion Internet et on commence à produire l’Internet qu’on consomme… Dès lors, pour peu qu’on aide à tenir le stand de l’association (par exemple au Village du Libre de la fête de l’Huma) on risque fortement de rencontrer d’autres membres qui vous présentent à leur tour : Énercoop, la coopérative d’intérêt collectif des producteurs et consommateurs d’électricité 100% renouvelable, qui permet de s’affranchir d’EDF. Et finalement, lorsqu’on a décidé d’avancer tant que la voie serait libre, on se rend compte que la route s’allonge sous les pieds, sans cul de sac, jusqu’à trouver naturel de prévenir son AMAP qu’on ne viendra pas chercher son panier pendant deux semaines puisqu’on s’évade en co-voiturage pour des vacances à l’aventure en Couchsurfing, ou avec les enfants en club CPN

Je vous présente donc « Framap », l’innocent nouveau projet de Framasoft, qui tient en un billet de blog…

Un article rédigé à Kervelgan près de Baud en Bretagne, par mon frère Denys. Et attention, Daphné K. n’a qu’à bien se tenir car il est lui aussi guitariste et poète à ses heures !

Framap : Favoriser la Reconnaissance des « Association pour le Maintien d’une Agriculture Paysanne »

Denys Descarpentries – 19 août 2010

Dans un monde où les entreprises seraient délocalisées pour augmenter les profits des grands actionnaires, dans un monde où les agriculteurs n’auraient d’autre choix pour survivre que de s’agrandir et de produire de façon intensive, à grand renfort d’engrais et de pesticides ; dans un monde qui ressemblerait étrangement au nôtre donc, quels seraient les leviers d’action des consommateurs non consentants ?

Une piste qui a fait ses preuves est celle des « consom’acteurs » qui se réunissent en AMAP (Associations pour le Maintien d’une Agriculture Paysanne) et s’émancipent des circuits de grande-distribution, tout en mangeant bon et bio.

Le principe des AMAP est relativement simple. Il s’agit de mettre en relation un groupe de consommateurs et une ou plusieurs fermes locales, pour organiser une distribution hebdomadaire de paniers, composés de « produits de la ferme ». C’est un contrat solidaire entre d’un côté des producteurs qui s’engagent à nous fournir toutes les semaines des produits bio et d’un autre des consommateurs qui paient à l’avance la totalité de leur consommation pour une période donnée[3].

En ce qui me concerne, je suis adhérent d’une AMAP avec mon amie depuis deux ans. Nous nous fournissons en légumes, lait, produits laitiers (beurre, fromages, crème fraîche, desserts…), en pain, œufs, miel, jus de pomme et en cidre (et oui, nous habitons en Bretagne ^^). Nous avons un contrat avec chacun des 7 producteurs membres de l’AMAP et les intérêts que nous y trouvons sont nombreux. Je vais les classer en trois catégories : les aspects économiques, environnementaux et sociaux (les initiés remarqueront au passage qu’il s’agit là des trois piliers du développement durable…!).

L’aspect économique

Pour les producteurs adhérents, l’aspect économique est le plus important. Le fait de recevoir la totalité des paiements au début de chaque période permet aux agriculteurs de compter sur une trésorerie suffisante pour réaliser des investissements lourds. Ces investissements sont nécessaires pour faire évoluer leur outil de travail, et à plus forte raison en agriculture biologique où les techniques d’élevage et de culture sans « produit artificiel » et dans le respect du bien-être des animaux demandent des outils spécifiques.

Pour les « amapiens » que nous sommes, il s’agit en revanche du point le plus délicat. En effet cela demande de faire un chèque environ tous les 6 mois, ce qui représente une grosse sortie d’argent à prévoir dans le budget. En fonction des AMAP, il est tout de même possible de faire plusieurs chèques pour un même producteur et d’étaler ainsi les versements.

Concernant le budget alimentation, il faut bien se rendre compte d’une part que les produits bio achetés à l’AMAP ne sont pas plus chers que sur les marchés et si vous habitez en ville, ils sont même moins chers que dans les grandes surfaces. Et ensuite, que même s’il faut toujours se rendre dans les magasins pour acheter les produits qui ne sont pas proposés par l’AMAP (tout bonnement le « non alimentaire »), les passages en supermarché sont beaucoup moins fréquents. Cela entraîne des économies de déplacement et une baisse notable des achats impulsifs des lots en super promo exposés en tête de gondole ou des produits qu’on ne pensait pas acheter avant d’entrer dans le magasin mais sur lesquels on craque quand on a le malheur d’aller faire les courses le ventre vide… Au final, nous observons que notre budget pour les courses n’a pas changé, alors que désormais nous mangeons bio et que nous contribuons activement à tous les autres aspects développés dans cet article.

Le dernier aspect économique (et non le moindre) c’est que les producteurs de l’AMAP sont des producteurs locaux. Cela permet de maintenir un tissu économique autour de chez nous, évite de passer par des intermédiaires qui s’enrichissent sur notre dos et celui des agriculteurs et cela réduit les coûts environnementaux liés aux transports des marchandises par camion ou pire, par avion. Il s’agit donc de lutter à notre échelle contre une forme de délocalisation bien réelle : celle des productions agricoles. D’ailleurs, soit dit en passant, lorsqu’on achète des produits en supermarché la logique reste la même : mieux vaut accorder sa préférence aux fruits et légumes du terroir, ou à défaut « origine France », par rapport aux autres provenances. Mais nous débordons déjà là sur le second aspect.

L’aspect environnemental

Il s’agit de l’aspect le plus facilement identifiable des AMAP. Les producteurs qui nous fournissent s’inscrivent dans une démarche d’agriculture biologique. Ils conduisent leurs cultures sans utiliser de produits synthétiques polluants tels que les engrais de laboratoire et les pesticides (herbicides, insecticides, fongicides, etc…). Pour la conduite des animaux, les hormones et les antibiotiques sont interdits et le bien-être animal est également un critère d’évaluation à respecter pour être labellisé.

Une autre facette de l’aspect environnemental se trouve dans la sauvegarde de la biodiversité. Les producteurs n’étant pas soumis aux contraintes de la grande distribution, ils peuvent « se faire plaisir » en cultivant des légumes méconnus[4] ou d’anciennes variétés presque oubliées (à l’heure des productions intensives et uniformisées) malgré leurs qualités. Je vous recommande de tester certaines espèces de tomates roses et biscornues[5] absolument délicieuses mais délaissées car ne répondant pas aux standards « toute ronde et bien rouge » ! Ou encore les délicieuses chips de panais, une espèce de grosse carotte blanche et savoureuse. Cette découverte de nouveaux légumes dans les paniers s’apparente un peu à ouvrir les « dragées surprises de Bertie Crochue » dans Harry Potter : on ne sait pas sur quoi on va tomber ! Des fois on aime, et parfois moins… Heureusement, il y a un panier d’échange où l’on peut remplacer ce qu’on n’aime pas par des légumes qu’on préfère, à condition d’y avoir goûté au moins une fois ! D’ailleurs nous sommes régulièrement surpris avec mon amie par la saveur des légumes bio, tellement meilleurs que ceux qu’on trouve dans le commerce (et ce n’est pas un cliché).

Quand le panier contient des espèces méconnues, notre producteur (qui est un passionné), accompagne toujours le sac d’un petit mot pour expliquer de quelle variété de légume il s’agit, préciser son histoire et indiquer comment le cuisiner facilement. Ainsi, il s’agit non seulement de faire revivre certaines espèces mieux adaptées à nos sols et à nos climats, mais également de piquer les curiosités, ajoutant toujours un peu de surprise à la découverte de la composition du panier de la semaine.

L’aspect social

Après avoir détaillé les aspects les plus matériels de l’affaire, abordons maintenant ce volet, un peu plus « bonus », un peu moins quantifiable, mais où pour ma part, je trouve aussi mon compte : l’aspect social. Tout d’abord, quand on est enfermé toute la journée chez soi et que l’on ne voit quasiment personne (quand on travaille à domicile par exemple, ou quand on cherche du travail), c’est pas plus mal d’avoir rendez-vous avec son panier de courses et donc avec les autres adhérents de l’AMAP par la même occasion. Comme ça on sort un peu de la maison (au moins une fois dans la semaine…) et on rencontre des personnes qui partagent des valeurs communes. Comme la distribution en elle-même est assez rapide, ça laisse du temps pour engager des discussions. Les profils classiques que l’on rencontre sont des couples d’enseignants (souvent à l’origine de la création de l’AMAP), beaucoup de jeunes dans la trentaine [6], des actifs de la classe moyenne (si si, il y en a encore) et bien sûr des écologistes convaincus.

Ensuite, pour approfondir les connaissances et surtout pour faciliter le bon déroulement des distributions, tous les adhérents sont conviés à s’inscrire à tour de rôle pour prêter main-forte aux agriculteurs, au moins une fois par semestre. On s’inscrit par trinôme, en fonction des places disponibles, ce qui nous amène à passer l’heure de distribution avec d’autres personnes et à voir défiler l’ensemble des adhérents (dont certains qu’on ne verrait pas autrement à cause des impératifs horaires propres à chacun). Les missions des « amapiens » de permanence sont : d’aider les producteurs à installer les tables, de porter les produits (cagettes, bidons de lait…) des camionnettes jusqu’aux tables, de peser les légumes et de les mettre en sachet pour gagner du temps pendant la distribution, puis de tout débarrasser à la fin. Cela nous permet également de voir l’envers du décors et de participer au groupe.

Enfin, nous sommes invités occasionnellement (une à deux fois par semestre) à venir apporter notre aide directement sur la ferme d’un des producteurs adhérents. Cela présente plusieurs avantages pour chaque partie. Tout d’abord c’est un renfort bienvenu pour l’agriculteur (arrachage de mauvaises herbes, récolte de plants de pomme de terre…). C’est également l’occasion pour l’agriculteur de nous présenter sa ferme et comment il travaille, et on est bien entendu invité à poser toutes nos questions. Mais c’est surtout un bon prétexte pour prendre l’apéro tous ensemble après le travail et la visite, puis de sortir les salades, les tartes au fromage de chèvre ou les pains d’épices que chacun a préparé chez lui la veille (avec les produits de l’AMAP évidemment) et de se faire un bon repas dans une ambiance conviviale, au soleil (même en Bretagne) à la campagne, en échangeant nos convictions associatives (et nos meilleures recettes).

C’est dans ce contexte et dans cette ambiance qu’en fonction de l’âge et du dynamisme de l’AMAP, d’autres services peuvent se mettre en place. Nous avons par exemple commencé cette année un service de « prêts de matériel » pour des outils qu’on n’a pas forcément tous chez soi (taille-haies, perceuses…). C’est vraiment le côté associatif de l’AMAP qui ressort. D’ailleurs dans le même état d’esprit, un des derniers courriels en date qui a circulé dans notre AMAP proposait de s’intéresser à la possibilité d’héberger soi-même sa boîte aux lettres électronique via une connexion Internet du fournisseur d’accès « dont vous êtes le héros », un certain FDN.fr[7].

Conclusion

Pour conclure ce billet, je ne serais pas tout à fait honnête si je ne vous faisais pas part des quelques inconvénients que j’ai pu constater au cours de mes deux années d’AMAP. Tout d’abord, comme je l’ai déjà mentionné, il faut payer tous les paniers au début du semestre. Au moins le budget est fixe, et puis c’est un réel atout pour les petits producteurs, mais il faut pouvoir sortir l’argent.

Ensuite, on ne sait pas à l’avance ce qu’on va avoir dans son panier… Mais une chose est sûre, ce sont des produits bios et ce sont des produits de saison (ce qui permet au passage d’apprécier à nouveau le rythme des saisons : non, on ne mange pas de haricots verts en hiver !).

Enfin, il n’y a presque pas de pause dans les distributions. Les agriculteurs prennent rarement de vacances et donc il faut être là toutes les semaines pour la distribution car on n’est pas remboursé d’un panier que l’on n’a pas pu venir chercher. Une solution consiste à proposer son panier à quelqu’un d’autre quand on n’est pas là… on peut donc faire passer un mot à l’AMAP la semaine précédente pour savoir si quelqu’un est intéressé pour le racheter, mais c’est quand même quelque chose à prévoir. Avec mon amie, on préfère offrir le panier à nos voisins, pour leur faire découvrir le concept et peut être les compter prochainement comme de nouveaux adhérents 🙂

Car, si la voie est libre, la route est encore longue…

Notes

[1] Trois sites qui recensent les Groupes d’Utilisateurs de GNU/Linux en France : l’annuaire de l’AFUL, l’InterLUG, et l’initiative TrouveTonGUL.

[2] Crédit photo : Mzelle Biscotte (Creative Commons By-Sa)

[3] Il y a souvent deux saisons de production : « printemps/été » et « automne/hiver ».

[4] Voici un lien vers le blog de l’association « Le Sens de l’Humus » qui expérimente différentes méthodes d’agriculture biologique autour des murs à pêche de Montreuil. Vous y trouverez plusieurs billets présentant ces « légumes méconnus ».

[5] Tomates rose de Berne

[6] En majorité des filles, et pas forcément en couple 😉

[7] Note de Siltaar : et cette anecdote authentique n’est pas de mon fait !




Les jeunes ne jurent que par Apple (et se foutent du logiciel libre ?)

Multitrack - CC byIndépendamment de la question financière, que choisirait actuellement un jeune bachelier si il avait le choix de s’équiper en matériel high tech ?

Ce n’est qu’une impression mais il semblerait bien que tous ou presque souhaitent désormais posséder du Apple : MacBook, iPod, iPhone, iPad…

Deux liens qui corroborent cette impression.

Le premier lien est économique. Un cabinet financier américain vient tout juste de dégrader la notation de Microsoft estimant que l’éditeur ne parvenait pas à séduire les jeunes générations (source ZDNet). Ainsi 70% des étudiants entrant à l’université possèderaient un Mac[1].

Cela fait beaucoup quand même ! Mais justement le second lien est académique. Le département Information Technology and Communication de l’Université de Virginie nous propose d’intéressantes statistiques sur l’équipement informatique de ses étudiants de première année.

On peut y constater de notables évolutions de 1997 à nos jours. Comme on s’y attendait les étudiants tendent à être tous équipés, et au profit aujourd’hui presque exclusif de l’ordinateur portable. Mais pour quel OS ? Et là effectivement la comparaison est édifiante. Les courbes de Windows et de Mac suivent des chemins diamétralement opposés. En 2004, nous avions 89% pour Windows et 8% pour le Mac. En 2009 c’est 56% de Windows et 43% de Mac. On est encore loin des 70% évoqués plus haut, mais au train où vont les choses, c’est apparemment pour bientôt.

Pourquoi avoir choisi l’année 2004 comme repère ? Parce qu’ils étaient alors 77 étudiants à avoir un autre OS que Windows ou Mac (autrement dit un OS libre). Or ils ne sont plus que 8 en 2010, soit 0,3% !

D’où cette double question que je soumets à votre sagacité : Est-ce que selon vous Apple fascine réellement toute la jeunesse ? Et si oui cela a-t-il, dès aujourd’hui et pire encore demain, des conséquences sur le logiciel libre ?

À parcourir ces trois récents articles du Framablog : Pourquoi je n’achèterai pas un iPad, La fin du Web ouvert – Apple ou la banlieue riche du Web et Combien de futurs hackers Apple est-il en train de tuer ?, je crains déjà votre réponse. Et me demande dans la foulée si cela ne met pas une nouvelle fois en exergue la faillite absolue en amont de l’école (et des parents) quant à la sensibilisation au logiciel libre et sa culture.

Notes

[1] Crédit photo : Multitrack (Creative Commons By)




La démocratie 2.0 à l’œuvre en France pour défendre la neutralité du réseau

Codice Internet - cc-by-saSujet récurrent depuis maintenant de nombreuses années, la Neutralité du Net, principe pourtant fondateur de l’Internet, est de plus en plus menacée. En France, plusieurs lois récentes l’attaquent, comme la Hadopi, la Loppsi ou l’Arjel. Mais c’est le cas partout en Europe, comme au Royaume Uni, en Allemagne ou en Italie. Et finalement, le reste du monde n’est pas non plus dans une ère favorable aux libertés comme on le constate en Australie ou en Nouvelle-Zélande, ainsi que dans beaucoup d’autres démocraties et de non-démocraties. La Neutralité du Net n’existe tout simplement plus en Chine ou en Iran ainsi que dans d’autres pays qui tentent ouvertement de contrôler l’opinion publique.

Les enjeux de cette Neutralité sont considérables, tant sur un plan économique, que politique et culturel. C’est l’existence même du réseau qui est en cause, car la Neutralité du Net c’est la prévention des discriminations à l’égard de la source, de la destination et du contenu de l’information transmise via le réseau.

Préserver cette situation de non-privilèges dans les télé-communications pourrait être naturel pour tous, mais ça ne l’est apparemment pas pour les fournisseurs d’accès à Internet, quand bien même la loi française définit la neutralité des réseaux de communication de manière claire et sans équivoque :

Article L32-1 du Code des Postes et communications électroniques :
II.-Dans le cadre de leurs attributions respectives, le ministre chargé des communications électroniques et l’Autorité de régulation des communications électroniques et des postes (note: ARCEP) […] veillent :
« 5° Au respect par les opérateurs de communications électroniquesdu secret des correspondances et du principe de neutralité au regard du contenu des messages transmis, ainsi que de la protection des données à caractère personnel; »
« 13° Au respect de la plus grande neutralité possible, d’un point de vue technologique, des mesures qu’ils prennent […] »

C’est cette liberté de transmission qui met tous les utilisateurs d’Internet sur un pied d’égalité, qui donne la même chance à tout le monde (qu’on soit une multinationale ou un artisan local) et qui permet à tous de recevoir et de distribuer l’information de son choix, et ce, quelques soient ses ressources financières ou son statut. C’est grâce à cette « neutralité » que de petites entreprises peuvent se faire connaître sur la toile et que les petits projets libres peuvent se développer. C’est comme ça que sont apparus Microsoft (un lecteur nous indique en commentaire que l’ancienneté de Microsoft, créé 1975, dessert l’argument, lisons donc « eBay » à la place), Google, ou Facebook… Et maintenant, des projets prometteurs voient le jour tels que Seeks, Diaspora ou Movim et peuvent se développer sans se faire phagocyter voire interdire par leurs « aînés » devenus d’influentes puissances commerciales.

Pourtant, aujourd’hui de nombreux opérateurs de télécommunications (Orange, Comcast, SFR, Free…) mais aussi des gouvernements souhaitent remettre en cause cette neutralité dans le but de monopoliser, ou de censurer les différents flux d’information, les protocoles, les sites, les blogs, nos paroles.

On peut parler entre autres de l’affaire Free / Dailymotion, de la polémique que le filtrage du Port 25 (SMTP) par Orange a suscité, de la loi LOPPSI ou de la loi sur les jeux en lignes (ARJEL) et de son obligation de filtrage alors qu’il a été démontré, plusieurs fois, que ce filtrage est impossible et peut avoir des effets collatéraux dangereux et simplement sans précédents. Autant de « petits » détails qui nous rappellent que la liberté d’expression, rendue possible par le numérique [1], est menacée et que la liste des dérives s’allonge.

Les gouvernements eux, cherchent à mettre en place des techniques de filtrage du réseau, bridant notre liberté d’expression (Hadopi en France), ou dans le but d’avoir la mainmise sur les organes de presses (Berlusconi en Italie), pour empêcher les manifestants de se concerter (Iran), ou filtrer des sites prétenduement « pédophiles » (Australie)…

C’est dans ce contexte qu’une loi sur la Neutralité du Net vient d’être proposées en France pour la fin de l’année. Et elle est bienvenue car la lecture du rapport « La neutralité de l’Internet. Un atout pour le développement de l’économie numérique » de la secrétaire d’État chargée de la Prospective et du Développement de l’économie numérique Nathalie Kosciusko-Morizet (UMP), fait froid dans le dos, comme le disait récemment Benjamin Bayart sur Écrans.fr : « Dans ce rapport, ce qui saute aux yeux, c’est l’incompétence ». Et en effet, de l’incompétence on en trouve dans ce rapport mais pas seulement, on trouve également des traces de lobbyisme de vendeurs de contenus ayant racheté un FAI, ou de FAI ayant acheté du contenu à vendre

C’est un autre personnage politique donc, le député Christian Paul (PS), qui a mis en ligne sur son blog une ébauche de proposition de loi consacrant la Neutralité du Net.

Pour compléter cette ébauche, il invite les citoyens à commenter et améliorer le texte en-ligne grâce à un outil libre : co-ment. Et il a également rédigé une tribune ré-affirmant l’importance de la Neutralité du Net en guise d’introduction à son projet de loi. C’est cette tribune, publiée conjointement sur Numérama et sur son blog (sous licence libre) que nous vous invitons à lire ci-dessous.

Il est primordial de réaliser l’importance de la Neutralité du Net et d’établir des règles pour la pérenniser. Cette loi ne doit pas être faite dans l’intérêt privé de certains groupes industriels, mais pour et par les citoyens. La France pourrait, sur ce sujet, retrouver ses Lumières et montrer la voie à suivre…

Merci à Skhaen pour la rédaction originale de cette introduction.

Proposition de loi visant à affirmer le principe de neutralité de l’internet, et son contenu

Christian Paul – 16 août 2010 – Numerama

I had a dream… J’ai fait un rêve, ou plutôt un cauchemar. Je me réveillais en 2030, buvais une tasse de café noir, puis allumais mon ordinateur, et me voyais soudain interdire l’accès à l’Internet. Mes dernières déclarations sur les pratiques abusives des géants de l’Internet n’y étaient certainement pas pour rien. Ou, du moins, quelques propos sur le « filtrage de bordure », directement intégré à ma « box » sous prétexte de lutte contre les contenus illicites, avec un « moteur de contrôle » jugeant automatiquement de la légalité de mes faits et gestes. Le service où je publiais jusqu’ici régulièrement des tribunes (lointain successeur de Médiapart, de Rue 89 ou de Numérama !), où j’avais accès à une information que l’on ne trouvait plus forcément dans les médias traditionnels, venait de fermer, après une longue descente aux enfers au gré de la généralisation des accords de priorisation de certains services et contenus. Un de mes principaux canaux d’expression avait disparu.

Ces derniers temps, ma « box » Internet me conseillait fermement (m’imposait même parfois) plusieurs heures par jour le visionnage de programmes choisis par mon opérateur. J’étais certes informé de cette limitation, mais que faire alors que tous les opérateurs se comportaient à l’identique et que le contournement de ce dispositif de contrôle était passible de prison ? J’avais eu par ailleurs à changer ces dernières années plusieurs fois d’équipement, au gré des accords exclusifs entre mon FAI avec le constructeur ou l’éditeur le plus offrant. Mes plaintes contre cette censure et cette vente forcée avaient été classées sans suite par le procureur compétent du tribunal de Nevers.

Je me souvenais alors qu’il y a plus de 20 ans, l’irruption de l’Internet portait la promesse d’une croissance durable de la diversité, de nouvelles médiations, d’un plus grand accès à l’information et à la culture et d’une amélioration du droit réel à l’initiative économique pour le plus grand nombre.

Mais depuis son ouverture au grand public au milieu des années 90, les coups de canifs à la liberté et l’égalité des utilisateurs du « réseau des réseaux » s’étaient multipliés. Les réseaux « de pair à pair » avaient été combattus en tant que tel, alors qu’ils ne sont pourtant que de simples outils dont seuls certains usages sont répréhensibles. Le choix de l’appareil de raccordement au réseau, la « box », avait progressivement été imposé aux particuliers par tous les opérateurs. Les services « exclusifs » s’étaient généralisés, après une période transitoire où ils étaient seulement plus prioritaires que les autres.

Retour à 2010, au cœur de l’été. Pourquoi faut-il s’inquiéter ? Le cadre juridique garantissant nos libertés a considérablement évolué [2], et les dernières années ont donné le signal de la régression. Mais aujourd’hui, le socle même de ces libertés est en jeu, du fait de l’évolution du cadre technique que préfigurent les débats actuels. Comme le dit Lawrence Lessig, « Code is Law », « le logiciel et le matériel font du cyberespace ce qu’il est » [3]. Pour autant, la menace n’est pas que technique. Jiwa, sur lequel j’aimais écouter de la musique, n’est pas aujourd’hui en liquidation du fait d’une censure généralisée du net ou de mutations du réseau, mais à cause du maintien d’un modèle inadapté de négociation de gré à gré des droits. Il produit des effets également très négatifs, et la responsabilité du gouvernement qui tarde à agir, écrasante.

Le débat sur la « neutralité du net », qui a cours en France ou aux Etats-Unis depuis des mois, doit être l’occasion de réaffirmer les principes d’ouverture et de liberté auxquels nous sommes attachés. À la laïcité garantissant la liberté de conscience et le libre exercice des cultes doit correspondre dans l’espace numérique une « laïcité informationnelle » garantissant nos libertés de choix, d’initiative et d’expression.

Qu’on ne s’y trompe pas ! Notre amour de la liberté nous conduit non pas au laisser-faire, mais au choix d’une « bonne » régulation. La transparence et l’information sur les pratiques des opérateurs ne suffisent à l’évidence pas. Les pouvoirs publics doivent prendre leurs responsabilités et garantir de nouveaux droits à tous les internautes. Nous n’accepterions pas que tel ou tel opérateur de réseau autoroutier n’accueille plus que les automobiles d’une certaine marque. De même, nous n’accepterions pas que les fournisseurs d’énergie électrique nous imposent le choix d’un panneau de raccordement ou de la marque de notre machine à laver. Il doit en être de même dans le monde numérique. Un accès à l’Internet n’est, au niveau le plus simple, qu’un ensemble de signaux électriques convoyés par notre fournisseur d’accès. Le choix de notre appareil de raccordement doit être libre, pour peu que les normes en vigueur ou à inventer rapidement soient respectées. Sous réserve du paiement permettant de disposer d’une puissance suffisante, chacun est également libre de faire fonctionner simultanément autant d’appareils électriques qu’il le souhaite. Il doit en être de même pour le numérique. Les règles de circulation des signaux numériques en notre domicile doivent relever de notre seul choix.

Choisissons un combat juste. Il ne s’agit pas ici de défendre le tout gratuit. Il est logique que celui qui consomme plus de ressources, par exemple en visualisant continuellement des vidéos en haute définition, ait à payer plus cher que celui qui envoie et reçoit quelques courriers électroniques par jour. Il s’agit par contre de s’assurer que l’utilisation du réseau restera libre et non faussée, tant en émission qu’en réception.

C’est pourquoi je transmets ces jours-ci à Jean-Marc Ayrault, président du groupe PS à l’Assemblée nationale le texte d’une proposition de loi affirmant le principe de neutralité de l’internet, et son contenu. Son article 1er est sans ambiguïté : « Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage commercial ou privé des réseaux numériques. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux tarifications, aux émetteurs ou aux destinataires des échanges numériques de données. »

Vous en lirez le texte complet sur mon blog. Aidez-moi à enrichir cette proposition, le principe et son contenu. C’est un nouveau combat pour la liberté du net, pour sa « bonne » régulation, pour résister à son asservissement commercial.

Vite, prenons date ! Mieux vaut prévenir, que tenter de réparer tardivement. La neutralité du net apparait, d’ores et déjà, comme un principe offensif, efficace et indispensable.

Christian PAUL, député de la Nièvre

Notes

[1] « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire » – Benjamin Bayart dans La bataille HADOPI 2009

[2] Avec les lois LCEN, DADVSI, la loi sur les jeux en ligne, HADOPI 1 et 2, en attendant la LOPPSI2…

[3] À lire en français sur le Framablog




Bagdad et Gaza : OpenStreetMap 1 Google Maps 0

Il y a deux mois, nous publiions un article sur le zoo de Berlin illustrant le fait qu’OpenStreetMap pouvait être plus pertinent que Google Maps dans ce cas très particulier.

Un commentaire nous signala alors qu’il en était de même pour certaines zones sensibles et de donner alors l’exemple de la ville de Bagad où la comparaison se révèle effectivement spectaculaire.

Bagdad

Sur Google Maps :

Bagdad - Google Maps - 2010

Sur OpenStreetMap (accueil du projet de cartographie de Bagdad) :

Bagdad - OpenStreetMap - 2010

Mais la bande de Gaza n’est pas en reste.

Gaza

Ici la ville de Gaza (ou Gaza City) n’existe carrément pas chez Google Maps !

Gaza - Google Maps - 2010

Chez OpenStreetMap (accueil du projet de cartographie de Gaza) :

Gaza - OpenStreetMap - 2010

But why ?

Pourquoi Google Maps se montre si peu précis ici ?

J’attends vos commentaires. La réponse est peut-être à rechercher du côté de la géopolitique américaine et des restrictions imposées à ses entreprises ?

Google a beau travailler dans les nuages, Google n’en a pas moins un pays d’origine et d’appartenance qui a ses propres règles et suit ses propres intérêts…

Règles et intérêts qui heureusement ne sont les mêmes que ceux d’un projet libre et coopératif comme OpenStreeMap !




Quand les universités espagnoles montrent l’exemple

Cenatic - CC byPrenant des allures de « Courrier International du Libre » (mais sans les albums de Prince), le Framablog vous propose aujourd’hui la traduction non pas d’un classique billet repéré sur les blogs américains mais d’un bout de revue de presse espagnole.

En effet, promenant ma souris sur le site de la précieuse « Asociación de Internautas » espagnole, qui regroupe depuis 12 ans la plupart des organisations de protection des utilisateurs d’Internet en Espagne et constitue le fer de lance en matière de défense de la neutralité du réseau chez eux (on se demande ce que je faisais là…), je suis tombé sur la revue de presse tenue par le groupe d’utilisateurs de Linux de l’association, le Linux-GUAI.

Et là, merveille ! Plein d’actualités espagnoles croustillantes sur GNU/Linux et les logiciels libres. Informant la branche extrémiste hispanophone autonome de Framalang (la bien nommée FramEspagnol) de ma trouvaille, nous partîmes joyeusement sur le chemin de la traduction.

Le premier sujet ayant retenu notre attention concerne l’éducation. Il s’agit des avancées espagnoles dans un domaine où la France a encore de gros progrès à accomplir (on y travaille cependant) : l’adoption des logiciels libres par les universités[1].

Et aujourd’hui, ce n’est pas un, mais deux articles (pour le même prix !) que nous vous avons traduits pour illustrer le sujet. Bonne lecture 😉

L’université espagnole fait le pari de soutenir le logiciel libre

La Universidad española apuesta por impulsar el software libre

EFE – 1 mars 2010 – ADN.es
(Traduction Framalang : Burbumpa, Thibz, TV, Goofy, Siltaar et Barbidule)

L’Université espagnole a décidé d’ « encourager l’utilisation de logiciels libres » afin ne pas dépendre des grandes entreprises d’informatique lors du développement d’applications spécifiques, que ce soit pour la gestion des établissements ou pour favoriser la communication au sein de la communauté universitaire.

C’est l’une des recommandations adoptées lors de la réunion de la Commission Sectorielle des Technologies de l’Information et de la Communication (TIC) de la Conférence des Recteurs des Universités Espagnoles (CRUE) qui s’est tenue à l’école universitaire d’études entrepreneuriales de Bilbao.

L’utilisation de ce type de technologies, selon des sources appartenant à l’Université du Pays Basque (UPV), permettra de plus au professeur et à l’élève ayant une formation dans les nouvelles technologies d’intervenir dans son développement, « ce qui est certainement une excellente façon d’employer les connaissances des universitaires ayant des compétences dans ce domaine ».

Un autre avantage, comme l’a souligné l’UPV, est que le logiciel libre permet l’implantation des langues minoritaires dans les différentes applications dans la mesure où des personnes intéressées et ayant des connaissances informatiques suffisantes voudront bien s’impliquer dans ce développement.

Lors de la réunion d’aujourd’hui, un catalogue des nouvelles applications qui ont déjà été implantées ou qui vont l’être sous peu dans les différentes institutions a été présenté. Cela va des plateformes d’enseignement en-ligne aux blogs et aux réseaux sociaux.

L’objectif, ont insisté les différentes sources, « est de placer les universités en position de référence dans le domaine des nouvelles technologies, ce qui les conduirait à ce qu’on pourrait appeler l’Université 2.0 ».

Plus de 80 personnes en lien avec les nouvelles technologies dans le monde universitaire et représentant les 71 universités publiques et privées de la CRUE ont assisté à la réunion.

Par ailleurs, le gouvernement basque a fait son entrée aujourd’hui au Conseil du CENATIC (Centre National de Référence pour l’Application des TIC basées sur des Sources Ouvertes), une fondation publique nationale dont la mission est de promouvoir et de diffuser l’usage des logiciels libres et open source.

Avec l’entrée du Pays Basque, ce sont maintenant 8 communautés autonomes qui sont présentes au Conseil de cette entité, en plus du Ministère de l’Industrie, du Tourisme et du Commerce au travers de Red.es ("réseau.espagne", site de se nsibilisation, de soutien et d’information sur la question des réseaux), ainsi que 4 grandes entreprises du domaine technologique.

60% des serveurs des universités espagnoles sont basés sur des logiciels libres

El 60% de los servidores de las universidades españolas se basan en software libre

Fecha – 10 mars 2010 – ComputerWorld / IDG.es
(Traduction Framalang : Burbumpa, TV, Goofy, Quentin, Siltaar et Barbidule)

Selon une étude présentée par le CENATIC (Centre National de Référence d’Application des TIC basées sur l’open-source), la quasi totalité des Universités et des Centres de R&D espagnols utilisent des logiciels libres dans leur fonctionnement quotidien.

Dans la partie « Étude sur la situation actuelle du logiciel libre dans les universités et centres de recherche espagnols », le rapport souligne que 60% des serveurs des universités espagnoles sont basés sur des logiciels libres. Le chiffre atteint 67% pour le courrier électronique, 87% si l’on considère les outils de gestion, de même que 42% des bases de données, 67% des systèmes antispams, 40% des campus à distance, ou 44% des solutions d’administration électronique.

L’étude révèle également que 83% des universités ont des groupes de recherche sur ce type de logiciel, qui travaillent sur le transfert de technologies de ses outils vers l’industrie. Dans 57% des universités, il existe aussi des associations d’usagers de soutien aux logiciels libres et 90% d’entre elles ont créé des unités d’enseignement en rapport avec les technologies ouvertes.

Selon Javier Uceda, président de la section TIC de la Conférence des Recteurs d’Universités Espagnoles, « durant la réalisation de ce rapport nous avons découvert que les Universités et les Centres de Recherche et Développement espagnols participent elles aussi à cette réalité technologique qu’est le logiciel libre ; il apporte des bénéfices en termes de coûts, d’adaptabilité et d’ indépendance, et est devenu une composante essentielle de la recherche en Espagne ». De son côté, Miguel Jaque, Directeur du CENATIC, a affirmé que « le logiciel libre occuppe une place importante ans le quotidien des enseignants et des chercheurs dans le cadre universitaire espagnol. Parier sur le logiciel libre, c’est parier sur le futur des technologies dans le domaine de l’éducation supérieure et la recherche en Espagne ».

Le rapport a été élaboré par le CENATIC à travers l’Observatoire National du Logiciel de Code Source Libre (ONSFA) en collaboration avec le groupe Libresoft de l’Université Roi Juan Carlos de Madrid et le groupe CRUE-TIC-SL (groupe de travail de la Conférence des Recteurs dédié à l’étude du logiciel libre) de la Commission TIC de la Conférence des Recteurs d’Universités Espagnoles. Il contient les résultats d’une enquête sur l’usage des technologies open source dans l’Université espagnole, comme par exemple l’étude de 25 cas d’implantation, développement et promotion des technologies de code source libre, et une sélection de 20 projets de Recherche et Développement autour du logiciel open source financés par des programmes d’envergure nationale et européenne.

Notes

[1] Crédit photo : Cenatic (Creative Commons By)