L’enseignante Christine Mytko ou l’exception qui devrait être la règle

Christine Mytko - Curriki - CC by-ncC’est la rentrée des classes. Et nous publions, à l’occasion, la traduction d’un entretien avec une enseignante américaine impliquée dans ce que l’on appelle les Ressources Éducatives Libres, ces ressources placées sous licence libre et qui offrent aux utilisateurs les mêmes droits que ceux d’un logiciel libre : utilisation, étude, modification, duplication et diffusion. Face au casse-tête du « tous droits réservés », elles représentent une formidable opportunité pour l’éducation. Une opportunité d’usage mais aussi de remix et de création collective. Une opportunité qui met l’accent sur le partage et la coopération au détriment de l’individualisme et de la compétition.

Le problème c’est que vos enfants ont encore aujourd’hui une chance infime de rencontrer de tels professeurs dans leur classe cette année.

Pourquoi ? Principalement à cause de la scandaleuse et irresponsable politique de l’autruche du ministère de l’Éducation Nationale qui ne s’est toujours pas décidé à les encourager. Aussi hallucinant que cela paraisse, rien, absolument rien d’envergure n’est prévu pour les mettre en avant. Aucune trace dans les programmes officiels, aucune directive adressée aux enseignants. Et cela dure depuis des lustres.

Cela va même au delà de la belle ignorance ou de la simple indifférence, il suffit de parcourir ces quelques anciens articles du Framablog pour s’en convaincre :

L’aggiornamento n’a toujours pas eu lieu. C’est une « culture propriétaire » et non une « culture libre » qui règne encore au sein du ministère et qui influence tous ses fonctionnaires. Voilà la triste vérité.

Dans ce contexte hostile on ne s’étonnera pas que les enseignants de la trempe de Christine Mytko[1] demeurent pour le moment minoritaires. Il en existe bien sûr, mais leur sensibilisation s’est bien moins faite grâce à l’école que malgré l’école. C’est pourquoi d’ailleurs un site comme le nôtre continue malheureusement d’avoir sa modeste utilité, mais qu’il est dur de nager à contre-courant alors que nous devrions plutôt tous surfer sur la vague du bon sens.

Au cours de l’interview ci-dessous publiée à l’origine sur le blog du site des Creative Commons, Christine Mytko constate que c’est la méthode « CASE » qui prévaut encore chez les enseignants. C’est l’acronyme anglais de « Copy And Steal Everything » signifiant que tout le monde fait à peu près n’importe quoi avec le respect des licences. Il suffit effectivement de passer une journée devant la photocopieuse d’une salle des professeurs pour s’en rendre compte.

On fait n’importe quoi mais comme on ne reçoit aucune information et qu’on ne s’expose à aucune sanction, il n’y a aucune raison de modifier son comportement. Un comportement que l’on retrouvera alors naturellement par ricochet chez les élèves de ces enseignants, c’est-à-dire nos enfants.

C’est entendu, l’école à d’autres chats plus importants à fouetter actuellement que ce détail des licences des ressources. Certes mais sans vouloir être grandiloquent « l’école du XXIe siècle sera libre ou ne sera pas ». Alors autant s’y préparer sérieusement dès maintenant et ne plus faire de chaque jour qui passe un jour de perdu.

Éducation et politique pédagogique libres : Entretien avec Christine Mytko, du site Curriki

Curriki’s Christine Mytko: Open Education and Policy

Jane Park – 5 août 2010 – Creative Commons Blog
(Traduction Framalang : Don Rico)

Au début de l’année 2010, nous avons annoncé une refonte de nos projets consacrés à l’éducation et un soutien accru au mouvement des REL, les Ressources Éducatives Libres (NdT: OER en anglais, pour Open Educational Resources). En ce sens, nous avons redoublé d’efforts pour accroître la quantité d’informations disponibles sur notre site. Outre la mise en ligne d’une nouvelle page d’acueil pour notre rubrique Éducation et notre portail consacré aux REL, sur laquelle nous expliquons le rôle que jouent les Creative Commons en tant qu’infrastructure technique et juridique, nous avons réalisé une série d’entretiens destinés à exposer les obstacles que rencontrent les REL et les chances qu’elles ont de trouver leur place dans notre paysage pédagogique.

Un changement de politique au niveau local, national et international constitue l’un des vecteurs les plus probants pour la promotion des REL. Il y a peu, nous avons eu la chance d’interroger Christine Mytko, qui milite pour l’adoption des REL à l’échelle locale dans le cadre de son métier d’enseignante et en tant que validatrice principale de la rubrique scientifique du site Curriki. De par son statut de professeure, Christine Mytko apporte un point de vue précieux sur l’éducation et la politique libres, et nous offre un bon aperçu de la façon dont on perçoit le copyright, l’utilisation des Creative Commons et des REL dans le monde éducatif.

Vous êtes enseignante et validatrice de la section scientifique de Curriki, que l’on décrit comme le « wiki nouvelle génération » pour l’enseignement primaire et secondaire. Pouvez-vous nous décrire brièvement qui vous êtes et ce qui vous a conduite aux fonctions que vous occupez aujourd’hui ? Quelle est d’après vous la mission de Curriki, et comment ce site aide-t-il les enseignants ?

J’ai passé la majeure partie de ma carrière à enseigner les sciences dans des collège publics. Il y a trois ans, j’ai eu la chance de trouver un poste qui allie mes deux passions : la science et la technologie. À l’heure actuelle, je suis intervenante en sciences chez les maternelles et professeure de technologie dans un petit collège de Berkeley, en Californie.

En 2007, j’ai posé ma candidature pour un temps partiel chez Curriki. Comme de nombreux enseignants, je cherchais à arrondir mes fins de mois. J’ai alors découvert une communauté d’éducateurs dévoués à la création collaborative et au partage de ressources libres. Membre de l’équipe de modération de Curriki, je suis chargée de valider les contenus scientifiques que l’on nous soumet et de fournir une notation et des retours publics au contributeur. Si besoin est, je participe aussi à d’autres projets. En ce moment, je travaille avec un professeur de chimie afin de réviser et soumettre un manuel de chimie numérique open-source dans le cadre de la California Learning Resource Network’s Free Digital Textbook Initiative.

Comme on peut le lire en page d’accueil du site, la mission de Curriki est de « fournir des ressources et des programmes libres de grande qualité aux enseignants, étudiants et parents du monde entier. » Certains l’auront deviné, son nom est un jeu sur les mots « curriculum » (NdT: « programme d’enseignement » en anglais) et wiki. Le dépôt de Curriki contient un choix riche pour les programmes d’enseignement, allant des plans de leçons à des séquences complètes, disponibles pour plusieurs matières, niveaux et langues. Curriki offre d’autres ressources tels que des manuels scolaires, des supports multimédia, et des projets collaboratifs.

Tout le contenu présent sur Curriki est partagé sous la licence Creative Commons Paternité (CC-BY), ce qui l’inscrit solidement dans l’espace des REL. Savez-vous pourquoi Curriki a choisi la CC-BY pour ses ressources en ligne ? Si vous l’ignorez, quel avantage présente la CC-BY comparé à du contenu « Tous droits réservés » ?

Les contributeurs de Curriki sont libres de placer leur contenu soit dans le domaine public soit sous une licence CC de leur choix, mais le contrat de licence par défaut est en effet le CC-BY. Je ne connais pas les raisons qui ont poussé Curriki à la choisir, mais c’est une excellente décision. La CC-BY confère aux enseignants la possibilité de remixer, partager et distribuer des ressources afin qu’elles soient les plus pertinentes pour leur programme d’enseignement.

La souplesse offerte par la licence CC-BY permet d’adapter le contenu très vite. La révision d’un manuel scolaire s’étale sur un cycle de sept ans. Le contenu de Curriki, lui, peut être mis à jour et « publié » en quelques secondes, et la communauté peut corriger les éventuelles erreurs tout aussi rapidement. De nombreux sujets, surtout en sciences et en technologie, évoluent si vite que l’enseignement ne peut se permettre d’être dépendant des cycles de publication trop longs des ouvrages propriétaires.

À l’heure actuelle, la Californie et le Texas sont les plus gros acheteurs de manuels traditionnels « Tous droits réservés », et les éditeurs se coupent en quatre pour répondre aux exigences de ces états. Les enseignants des autres états (et autres pays) sont contraints à composer avec ces limitations propriétaires. Des initiatives de REL telle que Curriki permettent néanmoins de modifier librement des outils afin qu’ils correspondent le mieux à leurs besoins pédagogiques et culturels. En créant ou en mettant à disposition un tel contenu dans des dépôts publics, les enseignants n’auront plus à travailler chacun dans leur coin et ne seront plus forcés à constamment « réinventer la roue ». Plus on donnera à partager librement du contenu de qualité au sein de communautés d’enseignants, moins on passera de temps à adapter de la matière propriétaire, ce qui permettra aux enseignants de consacrer davantage de leur temps, qui est précieux, à d’autres domaines importants de l’enseignement.

Décrivez-nous un projet pédagogique auquel vous avez intégré du contenu sous CC et/ou des REL. Quelles difficultés avez-vous rencontrées, vous ou vos élèves, en recherchant ou en utilisant des ressources sur le web ? Comment relateriez-vous cette expérience à des enseignants qui souhaitent attribuer les bonnes licences à leurs propres ressources pour la recherche et la découverte des REL ? Que doivent savoir ces professeurs ?

Pour mes cours de technologie, je fais en sorte désormais que tous les supports médias incorporés aux devoirs soient sous Creative Commons, dans le domaine public ou dépourvus de tout copyright. Au début, après des années à pouvoir piocher sans restriction dans Google Images, mes élèves se sont sentis très restreints dans leurs choix, mais nous avons débattu de ce qui sous-tend le copyright et les solutions alternatives à celui-ci, et nombre d’entre eux ont compris l’importance de respecter les droits.

Il existe de nombreuses sources d’excellente qualité pour aider les enseignants et les élèves à utiliser des ressources sous Creative Commons en cours. La page de recherche des Creative Commons, Wikimedia Commons, la section CC de Flickr et l’option de recherche avancée de Google sont des outils fantastiques pour trouver des images placées sous licence alternative. Pour la musique, des sites tels que Jamendo sont formidables.

Au départ, la terminologie a présenté des difficultés pour mes collégiens. Bien qu’il n’y ait que six contrats CC principaux, mes élèves ont été déroutés par des termes tels que « Paternité » (NdT: Attribution en anglais) et « Pas de modification » (NdT: No Derivatives en anglais). Le fait que Google emploie des formulations légèrement différentes (« réutilisation autorisée » et « réutilisation avec modification autorisée ») dans ses filtres de recherche n’a pas arrangé les choses. Mais les jeunes ont vite apprivoisé les termes et les procédures, et en l’espace de quelques cours, ils accédaient aisément à du contenu sous licence « Certains droits réservés » et l’utilisaient à bon escient. Évidemment, je leur demande de définir des droits d’utilisation pour leurs travaux, ce qui renforce la compréhension des licences et les pousse à réfléchir soigneusement aux droits qui comptent pour eux.

Concernant la mise à disposition de mes travaux sous forme de REL, je n’ai pas fini d’apprendre. Avant de rejoindre l’équipe de Curriki, j’hésitais à « publier » mes ressources sous licence libre. Après avoir consacré tant de temps et d’énergie à créer certaines préparations, il me semblait aberrant de les distribuer gratuitement sur Internet. Depuis quelques années, j’ai toutefois compris les avantages que présentent les contenus libres, et je publie sur Curriki, sous licence CC-BY, certains de mes travaux autrefois jalousement gardés. À présent, je partage sans restriction mes nouveaux travaux. Je me sens plus à l’aise pour utiliser et créer des ressources libres, et j’espère à présent passer à l’étape supérieure et collaborer avec d’autres enseignants.

Quelles sont les idées erronées ou les inquiétudes les plus répandues chez les professeurs concernant le partage de leur travail ? Pensez-vous que dans le secondaire, le professeur moyen connaisse l’existence de licences alternatives comme les Creative Commons ? Quelles politiques sont menées au niveau des établissements ou des institutions pour aider les professeurs à partager leur travail ?

Je suis certaine que le professeur moyen ignore jusqu’à l’existence même des solutions alternatives ouvertes. La plupart de mes collègues appliquent toujours la méthode CASE, Copy and Steal Everything (NdT: Tout copier, tout voler). Je ne pense pas que les enseignants utilisent des ressources de cette manière par paresse ou volonté de nuire. Quiconque a enseigné un jour sait l’ampleur du travail qu’il faut accomplir en très peu de temps. Parfois, copier une activité (souvent placée sous copyright) et la déposer dans le casier d’un collègue, ce n’est qu’une question de survie. Même parmi les professeurs qui sont conscients des problèmes de copyright, beaucoup invoquent le « fair use » (NdT: usage raisonnable en droit anglo-saxon, plus ou moins proche du droit de citation). Le problème, c’est que ces personnes surestiment souvent les protections et les privilèges que leur confère le fair use. En outre, nous sommes très peu formés sur le copyright et le fair use, et encore moins sur les Creative Commons et les REL. En plus de ne pas connaître ses responsabilités, un enseignant du secondaire ignore les droits et les autres solutions dont il dispose pour partager son travail.

Un certain nombre de blocages empêchent les enseignants de penser au partage de leurs ressources. Tout d’abord, créer un programme d’enseignement prend tellement de temps que beaucoup sont réticents à partager leurs cours parce qu’ils estiment que le produit de leurs efforts leur appartient. D’autres ont le sentiment que leur travail n’est pas assez bon. Et même pour ceux qui surmontent ces obstacles psychologiques, il reste les questions techniques sur la façon dont ils partageront leur travail sous licence libre. Aucun des établissements où j’ai travaillé n’avait mis en place une politique ou une plage de temps pour le partage des ressources. En discutant avec des collègues, j’ai découvert qu’eux aussi déploraient cette même absence de volonté de la part de leurs établissements. Même dans les rares cas où l’on tentait de donner des directives dans ce sens, les professeurs choisissaient souvent de ne pas les appliquer. À l’heure actuelle, la plupart des enseignants n’ont ni l’accès, ni la formation, ni le soutien nécessaires pour participer en confiance au mouvement des REL.

Curriki fournit un gros travail pour indiquer à quelles standards pédagogiques des divers états des USA correspondent ses ressources. Pouvez-vous nous expliquer cela fonctionne ? Quels avantages et difficultés cela présente-il ? En quoi est-ce utile ?

Ce travail ne fait pas partie de mes attributions chez Curriki, mais je peux vous donner un avis personnel, en tant qu’enseignante et membre de Curriki. Lorque l’on consulte une ressource sur notre site, quatre onglets apparaissent – Contenu, Détails, Standards, et Commentaires. Cliquer sur l’onglet Standards permet à l’utilisateur de voir à quels programmes elle correspond, ainsi que de l’associer aux standards d’un autre état. Le procédé est très intuitif : l’utilisateur parcourt une série de menus et choisit les standards qui lui paraissent appropriés.

Le bénéfice principal sera sans doute la possibilité de rechercher des ressources répondant à un standard voulu en passant par la page que je viens de mentionner. Le plus grand défi consiste à associer les différents standards à nos ressources existantes et futures. Curriki s’appuie en grande partie sur la communauté pour que ce chantier s’accélère. Pour l’heure, les couples standards/normes ne sont établis que pour la moitié des états, et même ces regroupements sont incomplets.

On parle beaucoup des REL en ce qui concerne les politiques pédagogiques, surtout sur la question des manuels scolaires libres. À votre avis, quel est l’avenir du manuel scolaire pour le primaire et le secondaire ? Comment souhaiteriez-vous que cela se traduise dans les politiques éducatives ?

Comme de nombreux enseignants, j’ai le sentiment que le règne du manuel scolaire touche à sa fin. En tant que professeur de sciences, j’ai rarement été dépendante d’un manuel pour préparer mes cours, et je m’appuie davantage sur des ressources que je trouve en ligne ou que je crée moi-même. Grâce aux REL, je profite mieux de la création et du partage de travaux au sein d’une communauté collaborative. La science et la technologie se prêtent bien à une adoption précoce de la philosophie du libre, mais je suis convaincue que d’autres matières suivront bientôt.

Les manuels ne pourront conserver leur mainmise actuelle. Un article récent du New York Times indiquait que « même les éditeurs de manuels traditionnels reconnaissent que l’époque où l’on modifiait quelques pages dans un livre afin d’en vendre une nouvelle version était révolue. » Les manuels scolaires coûtent cher et sont vite obsolètes. Pour corriger les erreurs qu’ils contiennent, il faut attendre l’édition suivante. En comparaison, les REL sont très bon marché voire gratuites, constamment mises à jour, et faciles à corriger. Il serait formidable que l’argent économisé si l’on préférait les REL abordables aux coûteux manuels servait à acquérir des outils pédagogiques supplémentaires et financer des formations pour les enseignants. Ou mieux encore, que les administrations puissent employer ces fonds à payer les enseignants pour qu’ils se réunissent et collaborent à la création de REL sur leur temps de travail.

Pour terminer, à quoi « ressemble » un environnement d’enseignement et d’apprentissage qui exploite avec succès les immenses possibilités des REL ? Avez-vous des considérations à nous faire partager… des inquiétudes, des espoirs, des prédictions ?

Un environnement d’apprentissage efficace se doit d’être bien pensé, attrayant, motivant, et souple. Les REL sont toujours d’actualité, on peut aisément et en toute légalité les adapter aux besoins des élèves. Une communauté de REL peut fournir aux enseignants les ressources et le soutien nécessaires pour répondre aux attentes de la catégorie d’élèves à laquelle ils s’adressent. Des ressources partagées librement permettent à d’autres de gagner d’innombrables heures de travail individuel redondant, et grâce à eux, les professeurs ne sont plus prisonniers d’un programme pédagogique propriétaire.

Les établissements scolaires commencent à comprendre les économies que permet l’abandon du modèle actuel de manuels scolaires, et je prédis que les éditeurs s’adapteront aux exigences du marché. J’espère que les établissements reconnaîtront enfin que les enseignants sont une ressource précieuse, des professionnels qualifiés, et qu’ils méritent une contrepartie pour le temps qu’ils passent à créer leurs programmes de cours.

Dans l’idéal, la salle de classe devrait être un espace où les élèves ne sont pas que des consommateurs passifs de ressources et de documents multimédia, mais plutôt des collaborateurs actifs, qui synthétisent et publient leur travail. J’espère que dès le plus jeune âge on apprendra aux élèves à utiliser le travail d’autres personnes de façon appropriée, et qu’on les encouragera à partager leurs travaux sous une licence libre avec certains droits réservés au lieu de se rabattre sur la solution par défaut du copyright classique, ou pire, ne pas les partager du tout. Je veux que mes élèves et mes collègues comprennent qu’en partageant des ressources, ils contribuent à constituer une réserve de matériel pédagogique qui servira à d’autres bien au-delà des murs de leur salle de classe. C’est un changement important dans la philosophie pédagogique actuelle, mais des sites tels que Curriki constituent un grand pas dans la bonne direction.

Notes

[1] Crédit photo : Christine Mytko (Creative Commons By-Nc)




Pourquoi il nous tient à cœur de ne pas confondre Hacker et Cracker

Gregor_y - CC by-saSi vous êtes un lecteur assidu du Framablog, vous ne découvrirez probablement pas grand-chose de nouveau dans l’article qui suit. Mais il n’est pas non plus dépourvu d’intérêt, loin s’en faut : il peut être une référence pour tous ceux qui ne connaissent pas bien la différence entre les « hackers » et les « crackers », et ils sont nombreux. On dit souvent, à raison, que cette confusion est de nature médiatique, mais malheureusement ce n’est que partiellement vrai. Avec l’influence que les médias ont pu avoir, il est devenu très courant d’entendre au détour d’une conversation que des « hackers ont piraté (ou que des pirates ont hacké !) tel système ». Et même dans les GUL ! C’est pour cela qu’il m’a paru important de revenir aux sources… Pourquoi hacker n’a rien à voir avec cracker ?

Il me semble d’autant plus dommage de confondre ces deux notions qu’à mon avis le « hacking » a un grand rôle à jouer dans notre société. On a souvent beaucoup de préjugés sur Marx, à cause de la simplification de ses écrits qui a nourri le marxisme (à tel point qu’on appelle les personnes qui étudient directement Marx, les marxiens !). Sans tomber dans le marxisme, le concept de fétichisme de la marchandise me semble particulièrement intéressant pour décrire la situation actuelle : pour faire fonctionner le système économique tel qu’il est, il faut que l’acheteur se réduise à une simple fonction de consommation, sans produire par lui-même, ou pour lui-même. Le fétichisme est à la fois une admiration et une soumission. Il faut acheter des produits de marque. Apple est à mon avis un super exemple : le simple fait de poser une pomme (même pas entière) sur un produit de qualité moyenne, double son prix, et entraîne une myriade de « fans ».

Derrière ce nom barbare du fétichisme de la marchandise, se cache un double phénomène : la sacralisation de la marchandise, engendrant l’aliénation de l’homme à cette dernière. Tout cela pour dire que les produits sont pris pour plus qu’ils ne sont réellement, que par exemple l’homme est prêt à sacrifier beaucoup pour acquérir un objet. Ainsi, le fétichisme de la marchandise permet, à mon sens, de rendre compte de la situation de l’économie actuelle. Une instance économique (le plus souvent les entreprises) produit un objet ou un service qui apparaît cher aux yeux des consommateurs, qui ne doivent l’utiliser que dans le sens pour lequel il a été créé. Encore une fois Apple, cas extrême, permet de rendre compte de la situation : tout ne repose que sur leur image de marque, de haut de gamme, alors que la réalité est terrifiante (Big Brother censure, qualité de l’électronique tout à fait moyenne, matériel et logiciels fermés et propriétaires jusqu’à l’os, bidouillabilité et respect des utilisateurs faibles voire nuls, etc). Là où je veux en venir est que le fétichisme de la marchandise permet de masquer les yeux du consommateur pour que celui-ci se contente d’utiliser servilement ce qu’on lui propose tout en étant satisfait.

Pour entrer plus dans le détail du concept, selon Marx si l’objet est sacralisé c’est parce que le rapport social de production, qui est extérieur au produit, est pris comme faisant partie intégrante de la marchandise. Concrètement, un produit (ou un service) est conçu conformément à des exigences sociales, mais on croit que la valeur sociale attribuée à l’objet vient de l’objet lui-même. On croit que le produit peut exister tout seul, en dehors de tout contexte de société. Par exemple, on peut être fier d’avoir le tout dernier joujou à la mode qui en jette plein les yeux. Dans ce cas, la reconnaissance sociale liée à la possession de l’objet est prise comme étant intégralement due à l’objet que l’on achète. La marchandise est alors élevée à un statut supérieur par une opération certes magique mais inconsciente. L’objet est donc sacralisé, l’aliénation en est ensuite la conséquence : l’objet qui semble posséder des pouvoirs « magiques » doit être protégé, conservé, etc. C’est la soumission qui va de pair avec toute forme de sacré. Et c’est exactement ce qu’essaient de cultiver les entreprises.

De plus, un effet de mode étant très éphémère, l’objet devient vite un fardeau, une vieillerie, car son « pouvoir » secret se tarit. Ce qui, à mon sens, explique la frénésie du schéma achat-consommation-rejet-poubelle de notre système économique, et de nos modes de vie. Le fétichisme de la marchandise vient de là : un rapport social occulté qui entraîne une sacralisation du produit : il faut se contenter pour être heureux d’acheter, de ne pas abîmer, de préserver le produit à l’identique (pour essayer de garder ses vertus magiques que l’on a pu avoir l’impression de palper), de ne pas bidouiller, ni en faire une utilisation trop originale.

Quel est le rapport en fin de compte avec le hacking ? C’est une solution ! Je n’ai fait le rapprochement que très récemment dans une interview de la radio des RMLL de John Lejeune, un animateur du projet Hackable Devices, qui disait que « Tout ce qui est do-it-yourself, bidouille, réappropriation des connaissances, etc, est en train de revenir. L’intérêt est aussi de détourner des fonctions, savoir comment ça marche, comprendre, et désacraliser les objets ». Et effectivement, manipuler, bidouiller, faire par soi-même permet de démystifier le produit, de ne plus être dans une attitude de simple consommation, de ne pas se contenter de vivre en lecture seule[1]. On voit que ce n’est pas compliqué de créer, qu’à l’intérieur de la boîte noire du dernier joujou à la mode, il n’y a finalement rien d’extraordinaire, ni de magique. Le rapport à la marchandise s’inverse : au lieu de se soumettre à elle, on la maîtrise, la contrôle et l’adapte à ses besoins. Confondre « Hacking » et « Cracking » est donc d’autant plus dommageable que les deux notions recouvrent des modes de vie et des fonctionnements différents. Égaliser les deux notions, c’est faire réprimer le vrai « Hacking » par la société et donc en un sens se voiler la face sur des problèmes existants. Cet article me parait donc un début de solution !

Hacker vaillant, rien d’impossible 😉

Lettre ouverte aux médias sur le mauvais usage du terme « hacker »

Open letter to the media about the misuse of the term "hacker"

Matija Šuklje – 2 août 2010 – Hook’s Humble
(Traduction Framalang : Marting, Siltaar, Loque Humaine et Barbidule)

Ces derniers jours et semaines, on a beaucoup parlé dans les médias slovènes de trois Slovènes qui auraient collaboré au botnet Mariposa. Si vous ne savez pas de quoi il s’agit, vous pouvez lire ce communiqué de presse du FBI. Les médias n’ont cessé d’appeller ces présumés cybercriminels des « hackers ». Comme c’est un abus de langage et que nous sommes nombreux, au sein du groupe Slovène de la Free Software Foundation Europe, à nous définir par ce terme de « hackers », nous avons estimé que quelque chose devait être fait. Nous avons donc écrit et envoyé une lettre ouverte aux médias pour leur expliquer la différence entre « hacker » et « cracker » et les inviter aimablement à employer ces mots correctement à l’avenir. Cette action a été soutenue par plusieurs autres groupes et organismes. La suite correspond au texte entier de la lettre ouverte et à sa traduction.

Madame, Monsieur,

Ces dernières semaines, au sujet de l’action du FBI contre un cybercrime ayant abouti à l’arrestation d’un suspect en Slovénie, le mot « hacker » a été utilisé à plusieurs reprises dans les médias dans un contexte et dans un sens erronés. Ce terme ayant un sens différent pour les experts et pour le public profane, nous avons trouvé opportun de vous le signaler par cette lettre ouverte.

« Hacker » vient du verbe « to hack », « bidouiller ». Cette expression fut forgée au MIT (Massachusetts Institute of Technology) dans les années 50, et signifie résoudre un problème technique d’une manière originale. Dans le jargon de l’informatique, elle est encore utilisée pour désigner des modifications inventives ou originales d’un programme ou d’un système, basées sur une compréhension profonde et dans un but qui n’était pas celui prévu initalement.

Beaucoup d’autorités dans le domaine de l’informatique et de la sécurité entendent le terme « hacking » comme un état d’esprit, la capacité à penser hors des frontières, des façons de faire et des méthodes établies, en essayant de surmonter ces obstacles. Les exemples sont nombreux de « hackers » mettant leurs compétences et leur créativité au service de causes nobles et de l’intérêt général, en faisant en sorte que tout le monde puisse utiliser ou modifier leur programme. Des exemples de tels logiciels libres sont : GNU/Linux, Mozilla Firefox, Mozilla Thunderbird, Google Chromium, OpenOffice.org, SpamAssassin, GIMP, Scribus etc.

Ce furent les médias et l’industrie du film qui utilisèrent ensuite (à tort) le mot « hacker » pour désigner les cybercriminels, ce qui provoqua évidemment une certaine confusion. Ce désordre est encore alimenté par l’évolution de la terminologie, et par les traductions dans la langue slovène.

Pour désigner une personne qui s’introduit dans des systèmes informatiques avec une intention criminelle, il est plus approprié d’utiliser le terme « cracker ». Ce terme désigne les personnes qui contournent des systèmes de sécurité sans autorisation et/ou qui utilisent les TIC (c’est-à-dire habituellement des ordinateurs, des téléphones ou des réseaux) pour s’introduire dans des systèmes et se livrer à des activités illégales ou criminelles — vandalisme, fraudes aux cartes de crédit, usurpation d’identité, piratage, et autres types d’activités illégales.


Ainsi, le dictionnaire slovène d’informatique fait bien la distinction entre le terme « hacker », entendu comme « un passionné d’informatique orienté sur la technique » et le terme « cracker » « qui s’introduit dans les systèmes informatiques avec l’intention d’utiliser des données ou des programmes sans autorisation ».

C’est pourquoi il convient d’utiliser le terme « crackers » pour désigner ces personnes suspectées de crimes informatiques. Au cours des dernières décennies, de nombreuses avancées technologiques furent le fruit du phénomène « hacker » — les ordinateurs personnels, l’Internet, le logiciel libre — il serait donc abusif d’assimiler hackers et criminels. Cela équivaudrait à qualifier tous les pharmaciens d’empoisonneurs.

Nous comprenons que la confusion actuelle existe depuis assez longtemps et c’est d’ailleurs pour cela que nous pensons qu’il est largement temps de clarifier ce point ensemble. Aussi nous vous demandons, s’il vous plaît, de bien vouloir à l’avenir utiliser le terme approprié.

Bien cordialement,

Matija Šuklje : coordinateur du groupe slovène de la FSFE[2]

Co-signataires : Andrej Kositer (président du COKS[3]), Simon Delakorda, (directeur du INePA[4]), Andrej Vernekar (président du LUGOS[5]), Klemen Robnik (de Kiberpipa/Cyberpipe[6]) et Ljudmila[7].

Notes

[1] Crédit photo : Gregor_y (Creative Commons By-Sa)

[2] Le groupe slovène de l’association FSFE est un groupe supportant la « Free Software Foundation Europe » ainsi que le logiciel libre et open-source en général, organisé en tant que mouvement citoyen. Nous défendons le logiciel libre, les standards et les formats ouverts.

[3] Le Centre Open Source Slovène (COKS – Center odprte kode Slovenije) soutient au niveau national en Slovénie, le développement l’utilisation et la connaissance des technologies open-source ainsi que des systèmes d’exploitation libres. Nous aidons et soutenons les utilisateurs de ces systèmes d’exploitation dans le secteur public et privé, et coopérons avec les instances européennes dans le domaine de l’open-source et des politiques de gouvernance en informatique.

[4] L’Institut d’Apport en Électronique INePA (Inštitut za elektronsko participacijo) est une organisation non gouvernementale à but non-lucratif dans le domaine de l’e-democratie. L’INePA effectue aussi bien des projets applicatifs et de développement que des activités juridiques et en lien avec les ONG, les institutionsn et les individus qui supportent le consolidation de la démocratie et de la participation politique par l’usage des TIC. L’institut est membre du Réseau Pan-Européen d’eParticipation, et du Réseau de Citoyens d’Europe Centrale et de l’Est.

[5] LUGOS (Linux user group of Slovenia) est une association d’utilisateurs du système d’exploitation libre et open-source GNU/Linux. Parmi ses activités, elle propose entre autre un support aux utilisateurs et traduit des logiciels libres. Elle s’occupe aussi du réseau ouvert sans fil de Ljubljana (wlan-lj) et des lectures hebdomadaires de « Pipe’s Open Terms » (en coopération avec Cyberpipe).

[6] Kiberpipa/Cyberpipe est un collectif de défense de l’open-source et des libertés numériques. Dans le centre de Ljublljana, il crée une culture numérique, et informe experts et grand public par le biais de présentations, de lectures et d’ateliers.

[7] Ljudmila Le laboratoire de Ljubljana pour un média et une culture numérique (1994) est le premier laboratoire à but non-lucratif en Slovénie qui supporte la recherche inventive et créative, au travers de projets de travail autour de l’Internet, de la vidéo numérique, de l’art électronique, de la radio numérique, de la communication, du développement du logiciel open-source et connecte tout ceci dans une approche interdisciplinaire. Il promeut aussi aussi bien l’éducation en groupes autonomes qu’en ateliers et il est le fondateur du réseau de centres multimédia « M3C » en Slovénie.




Plaidoyer pour étudier le droit à l’école

Zara - CC by-saUn jour que je questionnais une élève sur ses pratiques numériques qui me semblaient un peu confuses, j’ai eu cette curieuse mais révélatrice réponse : « si je peux techniquement le faire, je ne vois pas pourquoi je me l’interdirais, de toutes les façons tout le monde le fait, et puis ça ne fait pas de mal à une mouche ».

L’élève étant manifestement de bonne foi (et bonne élève de surcroît), cet épisode me plongea dans un abîme de perplexité. Ici la possibilité de faire vaut droit de faire !

Effectivement, au sens propre du terme, on ne fait physiquement pas de mal à une mouche. Point besoin d’explication pour comprendre d’emblée que ce n’est pas bien de voler l’orange du marchand et que si d’aventure l’on s’y essayait on pourrait se faire prendre. Il en va autrement sur Internet où non seulement il est très facile et sans risque de voler l’orange, mais on ne sent pas spontanément que l’on est en train de commettre un délit puisqu’on ne dépossède pas le marchand de son orange, on ne fait que la copier[1].

J’eus alors l’idée de jeter un œil du côté des programmes officiels de l’institution scolaire. Et voici ce que je lus noir sur blanc dans celui de l’ECJS au lycée : « Le seul savoir nouveau auquel il faut initier les élèves, grâce à l’ECJS, concerne le droit, trop ignoré de l’enseignement scolaire français. Il s’agit de faire découvrir le sens du droit, en tant que garant des libertés, et non d’enseigner le droit dans ses techniques. »

Le droit serait donc trop souvent ignoré. Il est rare de voir l’Éducation nationale nous faire un tel aveu. Surtout lorsque, comme nous le rappelle l’adage, « nul n’est censé ignorer la loi ». Et puis il y a cette phrase à graver dans le marbre : « Il s’agit de faire découvrir le sens du droit en tant que garant des libertés ».

À sa décharge, reconnaissons que du temps d’avant Internet, un jeune était bien peu souvent confronté directement et personnellement à des questions juridiques. Mais la situation a changé aujourd’hui avec l’avènement des nouvelles technologies. Pas un jour sans qu’il ne rencontre, implicitement ou explicitement, des problèmes de vie privée, de droits d’auteur, de contrats ou de licences d’utilisation. Et rien ne distingue à priori un adulte internaute connecté au Net d’un adolescent internaute connecté au Net.

Un Internet qui est par essence ouvert, permissif et partageur. Rappelons-nous ce qui a été joliment dit dans un article précédent : « La copie est pour les ordinateurs ce que la respiration est pour les organismes vivants ».

Nous voici donc projetés dans un nouveau monde étrange où la copie est naturelle et donne accès à un formidable univers de possibles. Elle est tellement naturelle qu’il est presque impossible d’ériger des barrières techniques pour la limiter. Tôt ou tard elles seront levées. Si pour diverses raisons vous voulez la contraindre ou l’abolir, l’arsenal technique est vain. Il n’y a que la loi qui puisse vous secourir. Une loi non coercitive qui n’apporte pas automatiquement avec elle ses verrous numériques. Elle dit simplement ce qui doit ou ne doit pas être. Elle demande avant tout une posture morale. C’est pourquoi, ici plus qu’ailleurs, elle nécessite une éducation.

Oui, dans la pratique, je peux tout faire ou presque sur Internet, mais ai-je le droit de tout faire ? Et si tel n’est pas le cas, ai-je bien compris pourquoi on me le refuse ?

Non pas une éducation passive qui se contenterait d’égréner les grandes lois en vigueur. Mais une éducation active qui met en avant celles que les jeunes rencontrent même sans le savoir au quotidien. Une éducation qui interroge ces lois en même temps qu’elle en donne connaissance. D’où viennent-elles ? Comment ont-elles évolué ? Sont-elles toujours pertinentes aujourd’hui ? Une éducation qui ne s’interdit pas l’analyse critique en prenant conscience qu’à l’heure du réseau on peut réellement le cas échéant se donner les moyens de participer à leurs « mises à jour »

Dans le cas contraire, nous prenons le risque que la réponse de mon élève devienne la réponse de toute une génération.

Parce que si possibilité de faire vaut droit de faire, alors c’est le chaos qui nous guette et vous obtenez une armée de « rebelles sans cause » sur laquelle vous ne pouvez pas vous appuyer. On a ainsi pu dire, lors du débat sur la loi Hadopi, que l’on était en face de la « génération du partage ». Rien n’est moins vrai malheureusement, le partage existant bien moins dans la tête des jeunes que dans le paramétrage par défaut de leurs logiciels de P2P. Preuve en est qu‘ils se ruent désormais sur les plateformes de direct download (RapidShare, MegaVideo…) où tout est centralisé sur un unique serveur, où le partage a pour ainsi dire disparu.

Parce que si possibilité de faire vaut droit de faire, comment voulez-vous de plus expliquer à un jeune ce qu’est un logiciel libre. Il n’y verra aucune différence avec un logiciel gratuit ou piraté. Il n’aura alors plus d’autres qualités que celle de son usage, et à ce petit jeu-là c’est souvent le logiciel commercial cracké qui l’emporte.

Parce que si possibilité de faire vaut droit de faire, « l’Alternative Libre » ne sera ni comprise ni soutenue. Si adhésion, enthousiasme et énergie il y a chez ceux qui la défendent, c’est parce qu’ils savent que tout autour on érige des murs toujours plus hauts. Que ces murs puissent aujourd’hui facilement être franchis ou contournés n’est pas le plus important ici. C’est aussi en respectant scrupuleusement toutes les conditions d’utilisation, même les plus drastiques, des projets numériques que l’on découvre qu’il existe d’autres logiciels, d’autres encyclopédies, d’autres cartes du monde ou d’autres manières de faire de la musique.

Tout membre de la « Communauté du Libre » possède un minimum de connaissances juridiques. En face de la moindre ressource, son premier réflexe est de s’enquérir de sa licence. Quels sont mes droits et mes devoirs ? Quelles sont les conditions de son usage, de sa copie, de sa modification ? Il n’est ainsi guère étonnant qu’il soit l’un des seuls à réellement lire et respecter les contrats d’utilisation lorsqu’il installe un logiciel ou s’inscrit à un service Web. Ce savoir-là ne s’est pas construit grâce à l’école (parfois même malgré l’école). Il a été acquis sur le tas, en autodidacte, parce que, motivé, il a simplement cherché à comprendre de quoi il s’agissait. Se faisant notre membre s’est donné des clés pour mieux appréhender le monde contemporain, pour mieux y participer aussi.

On le retrouvera dès lors logiquement en première ligne de batailles DADVSI, Hadopi, ACTA, Brevets logiciels ou neutralité du réseau, qui sont autant des batailles politiques et techniques que des batailles juridiques qui ne peuvent être gagnées sans une connaissance précise et pointue de la legislation du moment. D’ailleurs, comme c’est curieux, ces batailles sont menées pour que le droit soit véritablement le « garant des libertés » et non l’inverse !

Ces batailles sont aussi menées au nom d’une certaine idée de la justice. On peut bien sûr s’y opposer parce qu’on en a une autre idée mais aussi longtemps que le droit sera ignoré à l’école, ce qui risque surtout d’arriver c’est de ne pas avoir d’idée du tout ! Méconnaissance et indifférence sont nos pires adversaires ici. Elles nous condamnent à faire partie d’une minorité d’initiés éclairés ne réussissant pas à trouver assez de renforts pour peser durablement sur le cours des évènements.

Oui, il y a urgence à démocratiser et « faire découvrir le sens du droit en tant que garant des libertés » à la jeune génération qui manque cruellement de répères en la matière, à un moment où, Internet oblige, de plus en plus de questions se posent tout de suite à elle. Différer à plus tard son étude revient non seulement à s’en remettre aveuglement entre les mains des experts mais surtout à prendre le risque de devenir un spectateur passif et inculte de l’évolution actuelle de nos sociétés.

Il est dit que « concourir à la formation de citoyens libres, autonomes, et exerçant leur raison critique dans une cité à laquelle ils participent activement est une des missions fondamentales du système éducatif ». Impossible de ne plus y inclure le droit dans ce noble et ambitieux objectif.

Notes

[1] Crédit photo : Zara (Creative Commons By-Sa)




De la motivation au sein d’une communauté

Il est fort probable que vous ayez déjà vu la vidéo ci-dessous. Elle m’est revenue en mémoire à la faveur du précédent billet De la confiance au sein d’une communauté dont elle lui fait en quelques sorte écho.

Cette vidéo me passionne dans le fond et dans la forme.

Le fond c’est son sujet, à savoir la motivation. Qu’est-ce qui nous motive au juste ?, se demande ici Dan Pink, en fustigeant l’efficacité des récompenses traditionnelles, argent en tête de gondole.

Pour vous la résumer, rien de tel que ce commentaire glané sur le site Rue89 :

« Des études comportementales scientifiques, indubitablement indépendantes du complot socialo-communiste mondial (MIT, unversité de Chicago et Carnegie, financées par la banque fédérale US), démontrent que, si l’amélioration de la productivité d’une tâche mécanique peut-être induite par sa récompense en terme de rémunération, ce n’est pas le cas des tâches cognitives et créatives.

Dans ce cas, le principe de la carotte est plutôt contre-productif. Pour les œuvres humaines plus compliquées que le travail à la chaine, en effet, les trois facteurs identifiés comme induisant une amélioration de la créativité, de la productivité et de la qualité sont :

  • Autonomy, qui se traduit comme ça se prononce.
  • Mastery, le développement personnel et la recherche de l’expertise.
  • Purpose, le but de l’activité, qui sera autant de motivation qu’il satisfait aux critères éthiques et moraux du collaborateur.

Ces résultats, outre qu’ils expliquent l’efficacité de modèles de développement coopératifs tels que Linux ou Wikipédia, remettent en question les dogmes du management, voire de notre modèle économique.

  • Taf à la con où humain = machine : motivation = thunes.
  • Taf intelligent où humain = 1 cerveau au bout des bras : motivation = autonomie + développement personnel + éthique.

C’est-à-dire le contraire de l’idéologie globalement à l’œuvre dans l’organisation de nos sociétés. »

Rien d’étonnant à ce que les deux plus célèbres projets libres soient cités en exemple parce qu’ils corroborent à merveille la théorie. On prend d’ailleurs bien soin de souligner que la participation à ces projets se fait après le boulot (alimentaire ?), sur notre temps libre.

Confiance et motivation ont assurément contribué à leur réussite. Et comme par hasard c’est ce qui semble faire le plus défaut aujourd’hui dans le monde du travail (cf par exemple les interventions de Bernard Stiegler sur la déprolétarisation et l’économie de la contribution).

Mais la forme de la vidéo est tout aussi remarquable, c’est-à-dire la mise en graphique, réalisée par la société londonienne Cognitive Media pour le compte de la RSA (Royal Society for the encouragement of Arts, Manufactures & Commerce), qui suit, illustre et structure visuellement en temps réel les propos de Dan Pink. Le dessin sollicite autrement la vue et donne sens à ce que l’on entend, apportant véritablement quelque chose en plus.

Il est vrai que cela a un côté un peu violent, parce qu’on est en quelque sorte bombardé d’informations multi-directionnelles. Mais ne pouvant prendre notre souffle, on est comme happé par l’exposé. Impossible d’en sortir ou de s’ennuyer, sauf à complètement se déconnecter.

À l’heure de la rentrée scolaire qui s’en vient à grands pas, l’enseignant que je suis trouve cette approche pédagogique extrêmement intéressante. Non seulement j’ai bien compris (alors que je n’ai qu’un piètre niveau d’anglais) mais je crois déjà, en une seule vision, en avoir retenu l’essentiel, sachant que, malgré la densité du discours, on fait tenir le tout en une dizaine de minutes top chrono[1] !

Et si jamais quelque chose vous a échappé, il suffit de la regarder à nouveau, quand vous voulez sur Internet, sans compter que, cerise sur le gâteau, vous obtenez à la fin un énorme, unique et cohérent poster de tous les dessins effectués prêt à être imprimé !

Le format est donc tout bonnement excellent (faudrait que Thierry Stœhr en consacre un billet sur son blog dédié, si ne c’est déjà fait).

Je me prends déjà à rêver d’une forge libre pleine à craquer de ce genre d’animations. Ce sont mes élèves qui seraient contents ! Mais aurait-on alors besoin des profs ? Si, oui, quand même un peu je pense 😉

D’ailleurs à ce propos, je suggère aux collègues d’anglais de trouver un prétexte pour montrer un jour cette vidéo à leurs lycéens, ça en vaut la peine et pourrait faire l’objet d’un intéressant débat dans la foulée, surtout si quelques uns ne savent pas encore ce qu’est Linux ou comment fonctionne Wikipédia.

Bon, il serait peut-être temps de la montrer, cette vidéo après une telle introduction…

—> La vidéo au format webm

URL d’origine de la vidéo sur RSA.org et au format Ogg sur TinyOgg.

Il en existe aussi une version sous-titrée en français, mais c’est presqu’alors impossible de suivre les dessins en direct live ! (mieux vaut plutôt écouter Dan Pink dire à peu près la même chose lors d’une conférences TED, autre format riche et pertinent).

Remarque : Il y a d’autres animations sur RSA.org sur des sujets aussi passionnants que l’empathie de notre civilisation, la question de l’éthique et de la charité et la crise du capitalisme.

Notes

[1] Note : L’article sur La Confiance a été peu parcouru, un commentaire me faisant de suite remarquer qu’il souffrait d’un syndrome qui affectie souvent ce blog, le syndrome TLDR, à savoir « Too Long; Didn’t Read » soit « Trop long pour être lu ». Il aurait dû lui aussi faire l’objet d’une telle animation !




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




De l’hacktivisme au web 2.0 – De la révolution à sa dissolution ?

Daniel Zanini H. - CC byLes mouvements alternatifs d’émancipation portés par le numérique, dont le logiciel libre fait partie, ont été récupérés et domestiqués par le système et sa force marketing sous la bannière et le vocable du « web 2.0 ».

Un web 2.0 qui présente de plus l’avantage de favoriser l’institution d’une sorte de totalitarisme global décentralisé avec notre complicité et toutes les traces personnelles, permanentes et continues, que nous laissons, le plus souvent volontairement, dans les nuages d’Internet.

Avec l’avènement du web 2.0, non seulement vous voyez s’éloigner le rêve d’une autre société mais vous renforcez le contrôle et la surveillance de l’actuelle ! Difficile de faire pire en quelque sorte…

Telle n’est pas mon opinion mais mon propre (et donc faillible) résumé d’un article parcouru récemment sur Indymedia dont le titre exact est “Become the media!” : de l’hacktivisme au web 2.0.

Attention, c’est dense, politisé et plein de références à des auteurs qui vous seront peut-être peu familiers si vous ne baignez pas dans une certaine culture intellectuelle « de gauche » (cf Félix Guattari, Jello Biafra, Walter Benjamin, Jean Baudrillard, Gilles Deleuze, Michel de Certeau, Michel Maffesoli).

Nous en avons reproduit la fin ci-dessous pour vous donner (ou non) l’envie de le parcourir dans son intégralité[1].

Je ne vous cache pas qu’il m’intéresse d’avoir vos réactions dans les commentaires. En espérant que les uns et les autres sauront s’écouter et échanger en toute sérénité sur un sujet, je le reconnais bien volontiers, un peu glissant. Un petit débat courtois et non un gros troll poilu pour le dire autrement 😉

Pour ce qui me concerne, je ne partage pas la radicalité et le pessimisme du propos et j’ai justement l’impression que les actions que nous menons participent modestement à échapper à ce piège. Mais il est vrai que lorsque le « logiciel libre » devient « open source », il prend le risque de perdre en route tout ce qui fait sa substantifique moelle.

“Become the media!” : de l’hacktivisme au web 2.0 (extraits)

URL d’origine du document

Dr No – 26 juillet 2010 – Indymedia Nantes

(…)

Quoiqu’il en soit, ce dont il s’agit là encore finalement, avec cette « réappropriation », ce « devenir-media » de la masse et cette « démocratisation » des dispositifs d’informations et de communication, c’est du déploiement toujours plus important d’un macro-système technique, d’un maillage global comme dispositif de socialisation forcée par dressage à la discipline inconsciente d’un code, c’est-à-dire – à l’instar du système électoral ou de la consommation – d’imposition de règles du jeu (ici de la communication) et d’intériorisation de ces règles comme subtil mode de mobilisation et de contrôle social. Indépendamment des contenus qui n’en sont que l’alibi, le médium – le code, le modèle, la forme, le canal, le dispositif, la technique – est le message, il influe directement sur nos modes de perception sensibles, modifie nos rapports à l’espace et au temps et par conséquent nos modes d’être-au-monde. En l’occurrence, « ce qui est médiatisé, ce n’est pas ce qui passe par la presse, la TV, la radio : c’est ce qui est ressaisi par la forme/signe, articulé en modèles, régi par le code. » La réappropriation du code ne jouant donc là au final que comme « reproduction élargie du système » sous couvert de nouvelles modalités. C’est pourquoi il ne faut jamais sous-estimer la capacité de ce système à intégrer les innovations (même et peut-être surtout si elles se veulent « révolutionnaires ») a fortiori si celui-ci fonctionne sur les principes d’interaction, de réversibilité, de participation et de feed-back comme c’est d’ailleurs le cas aujourd’hui beaucoup plus qu’hier.

« l’éthique hacker », l’utopie cyberpunk et les expérimentations cyberculturelles, les trouvailles de « l’hacktivisme » électronique et de « l’Internet militant », du mouvement des logiciels libres, l’Open Source, l’Open Publishing, le P2P, le Wi-Fi, les média-tactiques alternatives, collaboratives et communautaires elles-mêmes, c’est-à-dire en somme toutes ces « pratiques moléculaires alternatives » que Félix Guattari appelaient de ses vœux pour renverser le pouvoir grandissant de l’ingénierie logicielle et les nouvelles modalités de la « société de contrôle » ont pour la plupart, dans ce qu’elles avaient d’original et novateur, été absorbées et recyclées par celle-ci et les industriels pour donner naissance à ce que l’on peut appeler les nouveaux « agencements post-médiatiques » du web 2.0.

C’est-à-dire toutes ces nouvelles applications de l’Internet « participatif » et « collaboratif » basé sur le principe du « contenu généré par les utilisateurs », ce qui précisément, on l’aura remarqué, était bien l’idée de « l’open publishing » (publication libre) proposé par le réseau international des sites Indymedia dans l’esprit du partage horizontal de l’information, de la participation et de la collaboration en vue de favoriser l’auto-organisation des groupes et des individus constitués en « machines de guerre » contre l’axiomatique mondiale exprimée par les Etats.

Un Web 2.0 dit « participatif » et « collaboratif » donc, où effectivement, convergence numérique aidant, la masse devient son propre média (MySpace, Facebook, YouTube, Twitter, Wikis et autres blogs), engendrant à leur tour de nouveaux usages qui inspirent également de nouveaux produits, services et dispositifs reconfigurant de fond en comble notre rapport au monde et nos relations sociales, tout en développant de nouveaux marchés ainsi que de nouveaux « business models » (management 2.0, marketing 2.0, « gratuité », « co-création de valeur », etc.) qui incarnent des changements de paradigmes économiques par où se joue la mutation du capitalisme. Car en effet, force est de constater que les principes du « participatif », du « collaboratif », de la « coopération » et du « partage » sont aujourd’hui devenus les principaux éléments d’un nouvel esprit du capitalisme de l’ère 2.0 fonctionnant par « boucles de récupération » et recyclage écosystémique des singularités comme moteur et dynamique de l’innovation (technologique, économique, culturelle, sociale, etc.). C’est en quelque sorte ce qui se présente plus communément aujourd’hui sous l’appellation d’ « innovation ascendante » qui consiste justement pour les entreprises et/ou les institutions à observer, et même à favoriser, les pratiques de réappropriation, investissement, exploration, détournement, expérimentation par les usagers/consommateurs des produits, services et technologies dans le but de réintégrer les éventuelles micro-inventions et les « usages innovants » dans leur propre processus de création et développement industriel, commercial, technocratique, etc.

C’est une dynamique qui s’appuie sur la compréhension des comportements que permet en l’occurrence la « sociologie des usages » et notamment les travaux de Michel de Certeau sur ce qui constitue en quelque sorte les « arts de faire avec » . Recherche qui se voulait un travail de compréhension et en premier lieu de mise en valeur des arts de vivre la société de consommation, par élaboration de « lignes de fuites » (Deleuze et Guattari) pourrait-on dire, c’est-à-dire plus particulièrement des ruses subtiles, des tactiques de résistance, de contournements, détournement, réappropriation, braconnage, dissimulation, en somme toute la multitude de pratiques inventives et créatives qui se disséminent dans la banalité du quotidien des usagers/consommateurs et que la rationalité occidentale, selon les mots de l’auteur, aurait eu trop tendance à occulter. Et on pourrait voir dans ce travail la saisie de l’essence même de la notion anglo-saxonne de « hacking », de son esprit ou de son éthique élargie à l’ensemble de la société. Quoiqu’il en soit, on le voit bien, ce dont il s’agit avec « l’innovation ascendante » mise en œuvre dans le nouveau paradigme économique des entreprises les plus à l’avant-garde du capitalisme c’est de capter/capturer la puissance créatrice de la socialité de base, l’énergie et le vitalisme qui émergent de ce que Michel Maffesoli appelle la « centralité souterraine ». Dans le même ordre d’idée se développe aujourd’hui dans les milieux du marketing et du management, par le biais des différentes plateformes multimédias de la société en réseaux, le « crowdsourcing » (approvisionnement par la foule) qui consiste pour une entreprise là encore à faire « participer » et « collaborer » directement la foule des internautes comme usagers/consommateurs à la recherche et au développement de nouveaux produits et services, à apporter des améliorations, etc..

Enfin, toutes choses mettant en œuvre un processus communicationnel global s’appuyant sur des dispositifs de « feed-back » et des mécanismes circulaires tout à fait caractéristiques des boucles causales rétroactives qui furent à la base de la modélisation des systèmes cybernétiques qui simulent les lois de la nature et dont la finalité, rappelons-le, est le Contrôle par auto-régulation comme mode de management et de gouvernance.

Des systèmes de contrôle et de gouvernance de l’ère des machines de « troisième espèce » qui se déploient sur toute l’étendue de la vie quotidienne par le biais de la globalisation d’un méga-réseau engagé dans un processus matriciel. Une « matrice communicationnelle », un maillage systémique à vocation ubiquitaire qui tend par ailleurs à rendre obsolètes les modèles panoptiques de surveillance hyper-centralisés et transcendants de type orwellien qu’incarne la fameuse figure de « Big Brother ». Car en effet, ce à quoi on a de plus en plus nettement affaire aujourd’hui c’est à un processus de capillarisation du Contrôle en quelque sorte et qui tend par là à devenir totalement immanent.

Comme le remarquait déjà pertinemment Jean Baudrillard au début des années 70 « même à long terme, l’impossibilité des mégasystèmes policiers signifie simplement que les systèmes actuels intègrent en eux-mêmes, par le feed-back et l’autorégulation, ces métasystèmes de contrôle désormais inutiles. Ils savent introduire ce qui les nie comme variables supplémentaires. (..) Ils ne cessent donc pas d’être totalitaires : ils réalisent en quelque sorte l’idéal de ce que l’on peut appeler un totalitarisme décentralisé. » Par ailleurs, dans son texte annonçant l’avènement d’une "subjectivité post-médiatique" Félix Guattari rappelait que toutes les anciennes formations de pouvoir et leurs façon de modéliser le monde avaient été déterritorialisées. C’est ainsi, disait-il, que « la monnaie, l’identité, le contrôle social passent sous l’égide de la carte à puce. » Car en effet, ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

Mutation post-industrielle du capitalisme de plus en plus flexible, flottant, immatériel, sémiotique et cognitif, où le « service de vente » devient le centre ou l’âme de « l’entreprise » qui a remplacé « l’usine » de production désormais démantelée, automatisée, externalisée et assez souvent reléguée en périphérie du tiers-monde à l’instar des grandes enseignes multinationales qui se concentrent sur les logiques de Communication et le développement médiatique, si ce n’est psycho-technique, de leur « image de marque ». « On nous apprend que les entreprises ont une âme, ce qui est bien la nouvelle la plus terrifiante du monde. Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze. De même, « il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Vision qui prend d’autant plus d’importance aujourd’hui avec l’informatisation généralisée de la société, l’injonction à la mobilité, l’hyperconnectivité et les projets de dissémination des technologies numériques et autres puces communicantes (informatique ubiquitaire/ubimedia) dans tout l’environnement physique de nos métropoles postmodernes où peut désormais s’opérer de façon massive, par la grâce de l’ingénierie logicielle, la traçabilité, la géolocalisation, le fichage et le profilage des « dividus » dispersés dans les flux et les réseaux, dans et par lesquels se dispensent désormais leur être-au-monde fantomatique sous « le règne de la Technique planétaire »

Notes

[1] Crédit photo : Daniel Zanini H. (Creative Commons)




Pourquoi je ne participerai pas au Concours Lépine

BookLiberatorTout le monde connaît ou tout du moins a déjà entendu parler du Concours Lépine. Il s’agit d’un concours annuel récompensant une invention originale.

Souvent la presse s’amuse à mettre en avant les projets un peu farfelus, comme cette toilette auto-nettoyantes pour chiens (sur tapis roulant) ou cette caravane qui tracte la voiture (et non l’inverse), mais d’autres ont été de véritables succès qui continuent de nous être grandement utiles : le stylo à bille, le moteur à deux temps, le fer à repasser à vapeur ou encore les verres de contact.

Maintenant la question du titre de ce billet.

Si je ne participerai jamais au Concours Lépine, c’est que je manque cruellement d’imagination, ai peu de sens pratique et suis un bien piètre bricoleur.

Mais il y a une autre raison. Pour s’inscrire au concours il faut « avoir une invention ou innovation protégée par un titre de propriété industrielle et/ou intellectuelle ». Dans tout dossier d’inscription, on vous demande invariablement votre « numéro de brevet ».

Le Concours Lépine a vu le jour en 1901. On comprend assez bien pourquoi tout au long du XXe siècle on ait eu besoin de cette condition.

Mais au XXIe siècle, avec les licences libres, Internet, les communautés, etc. est-on toujours obligé de conserver cette modalité ?

RepRap, Arduino… de plus en plus d’inventeurs envisagent dès le départ leur projet comme un projet libre et s’inscrivent alors dans une tout autre démarche (ce qui n’interdit en rien d’en faire profit).

C’est la réflexion que je me suis faite en tombant sur le BookLiberator (cf image ci-dessus), sorte de cage à numériser plus facilement les livres (cf cette vidéo pour tout de suite comprendre le principe).

C’est encore pas mal artisanal pour le moment et on ne peut pas vraiment dire que ce soit l’invention du siècle. Mais si ça s’améliore collectivement, si d’autres arrivent avec des projets d’appareils photos libres associés à de performants logiciels d’OCR libres, ça peut devenir fort intéressant. Sachant que c’est un élément de plus à ajouter dans la marmite des Biens Communs.

Et puis un jour, on aura ainsi dépassé Google Books sans même s’en apercevoir 😉

PS : Ceci étant dit, inventer un super truc, le breveter et vivre tranquillement des rentes de cette invention jusqu’au restant de mes jours (et même ma descendance après ma mort), ça pourrait être pratique pour financer Framasoft !




Le Libre Accès ou le retour de la Grande Conversation par Jean-Claude Guédon

« Pour partir de loin, je dirai que le Libre Accès répond a une situation de base importante, qui est que la science, globalement et mondialement, est une Grande Conversation.

Et ce processus de découvertes et d’inventions, que l’on trouve dans la science et la technologie d’ailleurs, repose sur la facilite de converser, d’échanger et de construire sur la base de choses antérieures et ainsi de site.

Or on est dans une situation où pour des raisons multiples, complexes et historiques largement, la conversation a été entravée, empêchée, diminuée, ralentie, rendue plus exclusive pour certains au détriment d’autres et ainsi de suite.

Et tout le mouvement du Libre Accès vise quelque part à restaurer les conditions optimales de cette Grande Conversation.

C’est-à-dire de permettre à n’importe qui a les moyens de lire ces textes d’une façon ou d’une autre, d’aller chercher ces textes facilement, de les consulter facilement, de travailler avec eux, d’élaborer d’autres textes, d’autres recherches, d’autres résultats, et ainsi de suite.

Donc le Libre Accès est simplement une manière de mettre en oeuvre un rêve ancien qui était celui de la République des Lettres et des Sciences du XVIIe siècle, qui était de créer une Grande Conversation avec un certains nombres de pairs. Les pairs en l’occurrence étant ces gens qui étaient égaux les uns aux autres par la façon dont ils avaient réussi à se former, à devenir des scientifiques, à travailler ensemble.

Le Libre Accès à lui tout seul ne résoudra pas tous les problèmes de la science contemporaine. Mais le Libre Accès déjà donne une première réponse partielle aux inégalités qui se sont développées graduellement dans le monde scientifique, dans la Républiques des Sciences, en donnant une chance nouvelle à cette Grande Conversation.

Et aussi en développant peut-être des possibilités tout à fait nouvelles pour la question de l’enseignement. Car évidemment quand on a accès aux derniers résultats de la recherche, on peut enseigner une science plus à jour, plus proche du fond de la recherche, et ainsi amener les étudiants plus près d’une capacité d’intervenir beaucoup plus forte… »

La suite de ce passionnant entretien avec Jean-Claude Guédon, ci-dessous en vidéo :

—> La vidéo au format webm

URL d’origine du document

Réalisation Alain Ambrosi – Image et montage Abeille Tard – Production Vecam / C&F éditions

Ce document est issue du très intéressant DVD, ou plutôt doculivre, Sciences & démocratie, véritable mémoire du premier Forum mondial éponyme qui s’est déroulé à Belém en janvier 2009. D’autres extraits sont disponibles sur le site du projet.

L’occasion pour nous de saluer et faire connaître l’excellent travail de la maison d’édition C & F Éditions animée entre autres par Hervé Le Crosnier.