OpenOffice.org n’est pas mort, Vive LibreOffice !

Terry Ross - CC by-saComme le souligne avec malice notre ami Gee, la suite bureautique libre LibreOffice 3.3 vient de voir le jour.

Sauf que, comme son numéro ne l’indique pas, c’est sa toute première version stable. Mais alors pourquoi n’a-t-on pas logiquement une version 1.0 ? Parce qu’il s’agit d’un fork de la célèbre suite OpenOffice.org qui, au moment de la séparation, en était restée à la version 3.2.

Petit rappel Wikipédia : « Un fork, ou embranchement, est un nouveau logiciel créé à partir du code source d’un logiciel existant. Cela suppose que les droits accordés par les auteurs le permettent : ils doivent autoriser l’utilisation, la modification et la redistribution du code source. C’est pour cette raison que les forks se produisent facilement dans le domaine des logiciels libres. Les forks sont perçus par certains comme une épée de Damoclès au-dessus des auteurs des projets les moins bons, et aussi comme une méthode pour empêcher l’appropriation d’un projet par un groupe. La « peur de l’embranchement » est un des mécanismes essentiels de régulation et de sélection des projets libres. »[1]

Vous êtes un développeur d’un logiciel libre non satisfait de la manière dont évolue le projet ? Vous avez donc cette possibilité essentielle que constitue le fork. Mais il y parfois un gouffre entre la théorie et la pratique, car il n’est pas simple de reconstituer une communauté active autour du projet dérivé.

C’est pourtant justement ce que vient de réussir l’équipe de LibreOffice, structurée autour de la Document Foundation et qui a décidé de quitter le navire OpenOffice.org suite au rachat de Sun par Oracle. Ce dernier ayant refusé de rejoindre le projet et de céder la marque OpenOffice.org (qu’il continuera de développer par ailleurs), c’est donc désormais LibreOffice (ou LibO) qui sera l’un des fers de lance du logiciel libre grand public aux côtés de Firefox ou GNU/Linux.

LibreOffice 3.3 : les véritables enjeux

The Deeper Significance of LibreOffice 3.3

Glyn Moody – 28 janvier 2011 – ComputerWolrd.uk
(Traduction Framalang : Yonel et Don Rico)

Sur le blog RedMonk, James Governor a publié un billet amusant à propos des forks, suite à l’arrivée imminente d’une mise à jour majeure d’Android, la 3.0, dont le nom de code est « Honeycomb », et laquelle a été conçue en pensant aux tablettes :

Ainsi que le voudrait la sagesse populaire, les développeurs ne devraient pas s’attaquer à des environnements multiples. Ben voyons… le genre de sagesse qui nous a valu une décennie où il n’y en a eu que pour Java, et une vingtaine d’années pendant lesquelles dès qu’il y fallait choisir une architecture on collait du Oracle partout. Avouons que pour l’instant, Android est vraiment pas mal sur les téléphones. J’aime beaucoup mon HTC Desire. J’ai aussi la chance de pouvoir faire joujou avec un Dell Streak qu’on m’a prêté ; encore un bon petit appareil, qui fait bien son boulot pour m’accompagner devant la télé. Mais Android n’a pas été conçu pour un format plus grand, comme l’iPad 10 pouces d’Apple, du moins dans ses premières versions.

Et comme il le fait remarquer :

Tous les éditeurs de logiciels doivent gérer des codebases multiples, en particulier pour les progiciels. Si une entreprise doit gérer les deux codebases, est-ce vraiment un fork ?

Je dirais qu’il s’agit plus de fragmentation, et qu’on en voit partout – dans Android lui-même, dans Windows, admettons, et dans le monde de GNU/Linux à travers les centaines de distributions, chacune avec des versions et des configurations différentes. Rien de bien nouveau.

Les vrais forks ne courent pas les rues, précisément à cause des différences entre le fork et la fragmentation. Cette dernière peut être gênante ou pas, mais elle est rarement aussi douloureuse qu’un fork peut l’être. En général, les forks déchirent les communautés et forcent les programmeurs à choisir leur camp.

C’est ce qui rend l’apparition de LibreOffice si intéressante : c’est un vrai fork, avec des décisions réelles et douloureuses que doivent prendre les codeurs – où vont-ils ? Et à la différence de la fragmentation, qui souvent se produit naturellement et perdure pour un tas de raisons en grande partie banales, les forks exigent beaucoup de travail pour survivre. Résultat, de nombreux forks échouent, car il est souvent plus facile de rester ou de revenir au projet d’origine, plutôt que de se battre pour en installer et en faire grandir un nouveau.

Dans ce contexte, la publication récente de LibreOffice 3.3 est un jalon important, au moins pour ce qu’elle a déjà réussi :

La Document Foundation présente LibreOffice 3.3, la première version stable de la suite bureautique libre développée par la communauté. En moins de quatre mois, le nombre de développeurs codant LibreOffice est passé de moins de vingt à la fin septembre 2010, à largement plus d’une centaine aujourd’hui. Cela nous a permis de publier en avance par rapport au calendrier audacieux fixé par le projet.

À l’évidence, attirer les développeurs est une épreuve cruciale pour le potentiel de survie du fork, et même de son épanouissement. D’autres points importants :

La communauté des développeurs a pu bâtir ses propres méthodes en toute indépendance, et devenir opérationnelle en très peu de temps (eu égard à la taille du codebase et aux grandes ambitions du projet).

Grâce au grand nombre de nouveaux contributeurs qui ont été attirés par ce projet, le code source est vite soumis à un nettoyage d’ampleur, pour offrir une meilleure base aux développements de LibreOffice à venir.

C’est-à-dire que LibreOffice n’en est plus au stade de vague projet, ou à celui des étapes pénibles comme définir l’infrastructure qui permettra au projet d’avancer. La signification de cette réussite va au-delà du fait que la Fondation propose aux utilisateurs une alternative libre à OpenOffice (qui vient également de sortir sa dernière version). La possibilité de choix étant au coeur du logiciel libre, c’est donc certainement une bonne nouvelle, surtout à cause de la politique de copyright de LibreOffice, que j’ai déjà évoquée.

Mais je pense que LibreOffice a une importance supplémentaire parce qu’il représente une attaque délibérée contre la façon dont Oracle traite son catalogue open-source. Hélas, le mécontentement qui a poussé à cette scission va bien plus loin que le seul domaine des suites bureautiques.

L’attitude d’Oracle envers la communauté open-source semble empirer, c’est de plus en plus évident. Marc Fleury le résume bien dans ce billet révélateur. Fondateur de Jboss, et l’un des vrais innovateurs en termes de modèles économiques reposant sur l’open-source, il sait certainement de quoi il parle quand il s’agit de diriger des codeurs open-source dans un contexte professionnel, ce qui rend des commentaires comme celui-ci particulièrement significatifs – et inquiétants pour Oracle :

Il y a d’abord eu le fiasco OpenOffice/Libre Office, où OpenOffice a été forké dans la plus grande partie par sa propre communauté. Puis il y a eu le caprice d’Apache concernant Java/JCP, quand le groupe a bruyamment quitté le JCP (NdT : Java Community Process) après des prises de bec sur les licences open-source de la JVM (Harmony). Et en ce moment, il y a d’autres bisbilles, dont une au sujet de NetBeans. Mais celle qui me concerne le plus (ainsi que mon porte-monnaie), cela concerne un projet mené par un employé de Cloudbees.

Si je comprends bien la situation, le principal développeur était employé par Sun quand il a initié Hudson. Oracle revendique donc l’identité et la marque, ce qui en toute franchise est aberrant, puisque la licence est open-source et que les gars de Cloudbees peuvent poursuivre leur travail sans entrave. Reste donc une dernière étape : la création d’un fork du projet. Et voilà… une grande partie de la communauté open-source dit merde à Oracle.

Ce que LibreOffice montre (jusqu’ici, en tout cas) c’est que dans ces circonstances, il y a bien une vie après Oracle, que les gens se regrouperont dans un fork au lieu de l’éviter, et que le travail alors fourni amène des améliorations non négligeables. Il est vrai que cet argument ne s’appuie que sur un seul exemple, et il faudrait être un expert bien téméraire pour essayer d’en extrapoler quoi que ce soit. Mais cela reste une source d’inspiration importante et tentante pour les codeurs contrariés qui grognent sous le joug d’Oracle. Après tout, comme le met en évidence le nom de LibreOffice, il ne s’agit pas que de code. Il s’agit aussi de liberté.

Notes

[1] Crédit photo : Terry Ross (Creative Commons By-Sa)




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Facebook, petite analyse anthropologique avec YourOpenBook.org

Mohd Shazni - CC by L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en-ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.[1].

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique. Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut[2] ou CopainsDAvant[3]. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

Finalement il apparaît que Facebook, l’utiliser c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird[4] me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten: Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

  • Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.
  • Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).
  • Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »
  • Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.
  • Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.
  • Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Notes

[1] Crédit photo : Mohd Shazni (Creative Commons By)

[2] Orkut.com, vous connaissez ? C’est l’un des véritables échecs de Google 🙂 Avec les Google Waves ou encore le Google Buzz…

[3] J’ai toujours été très curieux.

[4] En fait j’suis même passé à du mutt + fdm désormais…




Quand on ne peut rivaliser, on se déclare ouvert pour masquer son incompétence

Tuftronic10000 - CC bySavez-vous ce qu’est un « FUD » ? C’est l’acronyme de Fear, Uncertainty and Doubt et Wikipédia nous dit que c’est une technique rhétorique consistant « à tenter d’influencer la perception de son audience en disséminant des informations négatives, souvent vagues et inspirant la peur ».

J’ai comme l’impression que le responsable Microsoft de l’Amérique Latine est un orfèvre en la matière, à en juger par les cinglantes déclarations ci-dessous[1].

Elles sont rapportées par un envoyé spécial brésilien dont on apprend en fin d’article qu’il a voyagé sur invitation de Microsoft.

Microsoft critique la position du gouvernement brésilien concernant le logiciel libre

Microsoft critica posição do governo brasileiro sobre o software livre

Bruno Romani – 14 septembre 2010 – Folha.com
(Traduction Framalang : Thibz)

Le president de Microsoft Amérique Latine, Hernán Rincón, a envoyé un message au gouvernement brésilien : l’innovation des logiciels ne se trouve pas dans le secteur public mais dans le secteur privé.

La déclaration a été faite après qu’il fut interrogé sur la position du gouvernement brésilien et son soutien aux logiciels libres en général et à Linux en particulier.

Lors d’une rencontre entre journalistes d’Amérique Latine à Bellevue, dans l’État de Washington, il a affirmé : « Les gouvernements doivent s’interroger : leur rôle est-il de servir les citoyens ou de développer des logiciels ? L’innovation est dans le secteur privé. ».

Selon Rincón, les logiciels libres demandent plus de travail et d’investissement de la part d’un gouvernement pour les maintenir en bon fonctionnement et à jour, ce qui ne serait pas le cas lorsque les entreprises se chargent de le faire à la place des gouvernements.

Mais Rincón pense que les deux modèles, logiciels libres et propriétaires, continueront à coexister.

Concurrence

Rincón a aussi épinglé la concurrence qui parie sur les standards ouverts et gratuits, comme Google. Il a ainsi affirmé : « Quand on ne peut pas rivaliser, on se déclare ouvert pour masquer son incompétence. ».

Et Rincón d’ajouter : « Au moment opportun, les entreprises se déclarent ouvertes. Elles l’utilisent pour leur propre bénéfice. ».

Chiffres

Rincón a aussi présenté des chiffres optimistes sur la région.

Selon lui, lors de ces 7 dernières années, la région a eu de la croissance économique (sauf en 2008). Et le secteur technologique y a fortement contribué puisqu’en Amérique Latine, il a été, en moyenne, 2 à 3% supérieur à la croissance de la région. L’année dernière par exemple, la croissance du PIB regional a été de 5% alors que celle de la technologie de l’information a augmenté de 7% à 8%.

Le Brésil, dit Rincón, a eu un rôle de premier plan dans ce processus.

Et Microsoft Amérique Latine a accompagné cette croissance. Rincón dit que sa division est celle qui croît le plus parmi toutes les divisions régionales. Le chiffre d’affaires actuel serait ainsi 3 fois supérieur à ce qu’il était il y a 7 ans.

Selon lui, 95% des ordinateurs d’Amérique Latine seraient sous Windows, 1,3% sous Apple et entre 2% et 3% sous Linux.

Le journaliste a voyagé sur invitation de Microsoft.

Notes

[1] Crédit photo : Tuftronic10000 (Creative Commons By)




Le logiciel libre en entreprise expliqué par un communiqué de presse

Ed Yourdon - CC by-saOn m’a envoyé aujourd’hui un communiqué de presse via le formulaire de contact du blog.

Je l’ai trouvé fort instructif et j’ai décidé de vous le reproduire ci-dessous dans son intégralité, à ceci près que j’ai effacé le vrai nom de la société et de son logiciel phare qui deviennent ici « Société-X » et « CMS-X » .

D’un simple copier/coller sur un moteur de recherche, il est facile de les retrouver, là n’est pas le propos[1].

Le propos c’est que ce communiqué illustre me semble-t-il assez bien le modèle économique choisi majoritairement par les entreprises qui intègrent du logiciel libre – ou plutôt open source – dans leur stratégie de développement. Dans le fond avec sa déclinaison du produit en version « Community » et en version « Entreprise » (elle-même en double licence, libre ou propriétaire), mais aussi dans la forme avec le ton et le style particuliers adoptés par le communiqué.

Communiqué de presse de la « Société-X »

Société-X renforce sa stratégie d’innovation et offre une nouvelle solution à ses clients professionnels.

Alors qu’aujourd’hui seuls les ingénieurs de Société-X développent le coeur du CMS-X, Société-X a annoncé à l’occasion de sa conférence annuelle des changements importants afin d’encourager et d’intégrer les contributions de sa communauté Open Source dans sa plate-forme de gestion de contenu CMS-X. A partir de la prochaine version de CMS-X sortant dans les prochains jours, Société-X ouvrira ses processus de développement à sa communauté et permettra à ses membres de contribuer directement à l’évolution de la solution CMS-X. Cette initiative est centralisée dans le cadre du projet « CMS-X Community Project ».

En parallèle, Société-X proposera à ses clients professionnels une nouvelle version de sa solution en annonçant CMS-X Enterprise, version suivant des processus qualité très stricts et officiellement supportée, maintenue par Société-X sous la forme d’une souscription annuelle. CMS-X Enterprise, tout en profitant pleinement de l’innovation accélérée dans CMS-X Community Project, sera maintenu dans une code base séparée soumise à du testing intensif et intégrant des modules très spécifiques seulement disponibles aux clients ayant souscrit à CMS-X Enterprise Subscription.

Ces améliorations permettront d’offrir une nouvelle valeur ajoutée à la communauté Open Source, aux clients et aux partenaires.

Cette annonce est une formidable opportunité pour les partenaires et membres de la communauté qui seront en mesure d’influencer largement la road map et les futures orientations de l’application CMS-X. Ainsi, les 50.000 membres de la communauté pourront contribuer simplement au développement de la solution et participer à la gouvernance du projet « CMS-X Community Project ». CMS-X est une plate-forme de CMS reposant sur les meilleurs standards du marché pour une utilisation en contexte professionnel. Elle offre pour les entreprises un haut niveau de support disponible par abonnement.

CMS-X sera donc disponible en deux versions :

  • La version communautaire développée sur la base SCRUM et dédiée aux développeurs, chercheurs…
  • La version CMS-X Enterprise conçue pour une utilisation professionnelle. Elle est disponible en deux modes GPL ou PLU (Professional User Licence). La version professionnelle est actualisée deux fois par an (mars et septembre) et disponible uniquement pour les clients professionnels.

Ce nouveau modèle de distribution sera mis en place à l’occasion de l’annonce de la prochaine version de CMS-X Enterprise délivrée dans les prochains jours.

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




De la motivation au sein d’une communauté

Il est fort probable que vous ayez déjà vu la vidéo ci-dessous. Elle m’est revenue en mémoire à la faveur du précédent billet De la confiance au sein d’une communauté dont elle lui fait en quelques sorte écho.

Cette vidéo me passionne dans le fond et dans la forme.

Le fond c’est son sujet, à savoir la motivation. Qu’est-ce qui nous motive au juste ?, se demande ici Dan Pink, en fustigeant l’efficacité des récompenses traditionnelles, argent en tête de gondole.

Pour vous la résumer, rien de tel que ce commentaire glané sur le site Rue89 :

« Des études comportementales scientifiques, indubitablement indépendantes du complot socialo-communiste mondial (MIT, unversité de Chicago et Carnegie, financées par la banque fédérale US), démontrent que, si l’amélioration de la productivité d’une tâche mécanique peut-être induite par sa récompense en terme de rémunération, ce n’est pas le cas des tâches cognitives et créatives.

Dans ce cas, le principe de la carotte est plutôt contre-productif. Pour les œuvres humaines plus compliquées que le travail à la chaine, en effet, les trois facteurs identifiés comme induisant une amélioration de la créativité, de la productivité et de la qualité sont :

  • Autonomy, qui se traduit comme ça se prononce.
  • Mastery, le développement personnel et la recherche de l’expertise.
  • Purpose, le but de l’activité, qui sera autant de motivation qu’il satisfait aux critères éthiques et moraux du collaborateur.

Ces résultats, outre qu’ils expliquent l’efficacité de modèles de développement coopératifs tels que Linux ou Wikipédia, remettent en question les dogmes du management, voire de notre modèle économique.

  • Taf à la con où humain = machine : motivation = thunes.
  • Taf intelligent où humain = 1 cerveau au bout des bras : motivation = autonomie + développement personnel + éthique.

C’est-à-dire le contraire de l’idéologie globalement à l’œuvre dans l’organisation de nos sociétés. »

Rien d’étonnant à ce que les deux plus célèbres projets libres soient cités en exemple parce qu’ils corroborent à merveille la théorie. On prend d’ailleurs bien soin de souligner que la participation à ces projets se fait après le boulot (alimentaire ?), sur notre temps libre.

Confiance et motivation ont assurément contribué à leur réussite. Et comme par hasard c’est ce qui semble faire le plus défaut aujourd’hui dans le monde du travail (cf par exemple les interventions de Bernard Stiegler sur la déprolétarisation et l’économie de la contribution).

Mais la forme de la vidéo est tout aussi remarquable, c’est-à-dire la mise en graphique, réalisée par la société londonienne Cognitive Media pour le compte de la RSA (Royal Society for the encouragement of Arts, Manufactures & Commerce), qui suit, illustre et structure visuellement en temps réel les propos de Dan Pink. Le dessin sollicite autrement la vue et donne sens à ce que l’on entend, apportant véritablement quelque chose en plus.

Il est vrai que cela a un côté un peu violent, parce qu’on est en quelque sorte bombardé d’informations multi-directionnelles. Mais ne pouvant prendre notre souffle, on est comme happé par l’exposé. Impossible d’en sortir ou de s’ennuyer, sauf à complètement se déconnecter.

À l’heure de la rentrée scolaire qui s’en vient à grands pas, l’enseignant que je suis trouve cette approche pédagogique extrêmement intéressante. Non seulement j’ai bien compris (alors que je n’ai qu’un piètre niveau d’anglais) mais je crois déjà, en une seule vision, en avoir retenu l’essentiel, sachant que, malgré la densité du discours, on fait tenir le tout en une dizaine de minutes top chrono[1] !

Et si jamais quelque chose vous a échappé, il suffit de la regarder à nouveau, quand vous voulez sur Internet, sans compter que, cerise sur le gâteau, vous obtenez à la fin un énorme, unique et cohérent poster de tous les dessins effectués prêt à être imprimé !

Le format est donc tout bonnement excellent (faudrait que Thierry Stœhr en consacre un billet sur son blog dédié, si ne c’est déjà fait).

Je me prends déjà à rêver d’une forge libre pleine à craquer de ce genre d’animations. Ce sont mes élèves qui seraient contents ! Mais aurait-on alors besoin des profs ? Si, oui, quand même un peu je pense 😉

D’ailleurs à ce propos, je suggère aux collègues d’anglais de trouver un prétexte pour montrer un jour cette vidéo à leurs lycéens, ça en vaut la peine et pourrait faire l’objet d’un intéressant débat dans la foulée, surtout si quelques uns ne savent pas encore ce qu’est Linux ou comment fonctionne Wikipédia.

Bon, il serait peut-être temps de la montrer, cette vidéo après une telle introduction…

—> La vidéo au format webm

URL d’origine de la vidéo sur RSA.org et au format Ogg sur TinyOgg.

Il en existe aussi une version sous-titrée en français, mais c’est presqu’alors impossible de suivre les dessins en direct live ! (mieux vaut plutôt écouter Dan Pink dire à peu près la même chose lors d’une conférences TED, autre format riche et pertinent).

Remarque : Il y a d’autres animations sur RSA.org sur des sujets aussi passionnants que l’empathie de notre civilisation, la question de l’éthique et de la charité et la crise du capitalisme.

Notes

[1] Note : L’article sur La Confiance a été peu parcouru, un commentaire me faisant de suite remarquer qu’il souffrait d’un syndrome qui affectie souvent ce blog, le syndrome TLDR, à savoir « Too Long; Didn’t Read » soit « Trop long pour être lu ». Il aurait dû lui aussi faire l’objet d’une telle animation !




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin