Aurions-nous un train d’avance sur l’organisation du monde de demain ?

Victor Bezrukov - CC byIl est désormais acquis qu’une expérience de contributeurs dans une ou plusieurs communautés du logiciel libre est un atout dans le secteur professionnel informatique. Mais, dans ce monde qui bouge et qui commence à mettre de l’« open » à toutes les sauces, elle pourrait l’être également bien au-delà.

C’est pourquoi il est bon d’encourager les jeunes à se lancer et participer. C’est pourquoi aussi il est proprement scandaleux que les instances éducatives françaises continuent superbement d’ignorer le logiciel libre et sa culture.

PS : Oui, je sais, ni le titre, ni mon intro, ni la photo[1] ne collent parfaitement avec la traduction qui va suivre, mais bon un peu quand même ! Et puis le titre est joli non ? Vous auriez préféré « Les winners de demain sont dans le logiciel libre » ? Non quand même pas !

Sur un difficile marché du travail, votre expérience dans le monde de l’open source pourrait être un atout à plus d’un titre

In a tough job market, your open source experience may be an asset in more ways than one

Chris Grams – 16 août 2011 – OpenSource.com
(Traduction Framalang : Poupoul2 et Marting)

Cela vous ressemble-t-il ?

Depuis longtemps, vous utilisez des logiciels open source ou contribuez à des projets open source. Vous utilisez peut-être régulièrement des outils open source dans votre activité professionnelle, ou encore préférez-vous seulement vous amuser avec, pour le plaisir ou pour maitriser de nouvelles compétences.

Vous êtes connus pour raconter des histoires (peut-être véridiques) qui montrent que vous appartenez au monde de l’open source depuis longtemps (de « Je me souviens avoir téléchargé la première version de Fedora » à « Je me trouvais dans la pièce où le terme open source a été inventé »). Mais plus important encore, vous vous considérez comme un membre actif d’une ou plusieurs communautés open source.

Pensez-vous que le temps passé à contribuer à ces communautés open source pourrait être plus qu’une bonne expérience technologique ? Qu’il pourrait vous préparer à des emplois qui n’ont aucun rapport avec l’usage ou la fabrication du logiciel ?

J’ai étudié l’histoire et les sciences politiques à l’université. Non parce que je voulais devenir politologue ou historien, mais parce que, enfin… en fait je ne le sais pas vraiment. Mais au final, je suis réellement heureux d’avoir étudié ces matières.

Pourquoi ? Elles m’ont apporté des tonnes d’expérience lorsque je faisais de la recherche ou que j’écrivais, elles m’ont appris à organiser efficacement mes idées et mes pensées. Bien que je ne me rappelle pas comment Alexandre le Grand a battu les Perses à la bataille d’Issos et que je ne sois plus capable de réellement comparer les points de vue de Rousseau et Locke, j’utilise de nombreuses compétences acquises lorsque j’étudiais quotidiennement ces sujets.

Au risque d’avoir l’air de faire de la publicité pour une éducation aux arts libéraux, permettez-moi d’aller plus loin.

Pendant que vous avez joyeusement participé à des communautés open source parce que vous aviez besoin d’un morceau de logiciel ou que vous souhaitiez le rendre meilleur, il se pourrait que vous bénéficiez d’un effet secondaire important. Vous pourriez avoir acquis une expérience de la gouvernance des organisations du futur.

Au cours des quelques années passées, j’ai eu la possibilité de travailler avec des organisations de différentes industries, dont la finance, l’éducation, les services, l’hôtellerie, et même dans des environnements gouvernementaux ou non gouvernementaux. Nombre d’entre-elles sont occupées à explorer comment elles peuvent être plus compétitives, grâce à l’utisation de techniques que nous, dans le monde de l’open source, avons déjà mises en œuvre avec succès.

Par exemple, certaines souhaitent tester des projets collaboratifs à grande échelle, impliquant des participants qui ne sont pas membres de leurs organisations. D’autres veulent savoir comment créer des méritocraties internes où les gens se sentent investis et où les meilleures idées peuvent venir de n’importe où. D’autres encore souhaitent démarrer des relations plus riches avec la communauté de ceux qui se soucient de leurs organisations. Si vous êtes un lecteur d’opensource.com, vous nous avez vu mettre en valeur de nombreux exemples dans les affaires, les gouvernements, l’éducation, la santé ou autres.

Ces organisations ont beaucoup à apprendre de ceux d’entre vous qui ont déjà une expérience pratique réelle dans de véritables communautés.

Dans son libre Outliers, Malcolm Gladwell a introduit l’idée que ceux qui sont devenus des sommités mondiales dans leur art (il cite comme exemples Mozart, Steve Jobs et les Beatles) y sont parvenus en partie parce qu’ils ont été capables de le pratiquer de manière démesurée avant les autres dans leur domaine. Selon les recherches que Gladwell cite dans son livre, une personne a besoin de 10000 heures de pratique pour atteindre la maîtrise.

À combien êtes-vous de ces 10000 heures de participation dans le monde de l’open source ? Si vous avez passé 40 heures par semaine dans des communautés open source pendant 5 ans, vous avez peut-être déjà acquis vos 10000 heures.

Mais même si vous n’avez pas encore vos 10000 heures, je crois que vous en savez déjà beaucoup sur les modes de fonctionnement des communautés open source.

Ainsi, si vous croyez que les organisations du futur pourraient être gouvernées grâce aux principes actuellement utilisés avec succès dans les communautés open source, et que vous y avez une copieuse expérience de contribution, pourriez-vous avantager une organisation qui recherche des moyens plus efficaces, pour être plus compétitive ? Et pourriez-vous être un atout pas uniquement par vos compétences technologiques open source, mais également grâce à votre état d’esprit open source ?

Un exemple : Mes amis Dave Mason et Jonathan Opp, qui totalisent chacun bien plus que 10000 heures d’expérience dans le monde de l’open source, ont récemment fait leur entrée dans le concours Harvard Business Review / McKinsey M-Prize dans la catégorie Management innovant avec un hack profondément inspirée par leur expérience dans l’open source.

Leur idée ? Prendre le principe du « fork » tel que pratiqué dans les projets de développement open source et l’appliquer au management des organisations (tous les détails de leur idée sont ici). Leur bidouille « Prête à forker » a récemment été sélectionnée dans une liste de 150 propositions soumises par des gens du monde entier comme l’une des 20 finalistes du M-Prize. Plutôt impressionnant.

Alors pensez-y : au-delà de votre expérience technologique, qu’avez vous appris d’autre en contribuant à des communautés open source, qui pourrait avoir de la valeur pour un employeur potentiel ? Y a-t-il des compétences et des manières de penser que l’open source vous a enseignées qu’il serait bon de valoriser dans un entretien d’embauche, ou comme argument pour une promotion ou un nouveau poste ? Commencez à voir votre expérience open source comme un nouvel ensemble de compétences en matières de pensée et de travail, qui pourraient être très demandées par les organisations qui voudront rester compétitives dans le futur.

En agissant ainsi, vous pourriez vous ouvrir des opportunités intéressantes que vous n’auriez pas envisagées auparavant.

Notes

[1] Crédit photo : Victor Bezrukov (Creative Commons By)




Une vidéo pour mieux connaître la médiathèque Wikimedia Commons

Tous nous connaissons, ou croyons connaître, Wikipédia. Mais nous sommes moins nombreux à avoir saisi que ce n’est que l’un des nombreux projets (mais quel projet !) de la Wikimedia Foundation.

Parmi ceux-ci il y a Wikimedia Commons ou Commons, une « médiathèque de 10 786 504 fichiers média librement réutilisables et que chacun peut enrichir ».

Christian Biasco, de la Wikimedia Italie, a pris l’excellente habitude de nous proposer de courtes vidéos didactiques pour nous présenter ces projets. Après Wikipédia et Wikisource, nous avons choisi de vous reproduire ci-dessous celle donc consacrée à Wikimedia Commons.

—> La vidéo au format webm
—> Le fichier de sous-titres

Remarque 1 : Mais, attention, ici, et plus encore que pour l’encyclopédie, le respect du droit d’auteur est strict et contraignant (droit du photographe, du photographié, droit des marques, de l’architecture, droit US, droit local, etc.).

Remarque 2 : Et tout ceci est une excellente occasion pour faire ensemble de fructueuses promenades comme en témoignent ces deux vidéos extraites de précédents billets : Google Art Project : Une petite note discordante dans un concert de louanges (bas de page) et Promenons-nous dans New York en photographiant pour Wikipédia.

Transcript

URL d’origine du document sur Commons

Wikimedia Commons (aussi appelé tout simplement Commons) est un site internet qui héberge des images, de l’audio et de la vidéo ainsi que d’autres ressources multimédia dont le but est d’illustrer ou d’éduquer. Les contenus de Commons peuvent être utilisées librement et l’utilisation commerciale est permise, tant que les conditions de la licence sont respectées.

Frère de Wikipédia, Commons a vu le jour en 2004 comme dépôt commun pour les différents projets de la Wikimedia Foundation. Commons a ensuite évolué en un projet avec ses propres règles.

Sur Commons il est possible de trouver des photos de lieux et de monuments, d’animaux, de plantes, de minéraux. Des photos de personnalités, d’objets communs et d’œuvres d’art. Ainsi que des enregistrements historiques et des versions numériques de livres anciens. Des schémas, des diagrammes, des graphiques et des cartes. Des vidéos et des enregistrements audio… et bien d’autres choses.

Dans certains cas les ressources ne sont plus couvertes par le droit d’auteur, dans d’autres cas, les auteurs ou les ayant-droits ont accordé une permission pour que les œuvres soient utilisables en respectant de simples conditions, comme l’attribution ou l’utilisation de la même licence pour les éventuelles œuvres dérivées.

Plus de sept millions de ressources sur Commons, librement téléchargeables et utilisables pour la recherche, les sites web, les manifestes, la publicité, les œuvres d’art…

Les ressources de Commons peuvent être insérées directement sur les pages de l’encyclopédie Wikipédia et sur tous les autres projets Wikimédia, bien sûr en respectant les règles du projet spécifique, de la communauté linguistique de référence et de la législation du pays de provenance.

Chaque fichier sur Commons a sa propre page wiki. Après le titre, on trouve la ressource multimédia ou une version réduite, comme dans le cas de photos très grandes. Une description (souvent traduite en plusieurs langues) est insérée ainsi que toutes les informations disponibles, comme la source, l’auteur, la date et les termes d’utilisation. L’historique du fichier liste toutes les éventuelles modifications. Car il est en effet possible de corriger et d’améliorer les fichiers téléversés par d’autres utilisateurs. Par ailleurs sont listées les pages de Commons et des autres projets de la Wikimedia Foundation qui ont lié et utilisé la ressource. En bas de la page on trouve des catégories, par le biais desquelles la ressource est cataloguée. Les catégories sont standardisés en anglais, mais pour les utiliser il est suffisant d’avoir une connaissance approximative de la langue.

Comment pouvez-vous contribuer à Commons ? Un amoureux de la photographie peut téléverser ses photos, un bon dessinateur peut ajouter des diagrammes et des animations, un musicien l’enregistrement d’œuvres libres. Des enregistrements de films et pièces théâtrales peuvent être insérés, à condition qu’il ne soient pas couverts par des droits d’auteur.

Afin de pouvoir téléverser un fichier sur Commons, il faut s’être préalablement enregistré. La création d’un compte, gratuite, est rapide et n’est pas nécessaire si on a déjà un compte sur un autre projet de la Wikimedia Foundation. Il est seulement possible de téléverser des ressources en format libre. Pas exemple, pour les vidéos seul le format Ogg Theora est admis. Il existe de nombreux convertisseurs open source qui peuvent être téléchargés et utilisées gratuitement.

Tous les fichiers téléversés doivent respecter : la loi des États-Unis, où est légalement implantée la Wikimedia Foundation ; les lois des pays dont est issue la ressource ; les lois du pays de l’utilisateur, qui reste responsable des contenus insérés. Il faut contrôler qu’on n’enfreint pas les lois sur la vie privée ou sur les marques déposées ou les restrictions d’utilisation des œuvres d’art de la part de certains musées.

Dans le cas d’œuvres déjà publiées ailleurs sans licence libre, l’auteur ou les ayant-droits doivent envoyer un courriel électronique dans lequel ils s’identifient en déclarant qu’ils permettent la publication de la ressource sous une licence libre.

Comme Wikipédia, Commons est un wiki, un site ouvert à tout le monde il est géré par des bénévoles du monde entier qui s’engagent à identifier et catégoriser les ressources, à compléter ou traduire les descriptions, à créer les galeries et les pages spécifiques selon le thème, à identifier et supprimer les ressources avec des licences ou des sources incomplètes.

Commons est un projet multilingue : un site unique qui contient toutes les traductions et les différentes communautés linguistique cohabitent dans le même espace.

Pour faciliter la recherche des ressources au sein de Commons, ainsi que dans les catégories, est possible chercher dans les galeries, qui sont des pages spécifiquement créées pour accueillir des ressources sur un sujet particulier.

Les discussions à propos d’un contenu spécifique ont lieu sur la page de discussion dédiée à côté de chaque ressource de Commons, tandis que les discussions générales ont lieu sur une page spécifique. Les communications sont faites principalement en anglais, mais des pages dédiées existent qui permettent d’échanger dans d’autre langues.

Pour les problèmes à caractère technique on trouve un bureau d’information et de nombreuses pages d’aide, traduites en différentes langues. Pour des questions spécifiques ou particulièrement complexes, on peut demander aux administrateurs, qui sont des bénévoles qui ont gagné avec le temps la confiance de la communauté grâce à leur connaissance du projet. Eux seuls sont autorisés à exécuter certaines opérations délicates, comme par exemple la suppression d’une ressource.

L’utilisateur d’une ressource de Commons doit toujours s’assurer que les lois de son propre pays de provenance sont respectées. Commons ne peut garantir la légalité de l’utilisation d’une ressource dans tous les contextes possibles, ni sa fiabilité ou son exactitude. mais il est incroyable de voir combien de ressources valables et utilisables ont été téléversées.

De plus en plus d’archives d’état, de musées, de bibliothèques, de collections privées effectuent des dons de ressources, petits ou grands qui deviennent ainsi un patrimoine utilisable par tous.

Plusieurs photographes professionnels publient leurs œuvres sur Commons, fiers de voir leur travail repris d’un bout à l’autre du monde. Il arrive aussi que des illustrateurs publient sur Commons des schémas ou des diagrammes particulièrement efficaces et élégants.

Il existe plusieurs mécanismes permettant de reconnaître les ressources de qualité : Par exemple, chaque année se tient un concours destiné à choisir la photo de l’année. Une autre sélection choisit les images les plus belles créées par les utilisateurs de Commons et une autre encore prime les images les plus efficaces dans leur catégorie. Tous les jours, une image particulièrement intéressante est sélectionnée et cette pratique existe aussi pour les autres ressources multimédia.

Pour soutenir Commons financièrement vous pouvez faire un don à la Wikimedia Foundation ou vous pouvez choisir de soutenir (aussi avec les 0,5% applicable en Italie).

Wikimedia Italia, une association à but non lucratif qui s’occupe de promouvoir, en Italie, Commons et les autres projets de la Wikimedia Foundation.




Librologie 1 : Les mots interdits de Richard Stallman

Je vous ai présenté il y a peu ces Librologies, la nouvelle chronique que aKa m’a invité à tenir ici-même. Dans ce premier épisode je vous propose de nous intéresser au premier des Libristes : l’informaticien américain Richard Stallman, fondateur du mouvement Libre. Valentin Villenave[1].

Librologie 1 : Les mots interdits de rms

Qui de plus approprié pour cette première chronique Librologique, que Richard Stallman ? Né en 1953 — l’année même où paraissaient les premières Mythologies de Roland Barthes, auxquelles nous rendons ici hommage —, il est tout à la fois le premier auteur de logiciels tels qu’Emacs ou GCC, le fondateur du projet GNU, le co-auteur de la licence GPL et FDL, et par là l’instigateur du mouvement du logiciel Libre. Cependant, son apport a très tôt dépassé les frontières de l’informatique : on lui doit notamment la première ébauche de l’encyclopédie Libre Wikipédia, et sa page personnelle témoigne de la diversité de ses préoccupations : droits de l’Homme, libertés civiques, nouveautés scientifiques et patrimoine culturel…

Conférence Stallman - Affiche Utopia (Toulibre)Au confluent de nombreux phénomènes communautaires (qu’il a d’ailleurs lui-même suscités), la personne de Richard Matthew Stallman, communément désigné par ses initiales rms (en minuscules, ainsi qu’il sied aux informaticiens des années 1970 pour qui l’avènement du bas de casse sur les écrans informatiques représenta une vraie conquête), fait l’objet de ce que nous pourrions appeler un culte — terme sur lequel il convient de s’arrêter un instant.

Le culte est une expression-clé d’un certain parler-jeune, dans lequel le terme s’emploie indifféremment sous forme substantive ou adjectivale : ainsi, l’on parlera d’un « film culte » pour souligner à la fois le nombre et l’enthousiasme des fans, ainsi que pour conjurer un aspect historique ou anecdotique. Le culte est ainsi devenu un argument publicitaire usé jusqu’à la corde, et qui relève de l’auto-suggestion : l’engouement pour ce produit n’est pas un effet de mode : c’est un culte (qui se voit donc conférer une légitimité immémorielle, comparable aux millénaires qui ont façonné les grandes religions). On voit ici à l’œuvre le mécanisme exact de la « privation d’Histoire » que Roland Barthes observait dans ses Mythologies il y a plus d’un demi-siècle : le « culte » est un mythe.

Ce terme me semble directement emprunté à l’anglais, où il se confond avec l’idée de secte : particulièrement aux États-Unis, où n’importe quelle association cultuelle peut bâtir « sa » religion. Cette liberté religieuse (qui peut parfois prêter à confusion) a notamment été mise à profit dans la seconde moitié du XXe siècle par une certaine jeunesse contestataire ou iconoclaste : dès les années 1960 l’on comptera ainsi, entre autres, l’Église du SubGénie, le Discordianisme, ou le Pastafarianisme, l’église athée de la Licorne Rose Invisible (à laquelle votre serviteur se flatte d’appartenir)… ou plus récemment des cults directement inspirés par des films, tels que le Jediisme ou le Matrixisme — pour ne rien dire du Dudeisme !

Martin Bekkelund - CC by-saCertainement influencé par ces courants en son temps, et lui-même athée revendiqué, Richard Stallman s’est employé à subvertir à sa façon les codes des rituels religieux : ainsi de sa brillante idée de célèbrer, tous les 25 décembre,… l’anniversaire d’Isaac Newton. Il ne dédaigne pas non plus, à l’occasion, créer sa propre église autour de l’éditeur Emacs et de Saint-iGNUcius.

Subvertir une codification revient à la perpétuer : à ce titre, le culte de rms donne lieu à sa propre iconographie — laquelle n’a rien à envier à celle que Barthes observait autour de l’Abbé Pierre en 1953 (il y aurait beaucoup à dire, par exemple, sur la coiffure et la barbe de Stallman, mi-négligées mi-visionnaires). Cependant dans ce cas précis, le culte cède le pas au folklore : si de nombreux Libristes témoignent encore un grand respect à Richard Stallman, pour la plupart (et en particulier les générations ultérieures, celles de Linus Torvalds et de l’open-source sur lesquelles nous reviendrons prochainement) il n’est guère plus qu’un personnage haut-en-couleurs, une sorte de vieil oncle bougon et un peu radoteur que l’on tolère au repas de famille sans vraiment lui prêter attention.

Le site gnu.org est à ce titre riche d’enseignements. Longtemps maintenu dans un style extrêmement dépouillé (tout comme la page personnelle de Stallman que je mentionnais plus haut), il persiste à mettre l’accent sur le contenu plus que sur la forme, et contient notamment un grand nombre d’articles parfois arides, souvent rédigés par rms lui-même, dans une rubrique intitulée « philosophie ».

D'Arcy Norman - CC byUne des constantes du folklore stallmanien, qui marque (et amuse) toujours quiconque assiste à une des nombreuses conférences que rms donne chaque année, et ce quelle que soit la langue dans laquelle il s’exprime (anglais, français ou espagnol), est son souci maniaque de la terminologie employée. Non content de veiller à ne jamais utiliser certaines expressions (« open source », « propriété intellectuelle »), il en déconseille également l’usage à tout interlocuteur, spectateur lui adressant une question. Cette opposition se manifeste parfois avec véhémence, et dans une mise en scène largement ritualisée, à tel point qu’il n’est pas exclu que d’aucuns se fassent un malin plaisir de lui faire entonner sa routine : « non, n’employez pas ce mot, il ne faut pas, c’est incorrect ! » et ainsi de suite : le « culte » se fait alors apophatique.

En programmeur de talent, rms a donc pris soin de documenter ses propres choix terminologiques sur le site du projet GNU, dans un article intitulé Words To Avoid, traduit en français non par « mots à éviter » mais de façon plus adoucie (et verbeuse), par Mots et phrases prêtant à confusion, que vous devriez éviter (ou utiliser avec précaution).

  • On y trouve, bien évidemment, ses chevaux de bataille les plus courants (« open source », « propriété intellectuelle »), ainsi que d’autres termes assez évidents : l’emploi prédicatif du terme Photoshop®, le MP3.
  • D’autres termes sont liés à la définition de ce qu’est et n’est pas un logiciel Libre : gratuité, commercial, marché
  • Certains termes de propagande sont également démontés, qu’il s’agisse de slogans positifs (DRM, Trusted Computing, Cloud Computing) ou négatifs (vol, piratage).

Enfin, une certaine catégorie de termes me semble tout à fait remarquable : il s’agit de mots d’apparence inoffensive, naturelle pourrait-on dire, et couramment employés par les Libristes eux-même, mais derrière lesquels Richard Stallman débusque un empilement de présupposés qui, de fait, les orientent et en font des termes de propagande.

Ainsi, parler d’écosystème des logiciels Libres (ou de toute communauté humaine) révèle une attitude tout à fait comparable à la Norme bourgeoise que critiquait Barthes en son temps : c’est s’abstraire, sous l’apparence d’un regard scientifique extérieur porté sur un phénomène naturel, de toute responsabilité et de tout aspect éthique. C’est se mettre en retrait de la communauté humaine, et rester impassible alors que des prédateurs exterminent leurs congénères, que disparaissent « les droits de l’Homme, la démocratie, la paix, la santé publique, l’air et l’eau purs, les espèces en danger, les patrimoines traditionnels »… on le voit, le propos va ici bien au-delà de l’informatique.

Dans un autre ordre d’idées, parler de n’importe quel auteur comme d’un créateur n’est pas un choix anodin (particulièrement dans l’éthos anglo-saxon protestant) : c’est assimiler les auteurs ou artistes à des divinités — non pas pour leur attribuer une toute-puissance, mais pour les brandir comme prétexte afin d’exiger la soumission des citoyens (nous aurons l’occasion de revenir sur ce statut des auteurs dans la société bourgeoise, que Roland Barthes démonte savoureusement dans son texte L’Écrivain en vacances). rms recommande aussi, depuis peu, de ne pas parler de rémunération des artistes : ce serait sous-entendre, selon lui, que de l’argent leur est systématiquement et moralement dû, de même que la divinité appelle l’offrande.

Avec cette même optique, Stallman critique enfin (comme d’autres après lui) un autre travers contemporain qui consiste à désigner les œuvres de l’esprit sous le terme de contenu. Ce terme peut s’employer, semble-t-il, indifféremment au singulier ou au pluriel — un peu comme, dans les entreprises, le terme « personnel », autre parangon méprisant du parler moche. Ce qui m’intéresse ici est bien sûr l’idéologème qu’il recouvre, et qui constituera l’une des thématiques récurrentes de ces Librologies ; avec le « contenu », l’essence des objets disparaît au profit de leur quantité. « Téléchargez des contenus », vous dira-t-on — sont-ce des morceaux de musique ? des films ? des essais ? des fictions ? Peu importe. Sont-ils originaux ? expressifs ? troublants ? Nous n’en saurons rien. C’est que nous ne sommes plus dans un ethos civique ou artistique, mais marchand : dans ce milieu où l’on ne parlera plus Libre, mais libre de droits — je n’en donnerai qu’un exemple, mais il est parlant.

Nous avons vu combien Roland Barthes brocarde à l’envi ce désir « d’immanence » de la bourgeoisie de son temps : « tout phénomène », écrit-il dans un de ses textes sur Poujade, « qui a son propre terme en lui-même par un simple mécanisme de retour, c’est-à-dire, à la lettre, tout phénomène payé, lui est agréable » — la « rémunération » des artistes, que nous évoquions à l’instant, n’est pas autre chose. Le « contenu », par définition, est quelque chose d’indéterminé mais qui se définit par sa seule quantifiabilité, équationnelle et rassurante pour le « bon sens » de nos bourgeois d’aujourd’hui. Appliqué à l’art, le terme est, littéralement, lourd de sens.

Comment, dès lors, réfléchir et argumenter sainement lorsque l’on raisonne avec des termes aussi peu précis ou orientés ? Nul doute que nombre de Libristes veuillent, de tout cœur et en toute sincérité, défendre par exemple « l’écosystème des créateurs de contenu »… et pourtant, le simple fait de poser le problème en ces termes oriente déjà le discours et biaise la réflexion.

Ce questionnement se situe d’ailleurs sur toutes sortes de terrains : juridique, médiatique, technique, ontologique ; il est exprimé, à l’occasion, de façon assez rugueuse : il est à ce titre intéressant de voir combien les versions successives de la page Words To Avoid (et plus encore, ses traductions) tentent d’adoucir son propos, d’en lisser les formulations.

Comme l’avaient remarqué Barthes, mais également Bourdieu ou Orwell en leur temps, contrôler le langage revient à contrôler la pensée : imposer sa propre terminologie, c’est façonner le raisonnement du public et couper court à toute opposition argumentée. En cela, Richard M. Stallman est probablement l’un des penseurs les plus fins du mouvement Libre, ayant très tôt perçu qu’avant même de commencer à raisonner il est indispensable de questionner le langage même que l’on utilise.

Devons-nous pour autant nommer rms un philosophe ? D’aucuns ont franchi le pas, et l’on lira à ce titre avec intérêt la préface rédigée par Lawrence Lessig, fondateur des licences Creative Commons :

Chaque génération a son philosophe, un écrivain ou un artiste qui capte l’air du temps. Quelquefois, ces philosophes sont reconnus comme tels ; souvent cela prend des générations avant qu’ils soient reconnus. Mais reconnus ou pas, un temps reste marqué par les gens qui parlent de leurs idéaux, dans le murmure d’un poème, ou l’explosion d’un mouvement politique.

Notre génération a un philosophe. Il n’est ni artiste, ni écrivain professionnel. Il est programmeur.

Me trouvant en contact régulier avec l’intéressé, j’ai récemment eu l’occasion de lui demander son point de vue sur la question : « Je suis content, m’a-t-il répondu, que les gens me considèrent comme un philosophe, car cela montre qu’ils ont compris que le mouvement des logiciels Libres n’est pas un mouvement purement informatique, mais un mouvement culturel, social et philosophique ». Réponse pragmatique : le « positionnement » de Richard Stallman ne peut s’analyser autrement que par le public auquel il s’adresse.

Jared and Corin - CC by-saC’est en ce sens que doivent être lues, je pense, les pages « philosophie » du projet GNU : il ne s’agit bien évidemment pas d’ouvrages philosophiques au sens où l’entendent, par exemple, les universitaires et chercheurs en philosophie. Richard Stallman ne propose pas de redéfinir notre vision du monde, et son « apport » à la philosophie, si tant est même qu’il existe, se limite à rappeler des notions simples de droits de l’Homme, de partage et d’entraide, sur lesquelles se fondent le mouvement Libre. Et pourtant, il ouvre ainsi l’accès à une réflexion d’une finesse et d’une exigence nettement différente des préoccupations ordinaires des informaticiens et autres geeks.

Pour amener un tel public à un véritable questionnement éthique qui ne se contente point des évidences d’un discours médiatique prémâché, rms a manifestement choisi de se présenter comme philosophe, et de tirer ainsi partie de l’iconographie et du culte qui l’entoure : plus qu’un philosophe, il est un personnage de philosophe.

Notes

[1] Crédits photos : Affiche Utopia Toulouse, Martin Bekkelund, D’Arcy Norman et Jared and Corin (Creative Commons By et By-Sa)




La pathétique histoire d’un glaçon qui ne voulait pas fondre

Zimontkowski - CC by-sa - Wikimedia CommonsComment dire avec la plus extrême courtoisie à l’« industrie du copyright » qu’elle fait définitivement fausse route et que, quelles que soient les risibles barrières qu’elle tente de mettre en place, rien ne pourra empêcher sa nécessaire et profonde mutation ?

En se retournant vers le passé et en allant chercher un exemple tout à fait cinglant et probant : la disparition des vendeurs de pain de glace causée par l’arrivée inopinée des réfrigérateurs[1].

C’est l’histoire que nous narre avec brio Rick Falkvinge, fondateur du Parti pirate suédois (interviewé ici sur le Framablog).

C’est bien sûr une histoire triste si l’on se place du côté des vendeurs de pain de glace.

Mais ainsi va la vie et c’est également fort caustique lorsque l’on pense à tous les vains efforts que déploie actuellement dans la panique l’« industrie du copyright ». J’espère que ceux qui en font partie ne tomberont pas sur ce billet car ils se sentiraient alors bien morveux !

Personne ne demanda de redevance sur les réfrigérateurs

Nobody Asked For A Refrigerator Fee

Rick Falkvinge – 21 août 2011 – TorrentFreak
(Traduction Framalang : Ypll, Brandelune, Barbidule, Goofy et Lolo le 13)

J’habite à Stockholm, en Suède. Il y a cent ans, un des plus gros employeurs de la ville était une entreprise du nom de Stockholm Ice. Son activité était aussi simple que nécessaire : aider à conserver les denrées périssables comestibles plus longtemps en distribuant du froid dans un format portable.

L’hiver, ses employés coupaient de gros blocs de glace sur les lacs gelés, ils les stockaient sur de la sciure dans d’énormes granges, puis coupaient les blocs en morceaux plus petits qu’ils vendaient dans la rue. Les gens achetaient la glace et la conservaient avec la nourriture dans des placards spéciaux, de telle sorte que la nourriture soit entreposée au frais.

(C’est pour cette raison que certaines personnes âgées appellent encore les réfrigérateurs des « boites à glace ».)

Lorsque les maisons furent électrifiées dans la première moitié du siècle dernier, ces distributeurs de froid devinrent obsolètes. Après tout, ce qu’ils distribuaient, c’était la possibilité de conserver la nourriture au frais alors que d’un seul coup tout le monde pouvait y arriver sans aide.

Cela prit relativement peu de temps dans les villes. Avec la disponibilité des réfrigérateurs à partir de 1920 environ, la plupart des ménages furent équipés avant la fin des années 1930. Un des plus gros employeurs de la ville – les distributeurs de froid – était devenu complètement obsolète à cause du développement technique.

Cette époque vit de nombreux drames humains, les hommes de la glace perdant leur gagne-pain et devant se reconvertir pour trouver des emplois dans des domaines complètement nouveaux. La profession de vendeur de glace n’était déjà pas facile, et le fait de voir son fonds de commerce se désintégrer en temps réel ne l’a pas rendu plus simple.

Mais voici ce qui ne s’est pas passé lors de la décrépitude de l’industrie de la distribution de glace :

  • Aucun propriétaire de réfrigérateur ne fut poursuivi pour production de son propre froid et contournement des chaînes de distribution du froid existantes .
  • Aucune loi ne fut proposée pour rendre les compagnies d’électricité pénalement responsables si l’électricité qu’elles fournissaient était utilisée d’une manière qui détruise les emplois des glaciers.
  • Personne ne demanda de redevance mensuelle sur les réfrigérateurs aux propriétaires de réfrigérateurs, redevance perçue par le Syndicat des glaciers.
  • Aucun panel d’experts grassement payés ne fut instauré pour dire dans un parfait consensus à quel point les glaciers étaient nécessaires pour l’ensemble de l’économie.

Au lieu de cela, leur monopole de distribution devint obsolète, fut contourné, et l’économie tout entière bénéficia de la décentralisation qui en découla.

Nous assistons actuellement à une répétition de ce scénario, mais où l’industrie de la distribution – l’industrie du copyright – a l’audace de venir exiger des lois d’exception et d’affirmer que l’économie s’effondrera sans leurs services inutiles. Mais l’histoire nous apprend, à chaque fois, que le déclin d’une industrie est positif. Cela signifie que nous avons appris quelque chose d’important – faire les choses plus efficacement. De nouvelles compétences et de nouvelles activités apparaissent toujours après coup.

L’industrie du copyright nous répète, jusqu’à plus soif, que si elle ne peut pas faire graver son monopole de distribution obsolète dans la loi, avec des sanctions toujours plus lourdes pour qui l’ignorerait, la création culturelle ne pourra exister. Comme nous l’avons vu, tout aussi régulièrement, ce sont des foutaises.

Ce qui est peut-être vrai, c’est que l’industrie du copyright ne peut plus investir un million de dollars US pour produire un titre. Mais vous ne pouvez pas exiger un monopole légal en ne prenant en compte que vos coûts, alors que d’autres font la même chose pour beaucoup moins – pratiquement zéro. Il n’y a jamais eu autant de musique disponible que maintenant, simplement parce que nous aimons tous créer. Et pas pour de l’argent, mais parce que nous sommes ainsi. Nous avons toujours créé.

Que dire des films, alors ? Des productions de plusieurs centaines de millions ? Il y a des exemples de films faits dans un garage (un d’entre eux a même fait mieux que Casablanca, et est devenu le film le plus vu de tous les temps dans son pays d’origine). Mais peut-être l’argument est-il quelque peu plus puissant par rapport aux productions de type blockbuster.

J’irais même plus loin : même s’il est vrai que les films ne peuvent plus se faire de la même manière tout en préservant à la fois Internet et nos libertés individuelles, alors peut-être qu’il s’agit de l’évolution naturelle de la culture.

Je passe pas mal de temps avec des ados dans mon action avec le Parti Pirate. Une chose qui me frappe est qu’ils ne regardent pas de films, en tout cas beaucoup moins que lorsque j’étais ado. Tout comme j’ai jeté mon poste de télé il y a 15 ans, peut-être n’est-ce que la progression naturelle de la culture. Personne ne serait surpris si nous passions de la culture du monologue à la culture du dialogue et de la conversation à ce point de notre histoire.

Après tout, nous avons déjà eu les opérettes, les ballets et les concerts comme points culminants de la culture. Même les feuilletons radophoniques (dont certains très connus). Personne n’est particulièrement choqué que ces expressions aient eu leur heure de gloire et que la société soit passée à de nouvelles expressions culturelles. Graver dans le marbre de la loi les formes contemporaines de culture n’apporte aucune valeur ajoutée et entrave les évolutions que nous avons toujours connues, pour empêcher les changements qui se sont déjà produits.

Partout où je regarde, je vois que les monopoles de copyright doivent être réduits pour permettre à la société de se sortir de la mainmise actuelle sur la culture et le savoir. Les ados d’aujourd’hui ne voient en général même pas le problème – ils considèrent comme totalement normal le partage dans le monde connecté, à tel point qu’ils écartent tout signe du contraire comme bêtise d’antan.

Et ils ne demandent certainement pas de redevance sur les réfrigérateurs.

Rick Falkvinge est un chroniqueur régulier de TorrentFreak, et partage ses réflexions de temps à autre. Il est le fondateur du Parti Pirate Suédois, aficionado de whisky, et pilote de moto au ras des pâquerettes. Son blog http://falkvinge.net est spécialisé en politique des médias.

Notes

[1] Crédit photo : Zimontkowski (Creative Commons By-Sa)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.




Les brevets logiciels : une histoire de fous !

Kalidoskopika - CC by-sa« Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits. » Tel est le cinglant résumé de ce récent éditorial du Guardian qui prend appui sur l’actualité, dont le fameux rachat de Motorola par Google, pour nous livrer un constat aussi amer qu’objectif[1].

« Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. » Voilà où nous en sommes clairement maintenant.

Un nouvel exemple d’un monde qui ne tourne pas rond. Un nouvel exemple où le logiciel libre pourrait aider à améliorer grandement la situation si le paradigme et les mentalités voulaient bien évoluer.

Brevets logiciels : une histoire de fous

Software patents: foolish business

Éditorial du Guardian – 21 aout 2011 (Traduction Framalang : Goofy et Pandark)

Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits.

La plupart des gens comprennent les raisons et les arguments en faveur des brevets industriels. Ces derniers fournissent à un laboratoire pharmaceutique — qui a investi une fortune dans le développement d’un nouveau médicament — une sorte d’opportunité pour, pendant une période limitée, rentabiliser sa mise initiale avant que le reste du monde ne puisse en faire des versions moins chères. Mais les brevets logiciels, bien que semblables au plan juridique, sont très différents sur le plan pratique. Quand Google a racheté la division téléphone mobile de Motorola pour 12, 5 milliards de dollars la semaine dernière, l’événement a fait des vagues dans le commerce comme dans l’industrie, parce qu’il ne s’agissait pas d’acheter les mobiles de Motorola mais son portefeuille de plus de 17000 brevets logiciels, denrée devenue la poudre d’or de l’âge numérique.

Les brevets constituent une industrie qui brasse plusieurs milliards, et les entreprises trouvent plus intéressant de gagner de l’argent en se faisant des procès qu’en créant un produit. Jusqu’au milieu des années 90 l’industrie informatique — Microsoft compris — étaient opposée à cet abus de licences. essentiellement parce que l’industrie était suffisamment innovatrice pour pouvoir se passer de la protection des brevets, qui de toutes façons incluaient des avancées technologiques relativement ordinaires, considérées comme la routine du travail d’ingénieur.

Puis, la tentation entra en scène. Les juristes des entreprises prirent conscience qu’ils pouvaient poursuivre les autres pour infraction aux brevets souvent achetés par lots. Ils furent rejoints par des entreprises « troll », constituées dans l’unique but d’acheter des brevets et de faire des procès aux autres entreprises et aux développeurs, sachant pertinemment que la plupart accepteraient une transaction à l’amiable plutôt que d’affronter les coûts prohibitifs de leur défense juridique. Les entreprise qui étaient précédemment opposées aux brevets logiciels se sont aujourd’hui lancées dans la course à l’armement. Microsoft a accumulé un gigantesque arsenal de brevets et peut taxer un fabricant comme HTC à raison de 5 dollars par téléphone portable vendu — même si le système d’exploitation Android (développé par Google) utilisé sur les téléphones HTC est « open source » et supposé disponible pour tous. Avec des centaines, si ce n’est des milliers de brevets maintenant en jeu dans un téléphone mobile, il est pratiquement impossible de ne pas enfreindre un brevet d’une manière ou d’une autre. Dans le même temps Google, confronté au puissant aspirateur à brevet de ses rivaux, a été contraint de s’acheter son propre portefeuille en réaction d’auto-défense.

Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. De telles acquisitions peuvent entraîner les entreprises de technologies de l’information bien loin de leur cœur de métier. Une recherche universitaire menée par le Berkman Center for Internet and Society a montré que les brevets logiciels n’ont procuré aucun bénéfice à l’industrie du logiciel, et encore moins à la société dans son ensemble. C’est dramatique, car un grand nombre d’entreprises qui étaient auparavant opposées aux brevets logiciels se sont ralliées à ce système, rendant plus difficile de trouver une solution efficace. Une fois de plus les consommateurs sont vent debout contre les entreprises. Où sont les forces régulatrices quand on en a besoin ?

Notes

[1] Crédit photo : Kalidoskopika (Creative Commons By-Sa)




Le logiciel libre pourrait-il exister sans le copyright ? La réponse de Stallman

Sebastian Oliva - CC by-saDans l’un de nos récents framabooks, le professeur néerlandais Joost Smiers se pose la question suivante : Et si nous supprimions carrément le copyright ?

Pour en conclure que les cartes seraient évidemment redistribuées mais que le monde ne s’arrêterait pas de tourner. Et force est de reconnaître qu’il n’est pas le seul à envisager cette radicale solution.

Or, apparent paradoxe, il se trouve que, juridiquement parlant, les licences des logiciels libres sont adossées au copyright. Elles le respectent pour mieux, en quelque sorte, le retourner en leur faveur, à fortiori lorsque ces licences sont également copyleft, comme la plus célèbre d’entre elles, la licence GNU GPL.

C’est au père de cette dernière, Richard M. Stallman[1], que Glyn Moody s’est adressé pour lui demander ce qu’il pense du copyright et de l’avenir du logiciel libre si le copyright n’existait plus.

Le logiciel libre pourrait-il exister sans le copyright ?

Could Free Software Exist Without Copyright?

Glyn Moody – 9 juillet 2010 – ComputerWorldUK
(Traduction Framalang : Vincent, Barbidule, Toufalk, Pablo, Goofy, et Petrus6)

Il y a quelques jours, j’écrivais sur la manière dont la licence GNU GPL de Richard Stallman utilise le copyright afin de garantir que les utilisateurs de la licence partagent le code qu’ils distribuent. S’ils ne le font pas, ils sont en violation de la GPL, et perdent donc leur protection contre les actions en violation de copyright.

Cela est bel et bon, mais comme beaucoup l’ont fait remarquer, cela a pour conséquence paradoxale que la licence GNU GPL dépend du copyright, un monopole intellectuel, pour promouvoir la liberté intellectuelle. De plus, cela semble condamner le logiciel libre à un sorte de symbiose avec le copyright, en le contraignant à défendre ce monopole sans lequel la GPL ne serait pas aussi puissante.

Voilà une perspective bien sûr légèrement dérangeante, et je m’étais donc dit il y a peu que je soulèverais la question avec RMS lui-même, puisqu’il avait forcément conscience du problème et qu’il avait peut-être une solution (ce que j’espérais). Ces derniers mois la question s’est posée à plusieurs reprises, j’ai donc pensé que ça valait le coup de publier ses réponses à mes interrogations, pour donner un éclairage sur ce débat crucial.

D’abord, je lui ai demandé comment nous devrions réformer le copyright, puisque c’est un monopole intellectuel dont abusent les éditeurs, mais que la GNU GPL en dépend.

Voici la réponse de Stallman :

« Pour la plupart des œuvres, je pense que le copyright pourrait être acceptable s’il était plus court (je propose 10 ans), s’il permettait une redistribution de copies verbatim non commerciale, et si les « remix » modifiant l’œuvre étaient clairement considérés comme un usage légitime (« fair use »).

Cependant, je pense que les logiciels et toutes les œuvres ayant une utilité concrète doivent être libres. »

Il a poursuivi :

« Je serais heureux que le copyright sur les logiciels soit aboli si c’était fait d’une manière telle que la liberté des logiciels soit garantie. Après tout, le but du copyleft est justement d’atteindre cet objectif pour les dérivés de certains programmes. Si tous les logiciels étaient libres, nous n’aurions pas besoin du copyleft.

Cependant, menée de la mauvaise manière, l’abolition du copyright pourrait n’avoir aucun effet sur les logiciels privateurs (car plus que le copyright, c’est le CLUF, Contrat de licence utilisateur final, et le caractère secret du code qui créent des restrictions), elle viendrait simplement remettre en cause la pratique du copyleft. Naturellement, dans ce cas je m’y opposerais.

En d’autre termes, je me sens plus concerné par l’effet de la loi sur les libertés des utilisateurs que par ce qui pourrait arriver au copyright en tant que tel. »

Je lui ai alors demandé comment l’abolition du copyright pourrait être menée pour que le logiciel libre soit encore possible.

« Il faudrait éliminer le copyright sur les logiciels, déclarer les CLUF juridiquement nuls et adopter des mesures de protection du consommateur qui imposent la distribution du code source aux utilisateurs et l’interdiction de la tivoisation. »

Stallman a expliqué ce qu’il entendait par « tivoisation » il y a quelques années, quand la GNU GPL v3 était en cours d’élaboration. C’est le fait d’élaborer une machine telle que, si l’utilisateur installe une version modifiée d’un programme, la machine refuse de l’exécuter.

Ce nom vient de Tivo, le premier produit dont j’ai su qu’il faisait ça. Le Tivo contient des logiciels libres sous GPL v2, dont le code source est fourni. L’utilisateur du Tivo peut donc modifier le programme, le compiler et installer la version modifiée sur sa machine. Celle-ci refusera cependant de fonctionner car elle aura décelé qu’il s’agit d’une version modifiée. Cela signifie qu’en théorie, l’utilisateur a la liberté numéro 1 (NdT : la liberté d’étudier le fonctionnement du programme), mais en réalité, il ne l’a plus, ce n’est qu’un leurre. Cette pratique est systématique, et elle constitue une menace générale pour la liberté de l’utilisateur.

Nous avons donc décidé d’empêcher cela, en modifiant les conditions de distribution des binaires. Nous avons précisé que si vous distribuez les binaires dans un produit, ou pour être utilisés dans un produit, alors vous devez fournir tout ce dont l’utilisateur a besoin pour installer sa propre version modifiée et faire que le produit fonctionne de la même façon, sous réserve que les changements effectués dans le code ne modifient pas la fonction. L’important est que non seulement l’utilisateur puisse être capable d’installer et faire fonctionner une version modifiée, mais encore que celle-ci doit être capable de faire la même chose que l’original.

Il faut noter que Stallman ne croit pas nécessaire d’abolir complètement le copyright, il propose juste de le restreindre un peu ; la durée exacte pouvant faire l’objet de débat :

« Ma proposition de faire durer le copyright 10 ans à partir de la date de publication se veut conservatrice. Je pense que 5 ans suffisent et je n’ai rien contre une période plus courte encore mais je ne me battrai pas pour ça. »

D’après Stallman, l’avantage de cette « modeste proposition » est qu’elle ne requiert pas de grandes modifications législatives. Alors que ce serait bien le cas pour les mesures de protection de l’utilisateur qui seraient nécessaires afin de préserver la liberté du logiciel si le copyright venait à disparaître.

Il est plus facile de faire pression pour ramener le copyright à ses conditions d’origine (14 ans pour les nouvelles oeuvres avec, en option, 14 années supplémentaires) plutôt que pour l’abolir complètement. C’est ironiquement une approche très pragmatique, alors même que Stallman est souvent accusé du contraire.

Notes

[1] Crédit photo : Sebastian Oliva (Creative Commons By-Sa)




8 choses à faire et ne pas faire si vous souhaitez sensibiliser au Logiciel Libre

Mikael Altemark - CC byHier soir je suis tombé sur un article conseil en anglais de la FSFE qui déclinait quelques bonnes et mauvaises pratiques si vous voulez faire connaître le logiciel libre autour de vous (et tout le bien que vous en pensez).

Pour ne pas surcharger la barque Framalang (qui doit tanguer quelque part entre les Seychelles et les Maldives), j’ai choisi de m’adresser à d’autres esclaves bonnes volontés du Libre. Ceux de l’émérite site LinuxFr qui présente la particularité d’abriter en son sein des êtres prêts à tous les sacrifices pour faire avancer La Cause.

Et hop, un rapide journal bien senti avec un Framapad inside, et le tour est joué.

Suffit d’attendre et de ne pas oublier de bien saluer tous ceux qui franchissent le pad (par contre j’avais oublié la bière, désolé).

Et c’est ainsi qu’en plein samedi soir du mois d’août, nous traduisîmes en à peine trois heures et à plusieurs mains (une bonne petite vingtaine, soit, si vous me suivez, dix personnes) ce court exposé plein de bon sens (à la limite de l’enfonçage de portes ouvertes ?) qui devrait, à n’en pas douter, faire au moins doubler le taux de convertis dès la rentrée prochaine.

Ça a bossé dur et vite en tout cas, rien que pour le titre, on a eu les propositions suivantes : « De la communication efficace du logiciel libre », « Plaidoyer efficace pour le logiciel libre »[1], « De l’évangélisation efficace du logiciel libre », « Défense efficace du logiciel libre », pour finalement retenir « Promouvoir efficacement le logiciel libre ».

Plus sérieusement, grand merci à mes (éphémères) compagnons de route (longue mais libre) pour ce traducthon improvisé. Je reste, comme au premier jour, fasciné par tout ce que l’on peut réaliser ensemble, de GNU/Linux à cette toute modeste traduction plurielle.

Promouvoir efficacement le logiciel libre

Effective Free Software advocacy

Sam Tuke – 10 août 2011 – FSFE
(Traduction collective LinuxFr : NeoX, mansuetus, Roro7302, Jeece, eastwind, crabs, fiuzzy, oktail, qdii et quelques autres anonymous)

Expliquer ce qu’est le logiciel libre est une tâche importante mais parfois délicate et difficile. Des concepts et une terminologie complexes, de subtiles variantes et un contexte social, politique et économique particulier, peuvent nous éloigner d’une communication efficace. Ces quelques lignes ont pour but de vous aider à présenter vos propos pour qu’ils soient à la fois plus clairs, cohérents et convaincants.

1) À faire : Dès qu’une occasion se présente, parler ouvertement et régulièrement du logiciel libre avec vos amis et vos proches.

1) À éviter : Critiquer les autres pour leur désintérêt ou leur manque de compréhension du logiciel libre. Essayez plutôt d’écouter ceux qui ne sont pas d’accord avec vous en n’essayant pas de les forcer à adopter votre point de vue. Le logiciel libre est un sujet intrinsèquement important. Mais si une personne en particulier ne peut en appréhender sa valeur, alors n’insistez pas et attendez de trouver quelqu’un d’autre qui sera prêt à poursuivre la discussion avec vous.

2) À faire : Présenter, de manière constructive, des exemples réels de problèmes posés par les logiciels propriétaires. Faire allusion au vendeur peut être tout aussi efficace que de mentionner le nom d’une entreprise.

2) À éviter : Focaliser sa critique du logiciel propriétaire sur une seule et unique entreprise. Si vous avez besoin de nommer une entreprise, essayez d’en citer d’autres. Les problèmes liés aux logiciels non libres sont génériques. Partir d’une situation globale affectant une pratique ou un marché donnera plus de poids à vos arguments et évitera les partis pris.

3) À faire : Citer les faits et les sources à chaque fois que cela est possible et être clair sur la provenance des informations. Si vous ne pouvez pas vous souvenir immédiatement de la référence, pensez à la transmettre plus tard par courrier électronique.

3) À éviter : Baser votre argumentation sur des informations non ou mal sourcées. Tenez-vous-en aux faits, et laissez les hypothèses de travail, les généralités et les suppositions pour les rares occasions où elles pourront être vraiment utiles.

4) À faire : Choisir avec soin vos arguments selon votre propre niveau de compréhension et celui de votre auditoire. Restez concentré sur les sujets que vous maîtrisez, ceux pour lesquels vous avez une expérience personnelle (même modeste) et dans lesquels vos auditeurs seront susceptibles de se reconnaître.

4) À éviter : Ennuyer ou irriter un auditoire inadapté et non préparé à un discours par trop technique ou philosophique. Vous êtes naturellement motivé pour parler en long et en large de vos sujets ou concepts favoris, mais rappelez-vous que si le but est de communiquer sur le logiciel libre, alors il vous faut déterminer au préalable l’interêt et le niveau technique de votre auditoire et adapter votre discours en conséquence.

5) À faire : Faire preuve de patience, de calme, de raison et d’objectivité dans votre communication. Évitez les situations de crises et sinon tentez de les désamorçer.

5) À éviter : Être pressant, aggressif ou trop impliqué personnellement dans vos propos. Vous n’avez rien à prouver et le logiciel libre continuera à vivre quel que soit l’avis d’un individu ou d’un groupe. Soyez simplement constructif dans vos propositions.

6) À faire : Rencontrer et discuter avec des personnes potentiellement intéressées par le logiciel libre. Sollicitez ces contacts et veillez à vous montrer disponible pour répondre à leurs demandes.

6) À éviter : Passer votre temps à contacter des personnes qui ont clairement manifesté leur désintérêt pour le sujet. Vous seriez plus utile en d’autres lieux.

7) À faire : Effectuer des démonstrations de logiciels libres de qualité, en particulier si vous les utilisez vous-même. Voir c’est retenir, et montrer comment vous tirez profit des logiciels libres au quotidien peut être plus percutant que n’importe quel argument idéologique.

7) À éviter : Promettre ou insinuer des choses que les logiciels libres ne peuvent pas apporter. Vous pouvez faire énormément de choses avec des logiciels libres, mais vous ne pouvez pas tout faire, et prétendre le contraire ne ferait que nourrir des attentes et mènerait à la frustation et la déception.

8) À faire : Trouver des moyens d’inviter les nouveaux venus à rencontrer d’autres partisans du logiciel libre et à assister à des évènements organisés par des groupes d’utilisateurs locaux. Essayez de réunir des personnes ayant des centres d’intérêts communs est également un terreau favorable pour les nouveaux arrivants dans le monde du logiciel libre.

8) À éviter : Espérer que chaque personne croisée souhaite adhérer et participer à vos groupes d’utilisateurs de logiciels libres (LUG) ou à votre hackerspace. La plupart des gens ne se déplacent à une manifestation, une rencontre, que si cela correspond à leurs centres d’intérêts et leur niveau de compréhension. Seuls certains de vos contacts sont prêts à accorder une partie de leur temps libre à ce genre d’évènement . Lorsque c’est le cas, n’oubliez pas de rester accueillant et patient.

Notes

[1] Crédit photo : Mikael Altemark (Creative Commons By)