Quand il faut libérer ses propres données pour traiter un cancer du cerveau

Fondateur notamment du collectif Art is Open Source, Salvatore Iaconesi est un hacker, artiste, raver, ingénieur présent depuis une dizaine d’années sur la scène italienne. J’ai eu l’occasion de le rencontrer lors de mon séjour romain.

Très triste nouvelle : il souffre d’une tumeur au cerveau.

Il demande à Internet, c’est-à-dire à la planète entière, de l’aider en publiant ses données personnelles médicales.

Sauf qu’il lui aurait été impossible de lancer cet appel s’il n’avait craqué lui-même ses propres données encapsulées nativement dans un format fermé et propriétaire, démontrant une nouvelle fois l’absurdité du système.

C’est pourquoi il a prénommé son appel « mon traitement open source », que nous vous proposons traduit en français ci-dessous.

Transmediale - CC by-nc-sa

Mon traitement open source

my Open Source Cure

Rome, le 10 septembre 2012
(Traduction : Unagi, lilian, Vincent)

J’ai un cancer du cerveau.

Hier, j’ai reçu mes résultats médicaux, sous forme numérique. Je dois les montrer à plusieurs médecins.

Malheureusement, ces fichiers sont dans un format fermé et propriétaire, et donc je n’ai pas pu les ouvrir avec mon ordinateur, ou les envoyer dans ce format à toutes les personnes qui auraient pu me sauver la vie.

Je les ai craqués.

J’ai ouvert les fichiers et je les ai convertis en formats ouverts pour pouvoir les partager avec tout le monde.

Aujourd’hui seulement, j’ai pu partager les données médicales (à propos de mon cancer du cerveau) avec 3 docteurs.

Deux d’entre eux ont déjà répondu.

J’ai pu faire cela parce que les données utilisées étaient dans des formats ouverts et accessibles : ils ont ainsi pu ouvrir les fichiers sur leurs ordinateurs ou tablettes. Ils ont pu répondre de chez eux, un dimanche.

Je publierai progressivement toutes les réponses que je recevrai, en utilisant des formats ouverts, afin que n’importe qui avec la même maladie puisse bénéficier des solutions que je trouverai.

Ceci est un TRAITEMENT. C’est mon TRAITEMENT OPEN SOURCE.

Ceci est une large invitation à participer au traitement.

TRAITEMENT, n’a pas la même siginification selon les cultures.

Il y a des traitements pour le corps, pour l’esprit, pour la communication.

Prenez les informations sur ma maladie, si vous voulez, et donnez-moi un TRAITEMENT : créez une vidéo, une oeuvre d’art, une carte, un poème, un jeu, ou essayez de trouver une solution à mon problème de santé.

Artistes, designers, hackers, scientifiques, médecins, photographes, vidéastes, musiciens, écrivains. N’importe qui peut me donner un traitement.

Créez votre traitement en utilisant le contenu que vous trouverez dans la section DATI/DATA de ce site, et envoyez le à info@artisopensource.net.

Tous les TRAITEMENTS seront diffusés ici.

Crédit photo : Transmediale (Creative Commons By-Nc-Sa)




« Chanter sans autorisation » : introduction aux enjeux du libre

Woody Guthrie (Commons PD)This Machine Kills Fascists…

Quand, dans le Monde diplomatique il est question du numérique en général et du Libre en particulier il y a de bonnes chances pour que l’article soit signé Philippe Rivière (alias Fil) et ce depuis près de quatorze ans.

Il faut dire qu’être l’un des papas de SPIP lui donne une certaine expérience, pour ne pas dire une expérience certaine.

Il a publié en juillet dernier, dans le magazine culturel en ligne Rictus.info, un papier qui synthétise bien la situation et que nous aimerions plus encore faire connaître, d’où cette reproduction.

« Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter. »

« Chanter sans autorisation » : introduction aux enjeux du libre

URL d’origine du document (Rictus.info)

Philippe Rivière – juillet 2012 – Licence Creative Commons By-Sa

À l’occasion des Rencontres Mondiales du Logiciel Libre, nous avons demandé à Philippe Rivière[1], de nous faire un petit tour d’horizon de la question du logiciel libre. Exposé des forces en présence et des enjeux.

Un peu de musique

Au début des années 1940, sur ses premiers disques, le compositeur américain Woody Guthrie avait fait inscrire la mention suivante sous le titre Copyright Warnings :

« Cette chanson est protégée aux États-Unis sous le sceau du copyright #154085 pour une période de 28 ans, et toute personne prise à la chanter sans autorisation sera mon meilleur ami, car je n’en ai rien à fiche. Publiez-la. Ecrivez-la. Chantez-la. Dansez dessus. Yodelez-la. Je l’ai écrite, c’est tout ce que je voulais faire. »

Aujourd’hui, chaque fois que vous insérez un film dans votre lecteur DVD, vous devez endurer une très longue présentation avec des écrans affreux du style :

« WARNING. La reproduction ou la redistribution non autorisée de cette œuvre copyrightée est illégale. Une violation criminelle de ce copyright, même sans gain monétaire, sera suivie d’une enquête du FBI et est punissable d’une peine d’emprisonnement allant jusqu’à cinq ans dans une prison fédérale, et d’une amende de 250 000 dollars »

Drôle de manière de vous remercier d’avoir acheté le DVD.

Dans l’informatique, c’est la même chose : les auteurs de logiciels ont deux possibilités pour s’adresser à leur public — c’est-à-dire les utilisateurs ; soit ils leur font signer une clause légale expliquant qu’il faut faire très attention à d’utiliser le logiciel comme il convient, si on veut avoir quelques chances de ne pas aller en prison. Soit ils leur disent : que toute personne prise à jouer avec ce logiciel comme elle l’entend sera mon meilleur ami !

Dans le premier cas, on parle de logiciel propriétaire (ou privateur), dans le second, de logiciel libre.

Logiciel capturé

Le logiciel n’est pas né en cage. Les premiers programmes étaient comme des formules de maths ou des recettes de cuisine : en dollars, ils ne valaient rien, puisqu’on les donnait avec la machine — qui, elle, coûtait très cher.

Comme l’écrit Lawrence Lessig, un juriste américain spécialisé dans le droit d’auteur :

« Vous ne pouviez pas faire tourner un programme écrit pour une machine Data General sur une machine IBM, donc Data General et IBM ne se préoccupaient pas de contrôler leur logiciel. »

Mais bien évidemment leur valeur était énorme, puisque sans programmes, l’ordinateur se limitait à allumer un C> clignotant sur un écran noir… Ce qu’un certain Bill Gates avait bien compris, c’est que le contrôle du logiciel permet de mettre la main sur l’ensemble du dispositif : IBM, la gigantesque firme américaine, ne l’avait pas compris. Elle voulait vendre des ordinateurs personnels, et se fichait bien de savoir ce qui fonctionnerait dessus : pressée d’arriver sur le marché, elle y a installé MS-DOS, un logiciel fourni par le jeune Bill Gates… on sait ce qu’il est advenu de ce choix : Microsoft, l’éditeur de MS-DOS, est rapidement devenu le plus gros éditeur de logiciels, et continue aujourd’hui à prélever une rente énorme sur l’ensemble des usages de l’informatique.

Free Software Foundation et licence GPL

De son côté, un certain Richard Stallman, chercheur au MIT, à Boston, s’était habitué, comme tous les informaticiens des années 1970, à bidouiller les programmes qui se trouvaient sur ses machines, pour les améliorer ou les adapter à la configuration de son matériel. Ça faisait partie de la normalité dans l’informatique, et encore plus dans le monde universitaire ; il aimait le sens de la communauté qui se développait autour de la programmation. Des échanges d’astuces, des concours pour être le premier à trouver une solution, etc.

Mais un jour, il s’aperçut que le code du logiciel pilote d’une imprimante n’était pas livré avec la machine, et qu’il ne pouvait donc pas le modifier — seulement le faire tourner, sans savoir ce qui était programmé exactement. S’il y avait un bug, il fallait contacter l’éditeur pour signaler le problème, et attendre une hypothétique nouvelle version… qui viendrait sans doute plus tard, et qu’il faudrait, en plus, à nouveau payer. On était au début des années 1980. Ce genre de choses commençait à se répandre, et Stallman comprit que les logiciels, qui étaient nés libres, ne le resteraient pas si personne ne les défendait. Il faudrait les protéger, sur le plan légal ; et les structurer d’une manière efficace. Il décida d’en faire son combat.

En 1984, Stallman démissionna du MIT (pour ne pas avoir de liens hiérarchiques qui pourraient lui coûter son indépendance), et fonda le projet GNU, puis la Free Software Foundation. D’un côté, un projet technique, consistant à fabriquer un système d’exploitation totalement libre — c’est-à-dire sans aucun composant propriétaire. De l’autre, une fondation dédiée à la protection du logiciel libre.

Il écrivit de nombreux logiciels (le plus connu est peut-être l’éditeur de texte Emacs). Et en parallèle, fit un travail juridique qui aboutit à la Licence publique générale GNU, la « GPL ». Elle est nettement moins « fun » que la licence de Woody Guthrie, mais elle garantit à tout utilisateur :

  • le droit d’utiliser le logiciel pour faire ce qu’il veut
  • le droit de lire le code source du logiciel, c’est-à-dire les éléments qui permettent de comprendre ce qu’il fait
  • le droit de modifier ce code source
  • le droit de redistribuer le logiciel ainsi que les versions modifiées.

Pour bénéficier de cela, l’utilisateur s’engage en échange à passer ces mêmes droits aux personnes à qui il le redistribue.

Bien sûr, tout le monde n’a pas forcément envie d’aller modifier le code… mais savoir que quelqu’un peut le faire, c’est avoir une certaine garantie.

Pour une entreprise, par exemple, c’est l’assurance que, si on n’est pas satisfait du prestataire à qui on a demandé de programmer quelque chose, ou s’il disparaît, on pourra légalement aller en voir un autre sans devoir repartir de zéro. C’est important.

Libertés pour l’utilisateur

Pour un particulier, on peut apprécier le fait que les logiciels libres sont souvent gratuits, ou en tous cas moins chers que les logiciels propriétaires. Cela dit, il ne faut pas confondre libre et gratuit ; « free » software, c’est « free » comme « freedom », pas comme « free beer ». Il y a des logiciels gratuits qui ne sont pas libres. Et, vice versa, pour développer un logiciel libre il faut quand même parfois que quelqu’un travaille…

Mais le plus important, pour l’utilisateur, n’est pas dans la gratuité : c’est que l’informatique touche de plus en plus aux libertés quotidiennes. Sur l’ensemble de la planète, à part quelques irréductibles hommes des cavernes, chacun porte en permanence sur soi un mouchard qui signale à tout instant où il se trouve précisément. Ce mouchard, cinq milliards d’humains en sont équipés. Il sert, parfois, à téléphoner…

L’informatique est aussi dans les voitures ; bientôt dans les frigos ; dans les habits, avec les puces RFID ; dans les passeports biométriques ; dans les cartes d’électeur – les machines à voter ! – ; il faut aller sur Internet pour voir les notes de collège de ses enfants ; on parle de numériser toutes les données de santé dans un « dossier médical personnel » accessible sur Internet (certains l’appellent dossier médical « partagé », car il est tout de même difficile à l’heure de WikiLeaks de prétendre qu’on saura empêcher le piratage…).

Discuter, s’informer, créer, partager, faire de la politique… tout ça est en train de s’informatiser, et si on ne contrôle pas collectivement les machines autour desquelles se construit de plus en plus la vie sociale, ce sont les machines qui nous contrôleront … ou plus exactement, ceux qui les programment.

Un seul exemple : vous avez entendu parler de Kindle, le livre électronique vendu par Amazon.com ; c’est génial, vous pouvez acheter et télécharger des dizaines de livres, et les lire sur un petit écran. Un jour donc, en juillet 2009, les commerciaux d’Amazon s’aperçoivent qu’ils ont fait une boulette dans leur offre : ils ont vendu électroniquement un livre pour lequel ils ne disposaient pas des droits de reproduction.

Ni une ni deux, que font-ils ? Ils attendent que les Kindle des clients se connectent, et leur envoient l’instruction d’effacer le livre. De quel livre s’agit-il ? « 1984 », de George Orwell, le livre qui décrit Big Brother et la police de la pensée !

Succès ou échec ?

Je ne vais pas énumérer les succès du logiciel libre : en 1990, un étudiant en informatique de l’université de Helsinki, Linus Torvalds, aimerait bien utiliser chez lui le programme sur lequel il travaille à l’université, un « noyau ». Il repart donc de zéro et crée son propre « noyau », qu’il place sans guère y accorder de réflexion sous la licence GPL. Ce sont les débuts d’Internet dans les facs, et rapidement ce noyau se développe ; comme Stallman avait développé de nombreux morceaux de code de GNU, mais pas encore de noyau, les deux projets cohabitent et donnent naissance à ce qu’on appelle maintenant GNU/Linux.

Les logiciels libres sont partout ; ils font tourner des ordinateurs personnels, et l’essentiel d’Internet. Ils sont dans les labos de recherche, les entreprises, etc.

Et il n’y a pas que la GPL. D’autres licences libres existent, qui permettent parfois plus de souplesse, moins de contrainte pour des utilisateurs qui modifient le code pour l’utiliser dans des projets fermés. Pour des textes ou des photos, on peut préférer des licences comme les Creative Commons. Pour des librairies (morceaux de code qui peuvent servir de fondation à des logiciels plus élaborés), on peut exiger que toute modification de la librairie soit libre, mais sans exigence sur les logiciels élaborés en question. D’autres font des licences plus proches de celle de Woody Guthrie (« je m’en fiche »), comme la licence MIT, ou encore la WTFPL (Do What The Fuck You Want To Public License / licence publique rien à branler).

A l’heure actuelle, les smartphones sont dominés par deux systèmes : Apple iOS et Google Android, qui sont basés sur des logiciels libres. Bien sûr chez Apple, les logiciels ne sont pas du tout libres ; mais ils sont construits sur une fondation totalement libre, NetBSD. Quant à Android, il est tellement bardé de brevets qu’il n’est pas non plus vraiment libre. Mais enfin, il contient beaucoup de logiciels libres.

En termes quantitatifs, on peut parler d’un succès : ce qui était perçu par les médias comme « marginal » est désormais au centre du tissu économique et du développement de l’informatique.

D’après une étude publiée en 2010[2] : Le secteur est estimé à 1,5 milliard d’euros en France, avec un taux de croissance moyen de 17 % (par an). Environ la moitié des directeurs informatiques interrogés lors de l’étude ont déclaré utiliser des logiciels libres et ce, quelle que soit la taille de l’entreprise.

La guerre contre le libre

Il y a la menace juridique : en ce moment, c’est la guerre des brevets. Google a racheté en août 2011 le fabricant de téléphones portables Motorola pour 12,5 milliards de dollars, dans le but de mettre la main sur 25 000 brevets ! Or on dépose actuellement des brevets sur tout et n’importe quoi, avec des effets très curieux. Des menaces de procès et des bras de fer judiciaires qui aboutissent à des accords entre les grandes sociétés qui possèdent ces portefeuilles de brevets.

Enfin, il y a la menace plus directe de la prise de contrôle de l’ordinateur. Au nom bien entendu de votre sécurité. Par exemple, ce qu’on appelle « l’informatique de confiance », un terme censé nous rassurer, est une stratégie qui interdit à tout logiciel qui n’est pas reconnu et « signé » par une société comme Microsoft, ou Apple, de s’exécuter sur votre machine.

Ou encore, au nom de la protection des droits d’auteurs, la loi HADOPI qui nous impose l’obligation de « sécuriser notre réseau ». Alors que même l’armée américaine n’est pas capable d’empêcher des documents de « fuiter » !

Les iPhone sont eux-mêmes totalement verrouillés et il faut passer exclusivement par le magasin en ligne d’Apple pour modifier le logiciel (même si techniquement il reste possible de « jailbreaker », ce n’est pas autorisé par le constructeur).

Et je passe sur les projets qui se multiplient au nom de la lutte contre le piratage, contre la criminalité ou contre le terrorisme (SOPA, ACTA, HADOPI, LOPPSI, DMCA, etc), sans parler de la surveillance des communications qui se pratique plus ou moins illégalement et de façon massive[3]. Aux États-Unis, l’association des producteurs de musique, la MPAA, demande que ce qui marche en Chine (la « grande muraille électronique » qui permet au pouvoir de surveiller les internautes) soit appliqué à l’ensemble de l’Internet !

Pour la FSF : « Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller. »

Pour le romancier Cory Doctorow (et excellent blogueur), les États et les entreprises se préparent à une « guerre à venir sur la computation à but général », et « l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi ».

Biens communs

Et puis il y a la propagande.

Aujourd’hui, les manifestants d’Occupy Wall Street, qui contestent le système capitaliste, sont traités de « terroristes ». Ce qui pourrait permettre à la police de les pister, de placer des mouchards dans leur ordinateur, etc.

Déjà Bill Gates en 2005 voyait des rouges partout :

« Il y a certains communistes d’un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. »

J’avoue que je ne suis pas totalement choqué par cette critique. Elle est maligne, car parmi les auteurs de logiciels libres il y a beaucoup de gens qui ne sont pas particulièrement de gauche, et même des « ultra-capitalistes » comme se définit par exemple le leader du Parti pirate suédois, Rickard Falkvinge. Mais en effet, quand on crée du logiciel libre, quand on défend le partage de la culture sur Internet, quand on construit des sites sur le Web, on produit, collectivement, un bien public. Qui appartient à tout le monde, et où chacun va pouvoir venir puiser à sa guise, et utiliser ce que vous avez fait pour faire avancer ses propres projets. Le savoir, la culture sont cumulatifs, nous sommes « des nains sur des épaules de géants »[4].

Au-delà du logiciel libre, il faut réfléchir à l’ensemble des biens communs informationnels : la science, la culture, l’amusement, le logiciel dans tous les domaines… Internet permet de les diffuser, mais comment mobiliser des ressources pour les produire, et comment les défendre ? Certainement pas en les enfermant derrière des murs de paiement, des systèmes de DRM provoquant l’autodestruction des fichiers… Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter.

Crédit photo : Woody Guthrie NYWTS (Wikimedia Commons)

Notes

[1] Co-auteur de SPIP (le logiciel qui sert à publier ce site, mais aussi des milliers d’autres) et journaliste au Monde diplomatique

[2] Étude sur l’impact socio-économique du libre citée dans la presse

[3] Cf. l’article d’Antoine Champagne dans Le Monde diplomatique de janvier 2012

[4] Bernard de Chartres, XIIe siècle




Geektionnerd : Taxe Google

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : Les journaux français souhaitent une “lex Google” (Le Monde)

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Gardons nos smartphones ouverts avec le HTML5

Ah, les fameux App Stores et leurs effets pernicieux à plus d’un titre !

Ce système multiplie les coûts, les contraintes et les délais alors que la même application écrite dans le langage du Web et proposée directement aux visiteurs d’un site Web évite tous ces écueils.

En effet : non seulement le principe des App Stores autorise une entreprise privée à décider arbitrairement des seuls contenus auxquels les utilisateurs du monde entier auront le droit d’accéder, non seulement il permet d’enchaîner ces mêmes utilisateurs à un système d’exploitation donné (iOS, Android…)[1], mais surtout, si l’on en croit David Murphy — qui commercialise un outil d’aide à la création d’applications Web — dans le texte ci-après traduit, il est tout à fait contre-productif pour les entreprises désirant proposer une application à l’appui de leur business.

Si les arguments techniques et économiques permettent aux applications Web de triompher des applications natives servies dans les App Stores fermés, ne nous privons pas de les relayer car, au final, tout cela permettra de rendre un peu de liberté à l’utilisateur !

Toni Hermoso Pulido - CC by-sa

Voici pourquoi HTML5 est génial pour les mobiles

Why HTML5 Rocks For Mobile


David Murphy – août 2012 – Mobile Marketing
(Traduction Framalang : antistress, Goofy, Amine Brikci-N, ZeHiro)

HTML5 est partout cette année ! Google encourage son usage. Facebook est à fond dessus. Il est évident que HTML5 est l’avenir sur les mobiles. OK c’est super. Mais c’est quoi au juste HTML5, et que peut-il faire pour les mobiles ?

HTML5 est la dernière version de HTML — le standard de présentation et de structuration des contenus sur le World Wide Web. Un des grands progrès apportés par HTML5 est qu’il permet à des sites web de fonctionner comme des applications mobiles, en donnant aux développeurs des moyens de conception adaptés aux appareils mobiles et plus seulement aux ordinateurs de bureau ou portables. Cela signifie que les sites web peuvent être conçus pour s’adapter aux écrans des appareils mobiles et avoir une interface utilisateur facile à maîtriser et très fonctionnelle avec les écrans tactiles. Le terme utilisé pour cette technologie est « appli web » (web app).

Sur un plan pratique, il existe deux façons d’implémenter une appli web. La première consiste à concevoir des sites web pour qu’ils s’adaptent et s’affichent aussi bien sur un écran d’ordinateur que sur un écran de smartphone. La seconde revient à créer une appli spécifique qui s’ouvrira lorsqu’on accède au site web avec un appareil mobile.

Cette nouvelle approche dans la présentation des contenus pour mobiles abat certaines barrières — y compris celles du temps, de l’argent et de l’omniprésent App Store. Les portes sont maintenant largement ouvertes pour les individus et les petites entreprises. Les poids lourds de la profession sont aussi attirés par cette alternative, à mesure qu’ils prennent conscience de ses avantages.

Qui n’a pas son smartphone

Voici des données chiffrées sur le marché des mobiles : 50% de toutes les recherches locales sont effectuées aujourd’hui sur des appareils mobiles. Ceci est largement dû au fait que les possesseurs de smartphones sont plus nombreux que ceux qui ont des téléphones basiques aux États-Unis et dans d’autres pays.

Et malgré cela, la plupart des entreprises n’ont aucune solution à proposer pour le mobile — sans compter les bénéfices substantiels qu’ils pourraient en tirer. Malheureusement, le développement d’applications classiques est tout simplement bien trop coûteux en temps et en argent et trop technique. Alors sans plus tarder, voyons cinq bonnes raisons qui nous font penser que HTML5 va poursuivre sa forte croissance :

Ça n’est pas seulement pour les iPhones, mais pour TOUS les smartphones

Malgré tout le buzz que génère l’iPhone, il ne représente que 25% des parts de marché. Android domine le marché avec 50% des smartphones en Amérique du Nord et Blackberry s’en sort étonnamment bien du côté des tablettes. Les appli web fonctionnent sur tous les téléphones et tablettes tactiles populaires — vous permettant d’atteindre la quasi-totalité des clients. Ce n’est pas qu’une chose positive, c’est surtout crucial pour les affaires.

C’est abordable

Les applis web HTML5 sont développées pour un prix et un temps moitié moindres que les applications natives (basées sur du code machine). Développer des applications natives peut aussi être un cauchemar. Je répète : un cauchemar coûteux en temps et en argent. Développer pour une plateforme spécifique (iPhone, Android, Blackberry, Windows Mobile, iPad et la liste est encore longue…) n’est tout simplement pas une solution viable pour la plupart des entreprise, et ceci empire car…

Les choses changent. Votre entreprise changera.

Imaginez que vous possédez une entreprise et que votre nouvelle application native a été lancée il y a six mois de cela ; votre entreprise et vos clients ont changé ne serait-ce qu’un petit peu et vous devez faire une mise à jour. Bonne chance ! Commencez par trouver l’équipe de développeurs, impliquez à nouveau vos équipes marketing et vente, et apprêtez-vous à tous les payer encore une fois. Ensuite re-soumettez l’application à (aux) app store(s) concernés… et attendez.

Les applis web permettent une mise à jour rapide, au rythme de votre entreprise. Comme pour un site web, les modifications peuvent être mises en œuvre instantanément. Aucune autre solution pour mobile ne peut rivaliser lorsqu’il s’agit de permettre à une entreprise d’être réactive aux priorités et aux besoins en temps réel.

Localisation, localisation, localisation

La proximité est l’un des meilleurs moyens de susciter l’intérêt, d’être pertinent et finalement de déclencher l’acte d’achat. Les applis web ont la possibilité de fournir des services géolocalisés, comme d’informer les utilisateurs de la proximité de lieux pouvant les intéresser ou de leur permettre d’associer des contenus (par exemple des photos ou des notes) à des lieux particuliers.

Votre marque est sur le Web et sociale, pourquoi pas votre appli aussi ?

Qu’est-ce qu’un site web en fait ? C’est l’endroit où votre entreprise/marque/personne existe en ligne. Sauf que ce n’est plus uniquement cela avec le Web moderne. Les marques, les gens, les produits existent à travers l’ensemble du web – sur Twitter, Facebook, Yelp, Tumblr et des centaines (si ce n’est des milliers) d’autres services. Aujourd’hui c’est là que les connexions se font, que l’on trouve les produits et les gens, que les nouvelles idées grandissent.

Les applis web sont faites pour fonctionner et vivre avec les autres éléments de votre marque sur le Web — ce qui vous permet de rester en contact avec vos clients actuels, d’en trouver de nouveaux, ou simplement de partager des idées de toutes les manières possibles. Les applis web excellent, et pour cause, à fonctionner avec d’autres applications du Web.

Et ce n’est que le début, les gars ; attendez de voir la suite !

Crédit photo : Toni Hermoso Pulido (Creative Commons By-Sa)

Notes

[1] En effet, une fois votre belle collection d’applications payantes constituée sur votre smartphone, pourquoi iriez-vous acheter le système concurrent — et ainsi perdre votre logithèque — lorsque vous devrez remplacer votre appareil ? De fait, votre premier système d’exploitation pour mobile risque bien d’être le dernier ! Heureusement Mozilla a différents projets dans ses cartons pour éviter ces écueils, comme Mozilla Marketplace, Firefox OS et Open Web Device.




L’esprit de partage, une révolution de l’esprit #Sharism

Issu du verbe anglais to share qui veut dire partager, le « Sharism » est reconnu par Wikipédia.

Cela ne signifie pas que le concept, exposé ici par le chinois Isaac Mao, soit nécessairement valide, d’autant que le style verse parfois un peu trop dans le new age, mais il méritait selon nous un nouveau petit coup de projecteur.

Cet article a été rédigé en décembre 2008 (avant, par exemple, le réel avènement des réseaux sociaux). Il a été traduit initialement par Olivier Heinry sur son site.

Joi Ito - CC by

L’esprit de partage, une révolution de l’esprit

Sharism: A Mind Revolution

Isaac Mao – Décembre 2008 – Creative Commons By
(Traduction : Olivier Heinry)

Alors que le peuple du World Wide Web communique plus pleinement et plus librement par le biais des médias sociaux et que l’on assiste à une explosion des contenus 2.0, la dynamique interne d’une telle explosion créative se doit d’être étudiée de plus près. Quelle est la motivation de ceux qui rejoignent ce mouvement et quel futur vont-ils engendrer ? L’un des aspects clés consiste en la surabondance de respect de la part de la communauté et de capital social accumulés par ceux qui partagent.

La motivation clé des Médias Sociaux et l’esprit animant le Web 2.0 forment un changement de paradigme nommé Esprit de Partage. L’esprit de partage suggère une réorientation des valeurs individuelles. On le voit à l’œuvre dans les contenus générés par les utilisateurs. C’est l’allégeance des Creative Commons. Il fait partie des initiatives culturelles futuro-centriques. L’esprit de partage est également un exercice mental que tout un chacun peut essayer, une attitude socio-psychologique destinée à transformer un univers étendu et isolé en un Cerveau Social hyper-intelligent.

La doctrine du neurone

Le partagisme est encodé dans le Génome Humain. Bien qu’éclipsés par les nombreux pragmatismes du quotidien, la théorie du l’Esprit de Partage trouve sa source dans les neurosciences et l’étude du modèle opératoire du cerveau humain. Bien qu’il nous soit impossible de décrire le fonctionnement du cerveau dans son ensemble, nous disposons d’un modèle du mécanisme de fonctionnement du système nerveux et de ses neurones. Un neurone n’est pas qu’une simple cellule de l’organisme, mais un processeur biologique très puissant et excitable électriquement. Des groupes de neurones forment des réseaux intensément interconnectés, qui, en modifiant la force/résistance des synapses situées entre les cellules, peuvent traiter de l’information, ainsi qu’apprendre. Un neurone , en partageant des signaux chimiques avec ses voisins, peut se retrouver intégré à des motifs plus significatifs qui maintiennent le neurone actif et vivant. De plus, cette simple logique peut être répétée et amplifiée, puisque tous les neurones fonctionnent sur un principe similaire de connexion et de partage. A l’origine, le cerveau est des plus ouverts. Un réseau neuronal existe qui partage activité et information, et je pense que ce modèle du cerveau devrait inspirer des idées comme aider à prendre des décisions concernant les réseaux humains.

Ainsi, notre cerveau privilégie le partage par la nature même de son système, ce qui signifie de profondes implications pour les processus créatifs. A chaque fois que vous avez l’intention de créer, il vous sera plus aisé de générer des idées plus créatives si vous conservez à l’esprit la notion de processus de partage. Le processus de formation des idées n’est pas linéaire, mais ressemble plus à une avalanche d’amplifications le long d”un chemin de réflexion. Il se déplace avec le momentum d’une boule de neige créative. Si votre système cognitif interne encourage le partage, vous pouvez alors construire une boucle de rétroaction de bonheur, qui vous aidera à son tour à générer d’autant plus d’idées. C’est une sorte d’effet papillon, où la petite quantité d’énergie créative que vous aurez dépensé vous rendra, vous et le monde , plus créatifs.

Cependant, les décisions prises au quotidien par la plupart des adultes ont une créativité plutôt faible, seulement parce qu’ils ont désactivé leurs chemins de partage. Les gens aiment en général partager ce qu’ils créent, mais dans une culture qui leur enjoint de protéger leurs idées, les gens deviennent convaincus du danger du partage. Le sens du partage est alors affaibli dans leur esprit et découragé au sein de leur société. Mais si nous pouvons encourager une personne à partager, alors ses chemins de partage resteront ouverts. L’esprit de partage restera en mémoire dans son esprit, tel un instinct. Si elle rencontre au futur une situation de choix créatif, son choix sera : « Partage ».

Ces déclics de l’esprit sont trop subtils pour être perçus. Mais du fait que le cerveau,et la société, sont des systèmes connectés, l’accumulation de ces micro-attitudes, de neurone en neurone, et d’individu en individu, peut aboutir à un comportement manifeste. Il est aisé de pouvoir dire si une personne, un groupe, une entreprise, une nation sont enclins au partage ou pas. Pour ceux qui ne le sont pas , ce qu’ils défendent comme « biens culturels » et « propriété intellectuelle » ne sont que des excuses pour le statu quo gardant une communauté fermée. Une grande partie de leur « culture » sera protégée, mais le résultat net consiste en la perte directe de bien des précieuses idées, et dans la perte subséquente de tous les gains potentiels de leur partage. Cette connaissance perdue est un trou noir dans nos vies, qui pourrait bien avaler d’autres valeurs également.

La culture du non-partage nous guide à tort avec sa séparation absolue des espaces privé et public. Toute activité créatrice devient un choix binaire entre public et privé, ouvert et fermé, ce qui entraîne la naissance d’un fossé dans le spectre de la connaissance. Bien que ce fossé puisse devenir le lieu d’une réelle créativité, les craintes liées à la vie privée rendent ce fossé difficile à combler. Nous ne devrions pas nous étonner du fait que la plupart des gens, pour demeurer en sécurité, ne partagent que de façon privée et restent donc « fermés ». Elles craignent peut-être que l’Internet ne soit un risque potentiel qu’elles ne peuvent combattre seules. Paradoxalement, moins vous partagerez, moins vous en aurez le pouvoir.

Les nouvelles technologies et la montée de l’esprit de partage

Remontons en 1999, à l’époque où il n’y avait que quelques centaines de blogs de pionniers sur la planète, et sans doute pas plus de dix lecteurs à suivre chacun de ces blogs. L’histoire humaine est ainsi faite : un événement important avait lieu sans que le reste du monde ne le réalise. Le changement induit par l’arrivée de publications en ligne simples d’usage déclencha une révolution douce en moins de cinq ans. Les gens ont fait rapidement et facilement la transition depuis la simple consultation de blogs à l’ajout de commentaires et la participation à des discussions en ligne, jusqu’à réaliser soudainement qu’ils pouvaient eux-même devenir blogueurs. Plus de blogueurs a généré plus de lecteurs, et plus de lecteurs ont créé encore plus de blogs. Ce fut une révolution virale.

Les blogueurs génèrent sur Internet une information vivante et à jour, et sont connectés les uns aux autres par RSS, hyperliens, commentaires, trackbacks et citations. Le fine granularité des contenus peut alors combler les interstices entre notre expérience lacunaire, et ainsi écrire une nouvelle histoire de l’humanité. Une fois que vous êtes devenu un blogueur, une fois que vous avez accumulé autant de capital social sur un aussi petit site, il est devenu difficile d’arrêter. Cela ne peut s’expliquer par une théorie de la dépendance. C’est une impulsion de partage. C’est l’énergie des mêmes qui veut circuler de bouche à oreille et d’esprit à esprit. C’est plus que l’e-mail. C’est l’esprit de partage.

Les blogueurs souhaitent toujours garder à l’esprit le contexte social de leurs articles, en se demandant : « Qui donc va lire ceci ? » Les blogueurs sont agiles en ce qu’ils ajustent leur tonalité -et leur niveau de vie privée – pour faire avancer leurs idées sans se mettre en danger. Il s’agirait du sens du terme adéquat, plutôt que d’une auto-censure. Mais une fois que les blogs ont atteint leur masse critique, ils se sont étendus pour devenir la blogosphère. Ce dernier point a requis un système de réseaux sociaux plus délicat, ainsi qu’une architecture de partage de contenus. Mais les gens savent désormais qu’ils maîtrisent une palette plus large de relations. A la façon dont Flickr nous permet de partager des photos, mais en toute sécurité. Le respect de la vie privée de Flickr à base de cases à cocher peut paraître étrange au nouvel utilisateur, mais elle peut vous permettre de jouer avec les ressorts mentaux de l’esprit de partage. En cochant une case, nous pouvons choisir de partager , ou pas. De mes propres observations, j’ai pu constater que des photographes sur Flickr deviennent plus réceptifs à l’idée de partage, tout en conservant toute la latitude voulue dans leurs choix.

L’émergence rapide d’applications sociales qui communiquent et coopèrent, en permettant à tout un chacun de diriger des contenus d’un service à un autre, laisse les utilisateurs libres de pomper leurs mêmes au travers d’un écosystème faits de pipelines. Cette capacité d’interconnexion permet aux mêmes de se déplacer au travers de multiples réseaux sociaux, et de potentiellement atteindre une énorme audience. En conséquence de quoi, ce système de micro-pipelines rend les médias sociaux viables en tant qu’alternative aux mass-média traditionnels. Ces nouvelles technologies ressuscitent l’esprit de partage dans notre culture de la fermeture.

Pratique locale, bénéfice global

Si jamais vous avez perdu votre esprit de partage du fait d’un mauvais environnent culturel ou éducatif, il est ardu de le retrouver. Mais ce n’est pas impossible. Une pratique assidue peut mener à un rétablissement complet. Vous pouvez vous représenter l’esprit de partage comme une pratique spirituelle. Mais vous devrez pratiquer quotidiennement. Sinon, vous perdriez le pouvoir de partager. Définitivement.

Vous pourriez avoir besoin de quelques chose qui vous motive, vous empêche de revenir à un état d’esprit fermé. Voici une idée : afficher sur votre bureau une note portant la mention : « Que veux-tu partager aujourd’hui ? ». Sans blague. Par la suite, si jamais vous tombez sur quoi que ce soit d’intéressant, partagez-le ! La façon la plus simple à la fois pour commencer et continuer à partager consiste à utiliser de multiples logiciels sociaux. Le premier même que vous souhaitez partager sera peut être de peu de taille, mais vous pourrez l’amplifier par le biais des nouvelles technologies. Listez les noms de personnes de votre réseau personnel, et invitez-les à rejoindre un nouveau logiciel social. Au début, vous aurez peut-être du mal à voir les bénéfices de l’esprit de partage. Le vrai test consiste alors à voir si vous pouvez suivre le feedback que vous obtenez de ce que vous partagez. Vous réaliserez que quasiment toutes vos activités de partage vont générer des résultats positifs. Le bonheur que vous ressentirez n’est que la récompense la plus immédiate, même s’il y en a d’autres.

Le premier type de récompense que vous obtiendrez arrivera sous la forme de commentaires. Vous saurez alors que vous avez suscité de l’intérêt, de l’appréciation, de l’excitation. La seconde récompense sera l’accès à tout ce que les amis de votre réseau auront partagé. Du fait que vous les connaissez et avez confiance en eux, vous serez d’autant plus intéressés par ce qu’ils partagent. Mais le troisième type de récompense est plus important encore. Tout ce que vous partagez sera transféré, remis en circulation et publié une nouvelle fois au travers des propres réseaux de vos amis. Cet effet de cascade porte alors votre parole aux masses mises en réseau. Les progrès des logiciels de réseaux sociaux font que la vitesse de propagation devient celle d’un clic de souris. Vous devriez rencontrer l’esprit de partage. Vous êtes sur le point de devenir connu, et ce rapidement.

Ce qui nos amène au quatrième et dernier type de retour, qui fait sens non seulement pour vous, mais également pour la société toute entière. Si vous l’avez choisi, vous autorisez autrui à créer des œuvres dérivées à partir de ce que vous aurez partagé. Ce simple choix peut facilement faire boule de neige et induire de nouvelles créations le long du chemin du partage de la part de personnes situés à des endroits clés du réseau et qui sont toutes aussi passionnées que vous pour créer et partager. Après plusieurs cycles de développement, une vaste œuvre créatrice peut jaillir de votre décision de partager. Bien sûr, vous recevrez le crédit que vous avez demandé, et que vous méritez. Et c’est tout à fait logique de vouloir en être rémunéré. Mais dans tous les cas vous en obtiendrez quelque chose de tout aussi essentiel : du Bonheur.

Plus il y aura de créateurs dans l’esprit de partage, plus ce sera facile de parvenir à un état d’équlibre et d’équité pour les Médias Sociaux tissés par les gens eux-même. Les médias ne seront pas contrôlés par une seule personne, mais reposeront sur la distribution régulière du réseautage social. Ces « Partagéros » (Héros Partageurs) deviendront naturellement les leaders d’opinion de la première vague de Média Social. Cependant, les droits sur ces médias appartiendront à tous. Vous devenez à la fois producteur et consommateur dans un tel système.

L’esprit de partage protège vos droits

Bien des questions restent malgré tout en suspens à propos de l’esprit de partage comme initiative dans une nouvelle ère, la principale étant celle du copyright. Un des soucis est que n’importe quelle perte de contrôle sur des contenus protégés par copyright conduira à une baisse conséquente de la richesse individuelle, ou simplement en une perte de contrôle. Il y a 5 ans, j’aurais considéré cela comme possible. Mais les choses changent aujourd’hui. L’environnement de partage est plus protégé que vous ne pourriez penser. Bien des nouveaux logiciels sociaux vous facilitent l’établissement des conditions d’utilisation de votre chemin de partage. Tout violation de ces termes a leur égard vous sera reprochée non seulement par la loi, mais par votre communauté. Votre auditoire, qui bénéficie de ce que vous partagez, peut aussi tenir lieu de gardien de vos droits. Cela paraît idéal, même pour le détenteur de droits traditionnels.

De plus, en mesurant la portée des récompenses immédiates et à venir liées au partage, vous vous direz peut-être en fin de compte que le copyright et les « Tous droits réservés » sont bien éloignés de vous. Vous apprécierez trop les bénéfices du partage pour vous soucier de savoir qui détient une copie. Plus il y a de gens à remixer vos œuvres, plus vous aurez un retour important, voici la nouvelle formule économique.

Je voudrais souligner que le sens du partage n’équivaut pas au Communisme, ni au Socialisme. Pour ce qui est des Communistes endurcis, ils ont souvent violé la nature encline au partage des gens pour les forcer à abandonner leurs droits comme leurs biens. Le Socialisme, ce Communisme attendri, a, d’après notre exprience, également montré bien peu de respect envers ces droits. Dans ces systèmes, l’état détient toute propriété. Dans l’esprit de partage, vous pouvez conserver vos droits si vous le voulez. Mais je préfère partager. Et c’est ainsi que j’ai choisi de propager des idées, et la prosperité.

L’esprit de partage est entièrement basé sur votre propre consensus. Ce n’est pas trop difficile à comprendre, surtout depuis que des mouvements liés au copyleft comme la Free Software Foundation et les Creative Commons existent déjà depuis plusieurs années. Ces mouvements redéfinissent un spectre plus flexible de licences pour que les développeurs comme les utilisateurs finaux puissent marquer leurs travaux. Du fait que ces nouvelles licences peuvent être reconnus autant par les humains que les machines, il devient de plus en plus facile de partager à nouveau ces travaux dans les nouveaux écosystèmes en ligne.

L’esprit du Web, un cerveau social

L’esprit de partage est celui de l’ère du Web 2.0. Il a à la fois la consistance d’une Épistémologie naturalisée et celle d’une Axiologie modernisée, mais contient également les promesses du pouvoir d’une nouvelle philosophie de l’Internet. L’esprit de partage va transformer le monde en un Cerveau Social émergeant, un hybride mis en réseau de personnes et de logiciel. Nous sommes les Neurones en Réseau connecté par les synapses du Logiciel Social. Il s’agit d’une saut de l’évolution, un petit pas pour nous mais un pas de géant pour la société humaine. Avec ces nouvelles technologies « velues » fleurissant autour de nous , nous sommes en mesure de générer plus de connectivité et d’augmenter le débit de nos liens sociaux. Plus nous , neurones sociaux, serons ouverts et intensément connectés, meilleur sera l’environnement de partage, pour tous. Plus notre intelligence sera collective, plus la sagesse marquera nos actions. Les gens ont toujours trouvé de meilleures solutions par la conversation. Désormais, nous pouvons le mettre en ligne.

L’esprit de partage sera la politique exercée par la prochaine super puissance globale. Il ne s’agira pas d’un pays, mais d’un nouveau réseau humain relié par le Logiciel Social. Il s’agit peut-être d’un rêve lointain, de même que une politique publique de partage bien conçue n’est sans doute pas pour demain. Mais les idées que je soulève peuvent améliorer dès aujourd’hui les gouvernements. Nous pouvons intégrer nos systèmes démocratiques émergents comme déjà existants avec de nouvelles toponymies sociales (basées sur l’indexation sociale et collaborative d’information) pour permettre aux gens d’émettre des requêtes, de partager des données et remixer les informations pour des usages publics. L’intelligence collective d’un vaste environnement de partage équitable peut être le gardien du temple de nos droits, et le chien de garde des gouvernements. Dans le futur, la politique pourra être exercée de manière plus nuancée, par le biais de la micro-participation de la communauté de l’esprit du partage. Cette « Démocratie Émergente » se déroule plus en temps réel que lors de sessions parlementaires. Elle élargira la panoplie de nos choix, au-delà des options binaires offertes par référendums par « Oui » ou « Non ». La démocratie représentative en deviendra plus prompte à réagir et plus diligente, parce que nous nous représenterons nous-même au sein du système.

L’Esprit de Partage aura pour résultat une plus grande justice sociale. Dans un environnement de partage sain, tout signe d’injustice peut se retrouver amplifié afin d’attirer l’attention du public. Toute victime peut obtenir un support aussi effectif qu’instantané de ses pairs et des pairs de ses pairs. Les procédures de justice prendront la forme de pétitions émises par le biais de multiples canaux interconnectés. Par ces outils, chacun d’entre nous peut devenir mieux socialisé, et la société plus individualisée. Nous ne sommes plus forcés d’agir seuls. La démocratie émergente n’existera qu’une fois que l’Esprit de Partage sera devenu le bréviaire de la majorité. Puisque l’Esprit de Partage peut améliorer la communication, la collaboration comme la compréhension mutuelle, je crois qu’il a sa place au sein du système éducatif. L’Esprit de Partage peut s’appliquer à n’importe quel discours culturel, communauté de pratique (Community of Practice) ou contexte de résolution de problème. C’est également un antidote à la dépression sociale, la perte du sens du partage ne faisant que tirer notre société vers le bas. Dans les pays totalitaires actuelles ou passés, ce cycle décadent est encore plus visible. Le monde futur sera un hybride d’humain et de machine qui permettra des prises de décisions meilleures et plus rapides, n’importe où, n’importe quand. Le flot d’information entre les esprits deviendra plus flexible et plus productif. Ces vastes réseaux de partage créeront un nouvel ordre social : une Révolution de l’Esprit.

Crédit photo : Joi Ito (Creative Commons By)




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




Les 20 personnalités préférées de l’Internet Libre

L’excellent quotidien d’information britannique The Guardian (que nous traduisons souvent ici) a récemment proposé une liste restreinte et subjective de vingt « fighters for Internet freedom ».

Stallman, Torvalds, Wales, Lessig, Assange, Sunde, Berners-Lee, Anonymous… Il y en a que nous connaissons bien ici. D’autres moins, mais c’est l’occasion de les découvrir[1].

Certains lecteurs regrettent ainsi par exemple l’absence de Cory Doctorow, Eben Moglen ou Mitchell Baker.

Qu’en pensez-vous ? Qui rajouteriez-vous ? Et pourquoi aucun français ni francophone ?

D’ailleurs s’il fallait faire une liste nationale vous choisiriez qui ?

(Petite liste alphabétique qui s’édite en fonction des commentaires : Philippe Aigrain, Jean-Pierre Archambault, Benjamin Bayart, Stéphane Bortzmeyer, Guillaume Champeau, Frédéric Couchet, Laurent Chemla, Loïc Dachary, Florence Dévouart, François Elie, Fabrice Epelboin, Roberto Di Cosmo, Christophe Espern, Sam Hocevar, Antoine Moreau, Tristan Nitot, Valentin Lacambre, Bernard Lang, Olivier Laurelli, Jean-Marc Manach, Jean Peyratout, Bernard Stiegler, Thierry Stoehr, Jérémie Zimmermann…)

Un billet à rapprocher de celui qui rendait hommage à quelques figures marquantes du monde du Libre : Sur la place des grands hommes du logiciel libre.

Aaron Brown - CC by-nc

Top 20 du Guardian : ceux qui se battent pour un Internet libre

The Guardian’s Open 20: fighters for internet freedom

Des hommes politiques et professeurs aux informaticiens en passant par le premier programmeur, les champions de l’Internet libre. Qui avons-nous oublié ? Faites votre propre liste ici.

Anonymous

Légions, partout
(Wikipédia)

Le cri de ralliement des Anonymous – « Nous sommes Anonymes. Nous sommes Légion. Nous ne pardonnons pas. Nous n’oublions pas. Redoutez-nous » (We are Anonymous. We are Legion. We do not forgive. We do not forget. Expect us) – n’est pas du goût de tout le monde, mais est certainement très connu. À l’inverse de son groupe frère Lulzsec, le collectif Anonymous est vraiment fragmenté et sans leader et a donc pu continuer malgré les arrestations du FBI qui ont paralysé Lulzsec. Les pirates ont récemment mis brièvement hors ligne le site web du ministère de l’intérieur anglais et certains des sites web les plus visités au monde en protestation contre les propositions de lois de surveillance d’internet.

Jacob Appelbaum

Militant, chercheur et développeur, Projet Tor
(Wikipédia)

Appelbaum, un chercheur en informatique à l’Université de Washington, est l’un des principaux membres du projet Tor, qui permet de garantir l’anonymat de milliers d’internautes à travers le monde. Egalement connu comme le principal défenseur du groupe, Appelbaum a attiré l’attention du public après avoir été arrêté et fouillé à de nombreuses reprises par des douaniers américains, qui lui ont confisqué son matériel électronique, après qu’il a défendu Julian Assange pendant une conférence.

Julian Assange

Éditeur en chef, WikiLeaks
(WikipédiaFramablog)

La force motrice derrière Wikileaks, Assange a coordonné la publication de documents secrets concernant les guerrres en Afghanistan et en Irak, de fichiers de prisonniers de la Baie de Guantanamo, et de 250 000 câbles diplomatiques. Assange est quelqu’un qui divise l’opinion, à cause des nombreuses polémiques qui l’entourent mais malgré cela (ou peut-être grâce à cela), il est sûrement le chef de file du mouvement pour un Internet libre et un interlocuteur important.

John Perry Barlow

Co-fondateur, Electronic Frontier Foundation
(Wikipédia)

Fondée en 1990, l’EFF se décrit elle-même comme « la première ligne de défense » lorsque les libertés numériques sont menacées. Grâce à un mélange d’action directe, d’actions en justice et de lobbying dans le milieu politique, le groupe défend la liberté d’expression et se bat contre la surveillance et les problèmes de propriété intellectuelle. L’ancien parolier des Grateful Dead est un des membres fondateurs de l’EFF et a depuis été l’un de ses plus importants porte-parole.

Sir Tim Berners-Lee

Inventeur du world wide web
(WikipédiaFramablog)

Étant l’inventeur d’une des parties les plus visible de l’Internet (le world wide web), la place de Berners-Lee dans l’histoire de l’Internet était déjà réservée. Il ne s’est cependant pas reposé sur ses lauriers: il joue un rôle important dans la promotion de l’open data jusque dans les hautes sphères des gouvernements à travers le monde, il fait également campagne contre un internet à « deux vitesses ». Il s’est aussi récemment excusé pour les deux slashes au début d’une adresse web (http://), reconnaissant qu’ils sont «?complètement inutiles?».

Heather Brooke

Journaliste et militante
(Wikipédia)

Militante pour la liberté d’information et contre la surveillance des états, Heather Brooke a eu un rôle capital dans les procès qui ont permis de réveler les abus dans le système de dépense du premier ministre britannique. Durant ses recherches sur la culture hacker et l’activisme en ligne, Brooke s’est procuré les câbles diplomatiques de Wikilieaks et a été l’une des journalistes à travailler sur le projet. Elle siège au conseil de l’Open Rights Group et elle est professeur en résidence à la City University de Londres.

Bram Cohen

Scientifique en chef, BitTorrent
(Wikipédia)

Bram Cohen n’est pas un homme populaire à Hollywood. Cohen a non seulement inventé la technologie du peer-to-peer qui est derrière le réseau BitTorrent, mais a également mis au point le logiciel qui permet aux utilisateurs de partager leurs fichiers. La technologie revendique plus de 100 millions d’utilisateurs actifs chaque mois, téléchargeant à peu près 400 000 fichiers chaque jour – quelques-uns sont légaux, mais pour beaucoup, il s’agit de films, musiques et programmes télé protégés par le droit d’auteur.

Rickard Falkvinge

Fondateur, le parti Pirate
(WikipédiaFramablog)

Falkvinge a fondé le parti Pirate Suédois en 2006 afin de se concentrer sur la réforme des lois sur le droit d’auteur, les brevets et le partage de fichiers. Le parti a maintenant une présence souvent marginale dans 22 pays, voire significative en Suède, où il dispose de deux députés européens, ainsi qu’en Allemagne, où il est la troisième force politique du pays.

Birgitta Jonsdottir

Membre du Parlement, The Movement, Islande
(Wikipédia)

Une poètesse et militante devenue femme politique, Jonsdottir est élue au parlement islandais depuis 2009. Principalement connue pour son rôle dans la diffusion de la vidéo WikiLeaks Collateral Murder au grand public, Jonsdottir a également eu un rôle prépondérant dans l’effort qu’a fait l’Islande pour être un paradis de la liberté d’expression, et c’est l’une des plaignantes dans les poursuites contre le gouvernement américain concernant les pouvoirs de surveillance que permet la loi NDAA.

Dr Susan Landau

Chercheur en cyber-sécurité, Membre de Guggenheim
(Wikipédia)

Susan Landau est professeur invitée du département de sciences informatiques de l’Université d’Harvard avec plus de 30 ans de publications sur la cyber-sécurité, la surveillance et la cryptographie derrière elle. Elle milite pour le respect de la vie privée des utilisateurs et dénonce les systèmes de surveillance installés sur les canaux de communication. Elle combat également pour la cause des femmes dans les sciences, et dirige la mailing list ResearcHers. Elle a gagné le prix Women of Vision social impact en 2008.

Lawrence Lessig

Fondateur, Creative Commons
(WikipédiaFramablog)

Tandis que que beaucoup d’hacktivistes se contentent simplement d’ignorer les lois et en risquent donc les conséquences, Lawrence Lessig a suivi une approche plus douce, en introduisant un type de licence qui autorise le partage de contenu sans crainte de poursuites. Les personnes qui créent des œuvres qui devraient normalement être soumises au droit d’auteur peuvent utiliser les licences Creative Commons (CC) qui autorisent une ré-utilisation libre, en y adjoignant une clause d’usage non-commercial ou de non-modification s’ils le souhaitent. Plus de 100 millions d’images sont déjà disponibles sur internet sous licences Creative Commons.

Ada Lovelace

Programmeuse
(Wikipédia)

Ada Lovelace, morte en 1852, sert d’inspiration à un internet libre. Lovelace travaillait avec Charles Babbage sur sa machine analytique, a écrit certains des premiers programmes informatiques, et elle est donc considérée comme la première programmeuse d’ordinateur. À l’opposé de Babbage, elle avait compris le rôle que pourraient jouer les ordinateurs pour faire de la musique, de l’art et plus encore. Ces dernières années, le jour Ada Lovelace est devenu une institution sur Internet, promouvant le rôle des femmes dans les sciences et technologies, et modifiant la vision que l’on a d’elles dans les médias.

Alex MacGillivray

Conseiller Général, Twitter
(Wikipédia)

Alex MacGillivray, l’avocat général de Twitter, est celui a qui l’on attribue le mantra de l’entreprise « la branche liberté d’expression du parti de la liberté d’expression » (the free-speech wing of the free-speech party), et a joué un rôle important dans les efforts qu’a faits le site pour rester le plus transparent possible sans pour autant se rendre hors-la-loi. Ses récents efforts en vue de limiter la censure non plus au niveau planétaire mais pays par pays, ont d’abord provoqué une fronde mais ont finalement été vus par beaucoup comme une façon habile de n’adopter que le minimum des restrictions exigées par la législation.

Clay Shirky

Ecrivain, professeur assistant à l’Université de New York
(WikipédiaFramablog)

Clay Shirky a été l’un des premiers ardents défenseurs du crowdsourcing, de la collaboration et de l’aggrégation de contenus et du journalisme en ligne, et donc des institutions ouvertes nécessaires à leur développement. Shirky encourage des institutions à se remettre en question dans un monde toujours plus connecté, et il est crédité comme l’une des personnes qui a inspiré la politique de journalisme ouvert du Guardian.

Richard Stallman

Fondateur, Free Software Foundation
(WikipédiaFramablog)

L’un des défenseurs les plus ardents du logiciel libre (et non open source, terme qu’il déteste), Stallman fait le tour du monde afin de montrer les avantages qu’apportent des logiciels libres d’utilisation et libres de modification. Cependant, Stallman est davantage qu’un porte-parole, il est également l’un des principaux programmeurs de GNU (un système d’exploitation qu’il a mis au point).

Peter Sunde

Co-foundateur, Pirate Bay
(WikipédiaFramablog)

Peter Sunde était une des personnes responsables de Pirate Bay, un moteur de recherche permettant l’accès à plus de 4 millions de fichiers sur le réseau BitTorrent, et un portail clé pour toute personne échangeant des fichiers. Le site a longtemps évité les tentatives de la justice pour l’interdire, mais Sunde est déjà passé à autre chose, en fondant Flattr, un site de micro-paiement qui a pour but de rétribuer financièrement et volontairement les sites indépendants et les blogs. Pendant ce temps, Pirate Bay prétend mettre au point des serveurs embarqués sur des drones, afin de s’assurer que le gouvernement ne sera jamais capable de les déconnecter.

Aaron Swartz

Programmeur, militant
(Wikipédia)

Si un vendeur sur un marché tunisien a lancé le printemps arabe, il est peut être juste de créditer Aaron Swartz d’avoir lancé le «?printemps universitaire?», si les accusations le concernant s’avèrent fondées. Swartz est accusé d’avoir téléchargé plus de 4 millions d’articles universitaires du site JSTOR afin d’améliorer l’accès à la littérature savante. Après son inculpation, et alors qu’il se dit innocent, d’autres personnes ont commencé à partager des milliers de papiers sur le net sans aucune permission. Maintenant, l’accès aux publications universitaires est en train d’être libéré par des moyens légaux et de plus en plus rapidement, avec comme principal appui financier le Wellcome Trust, et certains ministres du Royaume Uni qui soutiennent maintenant le libre accès.

Professeur Sebastian Thrun

Fondateur, Udacity
(Wikipédia)

Le professeur Thrun n’était pas un homme qui avait à se soucier de son prochain salaire?: en tant que professeur permanent en intelligence artificielle à la prestigieuse Stanford University, il avait un poste à vie. Non satisfait d’enseigner à un nombre restreint d’étudiants, il a donné accès à ses cours en ligne gratuitement, à travers un site nommé Udacity. La première année, plus de 140 000 étudiants se sont inscrits à ses cours.

Linus Torvalds

Architecte en chef, Linux
(WikipédiaFramablog)

Pour ceux qui ne seraient pas désireux d’avoir à choisir entre Microsoft Windows et Apple Mac OSX, une alternative libre existe, qui s’accompagne d’une valeur ajoutée (pour les programmeurs) : elle est ouverte aux modifications et personnalisations, cette alternative c’est Linux. Linus Torvalds est un développeur Finno-Américain qui a démarré ce projet, et a depuis lors montré la voie à de nombreuses distributions en tant que défenseur de l’open source et des logiciels libres.

Jimmy Wales

Fondateur et membre du Board, Fondation Wikimedia
(WikipédiaFramablog)

Jimmy Wales est l’homme derrière Wikipédia, la plus grosse encyclopédie au monde (avec 21 millions d’articles), rédigé exclusivement par des bénévoles, grâce à son système d’édition ouvert. De plus, Wales a récemment gagné en légitimité en matière d’Internet ouvert en encourageant le comité du site à sortir de sa politique habituelle de neutralité afin d’organiser un black-out d’une journée de la version anglophone du site, en réponse à la proposition de loi SOPA contre la piraterie.

Qui avons-nous oublié ? Faites-le nous savoir en proposant vos propres choix dans les commentaires.

Notes

[1] Crédit photo : Aaron Brown (Creative Commons By-Nc)




Sommes-nous en train de tuer l’Internet ?

Tristan Louis se définit lui-même sur son site comme un vétéran d’Internet, ce que confirme son article Wikipédia. Il sait donc de quoi il parle lorsqu’il décide aujourd’hui de sonner l’alarme.

Les réseaux sociaux, les applications pour mobile… participent à un dangereux mouvement de fermeture[1]. Il faut tout faire pour ne pas avoir à dire dans quelques années : « l’Internet, c’était mieux avant ! ».

The U.S. Army - CC by

J’ai tué Internet

I killed the Internet

Tristan Louis – 3 mars 2012 – TNL.net
(Traduction Framalang/Twittica : Evpok, @Thb0c, @KarmaSama,Giljåm, @nico3333fr,@0ri0nS, M0tty, LGr, Gatitac, HgO)

J’ai tué Internet.

Ce n’était pas volontaire, mais c’est le résultat direct de mes actes. Je vais vous raconter comment c’est arrivé.

Internet

Autrefois il y avait beaucoup de réseaux privés. À cette époque, avant l’avènement d’Internet, pour pouvoir communiquer avec les utilisateurs d’un service en particulier, il fallait y être inscrit. Chaque service gérait ses propres silos[2] et avait sa propre culture : certains étaient spécialisés dans les affaires (par exemple CompuServe), d’autres se concentraient sur les consommateurs (comme AOL) ; certains étaient soutenus par de grandes entreprises (comme Prodigy), d’autres par de nouveaux arrivants dans le monde de l’informatique (comme eWorld). Mais aucun d’entre eux ne communiquait réellement avec les autres.

Pendant ce temps, une technologie de type et d’approche différente émergeait lentement. Issues de la peur durant la guerre froide que les communications centralisées puissent être coupées si une bombe nucléaire détruisait les serveurs hébergeant les communications. Les technologies d’Internet ont été conçues pour créer des connexions entre les différents réseaux, permettant de voyager d’un réseau à un autre sans rencontrer d’obstacle (d’où le terme inter-net qui signifie entre les réseaux). En cours de route, cela a également généré une philosophie différente : afin de participer au réseau et de voir d’autres réseaux transporter du trafic à partir et vers le vôtre, vous deviez accepter de faire la même chose pour tous les autres réseaux, sans discrimination, quelles que soient l’origine et la nature du trafic sur ce réseau.

Internet se développa d’abord en tant que projet militaire, mais la recherche était faite par des entreprises privées en partenariat avec des universités. Ainsi, ces ensembles commencèrent à s’interconnecter à la fin des années 60 et les ingénieurs ajoutèrent de plus en plus de technologies au réseau, le rendant de plus en plus utile, passant de l’échange de fichiers à la gestion de courriels, de groupes de discussion et finalement au web.

Quand Tim Berners-Lee a inventé le web, il n’a pas voulu le faire breveter, il a préféré partager son invention du http, des navigateurs, des serveurs web et du HTML avec le reste de la communauté Internet (c’est du reste assez incroyable qu’il ait inventé et présenté tous ces composants en même temps). Au fil des ans, la communauté les a améliorés, et a partagé ces améliorations avec le reste d’Internet. Ceux qui décidaient de construire des modèles propriétaires pour leurs services étaient en général méprisés et leurs idées n’avaient que peu de succès.

L’âge d’or

En ajoutant une couche graphique – le world wide web – à Internet, celui-ci a commencé à croître de plus en plus vite, forçant tous les silos à s’ouvrir ou à mourir. CompuServe a été le premier, suivi d’AOL et de Prodigy. La facilité d’utilisation d’AOL a permis à des millions de personnes d’accéder aux ressources d’Internet, alors que les difficultés techniques de l’utilisation de CompuServe l’ont perdu (ce qui a conduit à son acquisition par AOL) et l’arrivée tardive de Prodigy dans le monde d’Internet l’a rendu vulnérable à une acquisition par Yahoo, qui a fini par tous les supplanter.

Les deux décennies suivantes ont fait passer Internet d’un lieu où traînaient seulement des geeks au système de communication incontournable que nous connaissons aujourd’hui. En 1995, AT&T lança un forfait Internet appelé Worldnet, qui força tous les fournisseurs d’accès à se convertir au modèle d’accès Internet illimité à prix unique. Cette innovation avait pour but non seulement de se différencier mais aussi d’étouffer les concurrents d’AT&T car celui-ci possédait déjà une infrastructure suffisante pour s’assurer que le trafic lui coûterait moins cher qu’à tout autre FAI.

Entre-temps, plusieurs services ont fourni une infrastructure peu coûteuse pour héberger un site web, permettant à n’importe qui ayant un minimum de connaissances de créer un nom de domaine et de proposer ses produits en ligne. Dans cet environnement équitable, l’argent n’était pas un problème pour démarrer, et un site comme TNL.net (NdT : celui de l’auteur) avait les mêmes droits sur Internet que les plus grandes entreprises comme IBM, Gen­eral Electrics, Esso, ou Microsoft.

Dès lors, à partir de 1995, la logique d’Internet se retrouva fondée sur deux principes : toutes les ressources étaient disponibles pour tous à un prix unique et ceux qui avaient la volonté de travailler dur pouvaient réussir et, de là, construire une entreprise florissante.

De sombres nuages

Mais ces beaux jours ne sont jamais assez loin pour des gens qui préfèrent que l’équilibre des forces penche en leur faveur. Innocemment au début, mais de plus en plus souvent, de nouveaux silos ont commencé à apparaître.

Au début, ces silos semblaient inoffensifs parce qu’ils étaient petits et que le reste d’Internet était bien plus gros qu’eux. Mais à l’instar d’un petit trou dans un barrage qui, au départ, semble bénin, la pression commença à monter et au final conduisit à l’augmentation du nombre de zones autour d’Internet où le trafic ne passait que dans un sens, vers ces communautés, mais sans jamais en revenir. Par exemple, sur Facebook, ce qui suit est devenu plus courant quand on nous signale quelque chose sur le net :

I killed Internet

En d’autres termes, Facebook a jugé préférable d’intercepter le lien externe en essayant de vous faire installer une application qui vous ferait rester dans leur pré carré, comme souvent avec les applications qui permettent d’accèder aux réseaux sociaux :

I killed Internet

À chaque fois que quelqu’un installe l’une de ces applications, il déplace tout partage qu’il a de son histoire de ce site vers les silos1 privés de Facebook. Maintenant, vous avez deux options quand vous cliquez sur un lien : soit vous installez l’application et ainsi vous prenez une part active au lent démentelement d’Internet, soit vous décidez de ne pas lire cette histoire. Facebook a pleinement réussi à faire en sorte que partager un lien en dehors de Facebook soit si difficile qu’il s’assure que le trafic ne va jamais aller que vers Facebook.

Mais ce n’est pas que l’apanage de Facebook. Par exemple quand je reçois un message LinkedIn, on me demande de cliquer sur un lien « Voir/Répondre à ce message ». Pourquoi donc ? Ce message est dans ma boîte-mail, je peux le lire en entier, et je peux y répondre en cliquant sur le bouton « Répondre » de mon client mail :

I killed Internet

Ce lien est utile pour LinkedIn, pas pour moi en tant qu’utilisateur, puisque toutes les fonctionalités dont j’ai besoin sont juste là, dans mon client mail.

Autre exemple, prenons Path, le nouveau meilleur ami des réseaux sociaux. Path est un réseau social pour mobiles (pensez à Facebook pour votre smartphone) et son site propose un bouton pour se connecter (pour en savoir plus sur la raison de l’absence de liens vers Path dans cette entrée, voir « Allez-vous le ressuciter ? » plus bas). Mais quand vous vous connectez, l’univers de Path est très limité. C’est ci-dessous, sans rire, la page où j’atterris quand je me connecte à travers leur interface web :

I killed Internet

Pas de contenu ici, au-delà de mes préférences. Je ne peux pas avoir accès aux données que j’ai créées sur mon appareil mobile, ou celles créées par d’autres personnes sur les leurs. Je ne peux pas non plus partager sur le web des choses que j’ai créées sur mon mobile… et personne ne semble trouver à y redire.

Comment j’ai tué Internet

Quand je l’ai remarqué il y a quelques mois, je n’y ai pas trop réfléchi. J’ai pensé que c’était une fonctionnalité d’une bêta qui n’avait pas encore de contenu en ligne. Et donc j’ai continué à utiliser le service. Mais finalement, l’impossibilité de partager sur le net m’a fait tiquer car j’ai réalisé que j’étais captif de Path. J’ai arrêté d’utiliser ce service.

Mais ce que je n’ai pas fait, c’est arrêter d’utiliser les nombreuses autres applications qui fonctionnaient sur mon téléphone Android (cela serait tout aussi vrai si j’avais utilisé un iPhone). J’ai continué à utiliser une application dédiée au Kin­dle d’Ama­zon, une autre pour son lecteur MP3, encore une autre pour Google Cur­rents, ou pour Drop­box, Ever­note, Face­book, Flickr, Foursquare, etc. J’étais d’accord pour obtenir seulement quelques petits morceaux du web empaquetés et prémâchées sur mon mobile. Je n’ai pas demandé à ces mêmes sites de développer une version web ouverte qui fonctionnerait dans un navigateur de façon à ce que je puisse moi-même choisir le périphérique d’accès à leur contenu.

Je n’ai pas tiqué quand j’ai eu à réinstaller ces applications sur un autre périphérique, lorsque j’en ai changé. Et quand j’ai vu qu’un de ces périphériques ne supportait pas l’application, je n’ai pas blâmé le créateur de l’application mais la plateforme pour ne pas avoir aidé le développeur. J’ai opté pour plus de fragmentation dans ce qui était disponible pour tout le monde parce je devais avoir le dernier « jouet à la mode » au lieu de demander à ce que tout le monde fasse le choix, plus difficile, de travailler ensemble.

Quand il manque une fonctionnalité au web, je ne cherche pas un moyen de régler cela en utilisant la capacité que ce materiel offre mais je m’en détourne et dis « abandonnons le web et utilisons les applications à la place ». Je n’ai pas poussé au dialogue pour trouver des solutions à l’accès ouvert aux caméras/accéléromètres/microphones/WiFi/GPS/Bluetooth. À la place je tombe dans la facilité et me concentre pour développer sur une seule plateforme (ou un petit groupe de plateformes).

À chaque fois que je suis tombé sur un silo comme Facebook, j’ai peut-être râlé mais je ne suis pas parti. En fait, j’ai publié toujours plus de contenus dessus sans me demander si je pouvais le récupérer. J’ai fait cela parce que c’était là où étaient les lecteurs, là où je pouvais avoir plus d’utilisateurs, etc.

Quand mon opérateur mobile a décidé de mettre en place un plafond sur la consommation de mon forfait illimité, je ne l’ai pas quitté parce que je devais être sur un réseau où je pouvais continuer à utiliser mon iPhone/iPad/Kindle (peu importe le périphérique). Je me suis plaint sur Twitter et j’ajoutais un billet sur Tumblr mais je suis quand même resté.

Quand les politiciens commencèrent à parler de sujets comme la neutralité du net ou d’autres acronymes bizarres comme PIPA/SOPA/ACTA/etc., je me suis battu contre ces lois mais à l’époque je n’avais pas insisté sur le fait que tout ce qui attaque Internet attaque la population et donc ébranle la démocratie.

Je pense que vous réalisez peut-être que je ne suis pas seul dans ce cas, et la vérité c’est que j’ai peut-être tué Internet… mais vous aussi.

Le ressusciterez-vous ?

Donc comment on le ramène ? Comment nous, assis sur le bord de la route, pouvons-nous aider Internet à continer de se croître comme un endroit où tout un chacun, qu’il soit une énorme entreprise ou un simple individu, ait des chances égales de développer et construire le prochain « truc génial d’Internet » ?

Bon, la façon dont je vois les choses c’est que nous combattons avec les outils qu’on a et le meilleur d’entre eux est Internet lui même… et nos portes-monnaies.

Vous voulez de l’argent ? Eh bien, dans ce cas vous devrez être ouvert. Vous voulez me faire de la publicité ? Parfait ! Faites que votre site complet soit une part d’Internet et j’arrêterai de bloquer vos publicités. Je cliquerai même sur les publicités si elles pointent vers un site internet ouvert, mais je bloquerai celles qui m’entraînent vers des silos. Vous voulez m’offrir une inscription à quelque chose ? C’est bien mais vous ne pouvez pas être indexé par les moteurs de recherche.

Vous voulez que j’installe une application ? OK, seulement si les fonctionnalités sont valables pour un internet ouvert ! Et si c’est dû à une limitation des technologies, alors expliquez-le moi et dites-moi à qui je dois me plaindre pour que s’arrêtent ces restrictions.

Vous voulez que je partage un lien vers votre application ou votre site ? D’accord, mais comment puis-je partager les liens provenant d’autres sites ou applications DANS votre application ? Comment puis-je circuler dans les deux sens (et permettre aux moteurs de recherche ou aux personnes non enregistrées de voir au moins une partie du contenu que je partage ?).

Vous êtes un fabricant de matériel informatique ? Allez-y. Mais vous devez travailler avec d’autres fabricants pour assurer que l’accès aux appareils que vous construisez via le web soit standardisé.

Vous êtes un opérateur télécom et vous avez du mal rentabiliser votre bande passante ? Peut être que nous pouvons vous aider. Partagez TOUTES vos données (anonymisées bien sûr) qui concernent le trafic et les habitudes de vos utilisateurs. Des passionnés de réseaux se feront un plaisir de travailler avec vous pour trouver des moyens d’améliorer les choses.

Vous dirigez un moteur de recherche ? Bien. Si vous trouvez que certaines pages sont cloisonnées, refusez simplement l’indexation de l’ensemble du site. Travaillez avec vos concurrents pour assurer la création d’un liste noire, semblable à la liste noire des spammeurs. Si une entreprise ne veut pas jouer le jeu, très bien, mais elle ne devrait pas alors avoir le beurre et l’argent du beurre.

Vous voulez écrire une loi relative à certains comportements néfastes sur Internet ? D’accord mais vous devez la mettre a disposition sur un site Internet public et faire en sorte que tout le monde en parle. Peut-être sous la forme d’un wiki pour permettre une bonne participation du public et assurer le meilleur dialogue possible.

Vous lancez un site sur ce sujet de l’Internet ouvert ? Eh bien tout d’abord merci ! Mais souvenez vous que l’outil dont nous disposons est Internet lui-même. Ne faites pas de lien vers les pages publiques des sites cloisonnés (fermés). En effet, il est préférable de ne pas les mentionner, néanmoins, si vous devez absolument le faire, faites en sorte qu’il soit difficile de les trouver.

Vous êtes juste un utilisateur ? Génial ! Pour commencer, il suffit juste d’exiger qu’Internet reste ouvert. Vous avez protesté lorsque SOPA a menacé Internet. Si votre opérateur Internet devient liberticide, partez pour un opérateur qui promet de rester ouvert ! Quand les politiciens tentent d’abuser d’Internet, interpellez-les ! Et quand un FAI essaye de vous limiter, barrez-vous ! Vous pouvez faire ça encore et encore. La lutte va être longue mais elle en vaut vraiment la peine.

Ne le faites pas pour moi. Ne le faites même pas seulement pour la liberté. Ne le faites pas parce les anciennes générations d’utilisateurs d’Internet se sont battues pour réaliser ce travail.

Faites-le parce que Internet est génial.
Faites-le pour les générations futures.
Faites-le pour vos amis.
Faites-le pour vous mêmes.
Faites-le pour les chatons.

Mikael Tigerstrom - CC by

Notes

[1] Crédit photos : The U.S. Army et Mikael Tigerström (Creative Commons By)

[2] Silo : Un silo est la traduction littérale de l’anglais « Information silo technologies » qui peut se traduire partiellement par « prés carrés » ou « coffre-fort », et qui fait référence à des réseaux numériques fermés qui stockent de grandes quantités d’informations de façon opaque. On ne peut y avoir accès de l’exterieur et ceux-ci ne communiquent pas avec le reste des réseaux. Les communications ne se font donc que dans un sens.