10 différences entre les OS libres Linux et BSD

Beastie - Logo BSDIl est trop rare que nous évoquions le système d’exploitation libre BSD (Berkeley Software Distribution). La dernière fois il s’agissait d’un billet consacré à l’histoire d’Unix, à l’occasion de son quarantième anniversaire.

Et c’est dommage parce que cela finit par laisser à penser qu’il n’existe que GNU/Linux dans le monde des OS libres. Or il y a aussi la famille BSD (FreeBSD, OpenBSD, NetBSD…), louée pour la propreté de son code, sa sécurité, sa fiabilité et sa stabilité, que l’on compare souvent à son « cousin » GNU/Linux justement, histoire de l’appréhender plus facilement et de mieux comprendre ce qui fait sa spécificité.

Si on le rencontre peu souvent sur ce blog, c’est aussi parce qu’il serait difficile de le conseiller de prime abord à un utilisateur lambda pour sa machine personnelle, surtout si ce dernier provient de l’univers Windows. La matériel est moins bien et moins vite supporté, il y a moins d’applications disponibles et il se destine surtout au monde des serveurs. Mais rien ne dit qu’un jour, vous aussi…

Ce billet s’adresse donc à tous les curieux et plus particulièrement à ceux qui se sont déjà frottés de près ou de loin à une distributions GNU/Linux. Il s’adresse également aux experts et aux aficionados de BSD qui sont cordialement invités à témoigner, compléter et surtout critiquer l’article et ses arguments dans les commentaires.

D’autant plus que l’auteur propose en conclusion une classification des OS en fonction de la maîtrise de leurs utilisateurs qui ne fera sans doute pas l’unanimité !

Remarque 1 : Le personnage ci-dessus s’appelle Beastie (bi-esse-di), c’est la mascotte BSD et il représente un charmant petit démon, oups, je veux dire daemon.

Remarque 2 : Il y a du BSD dans Mac OS X, comme aiment à la rappeler certains Macfans et les geeks qui, ayant adopté cet OS, « culpabilisent » moins ainsi 😉

10 différences entre Linux et BSD

10 differences between Linux and BSD

Jack Wallen – 4 août 2010 – TechRepublic
(Traduction Framalang : Loque huaine et Mathieu)

Malgré une tendance courante à minimiser leurs différences, Linux et BSD ont un certain nombre de caractéristiques qui les distinguent. Jack Wallen attire l’attention sur plusieurs différences importantes.

Combien de fois avez-vous déjà entendu les gens mettre Linux et n’importe quel BSD dans le même panier ? Bien sûr, il existe un grand nombre de similarités entre Linux et BSD : ils sont tous les deux basés sur UNIX. Dans l’ensemble, les deux systèmes sont développés par des organisations à but non lucratif. Et je dois dire que Linux comme les variantes BSD ont un but commun : créer le plus utile et le plus fiable des systèmes d’exploitation qui soit.

Toutefois, il y a aussi des différences significatives. Et quand les gens n’y font pas attention, c’est toute la communauté BSD qui frissonne de colère. Aussi, j’ai pensé que je pourrais aider mes frères de BSD et expliquer un peu en quoi Linux est différent de BSD.

1. Licences

Comme nous le savons tous, le système d’exploitation Linux est sous licence GPL. Cette licence est utilisée pour empêcher l’inclusion de logiciels aux sources fermées et pour assurer la disponibilité du code source. La GPL essaye d’empêcher la distribution de sources sous forme de binaires seulement.

La Licence BSD est bien moins restrictive et autorise même la distribution de source sous forme de binaires. La principale différence peut cependant être vue de la façon suivante : la GPL vous donne le droit d’utiliser le logiciel de n’importe quelle façon, mais vous DEVEZ vous assurer que le code source est disponible pour la prochaine personne qui utilisera le logiciel (ou votre variante du logiciel). La licence BSD n’exige pas que vous soyez sûr que la prochaine personne qui utilise (ou modifie votre code) rende ce code disponible.

2. Contrôle

Le code BSD n’est pas « contrôlé » par une personne en particulier, ce que beaucoup de gens voient comme un gros plus. Alors que le noyau Linux est principalement contrôlé par Linus Torvalds (le créateur de Linux), BSD n’est pas régi par une personne unique dictant ce qui peut ou ne peut pas aller dans le code. À la place, BSD utilise une « équipe centrale » (NdT : core team) pour gérer le projet. Cette équipe centrale a un droit de parole dans la direction du projet plus important que celui des autres membre de la communauté BSD.

3. Noyau contre système d’exploitation

Le projet BSD maintient un système d’exploitation entier, alors que le projet Linux se focalise principalement sur le seul noyau. Ce n’est pas aussi fondamental que ça en a l’air parce qu’un grand nombre d’applications qui sont utilisées le sont sur les deux systèmes d’exploitation.

4. UNIX-like

Il y a un vieux dicton à propos de BSD contre Linux : « BSD est ce que vous obtenez quand une poignée d’hackers UNIX se rassemblent pour essayer de porter un système UNIX sur un PC. Linux est ce que vous obtenez quand une poignée d’hackers PC se rassemblent et essaient d’écrire un système UNIX pour le PC » (NdT : BSD is what you get when a bunch of UNIX hackers sit down to try to port a UNIX system to the PC. Linux is what you get when a bunch of PC hackers sit down and try to write a UNIX system for the PC).

Cette expression en dit long. Ce que vous pourrez constater, c’est que les BSD ressemblent beaucoup à UNIX parce qu’ils sont en fait des dérivés directs du traditionnel UNIX. Linux, en revanche, était un OS nouvellement créé, vaguement basé sur un dérivé d’UNIX (Minix, pour être précis).

5. Systèmes de base

Ce point est crucial pour comprendre les différences entre BSD et Linux.

Le « système de base » pour Linux n’existe pas vraiment, puisque Linux est un conglomérat de systèmes plus petits qui s’imbriquent ensemblent pour former un tout. La plupart diront que le système de base de Linux est le noyau. Le problème c’est qu’un noyau est plutôt inutile sans aucune application utilisable. BSD en revanche, a un système de base comprenant de nombreux outils — même libc fait partie du système de base. Parce que ces pièces sont toutes traitées comme un système de base, elles sont toutes développées et packagées ensemble. D’aucun argueront du fait que cela crée un tout plus cohésif.

6. Plus à partir des sources

À cause de la façon dont BSD est développé (en utilisant le système de Ports), davantage d’utilisateurs ont tendance à installer à partir des sources plutôt que de paquets binaires pré-empaquetés.

Est-ce un avantage ou un inconvénient ? Cela dépend des individus. Si vous êtes adepte de la simplicité et de la convivialité, vous vous en détournerez. Ceci est particulièrement vrai pour les nouveaux utilisateurs. Peu de nouveaux utilisateurs veulent avoir à compiler à partir des sources. Cela peut engendrer une distribution pataude. Mais installer à partir des sources a aussi ses avantages (gestion des versions des bibliothèques, construction de paquets spécifiques au système, etc.).

7. Changements de version

Grâce à la façon dont BSD est développé (voir le point 5), vous pouvez mettre à jour l’ensemble de votre système de base vers la plus récente des versions avec une seule commande. Ou bien vous pouvez télécharger les sources de n’importe quelle version, les décompresser, et compiler comme vous le feriez pour n’importe quelle autre application. Avec Linux, vous pouvez aussi changer un système de version en utilisant le gestionnaire de paquets du système. La première façon ne mettra à jour que le système de base, la seconde mettra à jour l’ensemble de l’installation. Rappelez-vous cependant que passer à la nouvelle version du système de base ne veut pas dire que tous vos paquets supplémentaires seront mis à jour. Alors qu’avec les mises à jour de version de Linux, tous vos paquets bénéficieront du processus de mise à niveau. Est-ce que cela signifie que la façon de faire de Linux est meilleure ? Pas nécessairement. J’ai vu de mes propres yeux une mise à jour Linux qui s’est horriblement mal passée, nécessitant la réinstallation du système tout entier. Cela a beaucoup moins de chances de se produire avec un changement de version BSD.

8. Dernier cri

Il est peu probable que vous voyiez un BSD exécuter la toute dernière version de quoi que ce soit. Linux au contraire, a beaucoup de distributions qui offrent les dernières versions des paquets. Si vous êtes fan du « Si ce n’est pas cassé, ne le corrigez pas » (NdT : If it isn’t broken, don’t fix it), vous serez un grand fan de BSD. Mais si vous êtes du genre à avoir besoin que tout soit le plus récent possible, vous feriez mieux de migrer vers Linux aussi vite que possible histoire de ne pas être à la traîne.

9. Support matériel

Vous constaterez, en général, que Linux supporte le matériel bien plus tôt que BSD. Ça ne veut pas dire que BSD ne supporte pas autant de matériel que Linux. Ça veut juste dire que Linux le supporte avant BSD (dans certains cas, BIEN avant BSD). Donc si vous voulez la toute dernière carte graphique, ne pensez même pas à BSD. Si vous voulez le nouveau portable qui en jette avec un chipset sans-fil dernier cri, vous aurez plus de chance avec Linux.

10. Communauté d’utilisateurs

Je vais me risquer ici à généraliser sur les utilisateurs d’ordinateurs. En préambule je dirai qu’il y a des exceptions à TOUTES les règles (ou généralités, dans le cas présent). Mais je vous présente ma généralisation sur la répartition des distributions en fonction des utilisateurs. De la gauche vers la droite on passe des utilisateurs maîtrisant le moins un PC à ceux le maîtrisant le plus. Comme vous pouvez le constater, Linux est au milieu, alors que BSD penche plus sur la droite. Beaucoup ne seront pas d’accord ; certains en seront même offensés. Mais c’est d’après moi une généralité assez juste sur l’usage du système d’exploitation selon l’utilisateur.

Mac —–> Windows —–> Linux —–> BSD —–> UNIX

Autres différences ?

Cette liste n’est en aucune façon destinée à dire que l’un est meilleur que l’autre. Je trouve que BSD et Linux ont chacun leur place. Et vous ?

Trouvez-vous les différences entre Linux et BSD assez significatives pour préférer rester sur l’un plutôt que l’autre ? Avez-vous essayé les deux ? Qu’est-ce qui vous fait préférer l’un par rapport à l’autre ? Argumentez, et faites connaître votre opinion à vos amis lecteurs.




La vie n’est pas en lecture seule

Ciprian Ionescu - CC byUn fichier informatique est dit « en lecture seule » lorsque vous n’avez que le droit de l’exécuter et donc de le lire. Alors qu’un ficher disponible « en lecture/écriture » vous offre en plus la possibilité de le modifier.

Vous n’en ferez peut-être rien mais cette liberté supplémentaire change la donne puisque vous n’êtes plus condamné à être passif. Si un jour il vous prend l’envie d’ajouter du code à un logiciel libre ou de compléter un article de Wikipédia, vous pouvez le faire.

Par extrapolation, nous ne voulons pas d’une vie qui nous serait proposée par d’autres uniquement en lecture seule. Nous souhaitons pouvoir agir sur elle et y participer. « L’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire », nous dit ainsi Benjamin Bayart.

Techniquement parlant, tout est en place pour que cela ait bien lieu et les nouvelles pratiques de la jeune génération témoignent tous les jours de cette aspiration[1].

Et pourtant, il semblerait que certains ne souhaitent pas nous voir profiter pleinement de ce progrès. Et d’ériger alors toujours plus de barrières et de péages artificiels.

Comme nous le signale son auteur en fin d’article, ce petit texte rédigé dans le train en 2006 « a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement ». De nombreux bits ont beau avoir coulé sous les ponts d’Internet depuis, il garde toute son acuité. Jusqu’à y voir parfois modestement une sorte de manifeste de la jeunesse du début de ce nouveau siècle.

La vie n’est pas en lecture seule

Life is not read-only

Olivier Cleynen – 2006 – Licence Creative Commons By
(Traduction Framalang : Olivier, Pablo, Djidane et Siltaar)

Pour eux, c’est de la piraterie. Carrément du vol, voilà ce qu’est le téléchargement. Vous prenez quelque chose qui a un prix, sans le payer. Volez-vous à l’étalage ou cambriolez-vous des maisons ? Pourquoi alors télécharger gratuitement ?

Créer du contenu est très difficile : rien que pour remasteriser, créer l’emballage et faire de la publicité pour la dernière compilation, il faut aligner trois millions de dollars. Comment les artistes peuvent-ils s’en sortir ? Comment la vraie culture peut-elle encore survivre ?

En fait. Peut-être que vous n’avez pas vraiment dépossédé quelqu’un de quelque chose. Peut-être ne vous êtes-vous pas vraiment servi dans un rayon. Peut-être que vous n’auriez de toute façon pas dépensé un centime pour ce truc « protégé contre la copie ».

Et tous ces trucs ont la peau dure. De la musique que vous n’avez pas le droit de copier, des films que vous n’avez pas le droit d’enregistrer, des fichiers protégés par des restrictions et des bibliothèques musicales qui disparaissent lorsque vous changez de baladeur… Certaines entreprises produisent même des téléphones et des ordinateurs sur lesquels elles restent maîtresses des programmes que vous pouvez installer.
Les choses empirent lorsque la loi est modifiée pour soutenir ces pratiques : dans de nombreux pays il est devenu illégal de contourner ces restrictions.

Qu’attendez-vous de la vie ? Quelles sont les choses qui comptent vraiment ? Lorsque vous faites le bilan de votre année, qu’en retenez-vous ? Les bons moments passés entre amis ou en famille ? La découverte d’un album génial ? Exprimer votre amour, ou votre révolte ? Apprendre de nouvelles choses ? Avoir une super idée ? Un e-mail de la part de quelqu’un qui compte pour vous ?

Et des choses passent au second plan : un grand nombre de pixels, le tout dernier iPod… déjà dépassé, un abonnement « premium », une augmentation vite dépensée, profiter de sa toute nouvelle télévision HD… Tout le monde apprécie ces trucs, mais si on y réfléchit un peu, c’est pas si important.

Vous ne deviendrez certainement pas un astronaute exceptionnel. Vous ne traverserez pas l’Atlantique à la nage. Vous ne serez pas leader international. La vie c’est maintenant. Et c’est quand on partage ses idées, ses pensées et sentiments.

La vie n’est pas en lecture seule. Elle est faite de petites choses qui ne peuvent être vendues avec des verrous. Si l’on ne peut plus choisir, essayer, goûter, assister, penser, découvrir, faire découvrir, exprimer, partager, débattre, ça ne vaut pas grand chose. La vie devrait être accessible en lecture et en écriture.

Peut-être que le droit d’auteur n’est pas aussi légitime que certains voudraient nous faire croire. En fait, le discours de Martin Luther King « I have a Dream © » est toujours protégé par le droit d’auteur. Vous ne pouvez pas chanter la chanson « Joyeux anniversaire © » dans un film sans payer de droits. L’expression « Liberté d’expression™ » est une marque déposée.

Le partage de fichiers est criminalisé. Certains sont jugés et emprisonnés pour avoir développé des technologies qui permettent d’échanger des fichiers (la loi réprime le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public des copies non-autorisées d’œuvres ou objets protégés »).
Mais qu’en est-il de ceux qui ont inventé et vendu les magnétoscopes, les photocopieurs, les lecteurs de cassette munis d’un bouton d’enregistrement ? Et d’ailleurs, où sont les personnes qui ont inventé les baladeurs numériques ?

Vous avez dit deux poids, deux mesures ? Des milliers de personnes gagnent leur vie en poussant nos enfants à fumer ou en développant l’export de mines anti-personnelles. Et à coté de ça, le partage de fichier, ces mêmes fichiers que l’on peut voir sur YouTube, est puni par une amende compensatoire pouvant atteindre 150 000 dollars par fichier.

Et on dit que l’industrie de la musique est en danger.
Qui veut d’une industrie musicale ? Et plus particulièrement telle qu’elle existe ? Laissons l’industrie, aux boîtes de conserve et aux voitures.

La culture ne se meurt pas dès que vous téléchargez un fichier. La créativité n’est pas diminuée lorsque vous découvrez quelque chose. C’est toute la société qui en profite lorsqu’on peut apprendre et s’exprimer.

Participez. Appréciez. Découvrez. Exprimez. Partagez.

Donc. Une société équilibrée où les artistes peuvent gagner leur vie et où le partage de fichiers n’est pas criminalisé est possible. Voici quelques suggestions :

Musique

  • Allez voir les artistes en concerts (sauf s’ils vendent leurs places 200€)
  • Que pensent et font vos artistes favoris ? Renseignez-vous, vous découvrirez peut-être quelque chose
  • Achetez intelligemment votre musique
  • Si l’artiste est mort maintenant, gardez votre argent pour le dépenser autrement
  • Ne vous contentez pas d’écouter, chantez !
  • Ne racheter pas la musique que vous possédez déjà en CD ou vinyl.

Participez

Films

  • Fréquentez les petites salles (qui se soucient surement plus de l’artiste que de l’industrie)
  • Fuyez les MTP (DRM) et les lecteurs « labellisés »
  • Partagez les bons films avec vos amis, ceux qui sont pour vous immanquables.

Logiciel

Tous les jours

LifesNotReadOnly.net a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement. Ça n’est qu’un petit manifeste rédigé dans le train en 2006. Olivier Cleynen en est l’auteur. Vous êtes libre de répliquer le contenu de ce site Web, même pour des applications commerciales, sous les termes de la license CC-by.

Notes

[1] Crédit photo : Ciprian Ionescu (Creative Commons By)




Les statistiques du réseau Framasoft réactualisées au début 2010

Au mois d’octobre/novembre 2008, nous présentions ici-même les statistiques de l’ensemble du réseau Framasoft. Les voici réactualisées en janvier/février 2010 pour comparaison.

Globalement nous n’avons ni progressé ni régressé sachant cependant que nous n’avons pas pris en compte les nouveaux projets que sont par exemple Framalang, Framapack ou EnVenteLibre, qui drainent eux aussi leur petit lot de visiteurs. Ainsi sur une période d’un mois on dénombre 816.000 visiteurs, 1.132.000 visites et 2.726.000 pages vues (en 2008 : 807.000 visiteurs, 1.124.000 visites et 2.911.000 pages vues).

Plusieurs facteurs internes peuvent expliquer cette relative stagnation. Mais il est possible que les Facebook et les Twitter associés aux flux RSS aient eux aussi leur influence (ce qui pourrait expliquer que le Framablog se retrouve lui dans une bonne dynamique).

Du côté des OS, Linux et Mac ont pris en un peu plus d’un an quelques points à Windows, mais cela reste bien (trop) faible. Quant aux navigateurs, IE poursuit sa chute annoncée (mais plus lentement que prévu/souhaité) et Firefox a très légèrement baissé au profit de Chrome (comme nous avons eu l’occasion de le remarquer dans ce billet polémique).

Statistiques Framasoft entre le 11 janvier et le 10 février 2010

  • Framasoft
    • visiteurs/mois : 560 000
    • visites/mois : 717 000
    • pages vues/mois : 1 831 000
    • Les 3 premiers OS : Windows 81%, Linux 11%, Mac 7%
    • Les 3 premiers navigateurs : Firefox 57%, IE 29%, Chrome 6%
  • Framakey
    • visiteurs/mois : 106 000
    • visites/mois : 224 000
    • pages vues/mois : 563 000
    • Les 3 premiers OS : Windows 95%, Linux 4%, Mac 1%
    • Les 3 premiers navigateurs : Firefox 82%, IE 11%, Chrome 2%
  • Framabook
    • visiteurs/mois : 24 000
    • visites/mois : 28 000
    • pages vues/mois : 52 000
    • Les 3 premiers OS : Windows 66%, Linux 30%, Mac 4%
    • Les 3 premiers navigateurs : Firefox 68%, IE 18%, Chrome 6%
  • Framablog
    • visiteurs/mois : 53 000
    • visites/mois : 78 000
    • pages vues/mois : 122 000
    • Les 3 premiers OS : Windows 58%, Linux 33%, Mac 8%
    • Les 3 premiers navigateurs : Firefox 66%, IE 14%, Chrome 7%
  • Framagora
    • visiteurs/mois : 73 000
    • visites/mois : 85 000
    • pages vues/mois : 158 000
    • Les 3 premiers OS : Windows 73%, Linux 22%, Mac 5%
    • Les 3 premiers navigateurs : Firefox 63%, IE 23%, Chrome 6%



Quand le cloud computing bouleverse l’équilibre entre le matériel et le logiciel

Leonardo Rizzi - CC by-saUn court billet pour évoquer la relation entre le software et le hardware, entre le logiciel et le matériel, à l’ère où le (mal nommé) cloud computing – ou informatique dans les nuages – bouscule les habitudes et pose de nombreuses questions en particulier à ladite communauté du Libre.

Nous avons peut-être tendance à l’oublier mais cette relation ne va pas de soi, a évolué avec le temps et a de nombreuses conséquences selon que l’un prend le pas sur l’autre.

Nous achetons un ordinateur et avec plus ou moins de bonheur nous y mettons un peu, beaucoup, passionnément du logiciel libre dedans. Mais sans toujours nous rendre compte nous modifions alors le vieil équilibre entre le software et le hardware. Jusqu’à atteindre son paroxysme avec le cloud computing où l’on veut nous faire croire que cela se passe dans les nuages alors qu’il n’en est rien puisque tout est très concrètement centralisé dans des énormes (et peu écologiques) datacenters dont nous ignorons généralement tout et qui paradoxalement redonnent la main au matériel et à ceux qui les construisent[1].

Le cloud computing représente-t-il une menace pour le logiciel libre ?

Is cloud computing a threat to open source?

John Spencer – 14 avril 2009 – ComputerWorld.uk
(Traduction Framalang : Don Rico, Poupoul2 et Olivier)

Allons-nous nous libérer d’une prison logicielle pour mieux nous jeter dans celle des fabricants de matériel ?

La disparition annoncée du logiciel propriétaire laisse un vide qui va être comblé… et il se pourrait bien que nous n’aimions pas ça.

Le PC arrive sur nos bureaux

Quand j’étais à la fac, le PC – l’ordinateur personnel – n’existait pas encore. Nous achetions du temps machine (très cher) sur l’ordinateur central (NdT : mainframe) ; l’un de mes amis a ainsi gagné des sommes conséquentes en vendant du temps machine à des entreprises qui en avaient besoin.

Après mes études, alors que je travaillais pour une multinationale, nous avons vu arriver nos premiers PC, et, je ne vous mens pas, mon supérieur a apporté le sien au bureau pour utiliser SuperCalc (ce qui lui a valu d’ailleurs une méga promotion).

Les administrateurs informatiques ont vu l’arrivée du PC d’un très mauvais œil. Ils aimaient trop leurs terminaux avec leur applis tout sauf sexy ; ils avaient le pouvoir parce qu’eux seuls avaient la main le serveur. Ce qu’ils voulaient, c’était le contrôle, et ce satané PC apportait bien trop de liberté.

Arrive le réseau… et avec lui une perte de liberté

La révolution du PC a produit une explosion de créativité et des libertés, mais très vite ces libertés se sont effritées. Première étape : la mise en réseau. Le prix à payer pour accéder à une zone de partage de fichiers et pouvoir ainsi utiliser n’importe quel PC de l’entreprise en voyant toujours le même bureau a été… d’adhérer au terrible « Domaine ». Ajoutez aux restrictions du Domaine, les coûts de plus en plus exorbitants des logiciels propriétaires, et soudain la révolution du PC prenait du plomb dans l’aile.

Demandez donc à ceux qui travaillent dans les réseaux d’entreprise s’ils se sentent libres.

La deuxième vague de liberté arrive

La deuxième vague de liberté est arrivé groupée. Le World Wide Web et Linux ont émergé plus ou moins au même moment. On n’insistera jamais assez sur l’effet libérateur qu’a provoqué l’accès ouvert au Web et à des logiciels libres et open source. D’un seul coup, le logiciel propriétaire et la poigne de fer du réseau ne signifiaient plus rien. Une fois de plus, on a connu une explosion de créativité et de libertés, et qui se poursuit encore actuellement à une très forte cadence.

Aujourd’hui, je possède mon propre matériel (et pas qu’un peu), personne, que ce soit un particulier ou une entreprise, n’a le contrôle de mes logiciels, et je dispose du Web comme extraordinaire terrain de jeu. Nous vivons une ère de liberté sans précédent. Merci à vous, les gars – merci Tim B-L, merci Linus T, merci Richard S.

Je crois que cette liberté est menacée.

Ce que je crains, c’est qu’Internet soit absorbé par les serveurs des « nuages » (comme ils disent), et qu’il finisse sous le contrôle des fabricants de matériel informatique.

Le Manifeste pour l’informatique dématérialisée ouvert était bizarre (NdT : The Cloud Computing Manifesto). Parmi les signataires, on trouve Cisco, AT&T, IBM et Sun, qui produisent une sacrée part du matériel sur lequel repose l’informatique dans les « Nuages ». Rien d’étonnant alors qu’ils soient partants. Red Hat et SAP sont partantes aussi, mais pourquoi ? SAP perd ses employés comme des pellicules et Red Hat voudrait bien s’asseoir à la table des grands en tant que mini Microsoft, mais qu’est-ce qui attire ces petits joueurs ? Ce n’est pas très clair.

Ce que je sais avec certitude, c’est que, comme on pouvait s’y attendre, deux des signataires, à savoir les puissants Microsoft (MS par la suite) et Google, ont annoncé qu’ils n’étaient guère satisfaits du peu de transparence avec laquelle en coulisses on concoctait ce manifeste (le monde à l’envers, n’est-ce pas ?). Résultat : ils se sont retirés, et l’ont bien fait savoir.

C’est sans doute très significatif, et malgré l’absence de faits concrets, cela corrobore quelques conjectures.

Harware contre Software

Il est important de rappeler que le logiciel n’existe pas dans un nuage mais sur des ordinateurs. L’information n’est pas diffusée par l’action du Saint-Esprit, mais acheminée par des câbles et des commutateurs.

MS a fait fortune quand IBM a collé leur système d’exploitation sur son premier PC ; sans le hardware ce dernier n’avait aucune valeur, et vice versa. Apple n’existerait pas non plus aujourd’hui s’ils n’avaient pas associé ses logiciels à ses matériels.

MS et Apple sont à l’évidence des éditeurs de logiciels propriétaires, logiciels qui, prétendent-ils, possèdent une forte valeur intrinsèque qu’ils facturent au prix que l’on sait. Ainsi donc MS a fonctionné de façon symbiotique avec Intel et il en a été de même avec Apple et ses processeurs IBM. Pendant des années ces deux entités ont dominé le monde main dans la main.

Là où je veux en venir, c’est que hardware et software étaient liés dans une même chaîne de valeur. L’un ne prédominait pas sur l’autre. Pour Google, en revanche, c’est différent. Google est un gigantesque fournisseur de services d’information qui repose sur des logiciels libres et open source. Dans leur cas, la relation hardware/software n’est plus la même.

Le logiciel libre et open source casse la relation entre hardware et software

Sans logiciel, le matériel n’est bien sûr d’aucune utilité (même si à l’époque où j’ai acheté mon premier ZX81 je pensais simplement qu’on était censé programmer soi-même son logiciel). À présent, en revanche, avec la révolution du logiciel libre, la disponibilité du logiciel n’est plus un problème, ni en termes de coût, ni en termes de quantité. Ces logiciels sont là, on n’a qu’à se servir dans tous ces super trucs qui ne demandent qu’à être utilisés.

Mais voyez-vous les problèmes que cela soulève ?

Avec le logiciel libre et open source ne redonne-t-on pas le contrôle aux fabricants de hardware ? Les associations software/hardware ont été dissoutes… pour le meilleur ou pour le pire.

Suivra une nouvelle ère, je pense, où le vieux statu quo se rétablira. Une ère où de nouveau nous achèterons du temps sur les serveurs pour faire ce dont nous avons besoin… au prix fixé par les fournisseurs !

Je ne me souviens que trop bien de l’époque des infrastructures centralisées contrôlées par des services informatiques guidés par le totalitarisme le plus complet. Une époque aussi où le software avait beaucoup moins de valeur que le hardware (et encore, quand il y avait du software) et que tout le hardware était estampillé IBM. Je n’aimerais vraiment pas connaître de nouveau une telle époque.

La révolution du logiciel libre n’aura servi à rien si une forme d’informatique centralisée et basée sur le hardware fait main basse sur notre liberté.

Notes

[1] Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




Associations 1901, humanitaires, ONG… Windows ne doit plus passer par vous !

Hqhuyanh - CC byVoici une veille traduction que l’on ressort du placard à la faveur de l’été et du rattrapage du travail en retard 😉

Elle évoque la campagne des « 7 péchés de Windows » menée par la Free Software Foundation au moment de la sortie de Windows 7, campagne que nous avions traduite en partenariat avec l’April.

Mais elle se concentre ici sur les organisations à but non lucratif que sont les ONG et les associations (de type 1901 chez nous en France).

Parce que, tout comme le monde de l’éducation, il est en en effet plus que malheureux de constater que ces structures utilisent encore massivement les logiciels Microsoft, quitte à se placer en contradiction avec les valeurs qu’elles souhaitent véhiculer[1]. Certes des progrès ont été accomplis ces dernières années mais il reste encore beaucoup à faire…

Parce que c’est aussi et surtout pour vous que le Libre existe et se décarcasse !

Se libérer de la dépendance aux logiciels privateurs : un appel aux organisations à but non lucratif pour refuser Microsoft Window 7

Breaking the dependency on proprietary software: A call to nonprofits to refuse Microsoft Windows 7

Peter Brown – 14 avril 2009 – FSF.org
(Traduction Framalang : Cheval boiteux, Burbumpa et Don Rico)

« Engloutir du temps et de l’argent dans les logiciels privateurs est en contradiction avec les valeurs fondamentales que sont la liberté et le progrès. »

La Free Software Foundation (FSF) a lancé à l’automne 2009 l’étape suivante de sa campagne « Windows 7 Sins » (NdT : Les 7 péchés de Windows 7) sur http://fr.windows7sins.org/, où elle s’attaque à Microsoft et au logiciel privateur en écrivant aux 500 directeurs des organisations non-gouvernementales (ONG) les plus influentes dans le monde, en leur demandant de passer à l’utilisation de logiciels libres et de contribuer à répandre largement l’idée que la liberté de choix des utilisateurs a une importance éthique.

Cette lettre alerte les « décideurs Window 7 » sur « l’absence de respect de la vie privée, de la liberté et de la sécurité » qu’ils risquent d’affronter en adoptant Windows 7. Elle défend l’idée qu’ils feraient mieux d’adopter des logiciels libres, en ciblant sept domaines majeurs dans lesquels un logiciel propriétaire comme Windows 7 est néfaste à la société : invasion de la vie privée, empoisonnement de l’éducation, verrouillage, blocage des standards, comportement monopolistique, soutien des DRM et menaces pour la sécurité des utilisateurs.

Le directeur exécutif de la FSF a déclaré : « La dépendance des organisations œuvrant au changement et au progrès social envers les logiciels détenus et contrôlés exclusivement par Microsoft mène la société vers une ère de restrictions numériques, menaçant et limitant nos libertés. À l’opposé, le logiciel libre est du côté de la liberté et de la gratuité, développé pour donner la possibilité d’étudier et de modifier le logiciel selon ses propres besoins. Aujourd’hui, nous demandons aux responsables du secteur humanitaire et associatif de migrer vers le système d’exploitation libre GNU/Linux pour tous leurs ordinateurs comme pour les besoins de leur infrastructure informatique.

Le système d’exploitation GNU/Linux est accessible sans restriction, facile à utiliser, pris en charge par de nombreux fabricants et par un communauté mondiale. Les distributions GNU/Linux sont livrées avec des centaines d’applications sous licence libre, incluant une suite logicielle complète de comptabilité et de collecte de fonds convenant aux associations.

« Les œuvres de bienfaisance, les ONG, et autres organisations à but non lucratif qui ont choisi le logiciel privateur sont engagés dans une mauvaise politique publique", précise Matt Lee, responsable des campagnes de la FSF. « Le plus souvent à cause de la désinformation ou à cause de leur incapacité à voir que leurs choix technologiques sont en lien avec leurs missions sociales. Nous espérons attirer l’attention de ces responsables sur la contribution positive qu’ils peuvent faire à la société en choisissant de basculer leurs organisations vers les logiciels libres. J’espère que ces groupes auront une politique publique d’engagement en faveur de la liberté et rejoindront la liste grandissante des organisations qui ont compris qu’engloutir temps et argent dans le logiciel propriétaire est incompatible avec les valeurs fondamentales de liberté et de progrès ».

Plus d’informations sur cette campagne, incluant le texte de la lettre et la liste de diffusion pour fournir aux abonnés une mise à jour des informations ainsi que des alertes concernant les actions de la FSF sont disponibles en ligne : http://fr.windows7sins.org.

Notes

[1] Crédit photo : Hqhuyanh (Creative Commons By)




Quand les universités espagnoles montrent l’exemple

Cenatic - CC byPrenant des allures de « Courrier International du Libre » (mais sans les albums de Prince), le Framablog vous propose aujourd’hui la traduction non pas d’un classique billet repéré sur les blogs américains mais d’un bout de revue de presse espagnole.

En effet, promenant ma souris sur le site de la précieuse « Asociación de Internautas » espagnole, qui regroupe depuis 12 ans la plupart des organisations de protection des utilisateurs d’Internet en Espagne et constitue le fer de lance en matière de défense de la neutralité du réseau chez eux (on se demande ce que je faisais là…), je suis tombé sur la revue de presse tenue par le groupe d’utilisateurs de Linux de l’association, le Linux-GUAI.

Et là, merveille ! Plein d’actualités espagnoles croustillantes sur GNU/Linux et les logiciels libres. Informant la branche extrémiste hispanophone autonome de Framalang (la bien nommée FramEspagnol) de ma trouvaille, nous partîmes joyeusement sur le chemin de la traduction.

Le premier sujet ayant retenu notre attention concerne l’éducation. Il s’agit des avancées espagnoles dans un domaine où la France a encore de gros progrès à accomplir (on y travaille cependant) : l’adoption des logiciels libres par les universités[1].

Et aujourd’hui, ce n’est pas un, mais deux articles (pour le même prix !) que nous vous avons traduits pour illustrer le sujet. Bonne lecture 😉

L’université espagnole fait le pari de soutenir le logiciel libre

La Universidad española apuesta por impulsar el software libre

EFE – 1 mars 2010 – ADN.es
(Traduction Framalang : Burbumpa, Thibz, TV, Goofy, Siltaar et Barbidule)

L’Université espagnole a décidé d’ « encourager l’utilisation de logiciels libres » afin ne pas dépendre des grandes entreprises d’informatique lors du développement d’applications spécifiques, que ce soit pour la gestion des établissements ou pour favoriser la communication au sein de la communauté universitaire.

C’est l’une des recommandations adoptées lors de la réunion de la Commission Sectorielle des Technologies de l’Information et de la Communication (TIC) de la Conférence des Recteurs des Universités Espagnoles (CRUE) qui s’est tenue à l’école universitaire d’études entrepreneuriales de Bilbao.

L’utilisation de ce type de technologies, selon des sources appartenant à l’Université du Pays Basque (UPV), permettra de plus au professeur et à l’élève ayant une formation dans les nouvelles technologies d’intervenir dans son développement, « ce qui est certainement une excellente façon d’employer les connaissances des universitaires ayant des compétences dans ce domaine ».

Un autre avantage, comme l’a souligné l’UPV, est que le logiciel libre permet l’implantation des langues minoritaires dans les différentes applications dans la mesure où des personnes intéressées et ayant des connaissances informatiques suffisantes voudront bien s’impliquer dans ce développement.

Lors de la réunion d’aujourd’hui, un catalogue des nouvelles applications qui ont déjà été implantées ou qui vont l’être sous peu dans les différentes institutions a été présenté. Cela va des plateformes d’enseignement en-ligne aux blogs et aux réseaux sociaux.

L’objectif, ont insisté les différentes sources, « est de placer les universités en position de référence dans le domaine des nouvelles technologies, ce qui les conduirait à ce qu’on pourrait appeler l’Université 2.0 ».

Plus de 80 personnes en lien avec les nouvelles technologies dans le monde universitaire et représentant les 71 universités publiques et privées de la CRUE ont assisté à la réunion.

Par ailleurs, le gouvernement basque a fait son entrée aujourd’hui au Conseil du CENATIC (Centre National de Référence pour l’Application des TIC basées sur des Sources Ouvertes), une fondation publique nationale dont la mission est de promouvoir et de diffuser l’usage des logiciels libres et open source.

Avec l’entrée du Pays Basque, ce sont maintenant 8 communautés autonomes qui sont présentes au Conseil de cette entité, en plus du Ministère de l’Industrie, du Tourisme et du Commerce au travers de Red.es ("réseau.espagne", site de se nsibilisation, de soutien et d’information sur la question des réseaux), ainsi que 4 grandes entreprises du domaine technologique.

60% des serveurs des universités espagnoles sont basés sur des logiciels libres

El 60% de los servidores de las universidades españolas se basan en software libre

Fecha – 10 mars 2010 – ComputerWorld / IDG.es
(Traduction Framalang : Burbumpa, TV, Goofy, Quentin, Siltaar et Barbidule)

Selon une étude présentée par le CENATIC (Centre National de Référence d’Application des TIC basées sur l’open-source), la quasi totalité des Universités et des Centres de R&D espagnols utilisent des logiciels libres dans leur fonctionnement quotidien.

Dans la partie « Étude sur la situation actuelle du logiciel libre dans les universités et centres de recherche espagnols », le rapport souligne que 60% des serveurs des universités espagnoles sont basés sur des logiciels libres. Le chiffre atteint 67% pour le courrier électronique, 87% si l’on considère les outils de gestion, de même que 42% des bases de données, 67% des systèmes antispams, 40% des campus à distance, ou 44% des solutions d’administration électronique.

L’étude révèle également que 83% des universités ont des groupes de recherche sur ce type de logiciel, qui travaillent sur le transfert de technologies de ses outils vers l’industrie. Dans 57% des universités, il existe aussi des associations d’usagers de soutien aux logiciels libres et 90% d’entre elles ont créé des unités d’enseignement en rapport avec les technologies ouvertes.

Selon Javier Uceda, président de la section TIC de la Conférence des Recteurs d’Universités Espagnoles, « durant la réalisation de ce rapport nous avons découvert que les Universités et les Centres de Recherche et Développement espagnols participent elles aussi à cette réalité technologique qu’est le logiciel libre ; il apporte des bénéfices en termes de coûts, d’adaptabilité et d’ indépendance, et est devenu une composante essentielle de la recherche en Espagne ». De son côté, Miguel Jaque, Directeur du CENATIC, a affirmé que « le logiciel libre occuppe une place importante ans le quotidien des enseignants et des chercheurs dans le cadre universitaire espagnol. Parier sur le logiciel libre, c’est parier sur le futur des technologies dans le domaine de l’éducation supérieure et la recherche en Espagne ».

Le rapport a été élaboré par le CENATIC à travers l’Observatoire National du Logiciel de Code Source Libre (ONSFA) en collaboration avec le groupe Libresoft de l’Université Roi Juan Carlos de Madrid et le groupe CRUE-TIC-SL (groupe de travail de la Conférence des Recteurs dédié à l’étude du logiciel libre) de la Commission TIC de la Conférence des Recteurs d’Universités Espagnoles. Il contient les résultats d’une enquête sur l’usage des technologies open source dans l’Université espagnole, comme par exemple l’étude de 25 cas d’implantation, développement et promotion des technologies de code source libre, et une sélection de 20 projets de Recherche et Développement autour du logiciel open source financés par des programmes d’envergure nationale et européenne.

Notes

[1] Crédit photo : Cenatic (Creative Commons By)




Combien de futurs hackers Apple est-il en train de tuer ?

Mark PilgrimLe succès actuel de l’écosystème Apple et de son dernier bébé l’iPad n’en finissent plus de nous interpeller.

Après Cory Doctorow, voici le vibrant témoignage du vieux développeur Mark Pilgrim qui, paradoxe, est devenu ce qu’il est grâce aux anciens ordinateurs d’Apple (cf photo ci-contre[1] en plein apprentissage).

Ces ordinateurs étaient ouverts et c’est parce qu’on pouvait les bidouiller que Mark a pu trouver sa vocation et faire de sa passion son métier.

Ce ne serait plus le cas aujourd’hui. Et de se demander alors combien de Mozart de l’informatique est-on actuellement en train de virtuellement assassiner…

L’informatique est une science jeune mais qui commence à avoir ses anciens combattants dont certains cèdent à la tentation du « c’était mieux avant ». Le problème c’est qu’ici c’était effectivement mieux avant !

Ce serait déprimant si le logiciel et le hardware libres n’existaient pas. Mais encore faudrait-il qu’ils rencontrent massivement la jeune génération. Et malheur à nous si le rendez-vous est manqué !

Le crépuscule du bidouilleur

Tinkerer’s Sunset

Mark Pilgrim – 29 janvier 2010 – DiveIntoMark
(Traduction Framalang : Loque humaine)

Quand DVD Jon fut arrêté après avoir cassé l’algorithme de chiffrement CSS, il a été inculpé « d’intrusion d’ordinateur non-autorisée ». Cela mena alors ses avocats à poser la question suivante : « sur quel ordinateur s’est-il introduit ? ». Réponse du procureur : « le sien » !

Si cette introduction ne vous a pas fait bondir mieux vaut arrêter dès maintenant la lecture de cet article.

Lorsque j’étais plus jeune, « l’intrusion » était quelque chose que vous pouviez uniquement perpétrer sur les ordinateurs des autres. Mais mettons ça de côté, nous y reviendrons plus tard.

Mon père était professeur d’université la plus grande partie de sa vie d’adulte. Une année, il prit un congé sabbatique pour écrire un livre. Il avait suffisamment économisé pour s’acheter un ordinateur et une chose super récente appelé logiciel de traitement de texte. Ainsi il écrivit, il édita, et il écrivit encore. C’était évidemment tellement mieux que de travailler sur une machine à écrire qu’il ne s’est jamais posé la question de savoir si c’était de l’argent bien dépensé ou non.

Il se trouve que sur cet ordinateur, le langage de programmation BASIC était pré-installé. Vous n’aviez même pas besoin de booter le système d’exploitation à partir d’un disque. Vous allumiez l’ordinateur, appuyiez sur Ctrl-Reset, et vous aviez une invite de commande. Et sur cette invite de commande, vous pouviez taper un programme tout entier, puis vous tapiez EXECUTE, et, bordel, ça s’exécutait.

J’avais 10 ans. C’était il y a 27 ans, mais je me souviens encore de ce que j’ai ressenti quand j’ai réalisé que vous pouviez — que je pouvais — faire faire n’importe quoi à cet ordinateur en tapant les bons mots dans le bon ordre, en lui disant EXECUTE, et que, bordel, ça s’exécutait.

Cet ordinateur était un Apple IIe.

À l’âge de 12 ans, j’écrivais des programmes BASIC si complexes que l’ordinateur n’avait plus assez de mémoire pour les contenir. À 13 ans, j’écrivais des programmes en Pascal. À 14 ans j’écrivais des programmes en assembleur. À 17 ans, je participais à l’épreuve de Programmation de l’Olympiade Nationale (et la remportais). À 22 ans, j’étais employé comme programmeur.

Aujourd’hui, je suis un programmeur, un rédacteur technique, et un hacker au sens de Hackers and Painters. Mais vous ne devenez pas hacker en programmant ; vous devenez hacker en bidouillant. C’est le bricolage qui donne ce sens de l’émerveillement.

Vous devez bondir hors du système, abattre les barrières de sécurité, enlever une à une les couches posées par l’ordinateur pour faciliter la vie des gens qui ne veulent pas savoir comment ça marche. Il s’agit d’utiliser l’éditeur de secteur Copy+ pour apprendre comment le disque du système d’exploitation démarre, puis de le modifier de manière à ce que l’ordinateur fasse du bruit à chaque fois qu’il lit un secteur sur le disque. Ou alors d’afficher une page de garde au démarrage avant qu’il liste le catalogue du disque et mène à l’invite de commande. Ou de copier une myriade de merveilleuses commandes du tableau Peeks & Pokes du magazine Beagle Bros. et d’essayer de comprendre ce que je venais de faire. Juste parce que ça me bottait. Juste parce que c’était fun. Parce que ça effrayait mes parents. Parce que je devais absolument savoir comment tout ceci marchait.

Après, il y a eu un Apple IIgs. Et encore après, un Mac IIci. MacsBug. ResEdit. Norton Disk Editor. Arrêtez-moi si ça vous rappelle quelque chose.

Apple a fait les machines qui ont fait qui je suis. Je suis devenu qui je suis en bidouillant.

Le titre de ce billet est tiré de « On the iPad » d’Alex Payne, que je vais citer maintenant dans ses grandes largeurs :

L’iPad est un objet attractif, fort bien pensé et conçu, mais profondément cynique. C’est une machine de consommation digitale. Or, comme Tim Bray et Peter Kirn l’ont fait remarquer, c’est un appareil qui ne favorise pas la créativité…

Le tragique avec l’iPad est qu’il semble offrir un meilleur modèle d’informatique pour beaucoup de personnes — peut-être la majorité des gens. Envolés les métaphores et concepts déroutants de ces trente dernières années d’informatique. Envolé la possibilité de tripatouiller et modifier sans but particulier. L’iPad est simple, va droit au but, ne demande pas d’entretien…

La chose qui me préoccupe le plus avec l’iPad est la suivante : si j’avais eu un iPad plutôt qu’un vrai ordinateur lorsque j’étais petit, je ne serais jamais devenu un programmeur aujourd’hui. Je n’aurais jamais eu la possibilité d’exécuter n’importe quel programme stupide, potentiellement dangereux, mais hautement éducatif que j’aurais pu télécharger ou écrire. Je n’aurais pas été capable de titiller ResEdit et de supprimer le son du démarrage du Mac de façon à ce que je puisse bricoler sur l’ordinateur à toute heure sans réveiller mes parents.

Maintenant, je suis conscient que vous allez pouvoir développer vos propres programmes pour l’iPad, comme vous pouvez développer pour l’iPhone aujourd’hui. Tout le monde peut développer ! Tout ce dont vous avez besoin, c’est d’un Mac, XCode, un « simulateur » d’iPhone, et de 99 dollars pour un certificat de développeur à durée limitée. Le « certificat de développeur » est en vrai une clé cryptographique vous permettant (temporairement) d’accèder (partiellement) à… votre propre ordinateur. Et c’est très bien — tout du moins exploitable — pour les développeurs d’aujourd’hui, parce qu’ils savent qu’ils sont développeurs. Mais les développeurs de demain ne le savent pas encore. Et sans cette possibilité de bidouiller, certains ne le seront jamais.

(À y réfléchir, j’avais tort et Fredrik avait raison, car il semblerait que les ordinateurs sous Chrome OS donneront bien la possibilité aux développeurs d’exécuter leur propre code en local. Je ne connais pas les détails de ce à quoi cela va ressembler, si ça sera un bouton, un interrupteur physique ou autre chose. Mais ça sera là, une plateforme officielle prenant en compte les développeurs d’aujourd’hui et, plus important, les développeurs de demain.)

Et, je sais, je sais, vous pouvez « jailbreaker » votre iPhone, pour (re)gagner l’accès administrateur, et exécuter n’importe quoi qui, bordel, puisse s’exécuter. Et je n’ai aucun doute sur le fait que quelqu’un trouvera comment « jailbreaker » l’iPad aussi. Mais je ne veux pas vivre dans un monde où il faut forcer l’entrée de son propre ordinateur avant de pouvoir bidouiller. Et je ne veux certainement pas vivre dans un monde où bidouiller son ordinateur est illégal. (Au passage, DVD Jon a été acquitté. Le procureur a fait appel et il a été acquitté à nouveau. Mais qui a besoin de la loi quand vous avez la cryptographie à clé publique de votre côté ?)

Il était une fois des machines, fabriquées par Apple, qui ont fait de moi ce que je suis.

Je suis devenu ce que je suis en bidouillant. Maintenant, il semble qu’ils fassent tout ce qui est en leur pouvoir pour empêcher mes enfants de trouver ce sens de l’émerveillement. Apple a déclaré la guerre aux bidouilleurs. À chaque mise à jour de logiciels, la génération « jailbreakée » précédente cesse de fonctionner, et les gens doivent trouver de nouvelles façons pour entrer de force dans leurs propres ordinateurs. Il n’y aura même pas de MacsBug pour l’iPad. Il n’y aura pas de ResEdit, ou un éditeur de secteur Copy ][+, ou un tableau Peeks & Pokes pour l’iPad.

Et c’est une vraie perte. Peut-être pas pour vous, mais pour quelqu’un qui ne le sait pas encore et qui pourrait même ne jamais le savoir.

Notes

[1] Crédit photo : Mark Pilgrim




Tout ce que vous devez savoir sur Internet en 9 points

Pascal - CC byDescendez dans la rue et demandez (gentiment) aux gens de vous parler du logiciel libre et vous constaterez encore trop souvent ignorance et méconnaissance du sujet.

Mais c’est paradoxalement également le cas d’Internet alors que, contrairement au cas précédent, tout le monde en a entendu parler et (presque) tout le monde en fait usage au quotidien[1].

Comment voulez-vous que les gens adhèrent aux mouvements de défense de la neutralité du Net si ils ne comprennent même pas ce qu’est le Net ?

Une nouvelle traduction qui souhaite participer à améliorer la situation…

PS : J’ai particulièrement apprécié cette phrase : « La copie est pour les ordinateurs ce que la respiration est pour les organismes vivants ».

Tout ce que vous devez savoir sur Internet

Everything you need to know about the internet

John Naughton – 20 juin 2010 – The Guardian – The Observer
(Traduction Framalang : Olivier Rosseler)

En dépit de toutes les réponses qu’Internet nous apporte, son plein potentiel à transformer nos vies reste encore à découvrir. Voici neuf points clés pour comprendre l’outil le plus puissant de notre époque, et où il nous emmène.

Notre marche vers le futur a connu un drôle d’évènement. D’outil exotique, l’Internet est devenu une commodité, comme l’électricité ou l’eau courante, et ce, sans vraiment qu’on s’en aperçoive. Nous sommes donc devenus complètement dépendants d’un système pour lequel nous montrons étrangement très peu de curiosité.

J’exagère en parlant de dépendance ? Demandez son avis à l’Estonie, l’un des pays les plus dépendants d’Internet au monde, qui a été presque entièrement paralysé durant deux semaines en 2007 par des attaques dirigées contre son infrastructure réseau. Ou bien imaginez qu’un jour vous ne puissiez plus réserver de vols, effectuer d’opération sur votre compte bancaire, vérifier les horaires de bus, faire de recherches, appeler votre famille avec Skype, acheter de la musique chez Apple ou des livres chez Amazon, vendre des trucs sur eBay, regarder des vidéos sur Youtube ou écouter les programmes de la BBC sur iPlayer, ou toutes les 1001 autres choses qui vous sont devenues aussi naturelles que respirer.

Internet s’est doucement mais sûrement infiltré dans nos vies, sans véritable évaluation du phénomène de notre part. Ce n’est pas par manque d’informations sur ce réseau, au contraire, on pourrait se noyer dedans. C’est plutôt par manque de compréhension du phénomène. Nous sommes, comme le décrit un grand penseur du cyberespace, Manuel Castells, hypnotisés par l’information.

Les médias traditionnels ne nous aident pas beaucoup ici car leur couverture d’Internet est largement, si ce n’est entièrement, négative. S’ils veulent bien reconnaître que c’est un outil essentiel à l’éducation de nos enfants, ils n’ont également de cesse de souligner que c’est un espace envahi par des prédateurs virtuels à la recherche de gamins à séduire et tromper. On dit ainsi que « Google nous rend stupide », qu’il détourne notre attention, et qu’il est aussi à l’origine d’une épidémie de plagiat. Et puis l’échange de fichiers détruit la musique, les nouvelles en ligne tuent la presse traditionnelle et Amazon assassine les librairies. Le réseau se moque des injonctions légales et le Web est tissé de mensonges, de déformations et de demi-vérités. Quant aux réseaux sociaux, ils attisent le feu de ces « flash mobs » vindicatifs qui tendent des pièges à d’innocents journalistes comme Jan Moir, etc.

Que devrait en penser un observateur indépendant ? Si Internet est une chose si horrible, pourquoi est-ce que 27% de la population mondiale (environ 1,8 milliards de personnes) l’utilisent joyeusement chaque jour et que des milliards d’autres n’espèrent qu’une chose, pouvoir les rejoindre ?

Quelle vision plus équilibrée du Net pouvons nous offrir ? Que vous manque-t-il pour mieux comprendre le phénomène Internet ? Après mûre réflexion, j’en suis arrivé à la conclusion qu’il suffit de quelques grandes idées qui, mises bout à bout, dissipent l’hypnotisme dont Castells parle avec tant d’éloquence.

Combien d’idées exactement ? En 1956, le psychologue George Miller a publié un article célèbre dans le journal Psychological Review. Son titre était « Sept, plus ou moins deux, le nombre magique : limites de notre capacité à assimiler les informations » et Miller y résume ses expériences précédentes qui visaient à mesurer les limites de la mémoire à court terme. À chaque fois il rapporte que la « capacité à intégrer » est comprise entre cinq et neuf items. Miller n’a pourtant pas tiré de conclusion de ses expériences, il s’est contenté simplement de conjecturer que « le chiffre sept qui revient régulièrement a peut-être une signification, ou alors ce n’est que pure coïncidence ». Et cela s’arrêtait là pour lui.

Mais Miller a sous-estimé l’attrait de la culture populaire pour tout ce qui contient « magique » dans le titre. Et cet article propulsa Miller au rang d’une espèce de sage, celui qui aurait découvert une vraie vérité de la nature humaine. Il écrira plus tard : « Mon problème est que j’ai été persécuté par une nombre entier. Pendant sept ans ce nombre m’a poursuivi, jusque dans mes données les plus personnelles, et m’a traqué jusque dans les pages de nos journaux les plus publics… Soit ce nombre a vraiment quelque chose de particulier, soit je suis atteint de délire paranoïaque. » L’idée qui émerge de l’article de Miller a pourtant traversé les années. Il semblerait que notre mémoire à court terme ne puisse emmagasiner que cinq à neuf « morceaux » d’information à tout moment (ici morceau signifie « unité significative »). Lorsqu’il s’agit de déterminer combien d’idées auront un véritable impact sur les lecteurs, il semble logique de s’arrêter au nombre magique de neuf. Les voici donc.

1. Prenez la longue vue

Ce qu’il y a de particulier lorsqu’on vit une révolution, c’est qu’il est difficile de prendre du recul. Vous imaginez vous, habitant Saint-Petersbourg en 1917, dans les mois précédant la prise du pouvoir par Lénine et les bolcheviques ? Vous sentez que quelque chose de grand se trame, que des rumeurs et des théories se contredisent, mais personne ne sait ce qu’il va en résulter. C’est seulement avec un peu de recul qu’il est possible de se faire une idée de ce qui se passe. Mais la clarté que nous offre le recul est trompeuse, elle sous-estime la complexité des évènements tels qu’ils apparaissent à ceux qui les vivent.

Internet est donc parmi nous désormais. Nous vivons une transformation radicale de notre écosystème de communication. Ne disposant pas du luxe du recul, nous ignorons encore où cela va nous mener. Et s’il y a un enseignement que l’on peut tirer de l’histoire des communications, c’est bien que l’impact à court terme des nouvelles technologies est plutôt surestimé alors que leur impact à long terme est sous-estimé.

Nous en sommes les témoins permanents, comme des petits scientifiques, commentateurs, écrivains, consultants et visionnaires en herbe qui offrent leur petite interprétation personnelle de l’impact d’Internet sur le business, la publication, le commerce, l’éducation, la politique et le futur de la civilisation telle que nous la connaissons. Ces idées sont souvent résumées en slogans chocs, redites ou autres aphorismes : l’information « veut être libre », la « longue traîne » est le futur du commerce en ligne, « Facebook vient de prendre le contrôle d’Internet », etc. Ces slogans ne sont que des extrapolations à court terme des expériences d’hier et d’aujourd’hui. Ils ne révèlent rien de la révolution que nous vivons.

Alors peut-on faire mieux, sans tomber dans le piège de la prétention à l’omniscience ?

On commence avec une idée neuve : pourquoi ne pas regarder si l’histoire peut nous apprendre quelque chose ? L’humanité a déjà connu une transformation de son écosystème de communication avec l’invention de l’imprimerie. Cette technologie a changé le monde, elle a effectivement façonné l’environnement culturel dans lequel nous avons grandi. Et l’avantage, du point de vue de cet article, est que nous bénéficions du recul, nous savons ce qui s’est passé.

Une expérience de pensée

Ok, on va donc faire ce que les Allemands appellent une Gedankenexperiment, une expérience de pensée. Imaginons que les changements que va apporter Internet dans notre écosystème de communication soient comparables à la rupture introduite par l’imprimerie. Quel enseignement pourrions-nous tirer d’une telle expérience ? Les premières Bibles imprimées sont sorties en 1455 des presses inventées par Johannes Gutenberg dans la ville allemande de Mayence. Alors, vous êtes en 1472, soit 17 ans après 1455. Concentrez vous un peu plus et imaginez que vous êtes l’équivalent médiéval d’un enquéteur pour un institut de sondage. Vous êtes là, sur le pont de Mayence avec vos feuillets de réponse et vous posez aux passants quelques questions. Voici quatre questions : sur une échelle de un à cinq, où 1 correspond à pas du tout d’accord et 5 signifie complètement d’accord, pensez-vous que l’invention de Herr Gutenberg va :

  1. Saper l’autorité de l’église catholique ?
  2. Encourager la Réforme ?
  3. Permettre l’avènement de la science moderne ?
  4. Faire émerger des classes sociales et des professions encore inconnues ?
  5. Modifier notre conception de l’enfance, au profit d’une vision protectrice des premières années d’une personne ?

Sur une échelle de un à cinq ! Le simple fait de poser la question révèle toute la stupidité qu’elle renferme. L’imprimerie a entraîné tous ces changements, mais personne en 1472 à Mayence (ou n’importe où dans le monde) n’aurait pu se douter de l’impact qu’elle allait avoir.

Cet article est daté de 2010, soit 17 ans après que le Web ait émergé. Si je ne me trompe pas en comparant Internet et l’imprimerie pour leurs effets sur notre écosystème de communication, il serait complètement absurde de ma part (ou de la part de n’importe qui d’autre) de prétendre en connaître les ramifications à long terme. L’honnêteté impose donc d’avouer notre ignorance.

Cependant, tous ceux que le Net touche exigent une réponse immédiate. Les journalistes de la presse écrite et leurs employeurs s’inquiètent du devenir de leur industrie. Il en va de même pour les vendeurs de musique, les maisons d’édition, les chaînes de TV, les stations de radio, les gouvernements, les agences de voyages, les universités, les entreprises de téléphonie, les compagnies aériennes, les bibliothèques, et bien d’autres encore. Malheureusement pour eux, ils vont devoir apprendre à être patients. Et pour certains, la réponse viendra trop tard.

2 Le Web n’est pas Internet

On pense souvent, à tort, que le Web et Internet désignent la même chose. Ça n’est pas le cas.

Pour mieux comprendre la différence, on peut faire une analogie avec le réseau ferré. Internet, c’est les rails et la signalisation, c’est l’infrastructure sur laquelle repose tous les services. Sur le réseau ferré, l’infrastructure accueille différents types de services : les trains à grande vitesse, les trains locaux qui marquent tous les arrêts, les trains de banlieue, les trains de marchandise et (parfois) ceux dédiés à l’entretien.

Sur Internet, les pages Web ne constituent qu’une part du trafic qui circule sur ces voies virtuelles. Les autres types de trafic sont par exemple la musique échangée par les réseaux pair-à-pair, ou de l’iTunes Store, les films voyageant par BitTorrent, les mises à jour logicielles, les e-mails, la messagerie instantanée, les conversations téléphoniques par Skype ou d’autres services de VoIP (la téléphonie Internet), les services de streaming vidéo et audio et encore d’autres trucs trop obscurs pour être mentionnés. Or (et c’est là que ça devient intéressant) l’Internet dans 10 ans abritera sans doute de nouveaux types de trafics, des innovations que l’on n’imaginerait même pas dans nos rêves les plus fous.

Retenez que le Web est gigantesque et très important, mais ce n’est qu’un des nombreux services qui tournent sur Internet. Le Net est plus grand encore et surtout bien plus important que les services qu’il véhicule. Saisissez cette distinction simple et vous aurez accompli un grand pas vers la sagesse.

3 La rupture est un atout, pas un défaut

Le Net a une capacité sans précédent à bouleverser l’ordre établi, ce qui peut choquer les gens. Un jour votre entreprise est florissante, à la tête de votre label de musique par exemple, et le lendemain vous vous battez pour votre survie et vous payez des sommes fantastiques à des avocats spécialisés en propriété intellectuelle dans un combat perdu d’avance pour tenter de stopper l’hémorragie. Ou alors vous dirigez un groupe de presse et vous vous demandez où se sont évaporés les revenus publicitaires réguliers que vous engrangiez. Ou encore, vous êtes ce bibliothécaire universitaire qui se demande pourquoi de nos jours les étudiants consultent uniquement Google.

Comment tout cela a-t-il pu arriver ? Et surtout, pourquoi aussi vite ?

La réponse se cache dans les entrailles de l’architecture du réseau. À sa conception, dans les années 1970, Vint Cerf et Robert Kahn, ingénieurs en chef, ont été confronté à deux difficultés principales : comment créer un système liant pléthore d’autres réseaux en toute transparence, et comment créer un système taillé pour le futur ? Leur solution est désarmante de simplicité. Elle est construite autour de deux axiomes. Premièrement, le réseau n’appartiendra à personne, aucune institution ne devrait décider de qui pourrait rejoindre le réseau ou de l’usage qui en est fait. Deuxièmement, le réseau ne devrait pas être optimisé pour un usage particulier. C’est d’un réseau simple, qui ne fait qu’une chose : accompagner les paquets de données de leur point d’entrée jusqu’à leur destination. Le réseau se devait d’être neutre quant au contenu de ces paquets, que ce soient des bouts d’e-mail, une vidéo porno, une conversation téléphonique, une image… Le réseau ne fait pas la différence et les traite de la même manière.

En mettant en application ces deux concepts, Vint Cerf et Robert Kahn créèrent un terrain de jeu mondial ouvert aux surprises. Avec ce singulier cahier des charges, si vous avez une idée qui peut se concrétiser grâce à des paquets de données, alors Internet est tout de suite à disposition pour la mettre en œuvre. Et aucune demande d’autorisation n’est requise. L’explosion de la créativité que le monde a connu depuis l’émergence du réseau dans les années 1980 a certainement pris beaucoup d’institutions et d’entreprises par surprise, mais elle était prévisible si l’on s’en réfère à son architecture. Le monde est plein de programmeurs futés et le Net était le terrain de jeu parfait pour tester leurs inventions. Quelles inventions ? Le Web lui-même par exemple. On le doit essentiellement à un seul individu, Tim Berners-Lee, qui, en 1991, a mis son code sur un serveur Internet sans demander la permission à qui que ce soit.

Dix ans après les travaux de Berners-Lee, un ado rebelle, féru de musique, du nom de Shawn Fanning passa six mois à écrire un logiciel de partage de fichiers de musique et, en 1999, il mit sa petite surprise en ligne. Répondant au nom de Napster, il conquit 60 millions d’utilisateurs enchantés avant que les maisons de disque ne le fassent fermer. Mais le virus de l’échange de fichiers s’était déjà propagé.

Et pendant ce temps, plein d’autres programmeurs tout aussi ingénieux nous concoctaient des surprises plus sombres : le spam, les virus, les vers et autres exploitations de failles de sécurité qu’ils ont pu faire déferler sur un réseau qui ne se soucie pas du contenu de vos paquets de données. Les dangers potentiels de cette explosion de « pourriciels » sont alarmants. Par exemple, des groupes mystérieux ont assemblé ce qu’on appelle des « botnets » (constitué de millions d’ordinateurs connectés au réseau et secrètement corrompus) pouvant être utilisés pour lancer des attaques massives et coordonnées qui pourraient tout à fait mettre à genoux l’infrastructure réseau de n’importe quelle entreprise, voire de pays entiers. À l’exception de l’Estonie en 2007, nous n’avons heureusement pas assisté à ce genre d’attaque jusque là, mais on peut craindre que cela finisse par se produire. Ce sera alors le 11 septembre du Net.

Les bouleversements qu’apporte le Net sont inscrits dans son ADN technique. En jargon de programmeur, c’est un avantage, et non un bogue, c’est à dire une fonctionnalité intentionnelle, pas une erreur. Il est difficilement envisageable du supprimer les fonctions du réseau qui permettent ces surprises désagréables sans affecter les autres formes de créativité qu’il génère.

4 Pensez écologie, pas économie

L’économie, comme outil d’analyse, peut perdre ses repères lorsqu’elle est appliquée au Net. En effet l’économie s’intéresse à la distribution de ressources limitées, alors que le monde virtuel, au contraire, se distingue plutôt par l’abondance. Similairement, l’écologie (l’étude des systèmes naturels) se spécialise dans l’abondance et emprunter le regard d’un écologiste pour décrire Internet n’est pas dénué de sens.

Depuis l’avènement du Web en 1993, l’écosystème médiatique est devenu incommensurablement plus complexe. L’ancien écosystème des médias de masse industrialisé s’essoufle, détenu par quelques éditeurs et diffuseurs puissants mais peu réactifs, à destination d’un public de masse constitué essentiellement de consommateurs passifs, cible de contenus formatés. Il se caractérise également par la faiblesse du nombre de moyens de communication et par une évolution lente. Le nouvel écosystème se développe rapidement, les éditeurs se comptent par millions et le public en milliards de lecteurs, d’auditeurs, de spectateurs actifs, expert en Web et très informés. Les moyens de communications sont indénombrables et tout cela évolue à une vitesse phénoménale.

Pour un écologiste, ce sont les signes distinctifs d’un écosystème dont la biodiversité a explosé. C’est un monde où les grandes créatures comme les dinosaures (pensez à Time Warner, Encyclopædia Britannica) continuent à avancer lentement, paisiblement, en s’échangeant de l’information par grosses bribes, mais où parallèlement la vie évolue en un écosystème où des miliards de plus petites espèces consomment, transforment, agrègent ou désagrègent et échangent l’information par petites bribes et duquel de nouvelles formes de vie géantes (Google, Facebook…) émergent. Dans la nature, une telle biodiversité accrue, où énergie et matière se consomment et se consument plus rapidement, est synonyme de croissance de l’ensemble du système.

Est-il possible que la sphère de l’information subisse une telle évolution ? Et si c’est le cas, qui en profitera à long terme ?

5 La complexité est la nouvelle réalité

Même si vous n’êtes pas d’accord avec la métaphore écologique, notre environnement informationnel devient plus complexe, cela ne fait aucun doute.

Nombre de participants, densité d’interactions, vitesse d’évolution… cette complexité est sans commune mesure avec tout ce qu’on a pu voir auparavant. Et elle n’est pas une aberration, il ne faut pas souhaiter qu’elle retourne d’où elle vient : c’est la nouvelle réalité, une réalité avec laquelle nous devons composer. Cela ne sera pas facile, pour plusieurs raisons.

D’abord, le comportement des systèmes complexes est souvent difficile à comprendre, et encore plus à prédire. Ensuite, et c’est là le point important, nos systèmes de création de valeur et de gouvernances ne sont pas équipés pour affronter la complexité. L’approche habituelle des entreprises est de réduire la complexité : racheter un concurrent, rendre captif le consommateur, créer des produits et des services standardisés, etc. Dans le nouvel environnement ces stratégies risquent fort d’échouer. Il faudra être intelligent, habile, flexible, réactif et accepter les échecs afin de proposer de meilleures statégies pour s’adapter à tout ce que cet environnement connecté cache comme surprises.

6 Le réseau est l’ordinateur désormais

Pour la génération du baby-boom, les ordinateurs étaient des PC isolés, tournant avec des logiciels Windows. Et puis, ces appareils se sont connectés, d’abord localement (dans les réseaux d’entreprises) et enfin mondialement (grâce à Internet). Mais à mesure que les accès à haut débit se sont démocratisés, on a assisté à quelque chose d’étrange : avec une connexion rapide au réseau, aussi bien l’endroit où sont stockées vos données que celui où le processeur opère est devenu secondaire. Et votre travail s’en est retrouvé simplifié. On a vu d’abord les entreprises dont le cœur de métier est la recherche (Yahoo, Google, Microsoft dans une certaine mesure) se mettre au webmail, ce service d’e-mail fourni par des programmes qui ne tournent pas sur votre PC mais sur des serveurs, quelque part dans le nuage Internet. Puis Google a lancé ses produits bureautiques dématérialisés, le traitement de texte, le tableur, les présentations, etc.

Une transition s’effectue entre un monde où le PC était l’ordinateur et un monde où le réseau devient l’ordinateur. Et nous sommes désormais à l’ère de l’informatique dans les nuages, une technologie où, par l’intermédiaire d’appareils simples (téléphones portables, netbooks, tablettes), on peut accéder à des services délivrés par de puissants serveurs quelque part sur le Net. Cette évolution a des implications importantes pour notre vie privée et notre sécurité alors que dans le même temps le développement économique et la perception publique évoluent lentement par rapport à la vitesse à laquelle se produisent les changements. Que deviennent vos photos de famille si elles sont stockées dans les nuages et que vous emportez votre mot de passe dans la tombe ? Et qu’en est-il de vos documents et de vos e-mails, eux aussi stockés dans les nuages sur un serveur tiers ? Ou encore votre reputation sur eBay ? Dans tous les domaines, le passage à l’informatique dans les nuages a des implications importantes car il nous rend plus dépendant encore du Net. Et pourtant nous avançons comme des somnambules dans ce meilleur des mondes.

7 Le Web évolue

Il fut un temps où le Web n’était qu’un outil de publication, où les éditeurs (professionnels ou amateurs) mettaient en ligne des pages Web statiques et passives. Nombreux sont ceux, dans le monde des médias, pour qui cette description correspond toujours à la réalité du Web.

Or le Web a connu depuis au moins trois phases évolutives : du Web 1.0 du début, au Web 2.0 fait de « petites briques faiblement liées » (NdT : en référence au livre Small Pieces Loosely Joined) – réseaux sociaux, remix, webmail, etc. – et, selon l’idée de Tim Berners-Lee, il devient maintenant une sorte de Web 3.0 sémantique où les pages Web contiennent suffisamment de données pour permettree aux logiciels d’analyser leur pertinence et leur fonction.

Si nous voulons comprendre le Web tel qu’il est et non pas tel qu’il fut, il faut constamment adapter les perceptions que nous nous en faisons. Nous devons nous souvenir qu’il n’est plus seulement un moyen de publication.

8 Huxley et Orwell sont les serre-livres de notre futur

Il y a maintenant quelques années de cela, le critique culturel et théoricien des médias Neil Postman prédisait que les intuitions de deux écrivains encadreraient notre futur, comme deux serre-livres. Pour Aldous Huxley, nous serons détruits par les choses que nous aimons, alors que pour George Orwell nous serons détruits par les choses que nous craignons.

À l’époque de Postman, l’Internet n’avait pas encore aquis l’importance qu’il a maintenant, mais je crois qu’il avait raison. D’un côté (du côté huxleyen), le Net a eu une profonde influence libératrice sur nos vies : l’information, le divertissement, le plaisir, la joie, la communication et la consommation sans effort ni limites. À tel point que cela en est presque devenu une drogue, surtout pour les plus jeunes générations. L’inquiétude des professeurs, des gouvernements et des hommes politiques est à la mesure du phénomène. « Google nous rend-il stupide ? » : tel est le titre de l’un des articles les plus cités en 2008 du magazine Atlantic. Nicholas Carr, blogueur réputé, en est l’auteur et il s’y demande si l’accès permanent à l’information en ligne (pas seulement Google) fait de nous des penseurs superficiels et turbulents à la capacité de concentration réduite (d’après une étude de Nielsen, entreprise spécialiste des études de marché, un internaute reste en moyenne 56 secondes sur une page Web). Pour d’autres, l’usage immodéré d’Internet serait en train de reconfigurer les connexions dans notre cerveau.

De l’autre côté, le côté orwellien, Internet est ce qui s’approche le plus de la machine de surveillance parfaite. Tous vos faits et gestes sur le Net sont enregistrés, chaque e-mail envoyé, chaque site Web visité, chaque fichier téléchargé, chaque terme cherché, tout est enregistré et stocké quelques part. Soit sur les serveurs de votre fournisseur d’accès, soit chez les fournisseurs de services dans les nuages que vous utilisez. C’est l’outil rêvé d’un état totalitaire qui souhaiterait connaître le comportement, les activités sociales et les modes de pensée de ses sujets.

9 Les lois sur la propriété intellectuelle ne sont plus adaptées à leur objet

Dans le monde analogique, il était difficile de copier et on perdait en qualité (les copies de copies devenaient graduellement moins bonnes). Dans le monde numérique, la copie se fait sans peine et elle est parfaite. En réalité, la copie est pour les ordinateurs ce que la respiration est pour les organismes vivants, puisqu’elle est présente dans toutes les opérations de calcul. Lorsque par exemple vous regardez une page Web, une copie de celle-ci est chargée dans la mémoire de votre ordinateur (ou de votre téléphone portable, de votre iPad…) avant que l’appareil ne puisse l’afficher sur l’écran. Si bien que vous ne pouvez même pas regarder un contenu quelconque sur le Web sans en faire (à votre insu) une copie.

Notre régime de propriété intellectuelle actuel a été conçu à une époque où la copie était difficile et imparfaite, il n’est donc pas étonnant de constater qu’il n’est plus en phase avec le monde connecté. Et, pour remuer le couteau dans la plaie (ou déposer la cerise sur le gateau, question de point de vue), la technologie numérique propose aux usagers d’Internet des logiciels simplifiant au maximum la copie, l’édition, le remix et la publication de ce qui est disponible sous forme numérique, ce qui englobe pratiquement tout de nos jours. Ainsi, des millions de personnes sont devenues des éditeurs, en ce sens qu’ils publient leurs créations sur des plateformes mondiales telles que Blogger, Flickr et Youtube. Et par ricochet les violations du droit d’auteur, même minimes, sont partout.

Tout désagréable qu’il soit, c’est un fait incontournable, tout comme le fait que les jeunes adultes ont tendance à boire trop d’alcool. L’ultime protection anti-copie est de débrancher le Net. Le droit d’auteur n’est pas mauvais en soi (l’alcool non plus), mais il est devenu tellement déconnecté de la réalité qu’il perd tout crédit. Une réforme est plus que nécessaire pour adapter le droit d’auteur au monde numérique. Mais il semblerait qu’aucun législateur ne soit encore parvenu à cette conclusion. L’attente risque donc d’être longue.

Post-scriptum

Il serait ridicule de prétendre que ces neuf idées englobent tout ce qu’il faut savoir à propos du Net. Elles constituent simplement les fondations d’une vision plus globale de la situation et peuvent même servir d’antidote face à certaines étroites et hâtives extrapolations sur le développement du cyberespace.

Malheureusement, s’il y a une vérité connue à propos d’Internet, elle est plutôt prosaïque : la seule réponse rationnelle à toutes les questions sur les implications à long terme du réseau est la célèbre phrase attribuée au ministre des Affaires étrangères de Mao Tsé-toung, Zhou Enlai, qui interrogé sur le bilan qu’il faisait de la Révolution française répondit sagement : « Il est encore trop tôt pour se prononcer ».

Et c’est bien le cas.

John Naughton est professeur à l’Open University. Il rédige actuellement un livre sur le phénomène Internet.

Notes

[1] Crédit photo : Pascal (Creative Commons By)