Biographie de Richard Stallman : Un peu de teasing en image (version courte)

Le jeudi 21 janvier prochain sera une date un peu particulière pour Framasoft, puisqu’il s’agira de l’aboutissement d’un long et passionnant projet initié ici-même il y a plus de deux ans.

Nous vous en dirons plus très prochainement mais en attendant voici en avant-première la couverture définitive du livre.

Biographie de RMS - Couverture Eyrolles




Framapack : Installation rapide et massive de logiciels libres sous Windows

Logo Framapack - L.L. de Mars - Art LibreParce que Tata Jeanine vient de recevoir une machine neuve pour Noël, parce que Tonton Paul a la sienne tellement vérolée (sic !) qu’il valait mieux repartir de zéro que de tenter de la nettoyer, parce que Cousin Léonard administre les postes de son lycée… nombreux peuvent être les cas de figure où l’on se trouve devant un ordinateur, qui n’est pas forcément le nôtre, dont le système d’exploitation Windows aurait besoin d’accueillir d’un coup tout plein de logiciels libres.

C’est ici que Framapack, le nouveau projet du réseau Framasoft, peut vous être potentiellement utile.

Vous vous rendez sur le site dédié à l’opération (qui n’abrite en fait qu’une seule page). Vous choisissez vos logiciels libres comme on fait son marché, parmi la sélection proposée qui compte déjà une bonne cinquantaine d’unités. Enfin vous cliquez sur la grosse flêche verte qui vous proposera de télécharger un tout petit exécutable que vous… exécuterez, et puis c’est tout !

Vous n’avez plus qu’à attendre tranquillement, comme le pingouin de notre illustration, puisque le boulot de cet unique fichier exécutable sera d’aller automatiquement chercher les logiciels un à un et de les installer tout seul sur votre ordinateur (avec la dernière version stable et l’installation par défaut de chaque logiciel choisi).

Ceci implique de nous faire confiance lorsque l’on vous assure que l’on ne rajoute évidemment aucun spyware et autres conchoncetés au passage (ce serait même plutôt le contraire puisqu’avec PDF Creator par exemple, on vous propose l’installation sans la suspicieuse barre d’outils et l’inopportun changement de moteur de recherche). Et pour accroitre la confiance, rien de tel que de placer l’application Framapack elle-même sous licence libre (GNU/GPL) sur SourceForge.

Animé par Simon Leblanc, le projet Framapack est tout jeune, avec sa version actuelle 1.0 (ou plutôt 1.0.1 pour être précis). Tous les avis, remarques, critiques, tests, rapport de bugs et propositions de participation sont bien entendu les bienvenus.

Découvrir Framapack…




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)




Google : numéro 1 mondial de l’open source ?

Austin Ziegler - CC by-saAh qu’il était doux et rassurant le temps de l’informatique à grand-papa où nous avions nos ordinateurs fixes qui se connectaient de temps en temps et où nous luttions avec confiance et enthousiasme contre le grand-méchant Microsoft !

Ce temps-là est révolu. Nous entrons dans une autre décennie et il se pourrait bien que le principal sujet de conversation de la communauté du logiciel libre dans les dix ans à venir ne soit plus Microsoft (symbole du logiciel propriétaire, j’ai mal à mes fichiers !) mais Google (symbole de l’informatique dans les nuages, j’ai mal à mes données personnelles !)[1].

Firefox, bouffé par Chrome ? Ubuntu, court-circuité par Chrome OS ? Le Web tout entier se transformant petit à petit en un fort joli Minitel 2.0 bourré de services Google à tous les coins de rue ? Ces différents scénarios ne relèvent pas forcément de la science-fiction.

Le problème c’est que nous n’avons plus un Microsoft en face d’une limpide ligne de démarcation. Le problème c’est que nous avons affaire à rien moins qu’au premier contributeur open source de la planète. Et cela rend légèrement plus complexe le positionnement…

La plus grande entreprise mondiale de l’open-source ? Google

World’s biggest open-source company? Google

Matt Asay – 16 septembre 2009 – Cnet news
(Traduction Framalang : Julien et Cheval boiteux)

Red Hat est généralement considérée comme la principale société open source de l’industrie, mais c’est une distinction dénuée de sens parce qu’elle est inexacte. Alors que les revenus de Red Hat proviennent des logiciels open source que la société développe et distribue, d’autres entreprises comme Sun, IBM et Google écrivent et contribuent en réalité à beaucoup plus de code open source. Il serait temps d’arrêter de parler d’entreprises open source et de revenir à l’importance du code open source.

L’open source est de plus en plus le socle sur lequel reposent les entreprises d’internet et du logiciel. Myspace a dernièrement fait des vagues en ouvrant les sources de Qizmt, un framework de calcul distribué (qui curieusement tourne sur Windows Server) qui active la fonction « Personnes que tu pourrais connaître » du site. Mais Myspace, comme l’a noté VentureBeat, n’a fait que rattraper la récente ouverture des sources de Tornado par Facebook.

Aucun d’eux ne le fait pour marquer des points auprès des utilisateurs branchés. S’ils le font, c’est motivé par leurs propres intérêts, qui nécessitent de plus en plus souvent d’inciter des communautés de développeurs à adopter et étendre leurs propres applications et services Web.

C’est également un moyen d’améliorer la qualité des logiciels. En adoptant les projets open source d’une entreprise, puis en l’étendant à travers ses propres logiciels open source, la qualité collective de l’open source est forte et croissante, comme le note Kit Plummer d’Accenture.

C’est cette compréhension de l’intérêt qu’il apporte et la qualité qui en découle qui a fait de l’open source une architecture essentielle pour potentiellement tous les logiciels commerciaux, ce qui signifie que Red Hat et d’autres entreprises qui ne font que de l’open source ne sont désormais plus le centre de cet univers.

Le noyau Linux est composé de 11,5 millions de lignes de code, dont Red Hat est responsable à hauteur de 12% (mesuré en termes de lignes de code modifiées). Même si l’on y ajoute le serveur d’applications JBoss Application Server (environ 2 autres millions de lignes de code) et d’autres projets Red Hat, on obtient toujours un total inférieur à d’autres acteurs.

Prenons Sun, par exemple. C’est le principal développeur derrière Java (plus de 6.5 millions de ligne de code), Solaris (plus de 2 millions de lignes de code), OpenOffice (environ 10 millions de lignes) et d’autres projets open source.

Ou bien IBM, qui a contribué à lui seul à 12,5 millions de lignes pour Eclipse, sans parler de Linux (6.3% du total des contributions), Geronimo, et un large éventail d’autres projets open source.

Google, cependant, est la société la plus intéressante de toutes, car elle n’est pas une entreprise de logiciels en soi. J’ai interrogé Chris DiBona, responsable des programmes open source et secteur public de Google, à propos des contributions de la société dans le domaine de l’open source (NdT : Cf Tout, vous saurez tout sur Google et l’Open Source sur le Framablog). Voici sa réponse :

Au bas mot, nous avons libéré environ 14 millions de lignes de code. Android dépasse les 10 millions de lignes, puis vous avez Chrome (2 millions de lignes, Google Web Toolkit (300 000 lignes), et aux alentours d’un projet par semaine sorti au cours des cinq dernières années. Vous avez ainsi quelques centaines d’employés Google qui patchent sur une base hebdomadaire ou mensuelle.

Si DiBona se garde bien de suggérer que Google soit devenu le premier contributeur open source (« disons que nous sommes parmi les premiers »), c’est néanmoins probablement le cas, en particulier lorsque l’on considère ses autres activités open source, incluant Google Code, l’hébergement du plus grand dépôt peut-être de projets open source, avec plus de 250 000 projets hébergés, dont au moins 40 000 sont actifs, sans parler de son Summer of Code. Après tout, les lignes de code, bien que fondamentalement utiles, ne sont pas nécessairement la meilleure mesure de la valeur d’une contribution à l’open source.

En fait, Patrick Finch de la fondation Mozilla estime que la meilleure contribution de Google à l’open source n’a probablement rien à voir avec l’écriture de nouveau code :

La plus grande contribution de Google à l’open-source n’est sans doute pas du code, mais de prouver que vous pouvez utiliser Linux à grande échelle sur des machines démarquées (NdT : whitebox hardware).

C’est une étape importante, et qui souligne le fait que le label « entreprise open source » est devenu quelque peu obsolète. Google ne se présente pas, à juste titre, comme une entreprise open source. L’open source fait simplement partie de leur stratégie pour distribuer des logiciels qui vont aider à vendre davantage de publicité.

Sun a tenté de se transformer en entreprise open source, mais une fois que son acquisition par Oracle aura été finalisée, cette dernière ne va certainement pas prendre ce label. Pas parce que c’est un mauvais label, mais simplement parce qu’il n’est plus pertinent.

Toutes les entreprises sont désormais des entreprises open source. Ce qui signifie aussi qu’aucune ne l’est. L’open source est simplement un élément parmi d’autres de la politique de développement et de croissance de ces entreprises, que l’on s’appelle Red Hat, Microsoft, Google ou Facebook.

Et étant donné que les entreprises du Web comme Google n’ont pas besoin de monétiser directement l’open source, on va en fait avoir l’occasion à l’avenir de voir encore plus de code open source émerger de la part de ces sociétés que ce qui a déjà été réalisé par ces traditionnelles « entreprises de logiciels open-source » que sont Red Hat, Pentaho ou MySQL.

Notes

[1] Crédit photo : Austin Ziegler (Creative Commons By-Sa)




Microsoft et la bio-informatique open source : c’est pas encore ça !

Mikelo - CC by-saRien à faire, la culture propriétaire est dans l’ADN de Microsoft.

Quand bien même, avec sa nouvelle Microsoft Biology Foundation, la société décide de montrer a priori patte blanche, ou plutôt « patte open source » à une communauté scientifique (ici la bio-informatique) de plus en plus consciente de ce qui est bon pour elle.

Espérons du coup qu’elle ne sera pas dupe. C’est ce qui vient nous rappeler avec causticité Glyn Moody sur son blog[1].

Les implants biologiques de Microsoft

Microsoft’s Biological Implants

Glyn Moody – 6 novembre 2009 – Open…
(Traduction Framalang : Julien et Cheval boiteux)

Microsoft se montre à la hauteur de ses vieilles ficelles consistant à offrir de jolies babioles aux naïfs avec la Microsoft Biology Foundation :

La communauté bio-informatique a développé une solide tradition de développement ouvert, de partage de code et de support multi-plateforme, et un certain nombre de boîtes à outils (NdT : toolkits) spécifiques à chaque langage sont désormais disponibles. Ces boîtes à outils sont précieuse à la la communauté, en promouvant le partage du code et en établissant des standards de fait.

La Microsoft Biology Foundation (MBF) est une boîte à outils générique pour la bio-informatique construite comme une extension pour le framework .NET. Actuellement, il met en oeuvre une gamme d’analyseurs syntaxiques pour les formats de fichiers communs dans la bio-informatique ; une série d’algorithmes permettant de manipuler des séquences d’ADN, d’ARN et de protéines; et un ensemble de connecteurs à des services Web de biologie comme NCBI BLAST. MBF est disponible sous une licence open source, et les exécutables, le code source, les applications de démonstration ainsi que la documentation sont téléchargeables gratuitement depuis le lien ci-dessous.

J’aime beaucoup la transition de « solide tradition de développement ouvert, de partage de code et de support multi-plateforme » à « tenez, allez faire mumuse avec ces joujoux du framework .NET remplis de brevets ».

Le problème étant, évidemment, qu’une fois que vous avez consciencieusement installé le framework .NET, avec tous les brevets que Microsoft prétend détenir dessus, et que vous vous y retrouvez enfermé par les usages et habitudes qui y sont liés, vous faites partie de l’écosystème contrôlé par Microsoft. Et vous allez probablement y rester, étant donné que Microsoft n’essaye même pas de promettre que cette camelote sera portée sur d’autres plateformes.

Parce que, sous le titre trompeur « multi-plateforme et interopérabilité », il est dit :

MBF fonctionne bien sur le système d’exploitation Windows et avec un éventail de technologies Microsoft.

Ouais ? Et qu’en est-il des technologies et systèmes d’exploitation non-Microsoft ?

Nous avons l’intention de travailler avec la communauté de développeurs pour profiter de l’extensibilité de MDF et supporter un nombre croissant d’outils Microsoft et non-Microsoft à mesure que le projet se développe.

Bien, mais ça n’a aucun rapport avec le fait d’être multi-plateforme : ils disent juste que ça va fonctionner avec d’autres outils – la belle affaire.

Si j’étais un biologiste, je me sentirais insulté par cette tentative à peine déguisée de faire rentrer de tels logiciels remplis de brevets au sein de la communauté bio-informatique, qui a une longue et glorieuse tradition d’usage et de soutien au logiciel libre, qui est réellement libre et réellement multi-plateforme, ce qui signifie tenter d’enfermer l’une des communautés les plus florissantes et dynamiques du monde logiciel.

Notes

[1] Crédit photo : Mikelo (Creative Commons By-Sa)




EnVenteLibre.org ou la petite boutique en ligne commune à Framasoft et Ubuntu-fr

EnVenteLibre - FraMacDonald's - LL de Mars - Art LibreMigration et complémentarité obligent, la collaboration entre Ubuntu-fr et Framasoft ne date pas d’hier. Elle a débuté par des ponts constants entre nos deux forums et des stands communs sur le terrain, s’est poursuivie avec le projet du framabook Simple comme Ubuntu, pour atteindre un premier point d’orgue l’été dernier avec la sortie de la Framakey Ubuntu-fr Remix (ou FUR).

La sortie de cette clé précédant de quelques jours les Rencontres Mondiales du Logiciel Libre de Nantes, nous avons alors décidé de prendre le risque de quitter l’immatériel pour proposer sur nos stands une vraie, et ma foi fort jolie, Framakey à nos deux couleurs. Opération réussie, le défi ludique étant de savoir qui du stand Framasoft ou Ubuntu-fr en vendrait le plus (il me semble que c’est Framasoft qui a gagné, mais d’une courte tête !).

Nous avons réitéré l’expérience aux récentes Ubuntu Party de Paris et de Toulouse, avec le même succès (là c’est Ubuntu-fr qui a largement gagné, mais c’est normal « on jouait à l’extérieur » !).

Tout ça pour dire que nous avions mis un pied dans le processus de vente d’objets physiques. Et comme les deux associations proposaient également, depuis un certain temps déjà, des tee-shirts et autres goodies (mais là encore uniquement lors des évènements), nous nous sommes dits : et pourquoi pas ouvrir une petite boutique commune sur Internet ?

Question d’autant plus opportune que tout le monde ne peut pas forcément se rendre à ces manifestations et que nous recevions de nombreux mails nous demandant justement si il était possible d’acheter en ligne une clé ou un tee-shirt.

Ce souhait se concrétise aujourd’hui avec l’ouverture du site EnVenteLibre.org (ou EVL pour les intimes).

Graphiquergonomiquement parlant, on peut certainement améliorer la chose (on dira que c’est la version 0.1 ou 1.0 du site), mais c’est déjà bien en place, fonctionnel, et testé confidentiellement avec succès par une première vague d’acheteurs que l’on remercie au passage.

Vous remarquerez que ne l’avons pas appelé « FramaTruc » comme nous en avons pris la mauvaise habitude (ici ça aurait pu être « FramaShop » par exemple), mais un nom indépendant de nos deux associations. Vous remarquerez également que chaque association à son onglet sur le site, il est donc potentiellement possible d’accueillir d’autres structures, mais nous n’en sommes pas là…

Cette boutique existe donc d’abord pour répondre à la demande de ceux qui n’ont pas l’occasion de nous rencontrer in the real life. Ceux qui souhaitent se lever le matin un tee-shirt Ubuntu ou Framasoft sur le dos et se réveiller en douceur avec un bon café (ou thé) fumant dans un magnifique mug Ubuntu. Si c’est trop chaud vous pourrez alors poser votre tasse sur la non moins magnifique soucoupe constituée par le CD d’Ubuntu ou le FramaDVD (mais on me souffle dans l’oreillette que ces soucoupes peuvent également servir à autre chose). Et de partir alors au turbin, le sourire aux lèvres et la clé en bandoulière…

Mais redevenons plus sérieux. Cette boutique nous permet aussi et surtout de continuer à diffuser le logiciel libre au plus large public. En effet, avant la boutique, il fallait être capable de télécharger patiemment l’image d’un CD ou DVD et de le graver. Pour la FUR c’était encore plus compliqué : acheter une clé vierge de bonne qualité (nous insistons sur ce point), télécharger le pack, l’installer et rendre la clé bootable sous Ubuntu. Avec la boutique, on peut donc recevoir ces objets optimisés et directement prêts à l’emploi, et nul doute que cela élargira le spectre des personnes souhaitant découvrir et utiliser des logiciels libres (d’autant que nous sommes capables de livrer partout dans le monde).

Enfin il s’agit également de voir si à terme cela peut constituer une éventuelle source de financement pour nos deux associations. Fidèles à une certaine approche des choses, nous avons choisi de ne pas marger outre mesure sur des prix volontairement tirés vers le bas pour les rendre les plus attractifs possibles (sachant que comme nous produisons en petite quantité nous ne pouvons pas obtenir des tarifs de gros préférentiels). Mais, originalité, nous invitons à compléter les achats par un don de votre choix à l’une et/ou l’autre[1] association si vous souhaitez soutenir et encourager leur action.

Sans vouloir être grandiloquents, proposer de « soutenir librement » en même temps que l’on « consomme » nous semble être un modèle intéressant à explorer participant, qui sait, à dessiner les contours d’une future et salutaire société de la contribution. Et lorsque nous ferons les premiers bilans, nous aimerions beaucoup pouvoir témoigner du fait que l’un est souvent allé avec l’autre (pour la bonne santé des caisses de nos associations, mais aussi pour l’exemple à valeur de symbole).

Ces premiers bilans seront l’occasion d’envisager l’avenir (ou non) de ce projet. Et en attendant c’est avec modestie mais enthousiasme que nous vous proposons déjà une petite sélection de produits qui s’étofferont avec le temps si le succès est au rendez-vous.

Quant à la Framakey Ubuntu-fr Remix, si vous en voulez une sous votre sapin (ou celui de vos proches), dépêchez-vous de vous rendre chez EnVenteLibre.org ! Sur les 280 proposées, il n’en reste en effet déjà plus que 160…

PS : Tout le monde a mis la main à la pâte, mais ce projet n’aurait jamais pu voir le jour sans le travail acharné de notre salarié Pierre-Yves Gosset (si vous le croisez, parlez-lui un peu des obstacles légaux, fiscaux, techniques et logistiques qu’il aura fallu surmonter, réaction assurée !). Qu’il en soit ici chaleureusement remercié, et avec lui tous les donateurs qui nous permettent de maintenir ce salarié.

Notes

[1] Pour rappel, Framasoft est autorisé à remettre des reçus fiscaux vous permettant de déduire 66% du montant de votre don de votre prochaine déclaration d’impôts (qui arrive bientôt !).




Filtrage du Net : danger pour la démocratie et l’État de droit

Dolmang - CC by-saLe groupe de travail Framalang du réseau Framasoft, et La Quadrature du Net publient la traduction du résumé d’une étude juridique indépendante sur les dangers du filtrage du Net.

Ce que l’on retire de la lecture de cette étude, c’est que comme lors de la bataille HADOPI, où le gouvernement se cachait derrière la supposée « défense des artistes » pour imposer une absurde et dangereuse coupure de l’accès au Net, des politiques publiques légitimes sont désormais instrumentalisées pour imposer le filtrage gouvernemental des contenus sur Internet[1].

Toutefois, de même que les coupures d’accès, si elles sont appliquées, n’apporteront pas un centime de plus aux artistes et ne feront pas remonter les ventes de disques, le filtrage ne peut en aucun cas résoudre les problèmes au prétexte desquels il sera mis en place.

Si l’objectif de lutter contre la pédopornographie et son commerce est bien évidemment légitime, la solution qui consiste à bloquer les sites incriminés pour éviter leur consultation revient en réalité à pousser, dangereusement, la poussière sous le tapis. Le seul moyen de lutte véritablement efficace contre ces pratiques ignobles passe par le renforcement des moyens humains et financiers des enquêteurs, l’infiltration des réseaux criminels ainsi que le blocage des flux financiers et le retrait des contenus des serveurs eux-mêmes. Or, en la matière, des politiques efficaces existent déjà.

Il importe donc d’améliorer ces dispositifs existants et d’y consacrer les ressources nécessaires, plutôt que de remettre en cause les libertés au motif de politiques de prévention du crime totalement inefficaces. En effet, les arguments de lutte contre la criminalité, au potentiel émotionnel fort, sont aujourd’hui instrumentalisés pour tenter de légitimer un filtrage du Net qui porte pourtant radicalement atteinte à la structure du réseau, et entraîne de grands risques pour les libertés individuelles et « l’état de droit » tout entier.

L’étude dont le résumé de 30 pages vient d’être traduit en français conjointement par les volontaires de Framalang et de La Quadrature du Net est un pavé dans la mare. Elle conteste, démonstrations juridiques à l’appui, l’idée – évoquée par un nombre croissant de gouvernements européens – que le filtrage du Net puisse être une solution efficace et indolore de régulation des pratiques sur Internet. Réalisée par les éminents spécialistes Cormac Callanan[2], Marco Gercke[3], Estelle De Marco[4] et Hein Dries-Ziekenheine[5], ses conclusions sur l’inefficacité et la dangerosité du dispositif sont sans appel :

  • Quel que soit le mode de filtrage des contenus utilisé, il entraîne de graves risques de sur-blocage (risques de faux-positif : des sites innocents rendus inaccessibles).
  • Quel que soit le mode de filtrage retenu, il sera ridiculement facile à contourner. Les criminels se servent déjà de moyens de contournement et continueront d’agir en toute impunité.

La seule mise en place du filtrage entraine des risques de dérives : si l’on commence pour la pédopornographie, pourquoi ne pas continuer par la suite pour la vente de cigarettes sans TVA[6], le partage de musique et de films (comme le souhaitent les lobbies derrière l’ACTA)[7], les sondages en sorties des urnes ou même les insultes au président ? La plupart des pays non-démocratiques (Chine, Iran, Birmanie, etc.) utilisent le filtrage du Net aujourd’hui, systématiquement à des fins de contrôle politique.

La loi LOPPSI (loi d’orientation et de programmation pour la performance de la sécurité intérieure) sera bientôt examinée au Parlement français. Elle contient des dispositions visant à imposer le filtrage du Net sans contrôle de l’autorité judiciaire, par une autorité administrative dépendante du ministère de l’intérieur.

Il est indispensable que les citoyens attachés à Internet, aux valeurs démocratiques et à l’État de droit se saisissent de cette question, grâce à cette étude, afin de stimuler un débat public. Il est crucial de contrer cette tentative d’imposer un filtrage du Net attentatoire aux libertés fondamentales !

Passages essentiels :

p. 4 : Dans les pays où l’autorité judiciaire est indépendante du pouvoir législatif et du pouvoir exécutif, ce qui devrait être le cas dans toutes les démocraties libérales, seul un juge devrait avoir la compétence de déclarer illégal un contenu, une situation ou une action.

Un problème crucial autour des listes noires est celui de leur sécurité et leur intégrité. Une liste de contenus tels que ceux-là est extrêmement recherchée par ceux qui sont enclins à tirer parti d’une telle ressource. Sans même mentionner les fuites de listes noires directement sur Internet, des recherches indiquent qu’il serait possible de faire de la rétro ingénierie des listes utilisées par n’importe quel fournisseur de services.

p. 5 : En tout état de cause, il faut souligner qu’aucune stratégie identifiée dans le présent rapport ne semble capable d’empêcher complètement le filtrage abusif. Ceci est d’une importance décisive lorsqu’on met en balance la nécessité de bloquer la pédo-pornographie et les exigences des droits de l’Homme et de la liberté d’expression. Il semble inévitable que des contenus légaux soient aussi bloqués lorsque le filtrage sera mis en œuvre.

p. 13 : Aucune des stratégies identifiées dans ce rapport ne semble être capable de protéger du sur-filtrage. C’est une des préoccupations majeures dans l’équilibre entre la protection des enfants et les droits de l’homme et de la liberté. Il parait inévitable que le contenu légal soit filtré aux endroits où les filtres sont implémentés. Le sous-filtrage est aussi un phénomène universel spécialement présent dans la plupart des stratégies étudiées.

p 18 : Que l’accès à Internet soit ou non un droit fondamental indépendant, celui-ci est tout au moins protégé comme un moyen d’exercer la liberté d’expression, et chaque mesure de filtrage d’Internet qui tente d’empêcher les personnes d’accéder à l’information est par conséquent en conflit avec cette liberté. Chaque mesure de filtrage limite le droit à la liberté d’expression, de manière plus ou moins large selon les caractéristiques du filtrage et le degré de sur-filtrage, puisque l’objectif initial d’une telle mesure est de limiter l’accès à un contenu particulier.

p 21 : La seule sorte d’accord qui pourrait autoriser une mesure de filtrage serait le contrat entre l’utilisateur d’Internet et le fournisseur d’accès. La légalité d’une telle mesure de filtrage dépendrait pour beaucoup du type de contenu consulté, de la nature de l’entorse aux droits et libertés et des preuves requises. Si cela n’est pas précisé d’une façon raisonnable, il est facile d’envisager que de tels contrats soient considérés comme des entorses à la directive européenne sur les clauses contractuelles abusives, particulièrement si cela permet au fournisseur d’accès à Internet de prendre des sanctions unilatérales à l’encontre de son client.

p 23 : Le filtrage du web et du P2P dans l’intérêt de l’industrie de la propriété intellectuelle. Une mesure de filtrage du web ou du P2P, qui servirait l’intérêt des ayants droit, aurait probablement un effet global plus négatif :

  • tout d’abord, si le filtrage du P2P peut être présenté comme menant à un chiffrement des échanges rendant toute surveillance ou la plupart des contenus impossible, il deviendrait alors impossible de surveiller ces communications, même dans les conditions où cela est autorisé ;
  • ensuite, cela impliquerait des coûts. Elevés pour l’industrie d’Internet, les gouvernements et les internautes ;
  • enfin, cela mènerait à coup sûr au filtrage de fichiers légaux.

Au regard du critère qui requiert qu’il existe une base suffisante pour croire que les intérêts des ayants-droits soient en péril , nous pouvons dire qu’il n’y a aucune preuve d’un tel danger. Il n’y a aucune preuve de la nature et de l’étendue des pertes possibles dont souffrent les ayants-droits à cause des infractions commises à l’encontre de leurs droits sur le web ou les réseaux P2P, étant donné que les études sur ce problème sont insuffisantes ou démontrent un résultat inverse.

Le filtrage des contenus illégaux du web ou du P2P dans le but de la prévention du crime. L’objectif de la prévention du crime devrait être d’empêcher les gens de commettre des crimes ou délits ou d’en être complices en achetant, téléchargeant ou vendant des contenus illégaux. Sa proportionnalité dépendrait de l’équilibre trouvé entre, d’une part, le pourcentage de la population qui ne commettrait plus de délits puisque n’ayant plus accès aux contenus illégaux et, d’autre part, les restrictions des libertés publiques que causerait la mesure. L’effet de la mesure ne devrait pas être une réduction significative de la liberté d’expression ni du droit à la vie privée de chaque citoyen. Il n’existe pour l’instant aucune preuve qu’une mesure de filtrage pourrait aboutir à une diminution des crimes et délits, alors qu’elle restreindrait certains comportements légitimes et proportionnés.

p 25 : Si avoir le droit d’attaquer devant un tribunal une décision qui limite une des libertés est un droit fondamental, cela suppose que cette limitation a déjà été mise en place et que le citoyen a déjà subi ses effets. Par conséquent, il est essentiel qu’un juge puisse intervenir avant qu’une telle décision de filtrage ne soit prise. En ce qui concerne le filtrage d’Internet, ces situations sont tout d’abord relatives à l’estimation et la déclaration d’illégalité d’un contenu ou d’une action, puis à l’appréciation de la proportionnalité de la réponse apportée à la situation illégale.

p. 26 : Un passage en revue technique des principaux systèmes de filtrage d’Internet utilisés de nos jours, et la façon dont ils s’appliquent à différents services en ligne, soulignent la gamme croissante des contenus et des services qu’on envisage de filtrer. Une analyse de l’efficacité des systèmes de filtrage d’Internet met en évidence de nombreuses questions sans réponse à propos du succès de ces systèmes et de leur capacité à atteindre les objectifs qu’on leur assigne. Presque tous les systèmes ont un impact technique sur la capacité de résistance d’Internet et ajoutent un degré supplémentaire de complexité à un réseau déjà complexe. Tous les systèmes de filtrage d’Internet peuvent être contournés et quelquefois, il suffit de modestes connaissances techniques pour le faire. Il existe des solutions logicielles largement disponibles sur Internet qui aident à échapper aux mesures de filtrage.

p. 27 : En bref, le filtrage d’Internet est conçu avec des solutions techniques qui sont inadéquates par elles-mêmes et qui en outre sont sapées par la disponibilité de protocoles alternatifs permettant d’accéder à du matériel illégal et de le télécharger. Il en résulte que l’estimation du caractère proportionné des mesures ne doit pas seulement respecter l’équilibre des divers droits en jeu, mais aussi garder à l’esprit l’incapacité des technologies de filtrage à préserver les droits en question, ainsi que les risques d’effets pervers, tels qu’une diminution de la pression politique pour rechercher des solutions complètes, ou le risque d’introduction de nouvelles stratégies chez les fournisseurs de sites illégaux pour éviter le filtrage, ce qui rendrait à l’avenir plus difficiles encore les enquêtes pénales.

Notes

[1] Crédit photo : Dolmang (Creative Commons By-Sa)

[2] Cormac Callanan est Membre du conseil consultatif Irlandais sur la sûreté d’Internet et directeur d’Aconite Internet Solutions, qui fournit des expertises dans le domaine de la cybercriminalité.

[3] Marco Gercke est Directeur de l’Institut du droit de la cybercriminalité et professeur de droit pénal à l’Université de Cologne.

[4] Estelle De Marco est juriste. Ancienne consultante de l’Association des Fournisseurs d’Accès.

[5] Hein Dries-Ziekenheine est PDG de Vigilo Consult, cabinet de juristes spécialisés dans le droit de l’Internet.

[6] Voir Tabac et vente sur Internet : le gouvernement dément.

[7] En juin 2008, interrogé par PCINpact, le directeur général de la SPPF, Jérome Roger, qui représente les producteurs indépendants français, a déclaré : « les problématiques de l’industrie musicale ne sont pas éloignées de ces autres préoccupations (la pédophilie) qui peuvent paraître évidemment beaucoup plus graves et urgentes à traiter. Bien évidemment, les solutions de filtrage qui pourraient être déployées à cette occasion devraient faire l’objet d’une réflexion à l’égard des contenus, dans le cadre de la propriété intellectuelle ». Voir Quand l’industrie du disque instrumentalise la pédopornographie.




La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)