L’ordinateur personnel est mort pour laisser place à des prisons dorées ?

Victoria Reay - CC byQu’est-ce que Framasoft, si ce n’est au départ avant tout un vaste service se proposant de mettre en relation les développeurs et les utilisateurs (que l’on souhaite toujours plus nombreux) de logiciels libres.

Un service d’autant plus pertinent que l’on peut facilement installer et tester les logiciels et que les développeurs (dont on n’entrave ni la création ni l’innovation) se trouvent disséminés un peu partout sur le Web.

Le problème c’est qu’aujourd’hui tout ce processus est remis en cause par le développement conjoint du cloud et des appareils mobiles (smartphones, tablettes…) à qui l’on demande de ne venir s’abreuver qu’à une seule source dûment contrôlée : la boutique d’applications, ou apps, Apple ou Google. Pire encore, ces plateformes fermées ne se contentent pas de proposer des applications « logiciel », elle offrent également des applications « contenu ». Et c’est toute l’information qui se trouve prisonnière du bon vouloir de quelques sociétés (américaines) qui détiennent alors un pouvoir potentiel exorbitant.

Même des ses rêves hégémoniques les plus fous, Microsoft n’aurait osé envisager une telle situation pour ses PC Windows qui, en comparaison, apparaissent tout d’un coup bien plus ouverts qu’il ne l’étaient une dizaine d’années auparavant[1].

Certains appellent cela le progrès et célèbrent avec ferveur et dévotion le génial Steve Jobs à l’occasion de son triste départ. D’autres ne doivent pas s’en laisser compter, parce que quand la trappe sera définitivement refermée, il sera trop tard…

Jonathan Zittrain est professeur de droit et d’informatique à Harvard et est l’auteur de The Future of the Internet and How to Stop It.

L’ordinateur personnel est mort

The Personal Computer Is Dead

Jonathan Zittrain – 30 novembre 2011 – TechnologyReview
(Traduction Framalang : Clochix et Goofy)

Le pouvoir migre rapidement des utilisateurs finaux et des développeurs de logiciels vers les vendeurs de systèmes d’exploitation.

Le PC est mort. Le nombre croissant de terminaux mobiles, légers et centré sur le cloud n’est pas qu’une mue dans la forme. Au contraire, nous sommes en présence d’un transfert de pouvoir sans précédent des utilisateurs finaux et des développeurs logiciels d’un côté vers les vendeurs de systèmes d’exploitation de l’autre — et même ceux qui conservent leur PC sont emportés par ce mouvement. C’est un peu pour le meilleur, et beaucoup pour le pire.

C’est une transformation de produits en services. Les applications que nous avions l’habitude d’acheter tous les deux ou trois ans — comme les systèmes d’exploitation — sont désormais en relation permanente avec le vendeur, tant pour les utilisateurs finaux que pour les développeurs de logiciels. J’avais décrit cette mutation, motivée par un désir d’une meilleure sécurité et de plus de confort, dans mon livre de 2008 Le futur de l’Internet — et comment l’arrêter.

Pendant des années, nous avons utilisé avec plaisir un moyen simple de créer des logiciels et de les partager ou de les vendre. Les gens achetaient des ordinateurs généralistes, des PC y compris ceux qu’on appelle Mac. Ces ordinateurs étaient livrés avec un système d’exploitation qui s’occupait des tâches de base. Tout le monde pouvait écrire et exécuter un logiciel pour un système d’exploitation donné, et c’est ainsi que sont apparus une suite sans fin de tableurs, traitements de texte, messageries instantanées, navigateurs Web, clients de messagerie et jeux. Ces logiciels allaient du sublime au ridicule et au dangereux — pour en décider il n’y avait d’autre arbitre que le bon goût et le bon sens de l’utilisateur, avec un peu d’aide de sites Web rédigés par des passionnés d’informatique et des logiciels antivirus (cela fonctionnait tant que l’antivirus n’était pas lui-même un malware, chose qui a eu tendance à devenir fâcheusement monnaie courante).

Choisir un système d’exploitation (ou OS), c’était aussi faire le choix des logiciels qui y étaient attachés. Windows plutôt que Mac signifiait opter sur le long terme entre différentes collections de logiciels. Même si parfois un développeur offrait des versions de son logiciel pour chaque OS, migrer d’un OS à un autre signifiait qu’il fallait racheter ce logiciel.

C’est une des raisons pour lesquelles nous avons fini par avoir un OS dominant ces deux dernières décennies. Les gens étaient sous Windows, ce qui poussait les développeurs de logiciels à coder pour Windows, ce qui incitait davantage de gens à acheter Windows, ce qui le rendait encore plus attirant pour les développeurs, et ainsi de suite. Dans les années 90, les gouvernements américains et européens se sont lancées dans une bataille contre la position dominante de Microsoft, bataille légendaire et pourtant facilement oubliable vue d’aujourd’hui. Leur principal reproche ? Microsoft a faussé la concurrence entre son propre navigateur, Internet Explorer, et son principal concurrent de l’époque, Netscape Navigator. Microsoft a procédé en imposant aux fabricants de PC de s’assurer qu’Internet Explorer serait prêt à être utilisé sur le bureau de Windows lorsque l’utilisateur déballerait son ordinateur et l’allumerait (la fameuse icône du « E bleu »). Des années de procédure et un dossier de trois kilomètres de long peuvent se résumer en un péché original : un fabricant de système d’exploitation avait excessivement favorisé ses propres applications.

Lorsque l’iPhone est arrivé sur le marché en 2007, sa conception était bien plus restrictive. Aucun code étranger n’était autorisé sur le téléphone, toutes les applications installées étaient issues d’Apple. On n’y a pas pris garde sur le moment car ça n’était qu’un téléphone et non un ordinateur, et les téléphones concurrents étaient tout autant verrouillés. Nous comptions sur les ordinateurs pour être des plateformes ouvertes et considérions ces téléphones comme de simples appareils, plus proches des postes de radio, des téléviseurs et des percolateurs.

Puis, en 2008, Apple a annoncé un kit de développement logiciel pour l’iPhone. Les développeurs tiers étaient invités à créer des logiciels pour le téléphone, de la même manière qu’ils l’avaient fait pendant des années avec Windows et Mac OS. Avec une grosse différence : les utilisateurs ne pouvaient installer un logiciel sur leur téléphone que s’il était disponible dans la boutique Apple d’applications pour iPhone. Les développeurs devaient montrer patte blanche et être accrédités par Apple. Ainsi chaque application se trouvait être contrôlée et filtrée selon les critères propres, flous et changeants d’Apple. Par exemple, les applications qui émulaient ou même amélioraient les propres applications d’Apple n’étaient pas autorisées. Le péché originel de Microsoft était devenu bien pire. Le problème n’était pas de savoir si on pouvait acheter un iPhone sans le navigateur Safari d’Apple. Il était qu’aucun autre navigateur ne serait autorisé (et s’il était, il ne s’agissait que d’une tolérance ponctuelle d’Apple). Sans oublier que pas moins de 30% du prix de chaque application vendue pour l’iPhone (et de de toutes les transactions effectuées grâce à l’application) vont dans les poches d’Apple.

Même Microsoft, connu pour ses logiciels privateurs, n’aurait pas osé prélever une taxe sur chaque bout de code écrit par d’autres pour Windows, mais peut-être n’était-ce dû qu’au fait qu’en l’absence de connexion fiable à Internet dans les années 90, il n’y avait aucun moyen réaliste de le faire en gérant les achats et les licences. Quinze ans plus tard, c’est exactement ce qu’Apple a fait avec la boutique d’applications pour iOS.

En 2008, on pouvait penser que cette situation n’était pas aussi inquiétante que le comportement de Microsoft à l’époque de la guerre des navigateurs. D’abord parce que la part d’Apple dans le marché des téléphones mobiles n’avait rien à voir avec la domination de Microsoft sur le marché des systèmes d’exploitation pour PC. Ensuite parce qu’on était passé d’un système totalement verrouillé en 2007 à un système partiellement ouvert aux développeurs extérieurs. De plus, bien qu’Apple rejetât de nombreuses applications pour n’importe quelle raison (et que certains développeurs étaient suffisament apeurés par le couperet qu’ils confessaient avoir peur de dire publiquement du mal d’Apple), dans les faits des centaines de milliers d’application passaient la barrière. Enfin, indépendamment de la volonté de contrôle d’Apple, ces restrictions avaient au moins quelques bonnes raisons sécuritaires sur le papier, au moment même où le nombre croissant de logiciels malveillants voyait le monde du PC Windows glisser de l’anarchie au chaos. Une mauvaise frappe sur le clavier ou un mauvais clic de souris pouvait livrer tout le contenu du PC à un lointain créateur de virus. Apple était déterminé à ce que cela n’arrive pas avec l’iPhone.

À la fin de 2008, il y avait à priori encore moins de raisons de s’inquiéter : la place de marché pour le système Android de Google avait été inaugurée (NdT : Android Market), créant de la compétition pour l’iPhone avec un modèle un peu moins paranoïaque de développement d’applications par des tiers. Les développeurs devaient toujours s’enregistrer pour proposer des logiciels via la place de marché, mais une fois qu’ils étaient enregistrés, ils pouvaient diffuser leur logiciel immédiatement, sans que Google les contrôle. Il y avait encore une taxe de 30% sur les ventes, et les applications qui ne respectaient pas les règles pouvaient être supprimées rétroactivement de la place de marché. Mais il y avait et il y a toujours une grosse soupape de sécurité : les développeurs pouvaient donner ou vendre leurs applications directement aux possesseurs de terminaux Android, sous passer par Android Market. S’ils n’aimaient pas les règles de la place de marché, cela ne signifiait pas qu’ils devaient renoncer à atteindre les utilisateurs d’Android. Aujourd’hui, la part de marché d’Android est nettement supérieure à celle de l’iPhone (c’est l’inverse pour les tablettes, actuellement trustée par l’iPad à 97% mais de nouvelles tablettes arrivent, comme le Kindle Fire d’Amazon basé sur Android et le roi peut rapidement être démis de son trône).

Avec cette évolution positive et ces réponses apportées entre 2007 et 2011, pourquoi devrions-nous alors nous inquiéter ?

La principale raison relève de l’effet boule de neige du modèle de l’iPhone. Le modèle de la boutique d’applications est revenu comme un boomerang sur le PC. On trouve à présent une telle boutique pour le Mac qui correspond à celles de l’iPhone et de l’iPad, et elle comporte les mêmes restrictions. Certaines, acceptées car jugées normales dans le cadre d’un téléphone mobile, semblent beaucoup moins familières dans le monde de l’ordinateur de bureau.

Par exemple, les logiciels dans la boutique pour Mac n’ont pas le droit de modifier l’apparence de l’environnement du Mac. (Ironique de la part d’une compagnie dont un précédent slogan incitait les gens à penser différemment). Les développeurs ne peuvent ainsi ajouter une icône pour leur application sur le bureau ou dans le dock sans demander la permission à l’utilisateur, ce qui est un extraordinaire écho à ce qui a valu des ennuis à Microsoft (bien que dans le cas de Microsoft le problème était d’interdire la suppression de l’icône d’Internet Explorer, mais jamais Microsoft n’a essayé d’empêcher l’ajout d’icônes d’autres applications, qu’elles soient installées par le constructeur du PC ou par l’utilisateur). Les développeurs ne peuvent pas développer de fonctionnalités déjà présentes dans la boutique. Ils ne peuvent pas diffuser leur logiciel sous une licence libre, car les termes de ces licences entrent en conflit avec ceux de la licence d’Apple.

Les restrictions de contenus sont des territoires encore inexplorés. Du haut de sa domination du marché Windows, Microsoft n’a eu aucun rôle dans le choix des logiciels qui pourraient ou ne pourraient pas s’exécuter sur ses machines, et encore moins son mot à dire pour autoriser le contenu de ces applications à voir la lumière de l’écran. L’éditorialiste dessinateur Mark Fiore, lauréat du Prix Pulitzer, a ainsi vu son application iPhone refusée car elle contenait du « contenu qui ridiculisait des personnalités publiques ». Fiore était suffisamment connu pour que ce refus provoque des froncements de sourcils, et Apple est revenue sur sa décision. Mais le fait que des applications doivent de manière routinière être approuvées masque à quel point la situation est extraordinaire : des entreprises de technologies ont entrepris d’approuver, un à un, tous les textes, les images et les sons que nous sommes autorisés à trouver et utiliser sur les portails que nous utilisons le plus souvent pour nous connecter au réseau mondial. Est-ce ainsi que nous souhaitons que la culture se diffuse ?

C’est d’autant plus dérangeant que les gouvernements ont réalisé que ce cadre rend leur propre censure bien plus facile : alors que leur lutte pour arrêter la diffusion de livres, tracts et à présent de sites Web ressemblait au travail de Sisyphe, elle va de plus en plus se résumer à l’envoi de demandes de suppression aux gardiens des portails numériques. Soudain, les contenus dérangeants peuvent être supprimés en mettant la pression sur un intermédiaire technique. Lorsque Exodus International (« mobiliser le corps du Christ pour soigner par la grâce et la vérité un monde impacté par l’homosexualité ») a publié une application qui entre autres lançait des invectives contre l’homosexualité, ses opposants ne se sont pas contenté de mal la noter (il y avait deux fois plus de notations une étoile que cinq étoiles), mais ils ont également envoyé des pétitions à Apple pour lui demander de supprimer l’application. Apple l’a fait (NdT : cf cet article des Inrocks).

Précisons qu’à la différence de ses homologues pour iPhone et iPad, la boutique d’applications pour Mac n’est pas le seul moyen de mettre des logiciels sur un Mac. Pour l’instant, vous pouvez toujours installer des logiciels sans passer par la boutique. Et même sur l’iPhone et l’iPad, qui sont bien plus verrouillés, il reste le navigateur : Apple peut contrôler le contenu des applications (et de ce fait en être jugée responsable) mais personne ne semble penser qu’Apple devrait se lancer dans le contrôle, le filtrage et la restriction de sites Web que les utilisateurs du navigateur Safari peuvent visiter. Une question aux gens qui ont lancé la pétition contre Exodus : est-ce que vous seriez également favorables à une pétition demandant qu’Apple interdise aux utilisateurs de Safari d’aller sur le site Web d’Exodus ? Sinon, qu’elle différence faites-vous, puisque Apple pourrait très simplement programmer Safari pour implémenter de telles restrictions ? Y a-t-il un sens à ce que les épisodes de South Park puissent être téléchargés via iTunes, mais que l’application South Park, qui contient le même contenu, ait été bannie de l’App Store ?

Étant donné que des applications tierces peuvent toujours s’exécuter sur un Mac et sur Android, il faut se demander pourquoi les boutiques et les places de marché occupent une position aussi dominante (et suffisamment attractives pour que les développeurs acceptent de relever le défi de faire approuver leurs applications et de perdre 30% de leurs revenus) plutôt que de simplement vendre directement leurs applications. L’iPhone a des restrictions sur l’exécution de code tiers, mais les développeurs peuvent toujours, dans de nombreux cas, se débrouiller pour offrir les fonctionnalités via un site Web enrichi et accessible avec le navigateur Safari du téléphone. Très rares sont les structures qui ont cette démarche avec leurs développeurs. Le Financial Times est un de ces fournisseurs de contenus qui a retiré son application de la boutique iOS pour éviter de partager avec Apple les données de ses utilisateurs et ses profits, mais il est isolé dans le monde des médias.

La réponse réside peut-être dans des choses en apparence triviales. En effet, même un ou deux clics de plus peuvent dissuader un utilisateur de consommer ce qu’il avait l’intention de faire (une leçon que l’affaire Microsoft a mise en lumière, quand l’accessibilité d’Internet Explorer directement sur le bureau a été vue comme un avantage déterminant par rapport à Netscape que les utilisateurs devaient télécharger et installer). Le choix par défaut a tous les pouvoirs, un constat confirmé par le montant des accords pour choisir le moteur par défaut des navigateurs. Ce genre d’accords a fourni en 2010 à Mozilla, le créateur de Firefox, 97% de ses revenus, c’est-à-dire pas moins de 121 millions de dollars. La soupape de sécurité des applications « tout-terrain » semble moins utile lorsque les gens sont attirés par les boutiques et les places de marché pour chercher sans effort les applications dont ils ont besoin.

La sécurité est également un facteur à prendre en considération. Lorsqu’ils voient tant de logiciels malveillant dans la nature, les consommateurs peuvent vouloir déléguer le contrôle de leurs programmes aux vendeurs de systèmes d’exploitation. Il existe une grande variété d’approches pour gérer la question de la sécurité, certaines impliquant l’utilisation d’un bac à sable, c’est à dire d’un environnement protégé à l’intérieur duquel s’exécute le logiciel. L’exécution dans un bac à sable sera bientôt obligatoire pour les application de la boutique pour Mac. On trouvera plus d’informations sur le sujet et une discussion sur ses avantages et ses inconvénients, ici.

Le fait est qu’aujourd’hui les développeurs écrivent du code en veillant non seulement à ce qu’il soit acceptable par les consommateurs, mais aussi par les vendeurs. Aujourd’hui, si un développeur souhaite proposer une application, il va devoir nécessairement en passer par la place de marché Android de Google et par la boutique iOS d’Apple; aucun des deux ne peut remplacer l’autre. Les deux placent le développeur dans une relation de dépendance avec le vendeur du système d’exploitation. L’utilisateur aussi est mis en difficulté : si je migre de l’iPhone à Android, je ne peux pas emporter mes applications avec moi, et vice-versa. Et au fur et à mesure que le contenu est distribué par des applications, cela peut signifier que je ne peux pas non plus emporter avec moi mon contenu ! (ou, si je peux, c’est uniquement parce qu’il y a un autre acteur comme Amazon qui a une application qui s’exécute sur plus d’une plateforme, aggrégeant le contenu). On ne se libère ici de la relation suffocante avec Apple, Google ou Microsoft que grace à un nouvel entrant comme Amazon, qui a structurellement la dimension suffisante pour peser et faire la même chose.

L’avènement du PC et du Web ont été un formidable accélérateur de communication et d’innovation. Des myriades d’applications sont nées créant une relation directe entre développeurs et utilisateurs sur des myriades de sites Web. À présent l’activité s’agglutine autour d’une poignée de portails, deux ou trois fabricants de systèmes d’exploitation qui sont en position de gérer en continu toutes les applications (et leur contenu).

Les développeurs de logiciels et les utilisateurs devraient exiger davantage. Les développeurs devraient chercher des moyens d’atteindre leurs utilisateurs sans être entravés, via des plateformes ouvertes, ou en faisant pression sur les conditions imposées par les plateformes fermées. Et les utilisateurs, informés et avertis, ne doivent pas céder à la facilité et au confort, en retournant à l’esprit originel du PC.

Si nous nous laissons bercer, voire hypnotiser, par ces beaux jardins clos, nous passerons à côté des innovations que les gardiens de ces jardins refusent. Et nous pouvons nous préparer à une censure du code et des contenus qui aurait été impossible et inenvisageable quelques années auparavant. Nous avons besoin de nerds en colère.

Notes

[1] Crédit photo : Victoria Reay (Creative Commons By)




Geektionnerd : Trois mois

Mitterrand veut traquer le streaming illégal d’ici 3 mois, nous relate Numerama.

MegaVideo en tremble déjà 😉

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Le logiciel libre perd de son influence, la faute à la FSF de Stallman ?

Steve Winton - CC byVoici un billet un brin polémique qui affirme que le logiciel libre (et non l’open source) perd actuellement de son influence et que la Free Software Foundation de Richard Stallman en porte une lourde responsabilité.

Il est signé du chroniqueur Bruce Byfield que nous avons souvent traduit par le passé et qu’on ne peut soupçonner de troller pour troller. Il s’agit au contraire d’un réel et sincère amour déçu[1].

D’accord, pas d’accord ? Trop américano-centré ? En France, en Europe, il en va différemment ? Le logiciel libre se résume-t-il à la FSF ? etc. Il va sans dire que nous vous attendons dans les commentaires sinon c’est pas drôle 🙂

7 raisons qui expliquent pourquoi le logiciel libre perd de son influence

7 Reasons Why Free Software Is Losing Influence

Bruce Byfield – 22 Novembre 2011 – Datamation
(Traduction Framalang : Goofy)

Pourquoi les idéaux du logiciel libre sont-ils moins populaires qu’il y a cinq ans ? La réponse n’est pas évidente et un peu polémique.

Il y a cinq ans, quand la majeure partie du code Java a été publiée sous licence GPL (General Public License), Sun Microsystems a pris soin d’associer la FSF (Free Software Foundation) à l’annonce, d’obtenir une déclaration d’approbation de Richard Stallman, le président de la FSF, et d’Eben Moglen son conseiller juridique.

Aujourd’hui, on voit mal quelle entreprise serait susceptible de faire le même effort. Lentement mais sûrement, le logiciel libre a perdu l’influence qu’il exerçait au sein de la communauté qu’il a créée.

Pratiquement il est difficile d’employer l’expression FOSS (Free and Open Source Software) en espérant être compris. Dans la plupart des cas, l’expression « logiciel libre », que l’on n’entend pratiquement plus, a été remplacée par « open source ».

Que s’est-il donc passé ?

Je ne dispose pas de chiffres précis à l’appui mais je suggère ici au moins sept raisons possibles. Certaines externes à la FSF, d’autres résultant directement de ses prises de décision. Choix qui ont pu paraître sensés à une époque mais ont eu parfois des effets pervers à long terme, quand ils n’ont pas été effectués trop hâtivement…

1. Trop de bonnes causes, pas assez de ressources

La FSF fonctionne avec une équipe dirigeante de moins d’une douzaine de personnes, et avec des bénévoles. Ses revenus pour 2010 étaient de 1,23 million de dollars. Avec de telles ressources, elle soutient le projet GNU, aide des entreprises et des projets à se conformer aux licences libres, et lance une dizaine de campagnes, depuis la lutte contre les DRM et les initiatives anti-Windows jusqu’aux efforts pour convaincre le plus grand nombre d’utiliser des formats audio libres.

Tous ces efforts sont dignes d’intérêt en eux-mêmes, mais pour rarement mentionnés et relayés, ils ne trouvent que peu d’écho. Mais ce sont là des problèmes bien plus nombreux que ceux qu’a traités la FSF dans le passé, et elle le fait avec à peine quelques centaines de milliers de dollars de plus qu’en 2006, quand ses ressources lui permettent difficilement de mener à bien une seule de ces actions. Par conséquent la FSF finit par se révéler inefficace, et rares sont les campagnes qui captivent l’attention générale au sein de la communauté, plus rares encores celles qui atteignent leur objectif.

2. On ne trouve pas de nouveaux adeptes et on néglige les anciens

Ces cinq dernières années, la FSF s’est efforcée d’investir son activité sur les réseaux sociaux, pour atteindre un plus large public. Le mérite de ces efforts revient essentiellement aux actions du précédent directeur général Peter Brown, parce qu’il a une trajectoire personnelle d’activiste. C’est un pas en avant dont j’ai dit tout le bien que je pensais à l’époque, et je considère encore que c’est une bonne stratégie.

Malheureusement, cette tentative a largement échoué, certainement là encore victime de ressources trop limitées. Par ailleurs il s’agissait dans le mouvement d’établir une distinction entre la FSF et le plus technique projet GNU. J’ai entendu beaucoup de développeurs exprimer leur réticence quant aux positions activistes de la FSF en souhaitant qu’elle recentre ses activités sur le logiciel. Au final la FSF a aggravé son cas : échouant à gagner de nouveaux publics à sa cause, éloignant d’elle ses adeptes déjà existants.

3. Ubuntu a remplacé Debian

Nombreux sont ceux qui ne s’en souviennent plus aujourd’hui, mais il y a cinq ans, la communauté Debian était une référence pour le logiciel libre. Elle n’était pas toujours d’accord avec la FSF, en fait, Debian était réputé pour suivre son propre chemin, imposer sa propre définition du logiciel libre, et se faire un avis autonome sur des questions comme celle de savoir si la licence GNU Free Documentation est vraiment une licence libre (oui, c’est Debian qui décidait après un long débat, dans certaines occasions). Et encore récemment quand la FSF a créé la version 3 de la GPL, elle a pris soin de consulter les représentants de Debian.

Toute aigreur mise à part, en tant que distribution basée sur la communauté la plus répandue, Debian a donné une crédibilité supplémentaire à la reconnaissance du logiciel libre. Tout du moins Debian a-t-elle aidé à donner l’impression d’une communauté suffisamment grande pour avoir des différences. Aujourd’hui, cependant, alors que Debian est une distribution plus influente que jamais, une bonne part de la notoriété dont elle jouissait a été captée par sa dérivée Ubuntu. Et ce n’est pas la faute d’Ubuntu qui, soutenue par une entreprise commerciale qui doit rechercher le profit, n’hésite pas à renoncer à certains principes du logiciel libre par commodité

Avec cet allié et partenaire de la FSF qui devient moins influent, c’est toute la cause du logiciel libre qui s’est affaiblie. À défaut de mieux, la controverse et les débats avec Debian ont aidé à garder présents à l’esprit de la communauté les problèmes de principes.

4. Le défi des nouvelles technologies n’est pas relevé

De nouvelles technologies aient été introduites ces cinq dernières années. Or la stratégie majeure de la FSF a été de les dénoncer, puis de les ignorer. Ces derniers temps, Stallman a ainsi vilipendé l’informatique dans les nuages, les e-books, les téléphones mobiles en général et Android en particulier.

Dans chaque cas, Stallman a souligné à juste titre les problèmes concernant la vie privée et les droits du consommateurs, ce que les autres ont souvent oublié de mentionner. Le problème c’est qu’en continuant d’ignorer ces nouvelles technologies on ne résout rien, et que le mouvement du logiciel libre devient moins pertinent dans la vie des gens. Beaucoup sont attirés par ces nouvelles technologies, et d’autres sont contraints de les utiliser pour échanger, travailler et communiquer avec la majorité.

La licence libre Affero GNU GPL de la FSF devait etre tout indiquée pour l’informatique dans le nuage. Pourtant, selon les statistiques de Black Duck, elle n’est dans le fait que trop rarement utilisée, seulement 401 logiciel sont sous cette licence alors qu’il existe des centaines de milliers de logiciels sous licence libre. En persistant à mettre l’accent sur l’ordinateur de bureau traditionnel, le logiciel libre se tient à distance des technologies actuelles pour lesquelles justement il serait le plus nécessaire.

6. La scission de la licence GPL

En juin 2007, la FSF a publié la version 3 de la GPL. Cette mise à jour s’efforçait de prendre en compte les nouvelles technologies et les moyens de contourner les clauses de la version 2. Cette nouvelle version a été le résultat d’une concertation sans précédent entre la communauté et les entreprises parties prenantes.

Toutefois, cette consultation demandait d’atteindre un consensus. Lorsque Linus Torvalds a décidé que le noyau Linux resterait sous la GPLv2, la FSF est allée de l’avant vers la GPLv3 sans en tenir compte.

Sur le moment, la décision a paru sensée pour éviter une impasse. Mais on se retrouve actuellement avec une GPLv2 utilisée par 42,5% des logiciels libres contre moins de 6,5% pour la GPLv3 selon Black Duck.

Avant cette révision majeure, la licence GPL contribuait à unifier la communauté, et la FSF, en tant que créateur, promoteur et défenseur de la GPL, avait une forte présence en son sein. Or aujourd’hui, la GPLv2 est considérée comme la version que privilégient les supporters de l’open source, et la GPLv3 celle des défenseurs du logiciel libre. Et non seulement l’ensemble de la philosophie du logiciel libre en apparaît affaiblie, mais encore le fossé s’élargit entre logiciel libre et open source.

Plus encore, comme si la situation n’était pas déjà assez mauvaise, il semble qu’il y ait une tendance à adopter des licences permissives qui n’exigent pas le partage du code, comme le font toutes le versions de la GPL.

6. On n’assiste pas aux conférences

Richard Stallman et beaucoup d’autres membres de la FSF refusent de participer à des conférences qui n’utilisent pas l’expression exacte « GNU/Linux » en lieu et place du simple « Linux » dans leur intitulé et leur promotion. En fait Stallman est connu pour refuser de s’exprimer devant un groupe de journalistes qui n’utiliseraient pas la bonne nomenclature, c’est-à-dire la sienne (NdT : cf la librologie Les mots interdits de Richard Stallman).

La principale exception à ma connaissance est Eben Moglen, dont le travail à la Software Freedom Law Center implique beaucoup de gens qui se revendiquent comme des supporters de l’open source.

Je comprends que ce refus soit une question de principe. Cependant, en dépit de tous les moyens de communication qu’offre Internet, le contact et la communication directs demeurent importants pour la communauté. En maintenant coûte que coûte leurs idéaux, les défenseurs du logiciel libre se sont rendus invisibles, se coupant des réseaux sociaux et autres associations informelles qui émergent lorsque les gens se parlent dans la vraie vie.

7. Richard Stallman fait des gaffes

En tant que fondateur et principal porte-parole de la FSF, Richard Stallman a joué un rôle décisif dans l’histoire du logiciel libre. Personne ne peut le contester et personne ne reviendra là-dessus

Mais l’entêtement de Stallman, qui a aidé la diffusion et l’essor des principes du logiciel libre, semble maintenant à beaucoup un handicap. Stallman affiche de façon continuelle son obsession des définitions qui détournent des principaux points pour lesquels la liberté logicielle est nécessaire. De plus, ces temps-ci, il semble ne vouloir jamais rater la moindre occasion de critiquer, pas toujours avec pertinence, la philosophie de l’open source,

Pire encore, Stallman a tout un passé de gaffeur, sans jamais admettre avoir eu tort. En juillet 2009, il a suscité la controverse en refusant de retirer une remarque sexiste qu’il avait faite au Desktop Summit à la Grande Canarie. Plus récemment, Stallman notait à propos de Steve Jobs « je ne suis pas content qu’il soit mort, mais je suis content qu’il soit parti », puis il a précisé son propos quelques semaines plus tard. Le problème ce n’est pas qu’il ait eu tort d’accuser Jobs de rendre populaires des technologies fermées, c’est que beaucoup de gens ont trouvé que ses déclarations étaient indélicates et inopportunes en parlant d’un homme qui venait de mourir, et qu’un responsable d’organisation aurait dû montrer plus de bon sens et ne pas faire de suite de telles remarques.

Stallman est loin de représenter à lui seul l’ensemble du logiciel libre, mais force est de constater que beaucoup de gens ont une mauvaise opinion de ce mouvement à cause de lui.

Renverser la vapeur

Aucune des raisons mentionnées ci-dessus ici n’est fatale en elle-même. Cependant, additionnées, elles forment une longue trame sur laquelle on peut expliquer pourquoi les idéaux de la FSF et des logiciels libres exercent moins d’influence qu’auparavant.

En tant que supporter du logiciel libre, je ne peux qu’espérer que ce manque d’influence pourra être renversé. Cinq ans c’est court, et je ne vois aucune raison qui pourrait empêcher le logiciel libre de récupérer le temps et le terrain perdus.

Le seul problème est de savoir si les membres influents du logiciel libre vont admettre les problèmes et les corriger… Je l’espère, mais je ne suis pas très optimiste quant à la réponse.

Notes

[1] Crédit photo : Steve Winton (Creative Commons By)




Une communauté de pratique se cache-t-elle derrière votre site web ?

Felix E. Guerrero - CC by-saFramasoft se présente volontiers comme un réseau de sites web visant à faire connaître et diffuser le logiciel libre. Sauf qu’en s’arrêtant là rien ne le distingue à priori des autres sites web comme celui du télé-achat de TF1 par exemple.

En bout de chaîne tous ces sites proposent un service au visiteur mais il est intéressant de s’interroger sur la finalité de ce service et surtout la manière dont il a été motivé, imaginé et réalisé[1].

Seul dans son coin ou partie prenante d’une communauté de pratique ?

Telle est la petite réflexion-traduction du jour…

Une communauté de pratique est plus qu’un site web

A community of practice is more than a website

Steve Radick – 10 novembre 2011 – OpenSource.com
(Traduction Framalang : Lolo le 13, Julien et Pandark)

Une communauté de pratique (CoP, pour community of practice) est, d’après les anthropologues cognitifs Jean Lave et Etienne Wenger, un groupe de personnes qui partagent un intérêt, une compétence, et/ou une profession.

Au cours des dernières années, le terme de « communauté de pratique » est entré dans le lexique des mots à la mode des réseaux sociaux avec la collaboration virtuelle, l‘engagement, les plateformes, et l‘Entreprise 2.0. Les grands entrepreneurs veulent les implémenter, on demande aux nouveaux employés de les rejoindre, et on dit aux managers expérimentés de les soutenir, mais que sont-elles exactement ?

À aucun endroit dans la définition ci-dessus ne sont mentionnés les mots site web, wiki, blog, ou réseau social. Nulle part il n’est dit que cela doit être virtuel ou physique, ni même uniquement l’un des deux. Il n’y a pas de références aux outils qui sont utilisés pour faciliter la communication et la collaboration, et pas plus de définition d’un ensemble de caractéristique qui déterminerait comment une communauté de pratique fonctionne ou sur quels sujets portent les discussions.

Un groupe de gens qui partagent un intérêt, une compétence et/ou une profession. Ça semble assez simple, pas vrai ? Si on le présente ainsi, chacun pourrait dire qu’il est déjà membre d’une douzaine de communautés de pratique — au travail, à l’église, à l’école, etc. C’est simplement un groupe de gens qui communiquent et collaborent ouvertement autour d’un sujet qui leur tient à coeur. L’existence des CoPs est aussi ancienne que le désir des gens de faire et d’apprendre les uns des autres.

Ce n’est pas parce que toutes leurs communications et collaborations n’apparaissent pas sur votre site que les gens ne sont pas déjà en train de communiquer et collaborer dans les coulisses à propos de ce centre d’intérêt partagé. Les communautés de pratique sont vivantes et s’épanouissent dans la plupart des organisations.

Créez-vous une communauté de pratique ou allez-vous uniquement ajouter un site web de plus ? Comment votre CoP est-elle en phase avec certaines de ces hypothèses ci-dessous ?

  • Les gens passent du temps bénévole à aider les autres au sein d’une communauté de pratique. Les gens visitent un site pour télécharger ce dont ils ont besoin
  • Les CoPs se concentrent sur l’ajout de valeur pour leurs membres. Les sites se concentrent sur le fait d’avoir de nouveaux utilisateurs.
  • Le succès d’une CoP est mesurée avec des anecdotes vécues ensemble, des projets collectifs et la satisfactions de ses membres. Le succès d’un site est mesuré avec des hits, des visites et des références venant d’autres sites.
  • Le membre d’une CoP partage son expertise pour créer de nouvelles fonctionnalités. Un site rémunère des gens pour ajouter de nouvelles fonctionnalités.
  • Une CoP est construite autour des conversations. Un site est construit autour du contenu.

Des communautés de pratique nous ont entourés depuis des décennies et le feront encore pour des décennies, elles ont aidé d’innombrables organisations à faire des changements majeurs, à accroître leur efficacité, à supprimer les doublons et à rendre le travail plus agréable. Dans bien des cas, l’utilisation des réseaux sociaux a amélioré ces CoPs en leur donnant plus d’outils et de possibilités d’interconnecter les gens ensemble. Malheureusement, les réseaux sociaux participent également à séparer les gens en produisant du contenu singulier qui flatte avant tout leur ego.

Et vous que construisez-vous ?

Pour plus d’information à propos des communautés de pratique, voir « Culivating Communities of Practice : A Guide to Managing Knowledge », édité par Harvard Business School Press en 2002 par Étienne Wenger, Richard McDermott et William M. Snyder.

Notes

[1] Crédit photo : Felix E. Guerrero (Creative Commons By-Sa)




Les inspecteurs de l’éducation nationale convoqués chez Microsoft

Paris, mardi 22 novembre 2011, communiqué de presse.

À l’occasion du salon de l’éducation Éducatec-Éducatice 2011[1], les inspecteurs de l’Éducation nationale chargés de mission nouvelles technologies (IEN-TICE), conseillers techniques des inspecteurs d’académie, tiendront leurs journées annuelles. Cette année, l’administration centrale de l’Éducation nationale les convoque directement au siège de la société Microsoft, à Issy-les-Moulineaux. L’April et Framasoft regrettent vivement que le programme de ces journées ne mentionne pas les logiciels et ressources libres.

Pas moins d’une centaine d’IEN-TICE sont donc conviés au siège de Microsoft, le mardi 22 novembre, veille de l’ouverture du salon, pour une réunion dédiée aux technologies de cette entreprise[2].

Convocation IEN Microsoft

Convocation IEN Microsoft

Les journées se poursuivront ensuite jusqu’au 24 novembre, à la Porte de Versailles, selon un programme pré-établi qui semble faire la part belle aux technologies propriétaires.

Nous pensons, comme de nombreux enseignants, que le fait que les IEN-TICE soient convoqués chez Microsoft constitue une véritable entorse à l’indispensable neutralité scolaire[3]. Cela nous semble incompatible avec les missions et les valeurs du système éducatif et des enseignants, contraire à leur culture de diversité, de pluralisme, de diffusion et d’appropriation de la connaissance par tous. « Les IEN-TICE ont droit à une formation qui respecte la neutralité scolaire et le pluralisme technologique. En 2011, il est difficile d’ignorer les nombreux apports du libre pour l’éducation ou de les passer sous silence » estime Rémi Boulle, vice-président de l’April, en charge du groupe de travail Éducation.

Selon le programme, une table-ronde aura pour objectif de dégager les grandes tendances et les besoins qui se dessinent sur le plan des usages pédagogiques et des ressources numériques éducatives. Nous espérons que de nombreuses références seront faites aux ressources libres et que les questions de « l’exception pédagogique » et de l’incitation à la mutualisation sous licence libre seront évoquées.

Rappelons que, depuis longtemps, le monde du logiciel libre s’engage auprès du Ministère et aux cotés des professionnels de l’éducation, en faveur de l’égalité des chances, du droit à l’accès aux technologies les plus récentes, et pour la réduction de la fracture numérique.

De nombreuses associations et entreprises développent des ressources et des logiciels libres pour l’enseignement. Citons notamment, pour le premier degré, GCompris, les produits de la société Ryxéo ou ceux de DotRiver, les logiciels du Terrier développés par des enseignants pour des enseignants, FrenchKISS, OpenOffice4kids, le serveur d’exercices WIMS, édubuntu…

Ces solutions sont pérennes et bénéficient d’une large base d’utilisateurs dans les écoles françaises. Les logiciels libres constituent des solutions alternatives de qualité, et à moindre coût, dans une perspective de pluralisme technologique. Par ailleurs, ils favorisent l’emploi local.

Soulignons que le Ministère lui-même met à la disposition des enseignants le service SIALLE[4], une source d’informations sur l’offre en matière de logiciels libres éducatifs. Le Ministère est également impliqué dans le projet national et le pôle de compétences EOLE[5]. Enfin, un accord cadre[6] a été signé par le ministère de l’Éducation nationale en faveur de l’utilisation de logiciels et ressources libres dans l’éducation. Malgré tout, leur importance continue d’être minimisée par certains acteurs.

Dans l’intérêt des professeurs et des élèves, il aurait été indispensable que le programme des journées IEN-TICE prévoie au moins un espace dédié aux logiciels et ressources libres. C’est d’autant moins compréhensible que le salon fait toute sa place au programme Sankoré (un écosystème international, public et privé, de production de ressources numériques éducatives libres) qui concerne au premier chef l’enseignement primaire.

Nous nous tenons à la disposition des inspecteurs pour toute information complémentaire sur les logiciels et ressources libres pour l’éducation et leur souhaitons un riche salon Éducatec-Éducatice.

Notes

[1] Éducatec-Éducatice

[2] http://www.april.org/sites/default/files/convocation-IEN-TICE-Microsoft_1.png et http://www.april.org/sites/default/files/convocation-IEN-TICE-Microsoft_2.png

[3] Sur cette même thématique, on pourra lire avec profit le « Code de bonne conduite des interventions des entreprises en milieu scolaire »

[4] SIALLE

[5] http://eole.orion.education.fr/ : EOLE est tout un ensemble de modules développés pour les établissements scolaires. Citons Amon (pare-feu libre), Scribe (serveur pédagogique complet), Eclair (serveur de clients légers GNU/Linux qui permet de faire démarrer, depuis le réseau, des machines sans système d’exploitation installé), Amon Ecole…

[6] http://eduscol.education.fr/data/fiches/aful.htm : signé en 1998 entre l’AFUL et le Ministère. Il a été reconduit depuis.




Geektionnerd : Business Software Alliance

La nouvelle campagne de la BSA contre le « piratage » ne fait assurément pas dans la dentelle… plutôt dans la dénonciation même !

Remarque : Et hop, un petit détournement de bon aloi.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Le 11-11-11 ou le début du Siècle du Logiciel Libre

Chris McClanahan - CC by-saLe 11 novembre nous est une date bien connue parce qu’elle marque la fin de la Première Guerre mondiale.

Mais cette année, dans un format de date à 6 chiffres, elle s’écrira… 11-11-11, à savoir une magnifique et parfaite date binaire[1] !

Sans avoir beaucoup plus d’informations sur l’initiative, des internautes hispanophones libristes se proposent malicieusement de marquer le coup comme il se doit (à 11h11 si possible).

Nous leur avons emboîté le pas en traduisant l’appel glané sur le Web grâce à notre petite mais active section espagnole de Framalang (merci à Thibz et TV).

« Un autre logiciel est possible et il se trouve être Libre »

À propos du 11-11-11

Sobre el 11-11-11

Bonjour à toutes et à tous de la communauté du Logiciel Libre.

Un groupe de personnes et d’organisations de différents pays est en train de se former pour organiser une célébration le vendredi 11 novembre 2011.

En effet la date de ce jour (11/11/11) sera la dernière date binaire qu’il y aura avant longtemps, la prochaine date du même genre sera le 01/01/00 (ou 010100) en 2100.

Pour faire honneur à cette date clin d’œil du calendrier, nous avons décidé de nous réunir ce jour-là, non pas pour célébrer cette « dernière » date binaire, mais bien au contraire pour profiter de cette excuse numérique afin de célébrer « le début du siècle du Logiciel Libre ».

S’il s’agit bien d’une célébration symbolique, nous ne pouvons manquer cette occasion de partager ce moment sans doute unique dans nos vies. Un moment que l’on pourrait mettre à profit pour dynamiser le mouvement du Libre et chercher des points communs et d’appui entre les différentes communautés pour stimuler et développer les initiatives, diffuser les progrès et joindre nos efforts autour du Logiciel Libre, expression d’une culture solidaire, libératrice et engagée dans la défense des valeurs éthiques et des libertés fondamentales de la technologie, comme par exemple le droit pour toutes et tous à l’accès au savoir, la solidarité sociale et le principe fondamental de pouvoir partager.

Ce jour-là nous nous réunirons en groupes de personnes de différentes communautés dans différentes parties du monde pour célébrer le début du siècle du Logiciel Libre. Aujourd’hui (et depuis un certain temps déjà) on peut utiliser des distributions GNU/Linux sans composants privatifs pour nos tâches informatiques quotidiennes (à quelques exceptions près). Et avec l’aide de toutes et tous nous arriverons un jour à éliminer de notre société les systèmes de dépendance et de domination dont elle n’a pas besoin, et à créer des modèles novateurs de développement, de créativité et des opportunités pour stimuler les talents aux quatre coins de la planète.

Ce jour sera également l’occasion de persuader et convaincre beaucoup plus de personnes et de gouvernements de s’engager à adopter les technologies de l’information libres, et à offrir un plus grand soutien aux activistes, aux développeurs, aux associations, aux organisations et aux communautés du Logiciel Libre dans le monde, parce que « un autre logiciel est possible et il se trouve être Libre ».

Il y a plusieurs collectifs qui œuvrent pour le 11-11-11. Nous espérons être nombreux à accompagner cette célébration de forme libre et créative dans les réseaux sociaux, canaux IRC, listes de diffusion, radios et moyens alternatifs et communautaires, blogs et toute forme de communication.

Le 111111, vive la liberté d’être, de créer, connaître et partager… Ne manquez pas le rendez-vous… On vous attend !

Notes

[1] Crédit photo : Chris McClanahan (Creative Commons By-Sa)




Geektionnerd : ALAC

Apple rend son codec audio ALAC open-source.

Oui, bon, d’accord mais le FLAC est mieux 🙂

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)