L’industrie du Copyright – Un siècle de mensonge

Jonathan Powell - CC byDepuis plus d’un siècle les chiens du copyright aboient, la caravane qui transporte la création passe…

Piano mécanique, gramophone, radio, film parlant, télévision, photocopieuse, cassette audio, mp3, internet… à chaque fois qu’est apparu une nouvelle technologie, elle a drainé inévitablement avec elle sa cohorte de réactionnaires hostiles[1].

C’est alors toujours la même rengaine : on brandit la menace de la mort du message alors qu’il ne s’agit que de la mort des messagers qui profitaient du système précédent et qu’il y aura toujours des auteurs de messages.

Une nouvelle traduction de notre ami Rick Falkvinge qui rend optimiste quant à l’issue du combat actuel.

L’industrie du Copyright – Un siècle de mensonge

The Copyright Industry – A Century Of Deceit

Rick Falkvinge – 27 novembre 2011 – Torrent Freak
(Traduction Framalang / Twitter : Kamui57, Yoha, Goofy, Jean-Fred, e-Jim et FredB)

On dit qu’il faut étudier l’Histoire pour ne pas être condamné à répéter les erreurs du passé. L’industrie du copyright a ainsi appris qu’elle pouvait profiter de sa position de monopole et de rentière à chaque apparition d’une nouvelle technologie, simplement en se plaignant assez fort auprès des législateurs.

Ces cent dernières années ont vu l’apparition de nombreuses avancées techniques en matière de diffusion, de duplication et de transmission de la culture. Mais cela a également induit en erreur les législateurs, qui tentent de protéger l’ancien au détriment du nouveau, simplement parce que le premier se plaint. D’abord, jetons un œil à ce que l’industrie du copyright a tenté d’interdire, ou du moins taxer au seul motif de son existence.

Cela a commencé vers 1905, lorsque le piano mécanique est devenu populaire. Les vendeurs de partitions de musique ont affirmé que ce serait la fin de l’art s’ils ne pouvaient plus gagner leur vie en étant l’intermédiaire entre les compositeurs et le public, alors ils ont demandé l’interdiction du piano mécanique. Une célébre lettre de 1906 affirme que le gramophone et le piano mécanique seraient la fin de l’art, et de fait, la fin d’un monde vivant et musical.

Dans les années 1920, alors que la radiodiffusion émergeait, une industrie concurrente demanda son interdiction car elle rognait ses bénéfices. Les ventes de disques ont chuté de 75 millions de dollars en 1929 à 5 millions seulement 4 ans plus tard — une chute bien plus forte que ce que connaît actuellement l’industrie du disque. (à noter que la chute des bénéfices coïncide avec la crise de 1929) L’industrie du copyright a attaqué en justice les stations radio, et les entreprises de collecte ont commencé à récolter une part des bénéfices des stations sous couvert de frais de diffusion. Des lois ont proposé d’immuniser le nouveau médium de diffusion qu’était la radio contre les propriétaires des droits d’auteur, mais elles n’ont pas été votées.

Dans les années 1930, les films muets ont été supplantés par les films avec des pistes audio. Chaque cinéma employait jusque-là un orchestre pour jouer la musique accompagnant les films muets ; désormais, ceux-ci étaient au chômage. Il est possible que cela fût le pire développement technologique pour les musiciens et interprètes professionnels. Leurs syndicats demandèrent des emplois garantis pour ces musiciens, sous différentes formes.

Dans les années 1940, l’industrie du cinéma s’est plainte de ce que la télévision entraînerait la mort du cinéma, alors que les recettes de l’industrie cinématographique avaient plongé de 120 millions de dollars à 31 millions en cinq ans. Une citation célèbre : « Pourquoi payer pour aller voir un film lorsque vous pouvez le regarder gratuitement chez vous ? »

En 1972, l’industrie du copyright a tenté d’interdire la photocopieuse. Cette campagne venait des éditeurs de livres et magazines. « Le jour n’est peut-être pas loin où personne n’aura à acheter de livres. »

Les années 1970 ont vu l’arrivée de la cassette audio, et c’est à cette période que l’industrie du copyright s’est acharnée à revendiquer son dû. Des publicités scandant « L’enregistrement maison tue la musique ! » étaient diffusées partout. Le groupe Dead Kennedys est connu pour y avoir répondu en changeant subtilement le message en « L’enregistrement maison tue les profits de l’industrie musicale », et « Nous laissons cette face (de la cassette) vierge, pour que vous puissiez aider.»

Les années 1970 ont également été un autre tournant majeur, où les DJ et haut-parleurs ont commencé à prendre la place des orchestres de danse. Les syndicats et l’industrie du copyright sont devenus fous furieux et ont suggéré une « taxe disco » qui serait imposée aux lieux qui diffusent de la musique disco enregistrée, pour être collectée par des organisations privées sous mandat gouvernemental et redistribuées aux orchestres. Cela fait rire de bon cœur de nos jours, mais les rires tournent court lorsqu’on apprend que la taxe disco a réellement été créée, et existe toujours.

Les années 1980 sont un chapitre singulier avec l’apparition des enregistreurs sur cassettes. Depuis cette période, la célèbre citation du plus haut représentant de l’industrie du copyright prononcée au Congrès des États-Unis d’Amérique « Le magnétoscope est aux producteurs et au public américain ce que l’Étrangleur de Boston est à la femme seule au foyer » est entrée dans la légende. Malgré tout, il faut garder à l’esprit que l’affaire Sony-Betamax est allée jusqu’à la Cour suprème des Etats-Unis, et que le magnétoscope n’a jamais été aussi proche d’être écrasé par l’industrie du copyright : l’équipe du Betamax a gagné l’affaire par 5 votes à 4.

Toujours à la fin des années 1980, nous avons assisté au flop complet de la Digital Audio Tape (DAT), principalement parce que l’industrie du copyright a été autorisée à orienter la conception en faveur de ses intérêts. Cette cassette, bien que techniquement supérieure à la cassette audio analogique, empêchait délibérément la copie de musique, à un point tel que le grand public la rejeta en bloc. C’est un exemple de technologie que l’industrie du copyright a réussi à tuer, bien que je doute que cela ait été intentionnel : on a simplement exaucé leurs vœux sur le fonctionnement du matériel afin de ne pas perturber le statu-quo.

En 1994, la Fraunhofer-Gesellschaft publia un prototype d’implémentation de sa technique de codage numérique qui devait révolutionner l’audio numérique. Elle rendait possible des fichiers audio de qualité CD n’occupant qu’un dixième de cet espace, ce qui était très apprécié à cette époque où un disque dur typique ne faisait que quelques gigaoctets. Connu sous le nom technique de MPEG-1 Audio Layer III, il a rapidement été connu sous le nom de « MP3 » dans la vie courante. L’industrie du copyright s’est encore plainte, le qualifiant de technologie ne pouvant être utilisée qu’à des fins criminelles. Le premier lecteur de MP3 à succès, le Diamond Rio, a vu le jour en 1998. Il avait 32 mégaoctets de mémoire. Malgré des bonnes ventes, l’industrie du copyright a attaqué son créateur, Diamond Multimedia, jusqu’à l’oubli : alors que le procès était invalidé, l’entreprise ne s’est pas remise du fardeau de sa défense. Les avocats de ces industries ont agressivement tenté d’obtenir l’interdiction des lecteurs MP3.

À la fin du siècle, les apôtres du copyright firent pression en faveur d’une nouvelle loi aux États-Unis, le Digital Millennium Copyright Act (DMCA), qui aurait tué Internet et les média sociaux en introduisant la responsabilité de l’intermédiaire — tuant dans l’œuf les réseaux sociaux. C’est seulement avec de gros efforts que l’industrie technologique a évité le désastre en introduisant une « responsabilité amoindrie » qui protège les hébergeurs à condition que ceux-ci dénoncent les utilisateurs finaux sur demande. Internet et les media sociaux ont échappé de très peu au massacre opéré par l’industrie du copyright, et n’en sont pas encore pleinement remis.

Juste après le début du nouveau siècle, l’utilisation des enregistreurs numériques était considérée comme du vol car elle permettait d’éviter les coupures publicitaires (comme si personne ne faisait cela avant).

En 2003, l’industrie du copyright a tenté de s’immiscer dans le design de la HDTV, avec un « broadcast flag » (littéralement « marqueur de diffusion ») qui aurait rendu illégale la fabrication de matériel capable de copier des films ainsi marqués. Aux États-Unis, la FCC (« Federal Communications Commission » ? « Commission fédérale des communications ») a miraculeusement accédé à cette demande, mais le projet a été réduit en cendres par les juges, qui ont déclaré qu’elle avait outrepassé ses prérogatives.

Ce que nous avons là, c’est un siècle de mensonges, un siècle qui met au grand jour la culture interne propre à l’industrie du copyright. Chaque fois qu’une nouveauté est apparue, l’industrie du copyright a appris à pleurer comme un bébé affamé, et a presque à chaque fois réussi à faire en sorte que le législateur dirige vers elle l’argent du contribuable ou restreigne les industries concurrentes. Et à chaque fois que l’industrie du copyright réussit à le faire, ce comportement s’en est trouvé encore renforcé.

Il est plus que temps que l’industrie du copyright perde ses privilèges, chacune des redevances qu’elles perçoit et qu’elle soit expulsée de son nid douillet pour se mettre au boulot et apprendre à opérer sur un marché libre et équitable.

Notes

[1] Crédit photo : Jonathan Powell (Creative Commons By)




Google Chrome deviendra-t-il un nouvel IE6 ?

Denis Dervisevic - CC byBon ben voilà, c’est fait, le navigateur Google Chrome est passé devant Firefox au niveau mondial la semaine dernière. En France cela résiste plutôt bien, mais pour combien de temps encore ?

Ce qui avait été prédit ici-même il y a deux ans, alors que Chrome n’avait à peine que 6% du marché, s’est malheureusement révélé exact : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien (avec plus de 200 commentaires à la clé).

Dans cet article on pouvait lire en outre ce passage : « Pour ne rien arranger, rappelons également la situation schizophrénique et paradoxale des ressources de la Mozilla Foundation apportées à plus de 90% par l’accord avec… Google ! Quand vous dépendez financièrement d’un partenaire qui se transforme jour après jour en votre principal concurrent, vous vous sentez légèrement coincé aux entournures ! »

Or justement, nous y sommes, car une grosse inquiétude plane actuellement sur la reconduction du partenariat, rendant plus compliquée encore la situation[1].

Mais il y a pire. Comme relatée dans la traduction ci-dessous, Google, conforté par sa position de plus en plus dominante, commence à tomber dans le côté obscur de la force pour proposer des services « optimisés » pour Chrome (comprendre qui marche mieux ou qui marche tout court dans Chrome et uniquement dans Chrome). Gmail, Google Docs, Google Maps, etc. et si un jour vous vous retrouviez contraint de surfer sous Chrome pour utiliser pleinement ces services ?

Ce serait une belle régression et une belle menace pour un Web libre, neutre et ouvert. Et alors la comparaison avec le tristement célèbre Internet Explorer 6 n’est pas si exagérée que cela !

Pour aller plus loin et continuer à prendre garde, on pourra parcourir les articles du tag Chrome du Framablog.

Google Chrome est-il le nouveau IE6 ?

Is Google Chrome the New IE6?

Michael Muchmore – 2 décembre 2011 – PC Mag
(Traduction Framalang : Poupoul, Goofy, Pandark, Marting, Duthils, Toufalk et Deadalnix)

Laissez moi vous parler d’un navigateur. Un navigateur innovant qui fut le premier à implémenter de nouvelles technologies Web permettant une meilleure interactivité. Un navigateur avec une nouvelle interface étonnante. Chrome ? Non, Internet Explorer 6.

Il y a une raison pour laquelle le navigateur de Microsoft prit 95 pour cent du marché des navigateurs Web à Netscape (l’ancêtre de Firefox) : IE6 pouvait faire des choses dont ses prédécesseurs étaient incapables. Il y avait le HTML dynamique, le langage CSS, et même (oui, oui) de nouvelles fonctionnalités en matière de sécurité.

Mais d’années en années, ces fonctionnalités uniques ont montré un tout autre visage. Tous les principaux sites web ont cherché à s’optimiser pour IE, à tel point que ces sites ne fonctionnaient plus correctement avec d’autres navigateurs.

Avançons rapidement jusqu’en 2011. Le nouveau navigateur à la mode s’appelle Google Chrome, qui, d’après StatCounter, vient juste de dépasser l’ex-favori indépendant Firefox en part de marché globale. Chrome peut faire des choses dont les autres navigateurs sont incapables, et Google ne connaît plus que Chrome, ce qui signifie que certains des sites de Google ne fonctionnent intégralement que dans Chrome. Même aujourd’hui, vous pouvez lire sur le blog de Google qu’il existe de nouveaux niveaux d’Angry Birds qui ne fonctionnent que dans Chrome.

C’est perturbant, quand on considère tout ce que Google a fait pour l’ouverture du Web ; Google n’existerait pas si de vrais standards ouverts n’existaient pas sur le Web. Mais de plus en plus, Chrome devient un portail vers les services Google, jusqu’à la mise au ban d’autres navigateurs.

Bien sûr, tout le monde peut faire un site web qui fonctionne sous Chrome, donc il est, d’une certaine façon, ouvert. Mais si ces sites fonctionnent uniquement sous Chrome et plus sous les autres navigateurs, nous avons un manque d’ouverture dans l’écosystème du Web. De même, tout le monde pouvait produire un site qui fonctionnait parfaitement avec IE6, mais nous avons aussi le même problème : le site ne fonctionnera pas complètement dans les autres navigateurs.

Des cas de services Google utilisables uniquement avec Chrome sont en train d’apparaitre. Très récemment, avec la sortie de Chrome 15, le leader de la recherche sur Internet a changé juste une petite fonctionnalité de l’interface — la page d’un nouvel onglet. Et il l’a fait de manière à promouvoir le « Chrome Web Store » de l’entreprise. Cet « app » store — les apps étant en fait tout simplement des sites Web — ne fonctionne qu’avec Chrome. Avant ça, la société annonçait enfin la possibilité d’utiliser le service de webmail Gmail hors-ligne. Et devinez quoi ? Ça ne fonctionne que si vous utilisez Chrome.

Ce ne sont pas les seuls exemples de services de Google à ne fonctionner que sous Chrome ; il y a aussi, parmi tant d’autres, Google Instant Page, Google Cloud Print, le glisser-déposer et l’upload de dossiers dans Google Docs, les notifications des évènements du calendrier et des emails de Google Apps.

Un autre « standard », SPDY, pourrait transformer le Web en Google Wide Web (NdT : référence au World Wide Web). SPDY est un remplacement à HTTP qui compresse les données d’en-tête et permet des connexions persistantes entre le serveur et les navigateurs. Il s’avère que certains sites de Google utilisent déjà SPDY lorsque vous naviguez avec Chrome. De même que pour les Instant Pages, la technologie est disponible à l’implémentation pour les éditeurs Web, mais encore une fois, Google lui-même est le seul acteur majeur à le supporter. Un bon truc, des interactions Web plus rapides, mais n’oublions pas qu’un accès universel avec n’importe quel logiciel est la raison première pour laquelle le Web a décollé.

Cette stratégie prend l’exemple de Microsoft pour IE6 et l’étend à une échelle beaucoup plus grande. Le client Web Outlook (premier exemple majeur de site utilisant massivement Ajax, proche d’une app) ne permettait d’utiliser la fonctionnalité de recherche dans votre boîte de réception que si vous utilisiez Internet Explorer. C’est exactement ce que Google a commencé à faire : offrir un service Web qui fonctionne presque dans tous les navigateurs, mais nécessite le navigateur de l’entreprise pour fonctionner complètement. Heureusement, Microsoft a abandonné ces fonctionnalités réservées à IE. Espérons que Google en fera de même.

Lors d’une discussion que j’ai eu récemment avec Hakum Lie, directeur technique du développeur de navigateur Opera Software, le scandinave s’est inquiété de la démarche de Google.

« Il arrive souvent que Google lance des services sans les tester dans tous les navigateurs. On se réveille parfois un matin avec un nouveau service Google dont certains bugs auraient pu être corrigés s’ils avaient travaillé avec nous pendant la phase de developpement » a dit Lie. « Maintenant qu’ils ont leur propre navigateur, ils pensent moins à s’assurer que tout marche pour tout le monde, ce qui est préoccupant parce que Google n’aurait pas existé sans des standards ouverts. Nous serions probablement restés dans le giron de Microsoft ».

Mais Lie reconnaiît que Google a contribué aux standards du Web, « Certaines de ces expériences sont géniales », dit-il. « Nous avons besoin d’expérimentations de ce genre et on ne peut pas exiger que tout fonctionne avec tous les navigateurs. Mais vous devriez tester avec les navigateurs les plus populaires ».

Les Chromebook sont encore plus verrouillés et privateurs de liberté puisque ce ne sont quasiment que des navigateurs dans des boîtes vides. « Ce que nous reprochons au Chromebook c’est qu’il s’agit d’une plateforme très fermée », dit Lie. « Nous avons râlé après Microsoft pendant toutes ces années, mais avec Windows, vous pouviez au moins créer un navigateur concurrent ».

On pourrait dire la même chose pour les machines Apple tournant sous iOS, comme les iPads. Mais bien que les Chromebooks ne soient pas aussi populaires que les iPad, si un jour tous les ordinateurs sont des Chromebooks, le choix du navigateur et l’ouverture seront des concepts appartenant au passé.

Comme toutes les multinationales, Google veut être le premier partout où elle le peut. Elle a déjà réussi dans la recherche en ligne. Ne vous méprenez pas, Google a fait un boulot fantastique. Chrome ne serait pas aussi populaire si ce n’était pas le cas. C’est mon choix en tant qu’éditeur de PCMag parce qu’il est beaucoup plus rapide que ses prédecesseurs. L’arrivée de Chrome sur la scène a obligé tous les autres navigateurs à s’améliorer. J’espère seulement que ces améliorations n’entraveront pas l’ouverture et l’interopérabilité.

Notes

[1] Crédit photo : Denis Dervisevic (Creative Commons By)




L’Islande, la crise, la révolution et moi

Laurent Gauthier - CC byL’article que nous vous proposons traduit aujourd’hui est hors-sujet par rapport à ce que nous publions habituellement. Il est de plus sujet à caution car certainement un peu simpliste voire angélique dans son propos et ses arguments.

Il n’empêche qu’il a été aussitôt retweeté cet été par Naomi Klein : « #Iceland is proving that it is possible to resist the Shock Doctrine, and refuse to pay for the bankers crisis ».

Il n’empêche surtout qu’il s’est passé des choses intéressantes en Islande depuis la crise monétaire de 2008. Et il est étonnant de constater le peu d’entrain de nos grands médias pour en parler, alors que c’est nous que la crise frappe désormais de plein fouet.

En agissant en conséquence, peut-on dire symboliquement « non à la Banque, oui à la Démocratie ! » comme on dirait « non au Logiciel Propriétaire, oui au Logiciel Libre ! » ou encore « non à l’Hadopi, oui au Partage ! » ?

Il fallait oser cette dernière phrase ! J’ai osé, en cherchant (désespérément) le lien avec la ligne éditoriale du Framablog 🙂

Une oppression, suivie de tentatives de libération témoignant qu’il est possible de s’engager dans une autre direction. Ce que nous dit l’Islande[1] ici c’est qu’il n’y a pas forcément une fatalité à subir les logique de la finance mondiale et qu’on peut rebondir en impliquant les citoyens.

Ou alors continuons à laisser les experts travailler, ces gens sérieux qui eux seuls savent ce qui est bon pour nous…

Pour en savoir plus (rapidement) sur ce projet de nouvelle « Constitution collaborative », on pourra voir ce reportage glané sur YouTube et parcourir ce récent billet beaucoup plus pragmatique que romantique d’Owni. N’oublions pas non plus que l’Islande se trouve à la pointe des expérimentation sur la liberté d’expression à l’ère d’Internet.

Et pour une critique directe de l’article ci-dessous, on pourra lire A Deconstruction of “Iceland’s On-going Revolution”.

La révolution en marche de l’Islande

Iceland’s On-going Revolution

Deena Stryker – 1 août 2011 – Daily Kos
(Traduction Framalang : Lolo le 13, Goofy, Pandark et Yonnel)

Un reportage à la radio italienne à propos de la révolution en cours en Islande est un exemple frappant du peu d’intérêt de nos médias pour le reste du monde. Les Américains se rappeleront peut-être qu’au début de la crise financière de 2008, l’Islande a littéralement fait banqueroute. Les raisons ont été indiquées seulement en passant, et depuis, ce membre peu connu de l’Espace économique européen est retourné aux oubliettes de l’info.

Alors même que l’un après l’autre chaque pays européen tombe ou risque de tomber, mettant en péril l’euro, avec des répercussions dans le monde entier, la dernière chose que les puissants souhaitent est que l’Islande devienne un exemple. Voici pourquoi.

Cinq ans de régime néo-libéral strict avaient fait de l’Islande (dont la population compte 320 000 habitants, et qui n’a pas d’armée) un des pays les plus riches au monde. En 2003 toutes les banques du pays furent privatisées, et dans un effort pour attirer les investisseurs étrangers, elles ont proposé des services en ligne dont le faible coût permettait d’offrir des taux de rendement relativement élevés. Les comptes titres, appelés IceSave, attiraient énormément de petits épargnants anglais et néerlandais. mais à mesure que les investissements croissaient, la dette extérieure des banques augmentait aussi. En 2003 la dette de l’Islande équivalait à 200 fois son PNB, et en 2007, elle était de 900%. La crise financière mondiale de 2008 fut le coup de grâce. Les trois principales banques islandaises, Landbanki, Kapthing and Glitnir, se retrouvèrent sur la paille et furent nationalisées, pendant que la couronne islandaise perdait 85% de sa valeur par rapport à l’euro. À la fin de l’année l’Islande se déclara en banqueroute.

Contrairement à ce qu’on pouvait imaginer, la crise finit par permettre aux Islandais de retrouver leurs droits souverains, grâce à un processus de démocratie participative directe qui aboutit à une nouvelle constitution. Mais ce ne fut pas sans mal.

Geir Haarde, le premier ministre de la coalition gouvernementale social-démocrate, négocia un prêt de deux millions cent mille dollars, auquel les pays scandinaves ajoutèrent deux autres millions et demi. Mais les marchés financiers firent pression sur l’Islande pour lui imposer des mesures drastiques. Le FMI et l’Union européenne voulaient récupérer sa dette, prétendant que c’était la seule façon pour le pays de rembourser les Pays-Bas et la Grande-Bretagne, qui avaient promis de rembourser leurs citoyens.

Les manifestations et les émeutes continuèrent, et finirent par contraindre le gouvernement à démissionner. Des élections anticipées eurent lieu en avril 2009, portant au pouvoir une coalition de gauche qui condamnait le système économique néolibéral, mais qui posa comme exigence immédiate que l’Islande devrait rembourser un montant de trois millions et demi d’euros. Ce qui revenait à demander à chaque citoyen islandais la somme de 100 euros par mois pendant quinze ans, à un taux de 5,5%, pour rembourser une dette contractée par des sociétés privées auprès d’autres acteurs privés. C’était la goutte d’eau qui fit déborder le vase.

Ce qui s’ensuivit fut extraordinaire. On croyait que les citoyens devaient payer pour les erreurs des monopoles financiers, et qu’une nation tout entière devait subir des impôts pour rembourser des dettes privées, mais ce mythe vola en éclats. Cela changea complètement la relation entre les citoyens et leurs institutions politiques et en définitive les dirigeants islandais se retrouvèrent du côté de leurs électeurs. Le chef d’État, Olafur Ragnar Grimsson, refusa de ratifier le décret qui aurait rendu les citoyens islandais responsables des dettes des banques, et il accepta de recourir à un référendum.

Bien sûr, la communauté internationale ne fit qu’augmenter la pression sur l’Islande. La Grande-Bretagne et la Hollande la menacèrent d’affreuses représailles qui isoleraient le pays. Alors que les Islandais allaient voter, les banquiers étrangers menacèrent de bloquer toute aide du FMI. Le gouvernement britannique menaça de geler l’épargne et les comptes courants islandais. Comme l’a dit Grimsson : « On nous avait dit que si nous refusions les conditions de la communauté internationale, nous deviendrions le Cuba du Nord. Mais si nous avions accepté, nous serions devenu le Haïti du Nord » (combien de fois ai-je écrit que les Cubains se considèrent chanceux en voyant l’état de leur voisin Haïti).

Au référendum de mars 2010, il y eut 93% des votes contre le remboursement de la dette. Le FMI gela immédiatement son prêt. Mais la révolution (bien que non télévisée aux États-Unis) ne saurait être intimidée. Avec le soutien des citoyens furieux, le gouvernement lança une procédure civile et pénale contre les responsables de la crise financière. Interpol lança un mandat d’arrêt international contre l’ex-président de Kaupthing, Sigurdur Einarsson, alors que les autres banquiers impliqués dans le krach fuyaient le pays.

Mais les Islandais ne s’arrêtèrent pas là : ils décidèrent de jeter les bases d’une nouvelle constitution qui libèrerait le pays du pouvoir outrancier de la finance internationale et de l’argent virtuel (la constitution en vigueur datait de l’époque où l’Islande avait acquis son indépendance vis-à-vis du Danemark, en 1918, et la seule différence avec la constitution danoise était que le mot « président » remplaçait le mot « roi »).

Pour écrire la nouvelle constitution, les Islandais élirent 25 citoyens parmi 522 adultes qui n’appartenaient à aucun parti mais étaient recommandés par au moins 30 citoyens. Ce document n’était pas le travail d’une poignée de politiciens, mais fut écrit sur Internet. Les réunions de la constituante sont diffusées en streaming et des citoyens peuvent envoyer leurs commentaires et suggestions, assistant à l’élaboration du document pas à pas. La constitution qui émergera finalement de ce procédé démocratique participatif sera soumise à l’approbation du parlement après les prochaines éléctions.

Certains lecteurs se souviendront que l’effondrement de l’économie agraire de l’Islande au neuvième siècle était détaillée dans le livre de Jared Diamond du même nom. Aujourd’hui, ce pays se relève de son effondrement financier par des moyens diamétralement opposés à ceux que l’on considère généralement inévitables, comme l’a confirmé hier la nouvelle présidente du FMI Christine Lagarde à Fareed Zakaria. On a dit au peuple grec que la privatisation de son secteur public était la seule solution. Et les peuples d’Italie, d’Espagne et du Portugal doivent faire face à la même menace.

Ils devraient jeter un coup d’œil du côté de l’Islande. En refusant de courber l’échine face aux intérêts étrangers, ce petit pays a fait savoir haut et fort que ce sont les peuples qui commandent.

Voilà pourquoi on n’en entend plus parler aux infos.

Notes

[1] Crédit photo : Laurent Gauthier (Creative Commons By)




Le code source du Kindle d’Amazon : Beaucoup de bruit pour rien, hélas !

goXunuReviews - CC byAmazon a publié récemment le code source du système d’exploitation de sa nouvelle tablette liseuse Kindle Fire basée sur Android.

D’aucuns ont salué cette libération et souhaité la bienvenue à Amazon dans le club de l’open source.

D’autres, comme ici la Free Software Foundation de Stallman (ou Numerama), ne sont pas dupes et demandent légitimement d’aller beaucoup plus loin.

Il y a un monde entre respecter les licences et contribuer effectivement à la communauté[1].

Le code source du Kindle d’Amazon : Beaucoup de bruit pour rien

Amazon’s Kindle source code: Much ado about nothing

Brett Smith – 30 novembre 2011 – FSF.org
(Traduction Framalang : Don Rico et Goofy)

Il y a eu cette semaine beaucoup de battage concernant la mise à disposition par Amazon du code source du logiciel de ses Kindle, incluant le Kindle Fire. Cette médiatisation à outrance est en grande partie injustifiée. Certes, on peut télécharger le code source qu’Amazon a été dans l’obligation légale de publier, mais la plupart des logiciels sur ces appareils restent privateurs, et chaque Kindle est encore « Defective by Design » (NdT: Défectueux par conception).

La principale source de confusion serait que le système d’exploitation du Kindle Fire est basé sur Android. Google distribue le code source d’Android sous licence Apache, une licence de logiciel libre qui n’est pas copyleft. En général, les appareils tournant sous Android comprennent aussi quelques logiciels non-libres, mais le code source suffit à créer un système d’exploitation libre et riche en fonctionnalités. Le projet Replicant en est la preuve : il vise à créer des systèmes entièrement libres pour divers appareils Android.

Lorsque Amazon a publié le code source de son Kindle Fire, certains journalistes semblent avoir présumé que l’étendue de cette publication serait similaire à celles de Google. Il n’en est rien – Amazon a seulement publié le code source des programmes placés sous licence GPL (GNU General Public Licence) et LGPL (Lesser General Public License). Ces licences exigent toutes deux d’Amazon qu’elle mette à disposition ce code source, afin qu’elle puisse distribuer les logiciels du Kindle Fire couverts par ces mêmes licences. Amazon s’est contenté de respecter ces obligations légales précises, sans aller plus loin. Aucune ligne du code source publié par Amazon n’est propre à Android, et n’inclut en aucun cas la moindre modification apportée par Amazon à l’interface utilisateur d’Android.

En outre, publier cette quantité minimale de code source ne résout en rien la question des Gestions de Droits Numériques (Digital Restrictions Management / DRM) d’Amazon. Les logiciels privateurs présents sur le Kindle empêchent toujours les utilisateurs de copier et de prêter les livres et les différents médias qu’ils ont pourtant achetés. Il est néanmoins possible que ce code source facilite la tâche de hackers (NdT : bidouilleurs) entreprenants qui souhaiteraient installer de nouveaux logiciels sur ces appareils en se débarrassant des DRM, mais personne ne devrait avoir à fournir des efforts herculéens dans le seul but de jouir des droits que leur aurait conféré un livre imprimé. Le meilleur moyen d’échapper à ces restrictions draconiennes des DRM est de refuser d’acheter un Kindle. Toutes nos critiques passées à l’encontre du Kindle et de son caractère « Défectueux par conception » restent d’actualité.

Si Amazon tient vraiment à faire un coup médiatique, elle devrait abandonner ses DRM et faire en sorte que tous les logiciels présents sur le Kindle soient des logiciels libres. Cela permettrait aux possesseurs de Kindle d’utiliser leur appareil et leurs médias comme bon leur semble. Voilà qui représenterait un véritable changement pour cette entreprise. La publication de code source dont elle s’est fendue n’a rien d’une telle révolution : Amazon ne fait que se conformer à une obligation légale (ce qu’elle fait depuis la première version du Kindle), et cela ne mérite même pas un entrefilet.

Notes

[1] Crédit photo : goXunuReviews (Creative Commons By)




Encourager ou criminaliser le jailbreaking ? Un choix de société !

FHKE - CC by-saDrôle de monde que celui dans lequel nous vivons et qui entrave à tous les étages le partage et le bidouillage.

Parce que déverrouiller son iPhone ou son Android n’est pas qu’un jeu gratuit pour hackers malfaisants. Il permet, mais si, mais si, de favoriser l’innovation, d’améliorer la sécurité et d’assurer une meilleure protection de ses données personnelles.

Cela répond également à la légitime curiosité d’aller regarder sous le capot pour comprendre comment les choses fonctionnent[1].

Messieurs les censeurs, écoutez l’appel de l’Electronic Frontier Foundation, et cessez de criminaliser des pratiques utiles à la communauté. Et ne nous y trompons pas, derrière ce petit problème technique se cache (n’ayons pas peur des mots) un véritable choix de société.

Pourquoi Apple, Sony, Amazon, Microsoft et les autres devraient encourager le jailbreaking

Why Apple (and Sony, Amazon, Microsoft etc.) Should Support Jailbreaking

Trevor Timm – 2 décembre 2011 – EFF.org
(Traduction Framalang : Goofy, Clochix et Poupoul2)

Hier l’Electronic Frontier Foundation a demandé à l’administration du Copyright des États-Unis d’accorder une exemption au Digital Millenium Act en faveur du droit de « jailbreaker » les smartphones, les tablettes et les consoles de jeux vidéos. Ces exceptions visent à épargner aux utilisateurs tout souci légal qui pourraient les empêcher de faire tourner des applications et des systèmes d’exploitation qui ne sont pas approuvés par le fabricant de l’appareil. Elles amendent la section 1201 du DMCA qui interdit tout contournement de « mesure technique qui contrôle effectivement l’accès à une œuvre protégée à ce titre ».

En 2009, malgré les cris d’orfraie et la vive opposition d’Apple, l’EFF a obtenu du bureau du Copyright le droit pour les utilisateurs de déverrouiller les iPhones et autres smartphones. C’est en partie grâce à cette disposition légale qu’une communauté en ligne très active s’est constituée autour du jailbreaking pour perfectionner à un degré incommensurable l’innovation, la sécurité, la confidentialité sur ces appareils.

Pourquoi donc Apple et les autres fabricants s’opposeraient-ils à ce processus ? Voilà une question intéressante. Quand Apple a combattu la première fois le droit légal de jailbreaker, la firme a prétendu que cela nuirait à son modèle économique en ruinant sa rentabilité. Pourtant les profits d’Apple atteignent des records jamais atteints selon toutes les statistiques fiables.

En réalité, loin de nuire à des entreprises comme Apple, la communauté autour du jailbreaking finit souvent par leur rendre service, dans la mesure où Apple et d’autres fabricants finissent par adopter de nombreuses fonctionnalités qui avaient été exclues dans un premier temps. Faisons une petite rétrospective de tous le bénéfices du jailbreaking à la fois pour les industriels et les utilisateurs de smartphones, et voyons pourquoi cette pratique devrait être étendue aux tablettes et consoles de jeux vidéos comme le PlayStation 3, la Wii de Nintendo et la XBox 360.

Innovation

À tous égards, la communauté du jailbreaking a formidablement amélioré l’ergonomie des smartphones. Ses membres ont par exemple développé des applications, d’abord rejetées par Apple, qui permettait aux anciennes versions de l’iPhone d’enregistrer des vidéos. Les jailbreakers ont également été les premiers à réussir à configurer le clavier pour qu’il se connecte sans fil au smartphone. Apple a par la suite adopté chacune de ces fonctionnalités.

Ce processus d’imitation a été reproduit pour un tas d’autres innovations initiées par la communauté du jailbreaking, depuis la conception de l’interface utilisateur jusqu’à la gestion des applications sur le téléphone. Comme l’a remarqué David Kravets du magazine Wired, « parmi ces bidouillages on trouve les notifications qui se replient, l’accès direct à la caméra depuis l’écran d’accueil verrouillé et la synchronisation sans fil, pour n’en citer que quelques-uns ».

Sécurité

Les améliorations de la sécurité développées par la communauté des jailbreakers protègent les utilisateurs de smartphones quand le fabricant tarde à régler les problèmes de vulnérabilité ou les néglige carrément.

Quand on a découvert une faille de sécurité à l’ouverture d’un fichier PDF par le navigateur de l’iPhone, Apple ne s’est pas pressé pour régler le problème. Les utilisateurs qui ne voulaient pas attendre que le fabricant s’en occupe avaient une meilleure façon de se protéger : débrider leur appareil et installer un correctif « non autorisé » créé par un développeur indépendant.

Mais la débâcle de DigiNotar en 2011 est le meilleur exemple pour expliquer pourquoi il est si vital de pouvoir déverrouiller un téléphone. Jusqu’à une époque récente, DigiNotar était une autorité de certification — une organisation qui émet des certificats numériques utilisés pour authentifier et sécuriser les communications entre différents services en ligne, comme les transactions de cartes de crédit. Mais en septembre, elle a été piratée et a commencé à émettre des certificats frauduleux, qui ont permis à des utilisateurs mal intentionnés de compromettre des terminaux et des services. Les premières versions d’Android ne se mettaient pas à jour automatiquement, ne laissant aux utilisateurs avec d’anciens systèmes d’exploitation d’autre recours que de déverrouiller leur téléphone pour pouvoir se protéger.

Confidentialité

Alors que les préoccupations sur le respect de la vie privée par les terminaux mobiles augmentent, la communauté des « déverrouilleurs de téléphones » a aussi été vitale en rendant le respect de la vie privée plus sécurisé lorsque les fabricants ne s’en souciaient pas.

Les ouvreurs de prisons numériques ont été les premiers à introduire une application non autorisée sur l’iPhone qui masque les messages apparaissant automatiquement sur l’écran pour signaler qui est aux alentours. Les déverrouilleurs ont également créé une modification du logiciel pour empêcher la journalisation d’informations détaillées sur la localisation de l’iPhone à laquelle se livrait Apple sans y avoir été autorisée. De même, sur Android, une application non autorisée appelée LBE Privacy Guard permet aux utilisateurs de chercher et surveiller les données sensibles auxquelles des applications tierces pourraient essayer d’accéder. Mais ces applications protectrices de la vie privée ne sont accessibles qu’aux utilisateurs qui déverrouillent leur terminal.

La popularité des tablettes a explosé au cours des dernières années, et l’EFF veut que les utilisateurs de terminaux comme l’iPad et le Nook bénéficient également de ce dont ont profité les utilisateurs de smartphones au cours des trois dernières années.

Mais ce n’est pas tout, nous réclamons également une exemption pour les consoles de jeu vidéo.

Consoles de jeux vidéo

Les fabricants de consoles de jeu comme la PlayStation 3, la Xbox et la Wii de Nintendo limitent également le système d’exploitation de l’utilisateur, et les options des logiciels, même lorsque rien ne prouve que d’autres programmes violeraient le copyright. L’exception que nous réclamons permettrait aux utilisateurs d’exécuter le système de leur choix sur leurs consoles, aussi bien que des applications « maison » écrites par eux-mêmes.

Les consoles de jeu vidéo ont des processeurs puissants qui peuvent permettre aux gens de les utiliser comme des alternatives peu coûteuses aux PC de bureau. Des chercheurs, et même l’armée des EUA, ont transformé des grappes de PS3 en puissants supercalculateurs, à l’époque où Sony permettait l’installation de systèmes d’exploitation alternatifs. Mais Sony a supprimé cette possibilité avec une mise à jour du firmware en 2010, et les PS3 ne peuvent désormais plus faire tourner Linux sans être déverrouillées. En fait, plus tôt cette année, Sony avait été jusqu’à poursuivre quelques chercheurs qui avaient publié des informations sur des trous de sécurité qui permettraient aux gens d’installer et de faire tourner Linux sur leur PS3 personnelle. Nous espérons que l’exception que nous cherchons à obtenir énoncera clairement que les gens ont le droit de faire tourner le système d’exploitation et les applications de leur choix sur leur machine.

L’EFF adjure Apple, Sony et les autres de soutenir cette demande d’exemption au DMCA pour améliorer l’expérience des utilisateurs et garantir la sécurité et la confidentialité de leurs données personnelles.

Notes

[1] Crédit photo : FHKE (Creative Commons By-Sa)




L’ordinateur personnel est mort pour laisser place à des prisons dorées ?

Victoria Reay - CC byQu’est-ce que Framasoft, si ce n’est au départ avant tout un vaste service se proposant de mettre en relation les développeurs et les utilisateurs (que l’on souhaite toujours plus nombreux) de logiciels libres.

Un service d’autant plus pertinent que l’on peut facilement installer et tester les logiciels et que les développeurs (dont on n’entrave ni la création ni l’innovation) se trouvent disséminés un peu partout sur le Web.

Le problème c’est qu’aujourd’hui tout ce processus est remis en cause par le développement conjoint du cloud et des appareils mobiles (smartphones, tablettes…) à qui l’on demande de ne venir s’abreuver qu’à une seule source dûment contrôlée : la boutique d’applications, ou apps, Apple ou Google. Pire encore, ces plateformes fermées ne se contentent pas de proposer des applications « logiciel », elle offrent également des applications « contenu ». Et c’est toute l’information qui se trouve prisonnière du bon vouloir de quelques sociétés (américaines) qui détiennent alors un pouvoir potentiel exorbitant.

Même des ses rêves hégémoniques les plus fous, Microsoft n’aurait osé envisager une telle situation pour ses PC Windows qui, en comparaison, apparaissent tout d’un coup bien plus ouverts qu’il ne l’étaient une dizaine d’années auparavant[1].

Certains appellent cela le progrès et célèbrent avec ferveur et dévotion le génial Steve Jobs à l’occasion de son triste départ. D’autres ne doivent pas s’en laisser compter, parce que quand la trappe sera définitivement refermée, il sera trop tard…

Jonathan Zittrain est professeur de droit et d’informatique à Harvard et est l’auteur de The Future of the Internet and How to Stop It.

L’ordinateur personnel est mort

The Personal Computer Is Dead

Jonathan Zittrain – 30 novembre 2011 – TechnologyReview
(Traduction Framalang : Clochix et Goofy)

Le pouvoir migre rapidement des utilisateurs finaux et des développeurs de logiciels vers les vendeurs de systèmes d’exploitation.

Le PC est mort. Le nombre croissant de terminaux mobiles, légers et centré sur le cloud n’est pas qu’une mue dans la forme. Au contraire, nous sommes en présence d’un transfert de pouvoir sans précédent des utilisateurs finaux et des développeurs logiciels d’un côté vers les vendeurs de systèmes d’exploitation de l’autre — et même ceux qui conservent leur PC sont emportés par ce mouvement. C’est un peu pour le meilleur, et beaucoup pour le pire.

C’est une transformation de produits en services. Les applications que nous avions l’habitude d’acheter tous les deux ou trois ans — comme les systèmes d’exploitation — sont désormais en relation permanente avec le vendeur, tant pour les utilisateurs finaux que pour les développeurs de logiciels. J’avais décrit cette mutation, motivée par un désir d’une meilleure sécurité et de plus de confort, dans mon livre de 2008 Le futur de l’Internet — et comment l’arrêter.

Pendant des années, nous avons utilisé avec plaisir un moyen simple de créer des logiciels et de les partager ou de les vendre. Les gens achetaient des ordinateurs généralistes, des PC y compris ceux qu’on appelle Mac. Ces ordinateurs étaient livrés avec un système d’exploitation qui s’occupait des tâches de base. Tout le monde pouvait écrire et exécuter un logiciel pour un système d’exploitation donné, et c’est ainsi que sont apparus une suite sans fin de tableurs, traitements de texte, messageries instantanées, navigateurs Web, clients de messagerie et jeux. Ces logiciels allaient du sublime au ridicule et au dangereux — pour en décider il n’y avait d’autre arbitre que le bon goût et le bon sens de l’utilisateur, avec un peu d’aide de sites Web rédigés par des passionnés d’informatique et des logiciels antivirus (cela fonctionnait tant que l’antivirus n’était pas lui-même un malware, chose qui a eu tendance à devenir fâcheusement monnaie courante).

Choisir un système d’exploitation (ou OS), c’était aussi faire le choix des logiciels qui y étaient attachés. Windows plutôt que Mac signifiait opter sur le long terme entre différentes collections de logiciels. Même si parfois un développeur offrait des versions de son logiciel pour chaque OS, migrer d’un OS à un autre signifiait qu’il fallait racheter ce logiciel.

C’est une des raisons pour lesquelles nous avons fini par avoir un OS dominant ces deux dernières décennies. Les gens étaient sous Windows, ce qui poussait les développeurs de logiciels à coder pour Windows, ce qui incitait davantage de gens à acheter Windows, ce qui le rendait encore plus attirant pour les développeurs, et ainsi de suite. Dans les années 90, les gouvernements américains et européens se sont lancées dans une bataille contre la position dominante de Microsoft, bataille légendaire et pourtant facilement oubliable vue d’aujourd’hui. Leur principal reproche ? Microsoft a faussé la concurrence entre son propre navigateur, Internet Explorer, et son principal concurrent de l’époque, Netscape Navigator. Microsoft a procédé en imposant aux fabricants de PC de s’assurer qu’Internet Explorer serait prêt à être utilisé sur le bureau de Windows lorsque l’utilisateur déballerait son ordinateur et l’allumerait (la fameuse icône du « E bleu »). Des années de procédure et un dossier de trois kilomètres de long peuvent se résumer en un péché original : un fabricant de système d’exploitation avait excessivement favorisé ses propres applications.

Lorsque l’iPhone est arrivé sur le marché en 2007, sa conception était bien plus restrictive. Aucun code étranger n’était autorisé sur le téléphone, toutes les applications installées étaient issues d’Apple. On n’y a pas pris garde sur le moment car ça n’était qu’un téléphone et non un ordinateur, et les téléphones concurrents étaient tout autant verrouillés. Nous comptions sur les ordinateurs pour être des plateformes ouvertes et considérions ces téléphones comme de simples appareils, plus proches des postes de radio, des téléviseurs et des percolateurs.

Puis, en 2008, Apple a annoncé un kit de développement logiciel pour l’iPhone. Les développeurs tiers étaient invités à créer des logiciels pour le téléphone, de la même manière qu’ils l’avaient fait pendant des années avec Windows et Mac OS. Avec une grosse différence : les utilisateurs ne pouvaient installer un logiciel sur leur téléphone que s’il était disponible dans la boutique Apple d’applications pour iPhone. Les développeurs devaient montrer patte blanche et être accrédités par Apple. Ainsi chaque application se trouvait être contrôlée et filtrée selon les critères propres, flous et changeants d’Apple. Par exemple, les applications qui émulaient ou même amélioraient les propres applications d’Apple n’étaient pas autorisées. Le péché originel de Microsoft était devenu bien pire. Le problème n’était pas de savoir si on pouvait acheter un iPhone sans le navigateur Safari d’Apple. Il était qu’aucun autre navigateur ne serait autorisé (et s’il était, il ne s’agissait que d’une tolérance ponctuelle d’Apple). Sans oublier que pas moins de 30% du prix de chaque application vendue pour l’iPhone (et de de toutes les transactions effectuées grâce à l’application) vont dans les poches d’Apple.

Même Microsoft, connu pour ses logiciels privateurs, n’aurait pas osé prélever une taxe sur chaque bout de code écrit par d’autres pour Windows, mais peut-être n’était-ce dû qu’au fait qu’en l’absence de connexion fiable à Internet dans les années 90, il n’y avait aucun moyen réaliste de le faire en gérant les achats et les licences. Quinze ans plus tard, c’est exactement ce qu’Apple a fait avec la boutique d’applications pour iOS.

En 2008, on pouvait penser que cette situation n’était pas aussi inquiétante que le comportement de Microsoft à l’époque de la guerre des navigateurs. D’abord parce que la part d’Apple dans le marché des téléphones mobiles n’avait rien à voir avec la domination de Microsoft sur le marché des systèmes d’exploitation pour PC. Ensuite parce qu’on était passé d’un système totalement verrouillé en 2007 à un système partiellement ouvert aux développeurs extérieurs. De plus, bien qu’Apple rejetât de nombreuses applications pour n’importe quelle raison (et que certains développeurs étaient suffisament apeurés par le couperet qu’ils confessaient avoir peur de dire publiquement du mal d’Apple), dans les faits des centaines de milliers d’application passaient la barrière. Enfin, indépendamment de la volonté de contrôle d’Apple, ces restrictions avaient au moins quelques bonnes raisons sécuritaires sur le papier, au moment même où le nombre croissant de logiciels malveillants voyait le monde du PC Windows glisser de l’anarchie au chaos. Une mauvaise frappe sur le clavier ou un mauvais clic de souris pouvait livrer tout le contenu du PC à un lointain créateur de virus. Apple était déterminé à ce que cela n’arrive pas avec l’iPhone.

À la fin de 2008, il y avait à priori encore moins de raisons de s’inquiéter : la place de marché pour le système Android de Google avait été inaugurée (NdT : Android Market), créant de la compétition pour l’iPhone avec un modèle un peu moins paranoïaque de développement d’applications par des tiers. Les développeurs devaient toujours s’enregistrer pour proposer des logiciels via la place de marché, mais une fois qu’ils étaient enregistrés, ils pouvaient diffuser leur logiciel immédiatement, sans que Google les contrôle. Il y avait encore une taxe de 30% sur les ventes, et les applications qui ne respectaient pas les règles pouvaient être supprimées rétroactivement de la place de marché. Mais il y avait et il y a toujours une grosse soupape de sécurité : les développeurs pouvaient donner ou vendre leurs applications directement aux possesseurs de terminaux Android, sous passer par Android Market. S’ils n’aimaient pas les règles de la place de marché, cela ne signifiait pas qu’ils devaient renoncer à atteindre les utilisateurs d’Android. Aujourd’hui, la part de marché d’Android est nettement supérieure à celle de l’iPhone (c’est l’inverse pour les tablettes, actuellement trustée par l’iPad à 97% mais de nouvelles tablettes arrivent, comme le Kindle Fire d’Amazon basé sur Android et le roi peut rapidement être démis de son trône).

Avec cette évolution positive et ces réponses apportées entre 2007 et 2011, pourquoi devrions-nous alors nous inquiéter ?

La principale raison relève de l’effet boule de neige du modèle de l’iPhone. Le modèle de la boutique d’applications est revenu comme un boomerang sur le PC. On trouve à présent une telle boutique pour le Mac qui correspond à celles de l’iPhone et de l’iPad, et elle comporte les mêmes restrictions. Certaines, acceptées car jugées normales dans le cadre d’un téléphone mobile, semblent beaucoup moins familières dans le monde de l’ordinateur de bureau.

Par exemple, les logiciels dans la boutique pour Mac n’ont pas le droit de modifier l’apparence de l’environnement du Mac. (Ironique de la part d’une compagnie dont un précédent slogan incitait les gens à penser différemment). Les développeurs ne peuvent ainsi ajouter une icône pour leur application sur le bureau ou dans le dock sans demander la permission à l’utilisateur, ce qui est un extraordinaire écho à ce qui a valu des ennuis à Microsoft (bien que dans le cas de Microsoft le problème était d’interdire la suppression de l’icône d’Internet Explorer, mais jamais Microsoft n’a essayé d’empêcher l’ajout d’icônes d’autres applications, qu’elles soient installées par le constructeur du PC ou par l’utilisateur). Les développeurs ne peuvent pas développer de fonctionnalités déjà présentes dans la boutique. Ils ne peuvent pas diffuser leur logiciel sous une licence libre, car les termes de ces licences entrent en conflit avec ceux de la licence d’Apple.

Les restrictions de contenus sont des territoires encore inexplorés. Du haut de sa domination du marché Windows, Microsoft n’a eu aucun rôle dans le choix des logiciels qui pourraient ou ne pourraient pas s’exécuter sur ses machines, et encore moins son mot à dire pour autoriser le contenu de ces applications à voir la lumière de l’écran. L’éditorialiste dessinateur Mark Fiore, lauréat du Prix Pulitzer, a ainsi vu son application iPhone refusée car elle contenait du « contenu qui ridiculisait des personnalités publiques ». Fiore était suffisamment connu pour que ce refus provoque des froncements de sourcils, et Apple est revenue sur sa décision. Mais le fait que des applications doivent de manière routinière être approuvées masque à quel point la situation est extraordinaire : des entreprises de technologies ont entrepris d’approuver, un à un, tous les textes, les images et les sons que nous sommes autorisés à trouver et utiliser sur les portails que nous utilisons le plus souvent pour nous connecter au réseau mondial. Est-ce ainsi que nous souhaitons que la culture se diffuse ?

C’est d’autant plus dérangeant que les gouvernements ont réalisé que ce cadre rend leur propre censure bien plus facile : alors que leur lutte pour arrêter la diffusion de livres, tracts et à présent de sites Web ressemblait au travail de Sisyphe, elle va de plus en plus se résumer à l’envoi de demandes de suppression aux gardiens des portails numériques. Soudain, les contenus dérangeants peuvent être supprimés en mettant la pression sur un intermédiaire technique. Lorsque Exodus International (« mobiliser le corps du Christ pour soigner par la grâce et la vérité un monde impacté par l’homosexualité ») a publié une application qui entre autres lançait des invectives contre l’homosexualité, ses opposants ne se sont pas contenté de mal la noter (il y avait deux fois plus de notations une étoile que cinq étoiles), mais ils ont également envoyé des pétitions à Apple pour lui demander de supprimer l’application. Apple l’a fait (NdT : cf cet article des Inrocks).

Précisons qu’à la différence de ses homologues pour iPhone et iPad, la boutique d’applications pour Mac n’est pas le seul moyen de mettre des logiciels sur un Mac. Pour l’instant, vous pouvez toujours installer des logiciels sans passer par la boutique. Et même sur l’iPhone et l’iPad, qui sont bien plus verrouillés, il reste le navigateur : Apple peut contrôler le contenu des applications (et de ce fait en être jugée responsable) mais personne ne semble penser qu’Apple devrait se lancer dans le contrôle, le filtrage et la restriction de sites Web que les utilisateurs du navigateur Safari peuvent visiter. Une question aux gens qui ont lancé la pétition contre Exodus : est-ce que vous seriez également favorables à une pétition demandant qu’Apple interdise aux utilisateurs de Safari d’aller sur le site Web d’Exodus ? Sinon, qu’elle différence faites-vous, puisque Apple pourrait très simplement programmer Safari pour implémenter de telles restrictions ? Y a-t-il un sens à ce que les épisodes de South Park puissent être téléchargés via iTunes, mais que l’application South Park, qui contient le même contenu, ait été bannie de l’App Store ?

Étant donné que des applications tierces peuvent toujours s’exécuter sur un Mac et sur Android, il faut se demander pourquoi les boutiques et les places de marché occupent une position aussi dominante (et suffisamment attractives pour que les développeurs acceptent de relever le défi de faire approuver leurs applications et de perdre 30% de leurs revenus) plutôt que de simplement vendre directement leurs applications. L’iPhone a des restrictions sur l’exécution de code tiers, mais les développeurs peuvent toujours, dans de nombreux cas, se débrouiller pour offrir les fonctionnalités via un site Web enrichi et accessible avec le navigateur Safari du téléphone. Très rares sont les structures qui ont cette démarche avec leurs développeurs. Le Financial Times est un de ces fournisseurs de contenus qui a retiré son application de la boutique iOS pour éviter de partager avec Apple les données de ses utilisateurs et ses profits, mais il est isolé dans le monde des médias.

La réponse réside peut-être dans des choses en apparence triviales. En effet, même un ou deux clics de plus peuvent dissuader un utilisateur de consommer ce qu’il avait l’intention de faire (une leçon que l’affaire Microsoft a mise en lumière, quand l’accessibilité d’Internet Explorer directement sur le bureau a été vue comme un avantage déterminant par rapport à Netscape que les utilisateurs devaient télécharger et installer). Le choix par défaut a tous les pouvoirs, un constat confirmé par le montant des accords pour choisir le moteur par défaut des navigateurs. Ce genre d’accords a fourni en 2010 à Mozilla, le créateur de Firefox, 97% de ses revenus, c’est-à-dire pas moins de 121 millions de dollars. La soupape de sécurité des applications « tout-terrain » semble moins utile lorsque les gens sont attirés par les boutiques et les places de marché pour chercher sans effort les applications dont ils ont besoin.

La sécurité est également un facteur à prendre en considération. Lorsqu’ils voient tant de logiciels malveillant dans la nature, les consommateurs peuvent vouloir déléguer le contrôle de leurs programmes aux vendeurs de systèmes d’exploitation. Il existe une grande variété d’approches pour gérer la question de la sécurité, certaines impliquant l’utilisation d’un bac à sable, c’est à dire d’un environnement protégé à l’intérieur duquel s’exécute le logiciel. L’exécution dans un bac à sable sera bientôt obligatoire pour les application de la boutique pour Mac. On trouvera plus d’informations sur le sujet et une discussion sur ses avantages et ses inconvénients, ici.

Le fait est qu’aujourd’hui les développeurs écrivent du code en veillant non seulement à ce qu’il soit acceptable par les consommateurs, mais aussi par les vendeurs. Aujourd’hui, si un développeur souhaite proposer une application, il va devoir nécessairement en passer par la place de marché Android de Google et par la boutique iOS d’Apple; aucun des deux ne peut remplacer l’autre. Les deux placent le développeur dans une relation de dépendance avec le vendeur du système d’exploitation. L’utilisateur aussi est mis en difficulté : si je migre de l’iPhone à Android, je ne peux pas emporter mes applications avec moi, et vice-versa. Et au fur et à mesure que le contenu est distribué par des applications, cela peut signifier que je ne peux pas non plus emporter avec moi mon contenu ! (ou, si je peux, c’est uniquement parce qu’il y a un autre acteur comme Amazon qui a une application qui s’exécute sur plus d’une plateforme, aggrégeant le contenu). On ne se libère ici de la relation suffocante avec Apple, Google ou Microsoft que grace à un nouvel entrant comme Amazon, qui a structurellement la dimension suffisante pour peser et faire la même chose.

L’avènement du PC et du Web ont été un formidable accélérateur de communication et d’innovation. Des myriades d’applications sont nées créant une relation directe entre développeurs et utilisateurs sur des myriades de sites Web. À présent l’activité s’agglutine autour d’une poignée de portails, deux ou trois fabricants de systèmes d’exploitation qui sont en position de gérer en continu toutes les applications (et leur contenu).

Les développeurs de logiciels et les utilisateurs devraient exiger davantage. Les développeurs devraient chercher des moyens d’atteindre leurs utilisateurs sans être entravés, via des plateformes ouvertes, ou en faisant pression sur les conditions imposées par les plateformes fermées. Et les utilisateurs, informés et avertis, ne doivent pas céder à la facilité et au confort, en retournant à l’esprit originel du PC.

Si nous nous laissons bercer, voire hypnotiser, par ces beaux jardins clos, nous passerons à côté des innovations que les gardiens de ces jardins refusent. Et nous pouvons nous préparer à une censure du code et des contenus qui aurait été impossible et inenvisageable quelques années auparavant. Nous avons besoin de nerds en colère.

Notes

[1] Crédit photo : Victoria Reay (Creative Commons By)




Le logiciel libre perd de son influence, la faute à la FSF de Stallman ?

Steve Winton - CC byVoici un billet un brin polémique qui affirme que le logiciel libre (et non l’open source) perd actuellement de son influence et que la Free Software Foundation de Richard Stallman en porte une lourde responsabilité.

Il est signé du chroniqueur Bruce Byfield que nous avons souvent traduit par le passé et qu’on ne peut soupçonner de troller pour troller. Il s’agit au contraire d’un réel et sincère amour déçu[1].

D’accord, pas d’accord ? Trop américano-centré ? En France, en Europe, il en va différemment ? Le logiciel libre se résume-t-il à la FSF ? etc. Il va sans dire que nous vous attendons dans les commentaires sinon c’est pas drôle 🙂

7 raisons qui expliquent pourquoi le logiciel libre perd de son influence

7 Reasons Why Free Software Is Losing Influence

Bruce Byfield – 22 Novembre 2011 – Datamation
(Traduction Framalang : Goofy)

Pourquoi les idéaux du logiciel libre sont-ils moins populaires qu’il y a cinq ans ? La réponse n’est pas évidente et un peu polémique.

Il y a cinq ans, quand la majeure partie du code Java a été publiée sous licence GPL (General Public License), Sun Microsystems a pris soin d’associer la FSF (Free Software Foundation) à l’annonce, d’obtenir une déclaration d’approbation de Richard Stallman, le président de la FSF, et d’Eben Moglen son conseiller juridique.

Aujourd’hui, on voit mal quelle entreprise serait susceptible de faire le même effort. Lentement mais sûrement, le logiciel libre a perdu l’influence qu’il exerçait au sein de la communauté qu’il a créée.

Pratiquement il est difficile d’employer l’expression FOSS (Free and Open Source Software) en espérant être compris. Dans la plupart des cas, l’expression « logiciel libre », que l’on n’entend pratiquement plus, a été remplacée par « open source ».

Que s’est-il donc passé ?

Je ne dispose pas de chiffres précis à l’appui mais je suggère ici au moins sept raisons possibles. Certaines externes à la FSF, d’autres résultant directement de ses prises de décision. Choix qui ont pu paraître sensés à une époque mais ont eu parfois des effets pervers à long terme, quand ils n’ont pas été effectués trop hâtivement…

1. Trop de bonnes causes, pas assez de ressources

La FSF fonctionne avec une équipe dirigeante de moins d’une douzaine de personnes, et avec des bénévoles. Ses revenus pour 2010 étaient de 1,23 million de dollars. Avec de telles ressources, elle soutient le projet GNU, aide des entreprises et des projets à se conformer aux licences libres, et lance une dizaine de campagnes, depuis la lutte contre les DRM et les initiatives anti-Windows jusqu’aux efforts pour convaincre le plus grand nombre d’utiliser des formats audio libres.

Tous ces efforts sont dignes d’intérêt en eux-mêmes, mais pour rarement mentionnés et relayés, ils ne trouvent que peu d’écho. Mais ce sont là des problèmes bien plus nombreux que ceux qu’a traités la FSF dans le passé, et elle le fait avec à peine quelques centaines de milliers de dollars de plus qu’en 2006, quand ses ressources lui permettent difficilement de mener à bien une seule de ces actions. Par conséquent la FSF finit par se révéler inefficace, et rares sont les campagnes qui captivent l’attention générale au sein de la communauté, plus rares encores celles qui atteignent leur objectif.

2. On ne trouve pas de nouveaux adeptes et on néglige les anciens

Ces cinq dernières années, la FSF s’est efforcée d’investir son activité sur les réseaux sociaux, pour atteindre un plus large public. Le mérite de ces efforts revient essentiellement aux actions du précédent directeur général Peter Brown, parce qu’il a une trajectoire personnelle d’activiste. C’est un pas en avant dont j’ai dit tout le bien que je pensais à l’époque, et je considère encore que c’est une bonne stratégie.

Malheureusement, cette tentative a largement échoué, certainement là encore victime de ressources trop limitées. Par ailleurs il s’agissait dans le mouvement d’établir une distinction entre la FSF et le plus technique projet GNU. J’ai entendu beaucoup de développeurs exprimer leur réticence quant aux positions activistes de la FSF en souhaitant qu’elle recentre ses activités sur le logiciel. Au final la FSF a aggravé son cas : échouant à gagner de nouveaux publics à sa cause, éloignant d’elle ses adeptes déjà existants.

3. Ubuntu a remplacé Debian

Nombreux sont ceux qui ne s’en souviennent plus aujourd’hui, mais il y a cinq ans, la communauté Debian était une référence pour le logiciel libre. Elle n’était pas toujours d’accord avec la FSF, en fait, Debian était réputé pour suivre son propre chemin, imposer sa propre définition du logiciel libre, et se faire un avis autonome sur des questions comme celle de savoir si la licence GNU Free Documentation est vraiment une licence libre (oui, c’est Debian qui décidait après un long débat, dans certaines occasions). Et encore récemment quand la FSF a créé la version 3 de la GPL, elle a pris soin de consulter les représentants de Debian.

Toute aigreur mise à part, en tant que distribution basée sur la communauté la plus répandue, Debian a donné une crédibilité supplémentaire à la reconnaissance du logiciel libre. Tout du moins Debian a-t-elle aidé à donner l’impression d’une communauté suffisamment grande pour avoir des différences. Aujourd’hui, cependant, alors que Debian est une distribution plus influente que jamais, une bonne part de la notoriété dont elle jouissait a été captée par sa dérivée Ubuntu. Et ce n’est pas la faute d’Ubuntu qui, soutenue par une entreprise commerciale qui doit rechercher le profit, n’hésite pas à renoncer à certains principes du logiciel libre par commodité

Avec cet allié et partenaire de la FSF qui devient moins influent, c’est toute la cause du logiciel libre qui s’est affaiblie. À défaut de mieux, la controverse et les débats avec Debian ont aidé à garder présents à l’esprit de la communauté les problèmes de principes.

4. Le défi des nouvelles technologies n’est pas relevé

De nouvelles technologies aient été introduites ces cinq dernières années. Or la stratégie majeure de la FSF a été de les dénoncer, puis de les ignorer. Ces derniers temps, Stallman a ainsi vilipendé l’informatique dans les nuages, les e-books, les téléphones mobiles en général et Android en particulier.

Dans chaque cas, Stallman a souligné à juste titre les problèmes concernant la vie privée et les droits du consommateurs, ce que les autres ont souvent oublié de mentionner. Le problème c’est qu’en continuant d’ignorer ces nouvelles technologies on ne résout rien, et que le mouvement du logiciel libre devient moins pertinent dans la vie des gens. Beaucoup sont attirés par ces nouvelles technologies, et d’autres sont contraints de les utiliser pour échanger, travailler et communiquer avec la majorité.

La licence libre Affero GNU GPL de la FSF devait etre tout indiquée pour l’informatique dans le nuage. Pourtant, selon les statistiques de Black Duck, elle n’est dans le fait que trop rarement utilisée, seulement 401 logiciel sont sous cette licence alors qu’il existe des centaines de milliers de logiciels sous licence libre. En persistant à mettre l’accent sur l’ordinateur de bureau traditionnel, le logiciel libre se tient à distance des technologies actuelles pour lesquelles justement il serait le plus nécessaire.

6. La scission de la licence GPL

En juin 2007, la FSF a publié la version 3 de la GPL. Cette mise à jour s’efforçait de prendre en compte les nouvelles technologies et les moyens de contourner les clauses de la version 2. Cette nouvelle version a été le résultat d’une concertation sans précédent entre la communauté et les entreprises parties prenantes.

Toutefois, cette consultation demandait d’atteindre un consensus. Lorsque Linus Torvalds a décidé que le noyau Linux resterait sous la GPLv2, la FSF est allée de l’avant vers la GPLv3 sans en tenir compte.

Sur le moment, la décision a paru sensée pour éviter une impasse. Mais on se retrouve actuellement avec une GPLv2 utilisée par 42,5% des logiciels libres contre moins de 6,5% pour la GPLv3 selon Black Duck.

Avant cette révision majeure, la licence GPL contribuait à unifier la communauté, et la FSF, en tant que créateur, promoteur et défenseur de la GPL, avait une forte présence en son sein. Or aujourd’hui, la GPLv2 est considérée comme la version que privilégient les supporters de l’open source, et la GPLv3 celle des défenseurs du logiciel libre. Et non seulement l’ensemble de la philosophie du logiciel libre en apparaît affaiblie, mais encore le fossé s’élargit entre logiciel libre et open source.

Plus encore, comme si la situation n’était pas déjà assez mauvaise, il semble qu’il y ait une tendance à adopter des licences permissives qui n’exigent pas le partage du code, comme le font toutes le versions de la GPL.

6. On n’assiste pas aux conférences

Richard Stallman et beaucoup d’autres membres de la FSF refusent de participer à des conférences qui n’utilisent pas l’expression exacte « GNU/Linux » en lieu et place du simple « Linux » dans leur intitulé et leur promotion. En fait Stallman est connu pour refuser de s’exprimer devant un groupe de journalistes qui n’utiliseraient pas la bonne nomenclature, c’est-à-dire la sienne (NdT : cf la librologie Les mots interdits de Richard Stallman).

La principale exception à ma connaissance est Eben Moglen, dont le travail à la Software Freedom Law Center implique beaucoup de gens qui se revendiquent comme des supporters de l’open source.

Je comprends que ce refus soit une question de principe. Cependant, en dépit de tous les moyens de communication qu’offre Internet, le contact et la communication directs demeurent importants pour la communauté. En maintenant coûte que coûte leurs idéaux, les défenseurs du logiciel libre se sont rendus invisibles, se coupant des réseaux sociaux et autres associations informelles qui émergent lorsque les gens se parlent dans la vraie vie.

7. Richard Stallman fait des gaffes

En tant que fondateur et principal porte-parole de la FSF, Richard Stallman a joué un rôle décisif dans l’histoire du logiciel libre. Personne ne peut le contester et personne ne reviendra là-dessus

Mais l’entêtement de Stallman, qui a aidé la diffusion et l’essor des principes du logiciel libre, semble maintenant à beaucoup un handicap. Stallman affiche de façon continuelle son obsession des définitions qui détournent des principaux points pour lesquels la liberté logicielle est nécessaire. De plus, ces temps-ci, il semble ne vouloir jamais rater la moindre occasion de critiquer, pas toujours avec pertinence, la philosophie de l’open source,

Pire encore, Stallman a tout un passé de gaffeur, sans jamais admettre avoir eu tort. En juillet 2009, il a suscité la controverse en refusant de retirer une remarque sexiste qu’il avait faite au Desktop Summit à la Grande Canarie. Plus récemment, Stallman notait à propos de Steve Jobs « je ne suis pas content qu’il soit mort, mais je suis content qu’il soit parti », puis il a précisé son propos quelques semaines plus tard. Le problème ce n’est pas qu’il ait eu tort d’accuser Jobs de rendre populaires des technologies fermées, c’est que beaucoup de gens ont trouvé que ses déclarations étaient indélicates et inopportunes en parlant d’un homme qui venait de mourir, et qu’un responsable d’organisation aurait dû montrer plus de bon sens et ne pas faire de suite de telles remarques.

Stallman est loin de représenter à lui seul l’ensemble du logiciel libre, mais force est de constater que beaucoup de gens ont une mauvaise opinion de ce mouvement à cause de lui.

Renverser la vapeur

Aucune des raisons mentionnées ci-dessus ici n’est fatale en elle-même. Cependant, additionnées, elles forment une longue trame sur laquelle on peut expliquer pourquoi les idéaux de la FSF et des logiciels libres exercent moins d’influence qu’auparavant.

En tant que supporter du logiciel libre, je ne peux qu’espérer que ce manque d’influence pourra être renversé. Cinq ans c’est court, et je ne vois aucune raison qui pourrait empêcher le logiciel libre de récupérer le temps et le terrain perdus.

Le seul problème est de savoir si les membres influents du logiciel libre vont admettre les problèmes et les corriger… Je l’espère, mais je ne suis pas très optimiste quant à la réponse.

Notes

[1] Crédit photo : Steve Winton (Creative Commons By)




Une communauté de pratique se cache-t-elle derrière votre site web ?

Felix E. Guerrero - CC by-saFramasoft se présente volontiers comme un réseau de sites web visant à faire connaître et diffuser le logiciel libre. Sauf qu’en s’arrêtant là rien ne le distingue à priori des autres sites web comme celui du télé-achat de TF1 par exemple.

En bout de chaîne tous ces sites proposent un service au visiteur mais il est intéressant de s’interroger sur la finalité de ce service et surtout la manière dont il a été motivé, imaginé et réalisé[1].

Seul dans son coin ou partie prenante d’une communauté de pratique ?

Telle est la petite réflexion-traduction du jour…

Une communauté de pratique est plus qu’un site web

A community of practice is more than a website

Steve Radick – 10 novembre 2011 – OpenSource.com
(Traduction Framalang : Lolo le 13, Julien et Pandark)

Une communauté de pratique (CoP, pour community of practice) est, d’après les anthropologues cognitifs Jean Lave et Etienne Wenger, un groupe de personnes qui partagent un intérêt, une compétence, et/ou une profession.

Au cours des dernières années, le terme de « communauté de pratique » est entré dans le lexique des mots à la mode des réseaux sociaux avec la collaboration virtuelle, l‘engagement, les plateformes, et l‘Entreprise 2.0. Les grands entrepreneurs veulent les implémenter, on demande aux nouveaux employés de les rejoindre, et on dit aux managers expérimentés de les soutenir, mais que sont-elles exactement ?

À aucun endroit dans la définition ci-dessus ne sont mentionnés les mots site web, wiki, blog, ou réseau social. Nulle part il n’est dit que cela doit être virtuel ou physique, ni même uniquement l’un des deux. Il n’y a pas de références aux outils qui sont utilisés pour faciliter la communication et la collaboration, et pas plus de définition d’un ensemble de caractéristique qui déterminerait comment une communauté de pratique fonctionne ou sur quels sujets portent les discussions.

Un groupe de gens qui partagent un intérêt, une compétence et/ou une profession. Ça semble assez simple, pas vrai ? Si on le présente ainsi, chacun pourrait dire qu’il est déjà membre d’une douzaine de communautés de pratique — au travail, à l’église, à l’école, etc. C’est simplement un groupe de gens qui communiquent et collaborent ouvertement autour d’un sujet qui leur tient à coeur. L’existence des CoPs est aussi ancienne que le désir des gens de faire et d’apprendre les uns des autres.

Ce n’est pas parce que toutes leurs communications et collaborations n’apparaissent pas sur votre site que les gens ne sont pas déjà en train de communiquer et collaborer dans les coulisses à propos de ce centre d’intérêt partagé. Les communautés de pratique sont vivantes et s’épanouissent dans la plupart des organisations.

Créez-vous une communauté de pratique ou allez-vous uniquement ajouter un site web de plus ? Comment votre CoP est-elle en phase avec certaines de ces hypothèses ci-dessous ?

  • Les gens passent du temps bénévole à aider les autres au sein d’une communauté de pratique. Les gens visitent un site pour télécharger ce dont ils ont besoin
  • Les CoPs se concentrent sur l’ajout de valeur pour leurs membres. Les sites se concentrent sur le fait d’avoir de nouveaux utilisateurs.
  • Le succès d’une CoP est mesurée avec des anecdotes vécues ensemble, des projets collectifs et la satisfactions de ses membres. Le succès d’un site est mesuré avec des hits, des visites et des références venant d’autres sites.
  • Le membre d’une CoP partage son expertise pour créer de nouvelles fonctionnalités. Un site rémunère des gens pour ajouter de nouvelles fonctionnalités.
  • Une CoP est construite autour des conversations. Un site est construit autour du contenu.

Des communautés de pratique nous ont entourés depuis des décennies et le feront encore pour des décennies, elles ont aidé d’innombrables organisations à faire des changements majeurs, à accroître leur efficacité, à supprimer les doublons et à rendre le travail plus agréable. Dans bien des cas, l’utilisation des réseaux sociaux a amélioré ces CoPs en leur donnant plus d’outils et de possibilités d’interconnecter les gens ensemble. Malheureusement, les réseaux sociaux participent également à séparer les gens en produisant du contenu singulier qui flatte avant tout leur ego.

Et vous que construisez-vous ?

Pour plus d’information à propos des communautés de pratique, voir « Culivating Communities of Practice : A Guide to Managing Knowledge », édité par Harvard Business School Press en 2002 par Étienne Wenger, Richard McDermott et William M. Snyder.

Notes

[1] Crédit photo : Felix E. Guerrero (Creative Commons By-Sa)