Les 5 règles d’or du cinéaste Jim Jarmusch

Ari Moore - CC by-nc-saStranger Than Paradise, Down by Law… quel choc narratif et esthétique que les premiers films de Jim Jarmusch[1] ! Toute ma jeunesse en somme…

Ses cinq règles d’or du réalisateur ont été proposées en 2004 au magazine MovieMaker.

Ne trouvez-vous pas qu’elles prennent une résonance toute particulière en ces « troubles temps d’Hadopi », et qu’elles pourraient s’étendre, par extrapolation, à toute la création d’aujourd’hui ?

« L’authenticité est inestimable, l’originalité n’existe pas. »

Les règles d’or de Jim Jarmusch

Jim Jarmusch’s Golden Rules

Jim Jarmusch – 22 janvier 2004 – MovieMaker
(Traduction Framalang / Twitter : Aude, Erdrokan, Yoha, Idoric, Erwan et DonRico)

Règle 1 : Il n’y a pas de règle

Il y a autant de manières de faire un film qu’il y a d’auteurs potentiels. C’est un exercice libre. Je ne me sentirais jamais le droit de dicter à quelqu’un ce qu’il doit faire ou comment s’y prendre. Pour moi, ce serait comme imposer à quelqu’un ses croyances personnelles. C’est du n’importe quoi. C’est à l’opposé de ma philosophie – cela tient plus du code que d’un ensemble de « règles ». Donc, ne respectez pas religieusement les « règles » que vous êtes en train de lire, considérez-les plutôt comme des notes personnelles. Chacun devrait se faire ses propres « notes », puisqu’il n’y a pas qu’une seule et unique manière de procéder. Si certains prétendent qu’il n’existe qu’une manière de faire, la leur, éloignez-vous-en autant que possible, physiquement et philosophiquement.

Règle 2 : Ne vous laissez pas emmerder

Les emmerdeurs peuvent vous aider ou bien vous freiner, mais pas vous arrêter. Ceux qui financent, distribuent, promeuvent et projettent les films ne sont pas cinéastes. De même qu’ils ne sont pas prêts à laisser les réalisateurs définir et réglementer leur travail, les réalisateurs ne devraient pas les laisser édicter la manière de faire un film. Si nécessaire, armez-vous.

Dans le même ordre d’idée, évitez à tout prix les flatteurs. Il s’agit toujours de personnes qui vous tournent autour pour devenir riches, célèbres, ou coucher. De manière générale, ils s’y connaissent autant en réalisation de film que George W. Bush en combat à mains nues.

Règle 3 : L’équipe de production est au service du film

Le film n’est pas au service de l’équipe de production. Hélas, dans le monde de la réalisation, c’est presque toujours le cas. La fonction d’un film n’est pas de tenir les budgets, les délais, ou d’enrichir les CV des participants. On devrait pendre par les chevilles les réalisateurs qui ne comprennent pas cela et leur demander à eux pourquoi le monde est sens dessus dessous.

Règle 4 : La réalisation d’un film est un processus collectif

Vous avez la chance de travailler avec des gens dont la réflexion et les idées peuvent être plus brillantes que les vôtres. Assurez-vous qu’ils se concentrent sur leur fonction et ne prennent pas la place de quelqu’un d’autre, ou vous serez confrontés à un beau bordel. Considérez tous vos collaborateurs comme des égaux et respectez leur travail. Un assistant de production qui arrête les voitures afin que l’équipe puisse faire une prise n’est pas moins important que les acteurs, le directeur de la photographie, le directeur artistique ou le réalisateur.

L’organisation hiérarchique n’est bonne que pour les egos surdimensionnés ou incontrôlables, et les militaires. Si vous choisissez bien vos collaborateurs, ceux-ci peuvent améliorer la qualité et le contenu de votre film bien plus que ne l’aurait fait n’importe quel esprit solitaire. Si vous ne voulez pas travailler avec d’autres, choisissez plutôt la peinture ou l’écriture. (Et si votre truc c’est d’être un dictateur, par les temps qui courent, il vous suffit de vous lancer en politique…)

Règle 5 : Rien n’est nouveau

Piquez des idées n’importe où, du moment que cela vous inspire, nourrit votre imagination. Dévorez les films anciens et récents, gavez-vous de musique, de livres, de peintures, de photographies, de poésie, de rêves, nourrissez-vous de conversations à bâtons rompus, d’architecture, des ponts, des panneaux d’indication, des arbres, des nuages, des cours d’eau, de la lumière et des ombres. Ne volez que ce qui parle directement à votre âme. De cette manière, vos travaux (et vos emprunts) seront authentiques. L’authenticité est inestimable, l’originalité n’existe pas.

Et n’essayez pas de dissimuler votre forfait – vous pouvez même vous en vanter, si vous voulez. Dans tous les cas, rappelez-vous les mots de Jean-Luc Godard : « Ce qui compte, ce n’est pas d’où viennent vos idées, mais ce que vous en faites. »

Notes

[1] Crédit photo : Ari Moore (Creative Commons By-Nc-Sa)




Le making of d’Arduino ou la fabuleuse histoire d’un circuit imprimé

Oomlout - CC by-saL’histoire retiendra que c’est dans un bar d’une petite ville du nord de l’Italie qu’est né le projet Arduino qui, de manière totalement inattendue, est en train de révolutionner le domaine de l’électronique à l’échelle mondiale, puisque pour la première fois tout le monde peut vraiment s’y essayer et découvrir qu’il aime ça !

L’histoire retiendra également que rien de tout ceci n’aurait été possible sans le choix initial des licences libres qui a conditionné non seulement son bas prix et sa massive diffusion mais également son approche et son état d’esprit[1].

Acteur et non consommateur, on retrouve ici le goût de comprendre, créer et faire des choses ensemble. Concepts simple et plein de bon sens mais que notre époqu’Apple a fortement tendance à oublier.

PS : Ceci est la troisième traduction de suite initiée sur Twitter/Identica et réalisée dans un Framapad. Je remercie vivement tous les volontaires qui ont bossé dur hier soir pour arriver à un résultat d’un étonnante qualité quand on pense que les invitations sont ouvertes à tout le monde. On se donne rendez-vous, on communique, on se met d’accord sur tel ou tel passage via le chat intégré… au final on passe un moment ponctuel et commun agréable tout en travaillant (bénévolement). Je reste fasciné par le dynamisme et la bienveillance des gens et par la capacité d’Internet à favoriser cela. Si vous voulez vous aussi participer aux prochaines, il suffit de me suivre sur Twitter ou Identica avec le hashtag (que je viens d’inventer) « #EnFrSprint ».

La genèse d’Arduino

The Making of Arduino

David Kushner – Octobre 2011 – Spectrum
(Traduction Framalang : Yoha, Keyln, Fab et Luc)

Ou comment cinq amis ont conçu la petite carte électronique qui a bouleversé le monde du DIY (Do It Yourself – Faites-le vous-même).

La pittoresque ville d’Ivrea, qui chevauche la rivière bleue-verte Dora Baltea au nord de l’Italie, est connue pour ses rois déchus. En l’an 1002, le roi Arduin (Arduino en italien) devint le seigneur du pays, pour être détrôné par Henri II d’Allemagne, deux ans plus tard. Aujourd’hui, le Bar di Re Arduino, un bar dans une rue pavée de la ville, honore sa mémoire, et c’est là qu’un nouveau roi inattendu naquit.

C’est en l’honneur de ce bar où Massimo Banzi a pour habitude d’étancher sa soif que fut nommé le projet électronique Arduino (dont il est le cofondateur). Arduino est une carte microcontrôleur à bas prix qui permet — même aux novices — de faire des choses époustouflantes. Vous pouvez connecter l’Arduino à toutes sortes de capteurs, lampes, moteurs, et autres appareils, et vous servir d’un logiciel facile à appréhender pour programmer le comportement de votre création. Vous pouvez construire un affichage interactif, ou un robot mobile, puis en partager les plans avec le monde entier en les postant sur Internet.

Sortie en 2005 comme un modeste outil pour les étudiants de Banzi à l’Interaction Design Institute Ivrea (IDII), Arduino a initié une révolution DIY dans l’électronique à l’échelle mondiale. Vous pouvez acheter une carte Arduino pour seulement 30 dollars ou vous construire la vôtre à partir de rien : tous les schémas électroniques et le code source sont disponibles gratuitement sous des licences libres. Le résultat en est qu’Arduino est devenu le projet le plus influent de son époque dans le monde du matériel libre.

La petite carte est désormais devenu le couteau suisse de nombreux artistes, passionnés, étudiants, et tous ceux qui rêvaient d’un tel gadget. Plus de 250 000 cartes Arduino ont été vendues à travers le monde — sans compter celles construites à la maison. « Cela a permis aux gens de faire des choses qu’ils n’auraient pas pu faire autrement. », explique David A. Mellis, ancien étudiant à l’IDII et diplômé au MIT Media Lab, actuellement développeur en chef de la partie logicielle d’Arduino.

On trouve des alcootests, des cubes à DEL, des systèmes de domotique, des afficheurs Twitter et même des kits d’analyse ADN basés sur Arduino. Il y a des soirées Arduino et des clubs Arduino. Google a récemment publié un kit de développement basé sur Arduino pour ses smartphones Android. Comme le dit Dale Dougherty, l’éditeur et rédacteur du magazine Make, la bible des créateurs passionnés. Arduino est devenu « la partie intelligente dans les projets créatifs ».

Mais Arduino n’est pas qu’un projet open source ayant pour but de rendre la technologie plus accessible. C’est aussi une start-up conduite par Banzi et un groupe d’amis, qui fait face à un challenge que même leur carte magique ne peut résoudre : comment survivre au succès et s’élargir « Nous devons passer à l’étape suivante, et devenir une entreprise établie. » m’explique Banzi.

Arduino a soulevé un autre défi formidable : comment apprendre aux étudiants à créer rapidement de l’électronique. En 2002, Banzi, un architecte logiciel barbu et avunculaire (NDT : qui ressemble à un oncle) y a été amené par l’IDII en tant que professeur associé pour promouvoir de nouvelles approches pour la conception interactive — un champ naissant parfois connu sous le nom d’informatique physique. Mais avec un budget se réduisant et un temps d’enseignement limité, ses options de choix d’outils étaient rares.

Comme beaucoup de ses collègues, Banzi se reposait sur le BASIC Stamp, un microcontrôleur créé et utilisé par l’entreprise californienne Parallax depuis près de 10 ans. Codé avec le langage BASIC, le Stamp était comme un tout petit circuit, embarquant l’essentiel : une alimentation, un microcontrôleur, de la mémoire et des ports d’entrée/sortie pour y connecter du matériel. Mais le BASIC Stamp avait deux problèmes auxquels Banzi se confronta : il n’avait pas assez de puissance de calcul pour certains des projets que ses étudiants avaient en tête, et il était aussi un peu trop cher — une carte avec les parties basiques pouvait coûter jusqu’à 100 dollars. Il avait aussi besoin de quelque chose qui puisse tourner sur Macintosh, omniprésents parmi les designers de l’IDII. Et s’ils concevaient eux-mêmes une carte qui répondrait à leurs besoins ?

Un collègue de Banzi au MIT avait développé un langage de programmation intuitif, du nom de Processing. Processing gagna rapidement en popularité, parce qu’il permettait aux programmeurs sans expérience de créer des infographies complexes et de toute beauté. Une des raisons de son succès était l’environnement de développement extrêmement facile à utiliser. Banzi se demanda s’il pourrait créer un logiciel similaire pour programmer un microcontrôleur, plutôt que des images sur l’écran.

Un étudiant du programme, Henando Barragán, fit les premiers pas dans cette direction. Il développa un prototype de plateforme, Wiring, qui comprenait un environnement de développement facile à appréhender et une circuit imprimé prêt-à-l’emploi. C’était un projet prometteur — encore en activité à ce jour — mais Banzi pensait déjà plus grand: il voulait faire une plateforme encore plus simple, moins chère et plus facile à utiliser.

Banzi et ses collaborateurs croyaient fermement en l’open source. Puisque l’objectif était de mettre au point une plateforme rapide et facile d’accès, ils se sont dit qu’il vaudrait mieux ouvrir le projet au plus de personnes possibles plutôt que de le garder fermé. Un autre facteur qui a contribué à cette décision est que, après cinq ans de fonctionnement, l’IDII manquait de fonds et allait fermer ses portes. Les membres de la faculté craignaient que leurs projets n’y survivent pas ou soient détournés. Banzi se souvient : « Alors on s’est dit : oublions ça, rendons-le open source ! ».

Le modèle de l’opensource a longtemps été utilisé pour aider à l’innovation logicielle, mais pas matérielle. Pour que cela fonctionne, il leur fallait trouver une licence appropriée pour leur carte électronique. Après quelques recherches, ils se rendirent compte que s’ils regardaient leur projet sous un autre œil, ils pouvaient utiliser une licencesCreative Commons, une organisation à but non-lucratif dont les contrats sont habituellement utilisés pour les travaux artistiques comme la musique et les écrits. « Vous pouvez penser le matériel comme un élément culturel que vous voulez partager avec d’autres personnes. » argumente Banzi.

Le groupe avait pour objectif de conception un prix particulier, accessible aux étudiants, de 30$. « Il fallait que ce soit équivalent à un repas dans une pizzeria. » raconte Banzi. Ils voulaient aussi faire quelque chose de surprenant qui pourrait se démarquer et que les geeks chevronnés trouveraient cool. Puisque les autres circuits imprimés sont souvent verts, ils feraient le leur bleu ; puisque les constructeurs économisaient sur les broches d’entrée et de sortie, ils en ajouteraient plein à leur circuit. Comme touche finale, ils ajoutèrent une petite carte de l’italie au dos de la carte. « Une grande partie des choix de conception paraîtraient étranges à un vrai ingénieur », se moque savamment Banzi, « mais je ne suis pas un vrai ingénieur, donc je l’ai fait n’importe comment ! ».

Pour l’un des vrais ingénieurs de l’équipe, Gianluca Martino, la conception inhabituelle, entre chirurgie et boucherie, était une illumination. Martino la décrit comme une « nouvelle manière de penser l’électronique, non pas de façon professionnelle, où vous devez compter vos électrodes, mais dans une optique DIY ».

Le produit que l’équipe créa se constituait d’éléments bon marchés qui pourraient être trouvés facilement si les utilisateurs voulaient construire leurs propres cartes (par exemple, le microcontrôleur ATmega328). Cependant, une décision clé fut de s’assurer que ce soit, en grande partie, plug-and-play : ainsi quelqu’un pourrait la sortir de la boîte, la brancher, et l’utiliser immédiatement. Les cartes telles que la BASIC Stamp demandaient à ce que les adeptes de DIY achètent une dizaine d’autres éléments à ajouter au prix final. Mais pour la leur, l’utilisateur pourrait tout simplement connecter un câble USB de la carte à l’ordinateur — Mac, PC ou Linux — pour la programmer.

« La philosophie derrière Arduino est que si vous voulez apprendre l’électronique, vous devriez être capable d’apprendre par la pratique dès le premier jour, au lieu de commencer par apprendre l’algèbre. » nous dit un autre membre de l’équipe, David Cuartielles, ingénieur en télécommunications.

L’équipe testa bientôt cette philosophie. Ils remirent 300 circuits imprimés nus (sans composants) aux étudiants de l’IDII avec une consigne simple : regardez les instructions de montage en ligne, construisez votre propre carte et utilisez-la pour faire quelque chose. Un des premiers projets était un réveil fait maison suspendu au plafond par un câble. Chaque fois que vous poussiez le bouton snooze, le réveil montait plus haut d’un ton railleur jusqu’à ce que ne puissiez que vous lever.

D’autres personnes ont vite entendu parler de ces cartes. Et ils en voulaient une. Le premier acheteur fut un ami de Banzi, qui commanda une unité. Le projet commençait à décoller mais il manquait un élément majeur — un nom pour leur invention. Une nuit, autour d’un verre au pub local, il vint à eux : Arduino, juste comme le bar — et le roi.

Rapidement, l’histoire d’Arduino se répandit sur la toile, sans marketing ni publicité. Elle attira très tôt l’attention de Tom Igoe, un professeur d’informatique physique au Programme de Télécommunications Intéractives de l’Université de New York et aujourd’hui membre de l’équipe centrale d’Arduino. Igoe enseignait à des étudiants non techniciens en utilisant le BASIC Stamp mais fut impressionné par les fonctionnalités d’Arduino. « Ils partaient de l’hypothèse que vous ne connaissiez ni l’électronique, ni la programmation, que vous ne vouliez pas configurer une machine entière juste pour pouvoir programmer une puce — vous n’avez qu’à allumer la carte, appuyer sur upload et ça marche. » dit-il. « J’étais aussi impressionné par l’objectif d’un prix de 30$, ce qui la rendait accessible. C’était l’un des facteurs clefs pour moi. »

De ce point de vue, le succès de l’Arduino doit beaucoup à l’existence préalable de Processing et de Wiring. Ces projets donnèrent à Arduino une de ses forces essentielles : l’environnement de programmation convivial. Avant Arduino, coder un microcontrôleur nécessitait une courbe d’apprentissage difficile. Avec Arduino, même ceux sans expérience électronique préalable avaient accès à un monde matériel précédemment impénétrable. Maintenant, les débutants n’ont pas à apprendre beaucoup avant de pouvoir construire un prototype qui fonctionne vraiment. C’est un mouvement puissant à une époque où la plupart des gadgets les plus populaires fonctionnent comme des “boîtes noires” fermées et protégées par brevet.

Pour Banzi, c’est peut-être l’impact le plus important d’Arduino : la démocratisation de l’ingénierie. « Cinquante ans avant, pour écrire le logiciel, il vous fallait du personnel en blouses blanches qui savait tout sur les tubes à vide. Maintenant, même ma mère peut programmer. », développe Banzi. « Nous avons permis à beaucoup de gens de créer elles-même des produits ».

Tous les ingénieurs n’aiment pas Arduino. Les plus pointilleux se plaignent de ce que la carte abaisse le niveau créatif et inonde le marché des passionnés avec des produits médiocres. Cependant, Mellis ne voit pas du tout l’invention comme dévaluant le rôle de l’ingénieur : « il s’agit de fournir une plateforme qui laisse une porte entrouverte aux artistes et aux concepteurs et leur permet de travailler plus facilement avec les ingénieurs en leur communiquant leurs avis et leurs besoins ». Et il ajoute : « je ne pense pas que cela remplace l’ingénieur ; cela facilite juste la collaboration ».

Pour accélérer l’adoption d’Arduino, l’équipe cherche à l’ancrer plus profondément dans le monde de l’éducation, depuis les écoles primaires jusqu’aux universités. Plusieurs d’entre elles, dont Carnegie Mellon et Stanford, utilisent déjà Arduino. Mellis a observé comment les étudiants et les profanes abordaient l’électronique lors d’une série d’ateliers au MIT Media Lab. Mellis a ainsi invité des groupes de 8 à 10 personnes à l’atelier où le projet à réaliser devait tenir dans une seule journée. Parmi les réalisations, on peut noter des enceintes pour iPod, des radios FM, et une souris d’ordinateur utilisant certains composants similaires à ceux d’Arduino.

Mais diffuser la bonne parole d’Arduino n’est qu’une partie du travail. L’équipe doit aussi répondre aux requêtes pour les cartes. En fait, la plateforme Arduino ne se résume plus à un type de carte — il y a maintenant toute une famille de cartes. En plus du design originel, appelé Arduino Uno, on trouve parmi les nouveaux modèles une carte bien plus puissante appelée Arduino Mega, une carte compacte, l’Arduino Nano, une carte résistante à l’eau, la LilyPad Arduino, et une carte capable de se connecter au réseau, récemment sortie, l’Arduino Ethernet.

Arduino a aussi créé sa propre industrie artisanale pour l’électronique DIY. Il y a plus de 200 distributeurs de produits Arduino dans le monde, de grandes sociétés comme SparkFun Electronics à Boulder, Colorado mais aussi de plus petites strucutres répondant aux besoins locaux. Banzi a récemment entendu parler d’un homme au Portugal qui a quitté son travail dans une société de téléphonie pour vendre des produits Arduino depuis chez lui. Le membre de l’équipe Arduino Gianluca Martino, qui supervise la production et la distribution, nous confie qu’ils font des heures supplémentaires pour atteindre les marchés émergents comme la Chine, l’Inde et l’Amérique du Sud. Aujourd’hui, près de 80% du marché de l’Arduino est concentré entre les États-Unis et l’Europe.

Puisque l’équipe ne peut pas se permettre de stocker des centaines de milliers de cartes, ils en produisent entre 100 et 3000 par jour selon la demande dans une usine de fabrication près d’Ivrea. L’équipe a créé un système sur mesure pour tester les broches de chaque carte, comme la Uno, qui comprend 14 broches d’entrée/sortie numériques, 6 broches d’entrée analogiques et 6 autres pour l’alimentation. C’est une bonne assurance qualité quand vous gérez des milliers d’unités par jour. L’Arduino est suffisament peu chère pour que l’équipe promette de remplacer toute carte qui ne fonctionnerait pas. Martino rapporte que le taux de matériel défectueux est de un pour cent.

L’équipe d’Arduino gagne maintenant suffisament pour payer deux employés à plein temps et projette de faire connaître de façon plus large la puissance des circuits imprimés. En septembre, à la Maker Faire, un congrès à New York soutenu par le magazine Make, l’équipe a dévoilé sa première carte à processeur 32 bits — une puce ARM — à la place du processeur 8 bits précédent. Cela permettra de répondre à la demande de puissance des périphériques plus évolués. Par exemple, la MakerBot Thing-O-Matic, une imprimante 3D à monter soi-même basée sur Arduino, pourrait bénéficier d’un processeur plus rapide pour accomplir des tâches plus complexes.

Arduino a eu un autre coup d’accélérateur cette année quand Google à mis à disposition une carte de développement pour Android basée sur Arduino. Le kit de développement d’accessoires (ADK) d’Android est une plateforme qui permet à un téléphone sous Android d’interagir avec des moteurs, capteurs et autres dispositifs. Vous pouvez concevoir une application Android qui utilise la caméra du téléphone, les capteurs de mouvements, l’écran tactile, et la connexion à Internet pour contrôler un écran ou un robot, par exemple. Les plus enthousiastes disent que cette nouvelle fonctionnalité élargit encore plus les possibilités de projets Arduino.

L’équipe évite cependant de trop complexifier Arduino. Selon Mellis, « Le défi est de trouver un moyen pour loger toutes les différentes choses que les personnes veulent faire avec la plateforme sans la rendre trop complexe pour quelqu’un qui débuterait. ».

En attendant, ils profitent de leur gloire inattendue. Des fans viennent de loin simplement pour boire au bar d’Ivrea qui a donné son nom au phénomène. « Les gens vont au bar et disent Nous sommes ici pour l’Arduino ! » narre Banzi. « Il y a juste un problème », ajoute-t-il dans un éclat de rire, « les employés du bar ne savent pas ce qu’est Arduino ! ».

Notes

[1] Crédit photo : Oomlout (Creative Commons By-Sa)




Le code deviendra-t-il le latin du XXIe siècle ?

I Write CodeOutre sa dimension historique, culturelle et civilisationnelle, apprendre le latin c’est aussi mieux connaître les bases de notre langue française pour mieux la maîtriser.

Et si, pour mieux comprendre et avoir la capacité de créer (et non subir), la programmation informatique prenait peu ou prou la même place que le latin dans la nouvelle ère qui s’annonce ?

Même si c’est avec un léger train de retard, c’est la question que l’on se pose actuellement en France, mais aussi comme ci-dessous dans une Grande-Bretagne passablement secouée par le récent sermon de Monsieur Google.

« Bien informés, les hommes sont des citoyens ; mal informés ils deviennent des sujets. »
Alfred Sauvy

La programmation – le nouveau latin

Coding – the new Latin

Rory Cellan-Jones – 28 novembre 2011 – BBC
(Traduction Framalang : Goofy, Pandark, Penguin, e-Jim et Marting)

La campagne de promotion de l’apprentissage de l’informatique à l’école — en particulier la programmation — rassemble ses forces.

Aujourd’hui, Google, Microsoft et les autres grands noms du domaine technologique vont prêter leur soutien au dossier soumis au gouvernement plus tôt cette année dans un rapport appelé Next Gen. Il soutient notamment que le Royaume-Uni pourrait être un centre mondial pour l’industrie des jeux vidéos et des effets spéciaux — mais seulement si le système éducatif s’y emploie.

Les statistiques sur le nombre d’étudiants allant à l’université pour étudier l’informatique donnent à réfléchir. En 2003, environ 16 500 étudiants postulaient à l’UCAS (NdT : Universities and Colleges Admissions Service, service gérant les admissions à l’Université au Royaum-Uni) pour des places en cours d’informatique.

En 2007, ce nombre était tombé à 10 600, bien qu’il soit un peu remonté depuis, 13 600 l’année dernière, à cause de la hausse globale des demandes à l’université. Le pourcentage d’étudiants cherchant à étudier le sujet est donc descendu de 5% à 3%. Plus encore, la réputation de l’informatique comme domaine réservé aux hommes geeks a été renforcée, avec un pourcentage de candidats masculins en hausse de 84% à 87%.

Mais le problème, d’après les promoteurs du changement, commence dès l’école avec les ICT (NdT : Technologies de l’Information et de la Communication, TIC ou TICE chez nous), une matière vu par ses détracteurs comme l’enseignement de simples compétences techniques (NdT : Savoir mettre en gras dans un traitement de texte par exemple) plutôt que de la réelle compréhension de l’informatique.

Et il semble bien que les enfants reçoivent le même message car ils sont de moins en moins à étudier cette matière. La réponse, d’après les entreprises et associations qui appellent au changement, est de mettre des cours d’informatique appropriés au programme, sous forme d’apprentissage à la programmation.

Et il semblerait bien qu’ils aient trouvé ce qui pourrait être un bon slogan pour leur campagne. « Coder, c’est le nouveau latin », dit Alex Hope, co-auteur du rapport de Next Gen qui a donné le signal de départ à tout cela. « Nous devons donner aux enfants une compréhension correcte des ordinateurs si nous voulons qu’ils puissent comprendre et s’adapter à toutes sortes de futurs métiers. ».

M. Hope croit fermement que l’association des nouvelles technologies et de l’industrie culturelle est le meilleur espoir de la Grande Bretagne — et il est bien placé pour le savoir.

Son entreprise d’effets spéciaux Double Negative est une belle réussite, avec des apparitions aux génériques de Films comme Harry Potter, Batman ou Inception, pour lequel elle a gagné un Oscar. Il emploie désormais plus d’un millier de personnes depuis ses débuts éblouissants en 1998.

Alex Hope dit que sa société a besoin d’un riche mélange de talents : « nous cherchons des génies universels — des gens avec des connaissances en informatique, mathématiques, physique, ou arts plastiques qui peuvent toutes s’épanouir et se développer ». Il explique comment le travail pour donner une apparence réelle à la Tamise en image de synthèse dans Harry Potter implique des mathématiques et de la physique complexe.

Mais il trouve difficile de recruter des personnes avec une expérience en sciences dites dures. « Nous ne produisons tout simplement pas assez de diplomés avec des compétences en informatique ou en mathématiques ».

Comme bien d’autres tirant la sonnette d’alarme pour une éducation différente, Alex Hope en revient à 1980 lorsqu’il apprenait à programmer en utilisant un BBC Micro. Aujourd’hui, il va être rejoint par le principal ingénieur de Google au Royaume-Uni et le dirigeant de Microsoft éducation au Royaume-Uni pour proposer une nouvelle approche. Ils disent rien de moins que c’est le potentiel de croissance et d’emplois qui est en jeu pour une partie vitale de l’économie.

« Le gouvernement cherche des opportunités de croissance » dit Alex Hope. « Pour cela, ils y a nécessité à former les programmeurs dont les entreprises créatives et de hautes technologies ont et auront besoin pour monter leurs affaires ».

Et il semble que le gouvernement soit réceptif à ce message. Il y a deux semaines, j’ai posé des questions au premier ministre concernant le problème de l’éducation à l’informatique. David Cameron a admis que « nous ne faisons pas assez pour former la prochaine génération de programmeurs », et déclaré que des actions seraient menées à ce sujet.

Nous découvrirons bientôt de quels types d’actions il s’agit, lorsque le gouvernement publiera ses réponses au rapport de Next Gen écrit par Alex Hope et Ian Livingstone. On attend une réponse largement positive, bien qu’un engagement définitif de mettre tout de suite l’informatique au programme soit peu probable.

Mais ce qui pourrait être plus important, ce serait de changer l’image de cette matière. Et alors que « coder est le nouveau latin » est peut-être un bon message à envoyer aux parents et aux politiciens, quelque chose de plus sexy sera nécessaire pour convaincre les écoliers que l’informatique est quelque chose de cool.




L’industrie du Copyright – Un siècle de mensonge

Jonathan Powell - CC byDepuis plus d’un siècle les chiens du copyright aboient, la caravane qui transporte la création passe…

Piano mécanique, gramophone, radio, film parlant, télévision, photocopieuse, cassette audio, mp3, internet… à chaque fois qu’est apparu une nouvelle technologie, elle a drainé inévitablement avec elle sa cohorte de réactionnaires hostiles[1].

C’est alors toujours la même rengaine : on brandit la menace de la mort du message alors qu’il ne s’agit que de la mort des messagers qui profitaient du système précédent et qu’il y aura toujours des auteurs de messages.

Une nouvelle traduction de notre ami Rick Falkvinge qui rend optimiste quant à l’issue du combat actuel.

L’industrie du Copyright – Un siècle de mensonge

The Copyright Industry – A Century Of Deceit

Rick Falkvinge – 27 novembre 2011 – Torrent Freak
(Traduction Framalang / Twitter : Kamui57, Yoha, Goofy, Jean-Fred, e-Jim et FredB)

On dit qu’il faut étudier l’Histoire pour ne pas être condamné à répéter les erreurs du passé. L’industrie du copyright a ainsi appris qu’elle pouvait profiter de sa position de monopole et de rentière à chaque apparition d’une nouvelle technologie, simplement en se plaignant assez fort auprès des législateurs.

Ces cent dernières années ont vu l’apparition de nombreuses avancées techniques en matière de diffusion, de duplication et de transmission de la culture. Mais cela a également induit en erreur les législateurs, qui tentent de protéger l’ancien au détriment du nouveau, simplement parce que le premier se plaint. D’abord, jetons un œil à ce que l’industrie du copyright a tenté d’interdire, ou du moins taxer au seul motif de son existence.

Cela a commencé vers 1905, lorsque le piano mécanique est devenu populaire. Les vendeurs de partitions de musique ont affirmé que ce serait la fin de l’art s’ils ne pouvaient plus gagner leur vie en étant l’intermédiaire entre les compositeurs et le public, alors ils ont demandé l’interdiction du piano mécanique. Une célébre lettre de 1906 affirme que le gramophone et le piano mécanique seraient la fin de l’art, et de fait, la fin d’un monde vivant et musical.

Dans les années 1920, alors que la radiodiffusion émergeait, une industrie concurrente demanda son interdiction car elle rognait ses bénéfices. Les ventes de disques ont chuté de 75 millions de dollars en 1929 à 5 millions seulement 4 ans plus tard — une chute bien plus forte que ce que connaît actuellement l’industrie du disque. (à noter que la chute des bénéfices coïncide avec la crise de 1929) L’industrie du copyright a attaqué en justice les stations radio, et les entreprises de collecte ont commencé à récolter une part des bénéfices des stations sous couvert de frais de diffusion. Des lois ont proposé d’immuniser le nouveau médium de diffusion qu’était la radio contre les propriétaires des droits d’auteur, mais elles n’ont pas été votées.

Dans les années 1930, les films muets ont été supplantés par les films avec des pistes audio. Chaque cinéma employait jusque-là un orchestre pour jouer la musique accompagnant les films muets ; désormais, ceux-ci étaient au chômage. Il est possible que cela fût le pire développement technologique pour les musiciens et interprètes professionnels. Leurs syndicats demandèrent des emplois garantis pour ces musiciens, sous différentes formes.

Dans les années 1940, l’industrie du cinéma s’est plainte de ce que la télévision entraînerait la mort du cinéma, alors que les recettes de l’industrie cinématographique avaient plongé de 120 millions de dollars à 31 millions en cinq ans. Une citation célèbre : « Pourquoi payer pour aller voir un film lorsque vous pouvez le regarder gratuitement chez vous ? »

En 1972, l’industrie du copyright a tenté d’interdire la photocopieuse. Cette campagne venait des éditeurs de livres et magazines. « Le jour n’est peut-être pas loin où personne n’aura à acheter de livres. »

Les années 1970 ont vu l’arrivée de la cassette audio, et c’est à cette période que l’industrie du copyright s’est acharnée à revendiquer son dû. Des publicités scandant « L’enregistrement maison tue la musique ! » étaient diffusées partout. Le groupe Dead Kennedys est connu pour y avoir répondu en changeant subtilement le message en « L’enregistrement maison tue les profits de l’industrie musicale », et « Nous laissons cette face (de la cassette) vierge, pour que vous puissiez aider.»

Les années 1970 ont également été un autre tournant majeur, où les DJ et haut-parleurs ont commencé à prendre la place des orchestres de danse. Les syndicats et l’industrie du copyright sont devenus fous furieux et ont suggéré une « taxe disco » qui serait imposée aux lieux qui diffusent de la musique disco enregistrée, pour être collectée par des organisations privées sous mandat gouvernemental et redistribuées aux orchestres. Cela fait rire de bon cœur de nos jours, mais les rires tournent court lorsqu’on apprend que la taxe disco a réellement été créée, et existe toujours.

Les années 1980 sont un chapitre singulier avec l’apparition des enregistreurs sur cassettes. Depuis cette période, la célèbre citation du plus haut représentant de l’industrie du copyright prononcée au Congrès des États-Unis d’Amérique « Le magnétoscope est aux producteurs et au public américain ce que l’Étrangleur de Boston est à la femme seule au foyer » est entrée dans la légende. Malgré tout, il faut garder à l’esprit que l’affaire Sony-Betamax est allée jusqu’à la Cour suprème des Etats-Unis, et que le magnétoscope n’a jamais été aussi proche d’être écrasé par l’industrie du copyright : l’équipe du Betamax a gagné l’affaire par 5 votes à 4.

Toujours à la fin des années 1980, nous avons assisté au flop complet de la Digital Audio Tape (DAT), principalement parce que l’industrie du copyright a été autorisée à orienter la conception en faveur de ses intérêts. Cette cassette, bien que techniquement supérieure à la cassette audio analogique, empêchait délibérément la copie de musique, à un point tel que le grand public la rejeta en bloc. C’est un exemple de technologie que l’industrie du copyright a réussi à tuer, bien que je doute que cela ait été intentionnel : on a simplement exaucé leurs vœux sur le fonctionnement du matériel afin de ne pas perturber le statu-quo.

En 1994, la Fraunhofer-Gesellschaft publia un prototype d’implémentation de sa technique de codage numérique qui devait révolutionner l’audio numérique. Elle rendait possible des fichiers audio de qualité CD n’occupant qu’un dixième de cet espace, ce qui était très apprécié à cette époque où un disque dur typique ne faisait que quelques gigaoctets. Connu sous le nom technique de MPEG-1 Audio Layer III, il a rapidement été connu sous le nom de « MP3 » dans la vie courante. L’industrie du copyright s’est encore plainte, le qualifiant de technologie ne pouvant être utilisée qu’à des fins criminelles. Le premier lecteur de MP3 à succès, le Diamond Rio, a vu le jour en 1998. Il avait 32 mégaoctets de mémoire. Malgré des bonnes ventes, l’industrie du copyright a attaqué son créateur, Diamond Multimedia, jusqu’à l’oubli : alors que le procès était invalidé, l’entreprise ne s’est pas remise du fardeau de sa défense. Les avocats de ces industries ont agressivement tenté d’obtenir l’interdiction des lecteurs MP3.

À la fin du siècle, les apôtres du copyright firent pression en faveur d’une nouvelle loi aux États-Unis, le Digital Millennium Copyright Act (DMCA), qui aurait tué Internet et les média sociaux en introduisant la responsabilité de l’intermédiaire — tuant dans l’œuf les réseaux sociaux. C’est seulement avec de gros efforts que l’industrie technologique a évité le désastre en introduisant une « responsabilité amoindrie » qui protège les hébergeurs à condition que ceux-ci dénoncent les utilisateurs finaux sur demande. Internet et les media sociaux ont échappé de très peu au massacre opéré par l’industrie du copyright, et n’en sont pas encore pleinement remis.

Juste après le début du nouveau siècle, l’utilisation des enregistreurs numériques était considérée comme du vol car elle permettait d’éviter les coupures publicitaires (comme si personne ne faisait cela avant).

En 2003, l’industrie du copyright a tenté de s’immiscer dans le design de la HDTV, avec un « broadcast flag » (littéralement « marqueur de diffusion ») qui aurait rendu illégale la fabrication de matériel capable de copier des films ainsi marqués. Aux États-Unis, la FCC (« Federal Communications Commission » ? « Commission fédérale des communications ») a miraculeusement accédé à cette demande, mais le projet a été réduit en cendres par les juges, qui ont déclaré qu’elle avait outrepassé ses prérogatives.

Ce que nous avons là, c’est un siècle de mensonges, un siècle qui met au grand jour la culture interne propre à l’industrie du copyright. Chaque fois qu’une nouveauté est apparue, l’industrie du copyright a appris à pleurer comme un bébé affamé, et a presque à chaque fois réussi à faire en sorte que le législateur dirige vers elle l’argent du contribuable ou restreigne les industries concurrentes. Et à chaque fois que l’industrie du copyright réussit à le faire, ce comportement s’en est trouvé encore renforcé.

Il est plus que temps que l’industrie du copyright perde ses privilèges, chacune des redevances qu’elles perçoit et qu’elle soit expulsée de son nid douillet pour se mettre au boulot et apprendre à opérer sur un marché libre et équitable.

Notes

[1] Crédit photo : Jonathan Powell (Creative Commons By)




Google Chrome deviendra-t-il un nouvel IE6 ?

Denis Dervisevic - CC byBon ben voilà, c’est fait, le navigateur Google Chrome est passé devant Firefox au niveau mondial la semaine dernière. En France cela résiste plutôt bien, mais pour combien de temps encore ?

Ce qui avait été prédit ici-même il y a deux ans, alors que Chrome n’avait à peine que 6% du marché, s’est malheureusement révélé exact : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien (avec plus de 200 commentaires à la clé).

Dans cet article on pouvait lire en outre ce passage : « Pour ne rien arranger, rappelons également la situation schizophrénique et paradoxale des ressources de la Mozilla Foundation apportées à plus de 90% par l’accord avec… Google ! Quand vous dépendez financièrement d’un partenaire qui se transforme jour après jour en votre principal concurrent, vous vous sentez légèrement coincé aux entournures ! »

Or justement, nous y sommes, car une grosse inquiétude plane actuellement sur la reconduction du partenariat, rendant plus compliquée encore la situation[1].

Mais il y a pire. Comme relatée dans la traduction ci-dessous, Google, conforté par sa position de plus en plus dominante, commence à tomber dans le côté obscur de la force pour proposer des services « optimisés » pour Chrome (comprendre qui marche mieux ou qui marche tout court dans Chrome et uniquement dans Chrome). Gmail, Google Docs, Google Maps, etc. et si un jour vous vous retrouviez contraint de surfer sous Chrome pour utiliser pleinement ces services ?

Ce serait une belle régression et une belle menace pour un Web libre, neutre et ouvert. Et alors la comparaison avec le tristement célèbre Internet Explorer 6 n’est pas si exagérée que cela !

Pour aller plus loin et continuer à prendre garde, on pourra parcourir les articles du tag Chrome du Framablog.

Google Chrome est-il le nouveau IE6 ?

Is Google Chrome the New IE6?

Michael Muchmore – 2 décembre 2011 – PC Mag
(Traduction Framalang : Poupoul, Goofy, Pandark, Marting, Duthils, Toufalk et Deadalnix)

Laissez moi vous parler d’un navigateur. Un navigateur innovant qui fut le premier à implémenter de nouvelles technologies Web permettant une meilleure interactivité. Un navigateur avec une nouvelle interface étonnante. Chrome ? Non, Internet Explorer 6.

Il y a une raison pour laquelle le navigateur de Microsoft prit 95 pour cent du marché des navigateurs Web à Netscape (l’ancêtre de Firefox) : IE6 pouvait faire des choses dont ses prédécesseurs étaient incapables. Il y avait le HTML dynamique, le langage CSS, et même (oui, oui) de nouvelles fonctionnalités en matière de sécurité.

Mais d’années en années, ces fonctionnalités uniques ont montré un tout autre visage. Tous les principaux sites web ont cherché à s’optimiser pour IE, à tel point que ces sites ne fonctionnaient plus correctement avec d’autres navigateurs.

Avançons rapidement jusqu’en 2011. Le nouveau navigateur à la mode s’appelle Google Chrome, qui, d’après StatCounter, vient juste de dépasser l’ex-favori indépendant Firefox en part de marché globale. Chrome peut faire des choses dont les autres navigateurs sont incapables, et Google ne connaît plus que Chrome, ce qui signifie que certains des sites de Google ne fonctionnent intégralement que dans Chrome. Même aujourd’hui, vous pouvez lire sur le blog de Google qu’il existe de nouveaux niveaux d’Angry Birds qui ne fonctionnent que dans Chrome.

C’est perturbant, quand on considère tout ce que Google a fait pour l’ouverture du Web ; Google n’existerait pas si de vrais standards ouverts n’existaient pas sur le Web. Mais de plus en plus, Chrome devient un portail vers les services Google, jusqu’à la mise au ban d’autres navigateurs.

Bien sûr, tout le monde peut faire un site web qui fonctionne sous Chrome, donc il est, d’une certaine façon, ouvert. Mais si ces sites fonctionnent uniquement sous Chrome et plus sous les autres navigateurs, nous avons un manque d’ouverture dans l’écosystème du Web. De même, tout le monde pouvait produire un site qui fonctionnait parfaitement avec IE6, mais nous avons aussi le même problème : le site ne fonctionnera pas complètement dans les autres navigateurs.

Des cas de services Google utilisables uniquement avec Chrome sont en train d’apparaitre. Très récemment, avec la sortie de Chrome 15, le leader de la recherche sur Internet a changé juste une petite fonctionnalité de l’interface — la page d’un nouvel onglet. Et il l’a fait de manière à promouvoir le « Chrome Web Store » de l’entreprise. Cet « app » store — les apps étant en fait tout simplement des sites Web — ne fonctionne qu’avec Chrome. Avant ça, la société annonçait enfin la possibilité d’utiliser le service de webmail Gmail hors-ligne. Et devinez quoi ? Ça ne fonctionne que si vous utilisez Chrome.

Ce ne sont pas les seuls exemples de services de Google à ne fonctionner que sous Chrome ; il y a aussi, parmi tant d’autres, Google Instant Page, Google Cloud Print, le glisser-déposer et l’upload de dossiers dans Google Docs, les notifications des évènements du calendrier et des emails de Google Apps.

Un autre « standard », SPDY, pourrait transformer le Web en Google Wide Web (NdT : référence au World Wide Web). SPDY est un remplacement à HTTP qui compresse les données d’en-tête et permet des connexions persistantes entre le serveur et les navigateurs. Il s’avère que certains sites de Google utilisent déjà SPDY lorsque vous naviguez avec Chrome. De même que pour les Instant Pages, la technologie est disponible à l’implémentation pour les éditeurs Web, mais encore une fois, Google lui-même est le seul acteur majeur à le supporter. Un bon truc, des interactions Web plus rapides, mais n’oublions pas qu’un accès universel avec n’importe quel logiciel est la raison première pour laquelle le Web a décollé.

Cette stratégie prend l’exemple de Microsoft pour IE6 et l’étend à une échelle beaucoup plus grande. Le client Web Outlook (premier exemple majeur de site utilisant massivement Ajax, proche d’une app) ne permettait d’utiliser la fonctionnalité de recherche dans votre boîte de réception que si vous utilisiez Internet Explorer. C’est exactement ce que Google a commencé à faire : offrir un service Web qui fonctionne presque dans tous les navigateurs, mais nécessite le navigateur de l’entreprise pour fonctionner complètement. Heureusement, Microsoft a abandonné ces fonctionnalités réservées à IE. Espérons que Google en fera de même.

Lors d’une discussion que j’ai eu récemment avec Hakum Lie, directeur technique du développeur de navigateur Opera Software, le scandinave s’est inquiété de la démarche de Google.

« Il arrive souvent que Google lance des services sans les tester dans tous les navigateurs. On se réveille parfois un matin avec un nouveau service Google dont certains bugs auraient pu être corrigés s’ils avaient travaillé avec nous pendant la phase de developpement » a dit Lie. « Maintenant qu’ils ont leur propre navigateur, ils pensent moins à s’assurer que tout marche pour tout le monde, ce qui est préoccupant parce que Google n’aurait pas existé sans des standards ouverts. Nous serions probablement restés dans le giron de Microsoft ».

Mais Lie reconnaiît que Google a contribué aux standards du Web, « Certaines de ces expériences sont géniales », dit-il. « Nous avons besoin d’expérimentations de ce genre et on ne peut pas exiger que tout fonctionne avec tous les navigateurs. Mais vous devriez tester avec les navigateurs les plus populaires ».

Les Chromebook sont encore plus verrouillés et privateurs de liberté puisque ce ne sont quasiment que des navigateurs dans des boîtes vides. « Ce que nous reprochons au Chromebook c’est qu’il s’agit d’une plateforme très fermée », dit Lie. « Nous avons râlé après Microsoft pendant toutes ces années, mais avec Windows, vous pouviez au moins créer un navigateur concurrent ».

On pourrait dire la même chose pour les machines Apple tournant sous iOS, comme les iPads. Mais bien que les Chromebooks ne soient pas aussi populaires que les iPad, si un jour tous les ordinateurs sont des Chromebooks, le choix du navigateur et l’ouverture seront des concepts appartenant au passé.

Comme toutes les multinationales, Google veut être le premier partout où elle le peut. Elle a déjà réussi dans la recherche en ligne. Ne vous méprenez pas, Google a fait un boulot fantastique. Chrome ne serait pas aussi populaire si ce n’était pas le cas. C’est mon choix en tant qu’éditeur de PCMag parce qu’il est beaucoup plus rapide que ses prédecesseurs. L’arrivée de Chrome sur la scène a obligé tous les autres navigateurs à s’améliorer. J’espère seulement que ces améliorations n’entraveront pas l’ouverture et l’interopérabilité.

Notes

[1] Crédit photo : Denis Dervisevic (Creative Commons By)




L’Islande, la crise, la révolution et moi

Laurent Gauthier - CC byL’article que nous vous proposons traduit aujourd’hui est hors-sujet par rapport à ce que nous publions habituellement. Il est de plus sujet à caution car certainement un peu simpliste voire angélique dans son propos et ses arguments.

Il n’empêche qu’il a été aussitôt retweeté cet été par Naomi Klein : « #Iceland is proving that it is possible to resist the Shock Doctrine, and refuse to pay for the bankers crisis ».

Il n’empêche surtout qu’il s’est passé des choses intéressantes en Islande depuis la crise monétaire de 2008. Et il est étonnant de constater le peu d’entrain de nos grands médias pour en parler, alors que c’est nous que la crise frappe désormais de plein fouet.

En agissant en conséquence, peut-on dire symboliquement « non à la Banque, oui à la Démocratie ! » comme on dirait « non au Logiciel Propriétaire, oui au Logiciel Libre ! » ou encore « non à l’Hadopi, oui au Partage ! » ?

Il fallait oser cette dernière phrase ! J’ai osé, en cherchant (désespérément) le lien avec la ligne éditoriale du Framablog 🙂

Une oppression, suivie de tentatives de libération témoignant qu’il est possible de s’engager dans une autre direction. Ce que nous dit l’Islande[1] ici c’est qu’il n’y a pas forcément une fatalité à subir les logique de la finance mondiale et qu’on peut rebondir en impliquant les citoyens.

Ou alors continuons à laisser les experts travailler, ces gens sérieux qui eux seuls savent ce qui est bon pour nous…

Pour en savoir plus (rapidement) sur ce projet de nouvelle « Constitution collaborative », on pourra voir ce reportage glané sur YouTube et parcourir ce récent billet beaucoup plus pragmatique que romantique d’Owni. N’oublions pas non plus que l’Islande se trouve à la pointe des expérimentation sur la liberté d’expression à l’ère d’Internet.

Et pour une critique directe de l’article ci-dessous, on pourra lire A Deconstruction of “Iceland’s On-going Revolution”.

La révolution en marche de l’Islande

Iceland’s On-going Revolution

Deena Stryker – 1 août 2011 – Daily Kos
(Traduction Framalang : Lolo le 13, Goofy, Pandark et Yonnel)

Un reportage à la radio italienne à propos de la révolution en cours en Islande est un exemple frappant du peu d’intérêt de nos médias pour le reste du monde. Les Américains se rappeleront peut-être qu’au début de la crise financière de 2008, l’Islande a littéralement fait banqueroute. Les raisons ont été indiquées seulement en passant, et depuis, ce membre peu connu de l’Espace économique européen est retourné aux oubliettes de l’info.

Alors même que l’un après l’autre chaque pays européen tombe ou risque de tomber, mettant en péril l’euro, avec des répercussions dans le monde entier, la dernière chose que les puissants souhaitent est que l’Islande devienne un exemple. Voici pourquoi.

Cinq ans de régime néo-libéral strict avaient fait de l’Islande (dont la population compte 320 000 habitants, et qui n’a pas d’armée) un des pays les plus riches au monde. En 2003 toutes les banques du pays furent privatisées, et dans un effort pour attirer les investisseurs étrangers, elles ont proposé des services en ligne dont le faible coût permettait d’offrir des taux de rendement relativement élevés. Les comptes titres, appelés IceSave, attiraient énormément de petits épargnants anglais et néerlandais. mais à mesure que les investissements croissaient, la dette extérieure des banques augmentait aussi. En 2003 la dette de l’Islande équivalait à 200 fois son PNB, et en 2007, elle était de 900%. La crise financière mondiale de 2008 fut le coup de grâce. Les trois principales banques islandaises, Landbanki, Kapthing and Glitnir, se retrouvèrent sur la paille et furent nationalisées, pendant que la couronne islandaise perdait 85% de sa valeur par rapport à l’euro. À la fin de l’année l’Islande se déclara en banqueroute.

Contrairement à ce qu’on pouvait imaginer, la crise finit par permettre aux Islandais de retrouver leurs droits souverains, grâce à un processus de démocratie participative directe qui aboutit à une nouvelle constitution. Mais ce ne fut pas sans mal.

Geir Haarde, le premier ministre de la coalition gouvernementale social-démocrate, négocia un prêt de deux millions cent mille dollars, auquel les pays scandinaves ajoutèrent deux autres millions et demi. Mais les marchés financiers firent pression sur l’Islande pour lui imposer des mesures drastiques. Le FMI et l’Union européenne voulaient récupérer sa dette, prétendant que c’était la seule façon pour le pays de rembourser les Pays-Bas et la Grande-Bretagne, qui avaient promis de rembourser leurs citoyens.

Les manifestations et les émeutes continuèrent, et finirent par contraindre le gouvernement à démissionner. Des élections anticipées eurent lieu en avril 2009, portant au pouvoir une coalition de gauche qui condamnait le système économique néolibéral, mais qui posa comme exigence immédiate que l’Islande devrait rembourser un montant de trois millions et demi d’euros. Ce qui revenait à demander à chaque citoyen islandais la somme de 100 euros par mois pendant quinze ans, à un taux de 5,5%, pour rembourser une dette contractée par des sociétés privées auprès d’autres acteurs privés. C’était la goutte d’eau qui fit déborder le vase.

Ce qui s’ensuivit fut extraordinaire. On croyait que les citoyens devaient payer pour les erreurs des monopoles financiers, et qu’une nation tout entière devait subir des impôts pour rembourser des dettes privées, mais ce mythe vola en éclats. Cela changea complètement la relation entre les citoyens et leurs institutions politiques et en définitive les dirigeants islandais se retrouvèrent du côté de leurs électeurs. Le chef d’État, Olafur Ragnar Grimsson, refusa de ratifier le décret qui aurait rendu les citoyens islandais responsables des dettes des banques, et il accepta de recourir à un référendum.

Bien sûr, la communauté internationale ne fit qu’augmenter la pression sur l’Islande. La Grande-Bretagne et la Hollande la menacèrent d’affreuses représailles qui isoleraient le pays. Alors que les Islandais allaient voter, les banquiers étrangers menacèrent de bloquer toute aide du FMI. Le gouvernement britannique menaça de geler l’épargne et les comptes courants islandais. Comme l’a dit Grimsson : « On nous avait dit que si nous refusions les conditions de la communauté internationale, nous deviendrions le Cuba du Nord. Mais si nous avions accepté, nous serions devenu le Haïti du Nord » (combien de fois ai-je écrit que les Cubains se considèrent chanceux en voyant l’état de leur voisin Haïti).

Au référendum de mars 2010, il y eut 93% des votes contre le remboursement de la dette. Le FMI gela immédiatement son prêt. Mais la révolution (bien que non télévisée aux États-Unis) ne saurait être intimidée. Avec le soutien des citoyens furieux, le gouvernement lança une procédure civile et pénale contre les responsables de la crise financière. Interpol lança un mandat d’arrêt international contre l’ex-président de Kaupthing, Sigurdur Einarsson, alors que les autres banquiers impliqués dans le krach fuyaient le pays.

Mais les Islandais ne s’arrêtèrent pas là : ils décidèrent de jeter les bases d’une nouvelle constitution qui libèrerait le pays du pouvoir outrancier de la finance internationale et de l’argent virtuel (la constitution en vigueur datait de l’époque où l’Islande avait acquis son indépendance vis-à-vis du Danemark, en 1918, et la seule différence avec la constitution danoise était que le mot « président » remplaçait le mot « roi »).

Pour écrire la nouvelle constitution, les Islandais élirent 25 citoyens parmi 522 adultes qui n’appartenaient à aucun parti mais étaient recommandés par au moins 30 citoyens. Ce document n’était pas le travail d’une poignée de politiciens, mais fut écrit sur Internet. Les réunions de la constituante sont diffusées en streaming et des citoyens peuvent envoyer leurs commentaires et suggestions, assistant à l’élaboration du document pas à pas. La constitution qui émergera finalement de ce procédé démocratique participatif sera soumise à l’approbation du parlement après les prochaines éléctions.

Certains lecteurs se souviendront que l’effondrement de l’économie agraire de l’Islande au neuvième siècle était détaillée dans le livre de Jared Diamond du même nom. Aujourd’hui, ce pays se relève de son effondrement financier par des moyens diamétralement opposés à ceux que l’on considère généralement inévitables, comme l’a confirmé hier la nouvelle présidente du FMI Christine Lagarde à Fareed Zakaria. On a dit au peuple grec que la privatisation de son secteur public était la seule solution. Et les peuples d’Italie, d’Espagne et du Portugal doivent faire face à la même menace.

Ils devraient jeter un coup d’œil du côté de l’Islande. En refusant de courber l’échine face aux intérêts étrangers, ce petit pays a fait savoir haut et fort que ce sont les peuples qui commandent.

Voilà pourquoi on n’en entend plus parler aux infos.

Notes

[1] Crédit photo : Laurent Gauthier (Creative Commons By)




Encourager ou criminaliser le jailbreaking ? Un choix de société !

FHKE - CC by-saDrôle de monde que celui dans lequel nous vivons et qui entrave à tous les étages le partage et le bidouillage.

Parce que déverrouiller son iPhone ou son Android n’est pas qu’un jeu gratuit pour hackers malfaisants. Il permet, mais si, mais si, de favoriser l’innovation, d’améliorer la sécurité et d’assurer une meilleure protection de ses données personnelles.

Cela répond également à la légitime curiosité d’aller regarder sous le capot pour comprendre comment les choses fonctionnent[1].

Messieurs les censeurs, écoutez l’appel de l’Electronic Frontier Foundation, et cessez de criminaliser des pratiques utiles à la communauté. Et ne nous y trompons pas, derrière ce petit problème technique se cache (n’ayons pas peur des mots) un véritable choix de société.

Pourquoi Apple, Sony, Amazon, Microsoft et les autres devraient encourager le jailbreaking

Why Apple (and Sony, Amazon, Microsoft etc.) Should Support Jailbreaking

Trevor Timm – 2 décembre 2011 – EFF.org
(Traduction Framalang : Goofy, Clochix et Poupoul2)

Hier l’Electronic Frontier Foundation a demandé à l’administration du Copyright des États-Unis d’accorder une exemption au Digital Millenium Act en faveur du droit de « jailbreaker » les smartphones, les tablettes et les consoles de jeux vidéos. Ces exceptions visent à épargner aux utilisateurs tout souci légal qui pourraient les empêcher de faire tourner des applications et des systèmes d’exploitation qui ne sont pas approuvés par le fabricant de l’appareil. Elles amendent la section 1201 du DMCA qui interdit tout contournement de « mesure technique qui contrôle effectivement l’accès à une œuvre protégée à ce titre ».

En 2009, malgré les cris d’orfraie et la vive opposition d’Apple, l’EFF a obtenu du bureau du Copyright le droit pour les utilisateurs de déverrouiller les iPhones et autres smartphones. C’est en partie grâce à cette disposition légale qu’une communauté en ligne très active s’est constituée autour du jailbreaking pour perfectionner à un degré incommensurable l’innovation, la sécurité, la confidentialité sur ces appareils.

Pourquoi donc Apple et les autres fabricants s’opposeraient-ils à ce processus ? Voilà une question intéressante. Quand Apple a combattu la première fois le droit légal de jailbreaker, la firme a prétendu que cela nuirait à son modèle économique en ruinant sa rentabilité. Pourtant les profits d’Apple atteignent des records jamais atteints selon toutes les statistiques fiables.

En réalité, loin de nuire à des entreprises comme Apple, la communauté autour du jailbreaking finit souvent par leur rendre service, dans la mesure où Apple et d’autres fabricants finissent par adopter de nombreuses fonctionnalités qui avaient été exclues dans un premier temps. Faisons une petite rétrospective de tous le bénéfices du jailbreaking à la fois pour les industriels et les utilisateurs de smartphones, et voyons pourquoi cette pratique devrait être étendue aux tablettes et consoles de jeux vidéos comme le PlayStation 3, la Wii de Nintendo et la XBox 360.

Innovation

À tous égards, la communauté du jailbreaking a formidablement amélioré l’ergonomie des smartphones. Ses membres ont par exemple développé des applications, d’abord rejetées par Apple, qui permettait aux anciennes versions de l’iPhone d’enregistrer des vidéos. Les jailbreakers ont également été les premiers à réussir à configurer le clavier pour qu’il se connecte sans fil au smartphone. Apple a par la suite adopté chacune de ces fonctionnalités.

Ce processus d’imitation a été reproduit pour un tas d’autres innovations initiées par la communauté du jailbreaking, depuis la conception de l’interface utilisateur jusqu’à la gestion des applications sur le téléphone. Comme l’a remarqué David Kravets du magazine Wired, « parmi ces bidouillages on trouve les notifications qui se replient, l’accès direct à la caméra depuis l’écran d’accueil verrouillé et la synchronisation sans fil, pour n’en citer que quelques-uns ».

Sécurité

Les améliorations de la sécurité développées par la communauté des jailbreakers protègent les utilisateurs de smartphones quand le fabricant tarde à régler les problèmes de vulnérabilité ou les néglige carrément.

Quand on a découvert une faille de sécurité à l’ouverture d’un fichier PDF par le navigateur de l’iPhone, Apple ne s’est pas pressé pour régler le problème. Les utilisateurs qui ne voulaient pas attendre que le fabricant s’en occupe avaient une meilleure façon de se protéger : débrider leur appareil et installer un correctif « non autorisé » créé par un développeur indépendant.

Mais la débâcle de DigiNotar en 2011 est le meilleur exemple pour expliquer pourquoi il est si vital de pouvoir déverrouiller un téléphone. Jusqu’à une époque récente, DigiNotar était une autorité de certification — une organisation qui émet des certificats numériques utilisés pour authentifier et sécuriser les communications entre différents services en ligne, comme les transactions de cartes de crédit. Mais en septembre, elle a été piratée et a commencé à émettre des certificats frauduleux, qui ont permis à des utilisateurs mal intentionnés de compromettre des terminaux et des services. Les premières versions d’Android ne se mettaient pas à jour automatiquement, ne laissant aux utilisateurs avec d’anciens systèmes d’exploitation d’autre recours que de déverrouiller leur téléphone pour pouvoir se protéger.

Confidentialité

Alors que les préoccupations sur le respect de la vie privée par les terminaux mobiles augmentent, la communauté des « déverrouilleurs de téléphones » a aussi été vitale en rendant le respect de la vie privée plus sécurisé lorsque les fabricants ne s’en souciaient pas.

Les ouvreurs de prisons numériques ont été les premiers à introduire une application non autorisée sur l’iPhone qui masque les messages apparaissant automatiquement sur l’écran pour signaler qui est aux alentours. Les déverrouilleurs ont également créé une modification du logiciel pour empêcher la journalisation d’informations détaillées sur la localisation de l’iPhone à laquelle se livrait Apple sans y avoir été autorisée. De même, sur Android, une application non autorisée appelée LBE Privacy Guard permet aux utilisateurs de chercher et surveiller les données sensibles auxquelles des applications tierces pourraient essayer d’accéder. Mais ces applications protectrices de la vie privée ne sont accessibles qu’aux utilisateurs qui déverrouillent leur terminal.

La popularité des tablettes a explosé au cours des dernières années, et l’EFF veut que les utilisateurs de terminaux comme l’iPad et le Nook bénéficient également de ce dont ont profité les utilisateurs de smartphones au cours des trois dernières années.

Mais ce n’est pas tout, nous réclamons également une exemption pour les consoles de jeu vidéo.

Consoles de jeux vidéo

Les fabricants de consoles de jeu comme la PlayStation 3, la Xbox et la Wii de Nintendo limitent également le système d’exploitation de l’utilisateur, et les options des logiciels, même lorsque rien ne prouve que d’autres programmes violeraient le copyright. L’exception que nous réclamons permettrait aux utilisateurs d’exécuter le système de leur choix sur leurs consoles, aussi bien que des applications « maison » écrites par eux-mêmes.

Les consoles de jeu vidéo ont des processeurs puissants qui peuvent permettre aux gens de les utiliser comme des alternatives peu coûteuses aux PC de bureau. Des chercheurs, et même l’armée des EUA, ont transformé des grappes de PS3 en puissants supercalculateurs, à l’époque où Sony permettait l’installation de systèmes d’exploitation alternatifs. Mais Sony a supprimé cette possibilité avec une mise à jour du firmware en 2010, et les PS3 ne peuvent désormais plus faire tourner Linux sans être déverrouillées. En fait, plus tôt cette année, Sony avait été jusqu’à poursuivre quelques chercheurs qui avaient publié des informations sur des trous de sécurité qui permettraient aux gens d’installer et de faire tourner Linux sur leur PS3 personnelle. Nous espérons que l’exception que nous cherchons à obtenir énoncera clairement que les gens ont le droit de faire tourner le système d’exploitation et les applications de leur choix sur leur machine.

L’EFF adjure Apple, Sony et les autres de soutenir cette demande d’exemption au DMCA pour améliorer l’expérience des utilisateurs et garantir la sécurité et la confidentialité de leurs données personnelles.

Notes

[1] Crédit photo : FHKE (Creative Commons By-Sa)




L’ordinateur personnel est mort pour laisser place à des prisons dorées ?

Victoria Reay - CC byQu’est-ce que Framasoft, si ce n’est au départ avant tout un vaste service se proposant de mettre en relation les développeurs et les utilisateurs (que l’on souhaite toujours plus nombreux) de logiciels libres.

Un service d’autant plus pertinent que l’on peut facilement installer et tester les logiciels et que les développeurs (dont on n’entrave ni la création ni l’innovation) se trouvent disséminés un peu partout sur le Web.

Le problème c’est qu’aujourd’hui tout ce processus est remis en cause par le développement conjoint du cloud et des appareils mobiles (smartphones, tablettes…) à qui l’on demande de ne venir s’abreuver qu’à une seule source dûment contrôlée : la boutique d’applications, ou apps, Apple ou Google. Pire encore, ces plateformes fermées ne se contentent pas de proposer des applications « logiciel », elle offrent également des applications « contenu ». Et c’est toute l’information qui se trouve prisonnière du bon vouloir de quelques sociétés (américaines) qui détiennent alors un pouvoir potentiel exorbitant.

Même des ses rêves hégémoniques les plus fous, Microsoft n’aurait osé envisager une telle situation pour ses PC Windows qui, en comparaison, apparaissent tout d’un coup bien plus ouverts qu’il ne l’étaient une dizaine d’années auparavant[1].

Certains appellent cela le progrès et célèbrent avec ferveur et dévotion le génial Steve Jobs à l’occasion de son triste départ. D’autres ne doivent pas s’en laisser compter, parce que quand la trappe sera définitivement refermée, il sera trop tard…

Jonathan Zittrain est professeur de droit et d’informatique à Harvard et est l’auteur de The Future of the Internet and How to Stop It.

L’ordinateur personnel est mort

The Personal Computer Is Dead

Jonathan Zittrain – 30 novembre 2011 – TechnologyReview
(Traduction Framalang : Clochix et Goofy)

Le pouvoir migre rapidement des utilisateurs finaux et des développeurs de logiciels vers les vendeurs de systèmes d’exploitation.

Le PC est mort. Le nombre croissant de terminaux mobiles, légers et centré sur le cloud n’est pas qu’une mue dans la forme. Au contraire, nous sommes en présence d’un transfert de pouvoir sans précédent des utilisateurs finaux et des développeurs logiciels d’un côté vers les vendeurs de systèmes d’exploitation de l’autre — et même ceux qui conservent leur PC sont emportés par ce mouvement. C’est un peu pour le meilleur, et beaucoup pour le pire.

C’est une transformation de produits en services. Les applications que nous avions l’habitude d’acheter tous les deux ou trois ans — comme les systèmes d’exploitation — sont désormais en relation permanente avec le vendeur, tant pour les utilisateurs finaux que pour les développeurs de logiciels. J’avais décrit cette mutation, motivée par un désir d’une meilleure sécurité et de plus de confort, dans mon livre de 2008 Le futur de l’Internet — et comment l’arrêter.

Pendant des années, nous avons utilisé avec plaisir un moyen simple de créer des logiciels et de les partager ou de les vendre. Les gens achetaient des ordinateurs généralistes, des PC y compris ceux qu’on appelle Mac. Ces ordinateurs étaient livrés avec un système d’exploitation qui s’occupait des tâches de base. Tout le monde pouvait écrire et exécuter un logiciel pour un système d’exploitation donné, et c’est ainsi que sont apparus une suite sans fin de tableurs, traitements de texte, messageries instantanées, navigateurs Web, clients de messagerie et jeux. Ces logiciels allaient du sublime au ridicule et au dangereux — pour en décider il n’y avait d’autre arbitre que le bon goût et le bon sens de l’utilisateur, avec un peu d’aide de sites Web rédigés par des passionnés d’informatique et des logiciels antivirus (cela fonctionnait tant que l’antivirus n’était pas lui-même un malware, chose qui a eu tendance à devenir fâcheusement monnaie courante).

Choisir un système d’exploitation (ou OS), c’était aussi faire le choix des logiciels qui y étaient attachés. Windows plutôt que Mac signifiait opter sur le long terme entre différentes collections de logiciels. Même si parfois un développeur offrait des versions de son logiciel pour chaque OS, migrer d’un OS à un autre signifiait qu’il fallait racheter ce logiciel.

C’est une des raisons pour lesquelles nous avons fini par avoir un OS dominant ces deux dernières décennies. Les gens étaient sous Windows, ce qui poussait les développeurs de logiciels à coder pour Windows, ce qui incitait davantage de gens à acheter Windows, ce qui le rendait encore plus attirant pour les développeurs, et ainsi de suite. Dans les années 90, les gouvernements américains et européens se sont lancées dans une bataille contre la position dominante de Microsoft, bataille légendaire et pourtant facilement oubliable vue d’aujourd’hui. Leur principal reproche ? Microsoft a faussé la concurrence entre son propre navigateur, Internet Explorer, et son principal concurrent de l’époque, Netscape Navigator. Microsoft a procédé en imposant aux fabricants de PC de s’assurer qu’Internet Explorer serait prêt à être utilisé sur le bureau de Windows lorsque l’utilisateur déballerait son ordinateur et l’allumerait (la fameuse icône du « E bleu »). Des années de procédure et un dossier de trois kilomètres de long peuvent se résumer en un péché original : un fabricant de système d’exploitation avait excessivement favorisé ses propres applications.

Lorsque l’iPhone est arrivé sur le marché en 2007, sa conception était bien plus restrictive. Aucun code étranger n’était autorisé sur le téléphone, toutes les applications installées étaient issues d’Apple. On n’y a pas pris garde sur le moment car ça n’était qu’un téléphone et non un ordinateur, et les téléphones concurrents étaient tout autant verrouillés. Nous comptions sur les ordinateurs pour être des plateformes ouvertes et considérions ces téléphones comme de simples appareils, plus proches des postes de radio, des téléviseurs et des percolateurs.

Puis, en 2008, Apple a annoncé un kit de développement logiciel pour l’iPhone. Les développeurs tiers étaient invités à créer des logiciels pour le téléphone, de la même manière qu’ils l’avaient fait pendant des années avec Windows et Mac OS. Avec une grosse différence : les utilisateurs ne pouvaient installer un logiciel sur leur téléphone que s’il était disponible dans la boutique Apple d’applications pour iPhone. Les développeurs devaient montrer patte blanche et être accrédités par Apple. Ainsi chaque application se trouvait être contrôlée et filtrée selon les critères propres, flous et changeants d’Apple. Par exemple, les applications qui émulaient ou même amélioraient les propres applications d’Apple n’étaient pas autorisées. Le péché originel de Microsoft était devenu bien pire. Le problème n’était pas de savoir si on pouvait acheter un iPhone sans le navigateur Safari d’Apple. Il était qu’aucun autre navigateur ne serait autorisé (et s’il était, il ne s’agissait que d’une tolérance ponctuelle d’Apple). Sans oublier que pas moins de 30% du prix de chaque application vendue pour l’iPhone (et de de toutes les transactions effectuées grâce à l’application) vont dans les poches d’Apple.

Même Microsoft, connu pour ses logiciels privateurs, n’aurait pas osé prélever une taxe sur chaque bout de code écrit par d’autres pour Windows, mais peut-être n’était-ce dû qu’au fait qu’en l’absence de connexion fiable à Internet dans les années 90, il n’y avait aucun moyen réaliste de le faire en gérant les achats et les licences. Quinze ans plus tard, c’est exactement ce qu’Apple a fait avec la boutique d’applications pour iOS.

En 2008, on pouvait penser que cette situation n’était pas aussi inquiétante que le comportement de Microsoft à l’époque de la guerre des navigateurs. D’abord parce que la part d’Apple dans le marché des téléphones mobiles n’avait rien à voir avec la domination de Microsoft sur le marché des systèmes d’exploitation pour PC. Ensuite parce qu’on était passé d’un système totalement verrouillé en 2007 à un système partiellement ouvert aux développeurs extérieurs. De plus, bien qu’Apple rejetât de nombreuses applications pour n’importe quelle raison (et que certains développeurs étaient suffisament apeurés par le couperet qu’ils confessaient avoir peur de dire publiquement du mal d’Apple), dans les faits des centaines de milliers d’application passaient la barrière. Enfin, indépendamment de la volonté de contrôle d’Apple, ces restrictions avaient au moins quelques bonnes raisons sécuritaires sur le papier, au moment même où le nombre croissant de logiciels malveillants voyait le monde du PC Windows glisser de l’anarchie au chaos. Une mauvaise frappe sur le clavier ou un mauvais clic de souris pouvait livrer tout le contenu du PC à un lointain créateur de virus. Apple était déterminé à ce que cela n’arrive pas avec l’iPhone.

À la fin de 2008, il y avait à priori encore moins de raisons de s’inquiéter : la place de marché pour le système Android de Google avait été inaugurée (NdT : Android Market), créant de la compétition pour l’iPhone avec un modèle un peu moins paranoïaque de développement d’applications par des tiers. Les développeurs devaient toujours s’enregistrer pour proposer des logiciels via la place de marché, mais une fois qu’ils étaient enregistrés, ils pouvaient diffuser leur logiciel immédiatement, sans que Google les contrôle. Il y avait encore une taxe de 30% sur les ventes, et les applications qui ne respectaient pas les règles pouvaient être supprimées rétroactivement de la place de marché. Mais il y avait et il y a toujours une grosse soupape de sécurité : les développeurs pouvaient donner ou vendre leurs applications directement aux possesseurs de terminaux Android, sous passer par Android Market. S’ils n’aimaient pas les règles de la place de marché, cela ne signifiait pas qu’ils devaient renoncer à atteindre les utilisateurs d’Android. Aujourd’hui, la part de marché d’Android est nettement supérieure à celle de l’iPhone (c’est l’inverse pour les tablettes, actuellement trustée par l’iPad à 97% mais de nouvelles tablettes arrivent, comme le Kindle Fire d’Amazon basé sur Android et le roi peut rapidement être démis de son trône).

Avec cette évolution positive et ces réponses apportées entre 2007 et 2011, pourquoi devrions-nous alors nous inquiéter ?

La principale raison relève de l’effet boule de neige du modèle de l’iPhone. Le modèle de la boutique d’applications est revenu comme un boomerang sur le PC. On trouve à présent une telle boutique pour le Mac qui correspond à celles de l’iPhone et de l’iPad, et elle comporte les mêmes restrictions. Certaines, acceptées car jugées normales dans le cadre d’un téléphone mobile, semblent beaucoup moins familières dans le monde de l’ordinateur de bureau.

Par exemple, les logiciels dans la boutique pour Mac n’ont pas le droit de modifier l’apparence de l’environnement du Mac. (Ironique de la part d’une compagnie dont un précédent slogan incitait les gens à penser différemment). Les développeurs ne peuvent ainsi ajouter une icône pour leur application sur le bureau ou dans le dock sans demander la permission à l’utilisateur, ce qui est un extraordinaire écho à ce qui a valu des ennuis à Microsoft (bien que dans le cas de Microsoft le problème était d’interdire la suppression de l’icône d’Internet Explorer, mais jamais Microsoft n’a essayé d’empêcher l’ajout d’icônes d’autres applications, qu’elles soient installées par le constructeur du PC ou par l’utilisateur). Les développeurs ne peuvent pas développer de fonctionnalités déjà présentes dans la boutique. Ils ne peuvent pas diffuser leur logiciel sous une licence libre, car les termes de ces licences entrent en conflit avec ceux de la licence d’Apple.

Les restrictions de contenus sont des territoires encore inexplorés. Du haut de sa domination du marché Windows, Microsoft n’a eu aucun rôle dans le choix des logiciels qui pourraient ou ne pourraient pas s’exécuter sur ses machines, et encore moins son mot à dire pour autoriser le contenu de ces applications à voir la lumière de l’écran. L’éditorialiste dessinateur Mark Fiore, lauréat du Prix Pulitzer, a ainsi vu son application iPhone refusée car elle contenait du « contenu qui ridiculisait des personnalités publiques ». Fiore était suffisamment connu pour que ce refus provoque des froncements de sourcils, et Apple est revenue sur sa décision. Mais le fait que des applications doivent de manière routinière être approuvées masque à quel point la situation est extraordinaire : des entreprises de technologies ont entrepris d’approuver, un à un, tous les textes, les images et les sons que nous sommes autorisés à trouver et utiliser sur les portails que nous utilisons le plus souvent pour nous connecter au réseau mondial. Est-ce ainsi que nous souhaitons que la culture se diffuse ?

C’est d’autant plus dérangeant que les gouvernements ont réalisé que ce cadre rend leur propre censure bien plus facile : alors que leur lutte pour arrêter la diffusion de livres, tracts et à présent de sites Web ressemblait au travail de Sisyphe, elle va de plus en plus se résumer à l’envoi de demandes de suppression aux gardiens des portails numériques. Soudain, les contenus dérangeants peuvent être supprimés en mettant la pression sur un intermédiaire technique. Lorsque Exodus International (« mobiliser le corps du Christ pour soigner par la grâce et la vérité un monde impacté par l’homosexualité ») a publié une application qui entre autres lançait des invectives contre l’homosexualité, ses opposants ne se sont pas contenté de mal la noter (il y avait deux fois plus de notations une étoile que cinq étoiles), mais ils ont également envoyé des pétitions à Apple pour lui demander de supprimer l’application. Apple l’a fait (NdT : cf cet article des Inrocks).

Précisons qu’à la différence de ses homologues pour iPhone et iPad, la boutique d’applications pour Mac n’est pas le seul moyen de mettre des logiciels sur un Mac. Pour l’instant, vous pouvez toujours installer des logiciels sans passer par la boutique. Et même sur l’iPhone et l’iPad, qui sont bien plus verrouillés, il reste le navigateur : Apple peut contrôler le contenu des applications (et de ce fait en être jugée responsable) mais personne ne semble penser qu’Apple devrait se lancer dans le contrôle, le filtrage et la restriction de sites Web que les utilisateurs du navigateur Safari peuvent visiter. Une question aux gens qui ont lancé la pétition contre Exodus : est-ce que vous seriez également favorables à une pétition demandant qu’Apple interdise aux utilisateurs de Safari d’aller sur le site Web d’Exodus ? Sinon, qu’elle différence faites-vous, puisque Apple pourrait très simplement programmer Safari pour implémenter de telles restrictions ? Y a-t-il un sens à ce que les épisodes de South Park puissent être téléchargés via iTunes, mais que l’application South Park, qui contient le même contenu, ait été bannie de l’App Store ?

Étant donné que des applications tierces peuvent toujours s’exécuter sur un Mac et sur Android, il faut se demander pourquoi les boutiques et les places de marché occupent une position aussi dominante (et suffisamment attractives pour que les développeurs acceptent de relever le défi de faire approuver leurs applications et de perdre 30% de leurs revenus) plutôt que de simplement vendre directement leurs applications. L’iPhone a des restrictions sur l’exécution de code tiers, mais les développeurs peuvent toujours, dans de nombreux cas, se débrouiller pour offrir les fonctionnalités via un site Web enrichi et accessible avec le navigateur Safari du téléphone. Très rares sont les structures qui ont cette démarche avec leurs développeurs. Le Financial Times est un de ces fournisseurs de contenus qui a retiré son application de la boutique iOS pour éviter de partager avec Apple les données de ses utilisateurs et ses profits, mais il est isolé dans le monde des médias.

La réponse réside peut-être dans des choses en apparence triviales. En effet, même un ou deux clics de plus peuvent dissuader un utilisateur de consommer ce qu’il avait l’intention de faire (une leçon que l’affaire Microsoft a mise en lumière, quand l’accessibilité d’Internet Explorer directement sur le bureau a été vue comme un avantage déterminant par rapport à Netscape que les utilisateurs devaient télécharger et installer). Le choix par défaut a tous les pouvoirs, un constat confirmé par le montant des accords pour choisir le moteur par défaut des navigateurs. Ce genre d’accords a fourni en 2010 à Mozilla, le créateur de Firefox, 97% de ses revenus, c’est-à-dire pas moins de 121 millions de dollars. La soupape de sécurité des applications « tout-terrain » semble moins utile lorsque les gens sont attirés par les boutiques et les places de marché pour chercher sans effort les applications dont ils ont besoin.

La sécurité est également un facteur à prendre en considération. Lorsqu’ils voient tant de logiciels malveillant dans la nature, les consommateurs peuvent vouloir déléguer le contrôle de leurs programmes aux vendeurs de systèmes d’exploitation. Il existe une grande variété d’approches pour gérer la question de la sécurité, certaines impliquant l’utilisation d’un bac à sable, c’est à dire d’un environnement protégé à l’intérieur duquel s’exécute le logiciel. L’exécution dans un bac à sable sera bientôt obligatoire pour les application de la boutique pour Mac. On trouvera plus d’informations sur le sujet et une discussion sur ses avantages et ses inconvénients, ici.

Le fait est qu’aujourd’hui les développeurs écrivent du code en veillant non seulement à ce qu’il soit acceptable par les consommateurs, mais aussi par les vendeurs. Aujourd’hui, si un développeur souhaite proposer une application, il va devoir nécessairement en passer par la place de marché Android de Google et par la boutique iOS d’Apple; aucun des deux ne peut remplacer l’autre. Les deux placent le développeur dans une relation de dépendance avec le vendeur du système d’exploitation. L’utilisateur aussi est mis en difficulté : si je migre de l’iPhone à Android, je ne peux pas emporter mes applications avec moi, et vice-versa. Et au fur et à mesure que le contenu est distribué par des applications, cela peut signifier que je ne peux pas non plus emporter avec moi mon contenu ! (ou, si je peux, c’est uniquement parce qu’il y a un autre acteur comme Amazon qui a une application qui s’exécute sur plus d’une plateforme, aggrégeant le contenu). On ne se libère ici de la relation suffocante avec Apple, Google ou Microsoft que grace à un nouvel entrant comme Amazon, qui a structurellement la dimension suffisante pour peser et faire la même chose.

L’avènement du PC et du Web ont été un formidable accélérateur de communication et d’innovation. Des myriades d’applications sont nées créant une relation directe entre développeurs et utilisateurs sur des myriades de sites Web. À présent l’activité s’agglutine autour d’une poignée de portails, deux ou trois fabricants de systèmes d’exploitation qui sont en position de gérer en continu toutes les applications (et leur contenu).

Les développeurs de logiciels et les utilisateurs devraient exiger davantage. Les développeurs devraient chercher des moyens d’atteindre leurs utilisateurs sans être entravés, via des plateformes ouvertes, ou en faisant pression sur les conditions imposées par les plateformes fermées. Et les utilisateurs, informés et avertis, ne doivent pas céder à la facilité et au confort, en retournant à l’esprit originel du PC.

Si nous nous laissons bercer, voire hypnotiser, par ces beaux jardins clos, nous passerons à côté des innovations que les gardiens de ces jardins refusent. Et nous pouvons nous préparer à une censure du code et des contenus qui aurait été impossible et inenvisageable quelques années auparavant. Nous avons besoin de nerds en colère.

Notes

[1] Crédit photo : Victoria Reay (Creative Commons By)