Le jour où la suite bureautique MS Office devint fréquentable ?

Kevin N. Murphy - CC byLe 28 avril prochain, Microsoft devrait mettre en ligne sa nouvelle mise à jour majeure de la suite Office 2007 (dans le vocable Microsoft, on parle de Service Pack, ici le numéro 2, donc SP2).

C’est un évènement beaucoup plus important qu’il n’y parait. En effet, parmi les nouveautés, la célèbre suite bureautique intégrera pour la première fois nativement le format ouvert Open Document Format.

Auparavant on pouvait en théorie lire et écrire en ODF sur la suite Office, mais il fallait télécharger un plugin et faire tout un tas de manipulations compliquées pour arriver au résultat souhaité (lire le rapport Becta pour avoir de plus amples informations).

En arriver là ne fut pas une mince affaire, il aura fallu mettre la pression sur Microsoft qui, avec son arrogance sa manière de faire habituelle, souhaitait plutôt nous imposer son propre format de fichier, le très controversé OOXML.

Toujours est-il qu’on tient enfin là un format de fichier bureautique, ouvert, standard, et en pratique réellement interopérable (en admettant bien entendu que la qualité technique soit bel et bien au rendez-vous). D’un coup d’un seul, la principale critique faite à la suite MS Office tombe, et l’on se retrouve avec un produit beaucoup plus fréquentable, pourvu que les utilisateurs de cette suite aient la bonne idée et lire, écrire et échanger par défaut avec le format ODF (ce qui, a mon humble avis, nécessitera tout de même un temps d’adaptation où il faudra être patient et pédagogue).

Pour « célébrer » l’événement, nous avons choisi de traduire un vieil article Jonathan Schwartz, PDG de Sun, qui témoigne de l’intérêt fondamental de posséder des formats ouverts, en bureautique comme ailleurs[1].

Mes photos de famille – et ODF

My Family Photos – and ODF

Jonathan Schwartz – 12 février 2007 – Blog
(Traduction : Poupoul2, Goofy et Olivier)

Il y a quelques années, alors que je me trouvais chez mes parents, j’ai passé un peu de temps à regarder de vieilles photos de famille tirées d’une boîte à chaussures. C’était sympa. J’y prenais beaucoup de plaisir… jusqu’à ce que je m’aperçoive que la plupart de ces photos étaient uniques. C’est à dire qu’il s’agissait d’exemplaires uniques. Uniques au monde. Et pour au moins l’un des membres de ma famille, il n’existait que deux ou trois photos prises au long de sa vie. Ouch !

Une boîte à chaussures, me dis-je. Un peu archaïque, non ? Et si jamais il y avait une inondation, ou pire encore, un feu ? Voici des photos que je veux partager avec ma famille et transmettre de génération en génération. Je veux que mes enfants en connaissent l’histoire, et mes petits-enfants, et les enfants de mes petits enfants.

Alors, j’ai fait ce que tout bon fils ferait : j’ai convaincu mes parents de me laisser leur subtiliser la boîte un certain temps, je suis rentré à la maison et j’ai numérisé les photos (j’ai aussi rendu la boîte à mes parents).

Les photos numérisées se trouvaient désormais sur mon disque dur. Dans mon portable. Dans ma cuisine (c’est là que vit mon portable).

Étant donné ce qui se passe tous les jours dans ma cuisine, elles s’y trouvaient sans doute moins en sécurité que dans leur boîte à chaussures. Et un point pour l’archaïsme. Un échec, un !

J’ai alors gravé quelques DVDs, les ai distribués autour de moi, et en ai donné quelques-uns aux autres membres de la famille. Cela va sans dire, la plupart des DVDs ont été perdus, ce n’est pas un hasard si les administrateurs système amateurs restent amateurs… Et deux échecs, deux !.

La bonne nouvelle, c’est qu’un jour, quelqu’un de brillant a dit que le réseau est l’ordinateur… Il y a quelque temps, j’ai décidé de les télécharger sur mon service de photos en ligne. Si vous allez vous résoudre à surveiller une boîte à chaussures, autant se tourner vers quelqu’un dont c’est le métier, qui surveille déjà plein d’autres boîtes à chaussure et qui pourrait bien être le meilleur au monde dans ce domaine.

Et puis je me suis demandé…

Comment puis-je garantir que le service sera au rendez-vous, ou que je serais capable de visualiser les images que j’y ai stockées… pas seulement dans un an, mais dans cinq ou cinquante ans ? Que se passera-t-il si les images survivent à la technologie ?

Le décor étant planté, voilà qui illustre bien la raison d’être de ce petit truc qu’on appelle Open Document Format.

Mettez vous dans la peau du législateur écrivant un texte de loi, ou dans celle d’un médecin rédigeant l’ordonnance de son patient, ou encore dans celle d’un étudiant travaillant sur une nouvelle de son cru. Et cinq ou cinquante ans plus tard vous prend l’envie de revoir vos documents. Sauf que le développeur de l’application qui a servi à créer ces documents, l’entreprise qui a créé le traitement de texte a, au choix, cessé son activité, ou décidé de vous demander $10000 pour vous fournir une version capable de lire de vieux formats de fichiers. L’information survit toujours à la technologie, ces scénarios en sont de bons exemples.

Que faites vous alors ?

Premier réflexe : vous râlez. Après tout, l’information que vous avez créée vous appartient à vous et pas à l’éditeur. C’est pareil pour vos photos de famille, vous imaginez qu’un fabricant d’appareil photo vous demande de passer à la caisse avant que vous ne puissiez voir vos propres photos ? C’est là tout le danger lié aux des applications n’utilisant pas des formats de fichiers ouverts. N’oubliez pas, l’information survit à la technologie.

C’est la raison pour laquelle, aux côtés de quelques-uns des plus grands groupes technologiques, ainsi que d’une foule de gouvernements et d’organismes du monde entier, nous avons créé quelque chose que l’on appelle Open Document Format (ou "ODF" de son petit nom). ODF décrit un format ouvert pour les informations contenues dans des documents, indépendant des applications utilisées pour créer les documents enregistrés en ODF.

En d’autres termes, si vous écrivez un texte de loi, un dossier médical ou une fiche réglementaire avec un traitement de texte supportant aujourd’hui l’ODF, et que vous avez besoin d’y accéder n’importe quand dans l’avenir, vous serez libre de le faire à vos conditions. ODF est un véritable format standard, mis en oeuvre par des éditeurs variés (d’IBM à Sun, en passant par Google, Red Hat et même Microsoft désormais), et adopté à une très large échelle sur toute la planète. Et c’est gratuit.

My family photos and ODF - Google docsLa pérennité de l’information et des formats de fichiers est plus qu’essentielle pour des institutions et des entreprises adoptant des politiques de rétention de documents allant bien au-delà de la vie utile du logiciel (ou des employés) qui a permis la création des documents. La disponibilité de l’information est ainsi garantie dans l’avenir. Il en va de même pour nos photographies dans nos boîtes à chaussures. En tant que CIO (NdT : Directeur informatique) à la maison, j’exige que les images me survivent.

Et juste au cas où vous auriez raté une étape, nous travaillons avec Google pour garantir l’interopérabilité entre les documents bureautique de Google et les documents OpenOffice, élevant l’ODF au rang de mécanisme d’échange. Tout document créé avec la suite bureautique de Google peut être aisément exporté vers (et bientôt importé de) OpenOffice (voir la copie d’écran). Combinés, les 2 produits permettent aux entreprises et aux particuliers de préserver, dans le monde entier et pour plusieurs générations, l’accès aux lois, aux contrats, aux dossiers médicaux, aux journaux ou aux plans stratégiques. Et c’est strictement pareil pour les présentations et les feuilles de calculs.

Enfin, pour ceux qui découvrent OpenOffice, il s’agit d’une suite bureautique libre, qui sera toujours gratuite, pour les entreprises comme pour les utilisateurs finaux. D’après nos estimations, nous en avons distribué des centaines de millions de copies autour du monde (cliquez ici pour le télécharger). Et maintenant que Microsoft a annoncé le support de l’ODF, les utilisateurs peuvent sereinement penser qu’OpenOffice peut être introduit dans toutes les chaumières et les bureaux, pas uniquement dans les pays en voie de développement, mais aussi dans les pays développés. Dans quelques semaines, vous aurez la possibilité de télécharger ici un plug-in ODF, qui permettra à Microsoft Word de lire et écrire de l’ODF par défaut. Une fois installé, vous le verrez apparaître dans les options de Word :

my family photos and ODF - MS Office

(Je mettrai un lien dès que le plug-in sera prêt)

À partir de maintenant, ODF devient votre format par défaut. Que vous soyez une compagnie pétrolière ou un étudiant, ODF vous permettra une interopérabilité sans heurts entre des environnements Open Source ou propriétaires, aussi longtemps que le standard (et pas la technologie ou le produit) existera.

Du point de vue des entreprises, de grandes institutions peuvent envisager une migration en douceur, les cadres pourraient conserver Microsoft Word, tandis que le reste du personnel peut passer à une alternative interopérable (par exemple : le traitement de texte de Google ou OpenOffice, ou même les deux). Accessibilité et interopérabilité sont de bonnes choses pour Internet, et nous avons bien l’intention de les utiliser pour les générations futures.

Notes

[1] Crédit photo : Kevin N. Murphy (Creative Commons By)




Démo Firefox 3.5 : le Rich Media collaboratif

Firefox 3.5 - Paul RougetLa sortie de Firefox 3.5 approche à grands pas. Les nouveautés au rendez-vous seront nombreuses (TraceMonkey, Canvas, CSS3, etc). Parmi ces dernières, on notera le fait de pouvoir afficher des vidéos directement dans le navigateur, sans avoir besoin d’utiliser de plugins propriétaires comme Flash. Bref, plein de bonnes nouvelles en perspective.

Là où cela devient encore plus intéressant, c’est lorsque l’on commence à mixer ces technologies. Ainsi, l’ami Paul Rouget avait déjà démontré qu’on pouvait mixer la vidéo avec Javascript (cobaye : Delphine), avec Canvas (cobaye : William), avec CSS3 (cobaye : Tristan). N’hésitez pas à télécharger Firefox 3.1/3.5 (actuellement en bêta) pour tester par vous même ces innovations qui, et c’est une excellente nouvelle pour le logiciel libre, reposent entièrement sur des technologies et des standards ouverts.

La dernière démo de Paul (cobaye : lui-même), bien planquée au fond de son dossier de geek, m’a enthousiasmée.

Il s’agit tout simplement de rajouter des sous-titres sur une vidéo. Techniquement, la démo parait moins impressionnante que les autres, mais elle permet de donner un caractère concret à ce qui relevait jusqu’à présent de la prouesse technologique.

D’abord, ces sous titres sont lus depuis un fichier texte on ne peut plus basique (Paul a retenu le format ouvert de sous-titres SRT, mais il aurait pu en choisir un autre), traités en Javascript, et affichés par dessus la vidéo. Les sous-titres ne sont pas incrustés, mais bien affichés au-dessus de la vidéo, tout en restant synchronisés avec celle-ci !

Ensuite, les sous-titres peuvent utiliser le HTML+CSS. Cela signifie qu’on peut y intégrer la police de son choix, des images, des liens hypertextes, etc. juste en modifiant le contenu (HTML) ou les CSS (mise en forme).

Enfin, puisqu’il s’agit de fichiers textes, on a besoin que d’une seule vidéo (sans sous-titres) et on peut donc passer d’une langue à l’autre à l’autre sans avoir besoin de recharger la vidéo (ni d’y réincruster les sous-titres, ce sont les amateurs de fansubs qui vont être contents). : Je vous laisse voir la démonstration originale (Firefox 3.1 obligatoire), ou regarder la vidéo ci-dessous.

—> La vidéo au format webm

Les perspectives de ces « vidéos enrichies » me semblent vraiment intéressantes. Parmi celles-ci, les esprits chagrins me citeront la possibilité d’insérer de la publicité dynamiques avec images et liens (y a un business les gars, foncez !), mais aussi un accès plus simple et plus ouvert a des technologies jusque là complexes ou lourdes à mettre en oeuvre.

Par exemple, dans l’éducation, la question du Rich Media est récurrente depuis des années, mais le SMIL n’a jamais vraiment perçé (même dans sa version 2). Là, il sera vraiment très simple de synchroniser une vidéo (de l’enseignant, par exemple) associée à des documents (graphiques, par exemple), le tout éventuellement sous-titré ou avec une explication avec texte et liens hypertextes sous la vidéo.

Enfin, en se basant sur des standards ouverts, Mozilla ouvre aussi la porte au travail communautaire. Ainsi, dans la démonstration ci-dessus, je termine par un exemple de sous-titrage collaboratif. En effet, si le fichier texte contenant les sous-titres est dans un fichier local, alors ce dernier pourrait très bien se trouver dans un wiki distant ! J’ai donc modifié (très) légèrement l’exemple de Paul Rouget, en pointant vers une page de wiki[1]. Lorsque cette dernière est modifiée, les sous-titres le sont immédiatement. Par conséquent, et sans avoir de boule de cristal, je pense que l’on tient là un excellent moyen d’avoir des sous-titres pouvant être créés, modifiés, corrigés ou traduits par des non-informaticiens ou non-vidéastes. Parmi les premiers à en profiter, on pourra sans doute compter sur Wikipedia, dont le projet Commons contient déjà de nombreuses vidéos libres prêtes à être intégrée dans Firefox 3.5 (ou tout autre navigateur implémentant ces standards ouverts).

Firefox, à vous d’inventer le web qui va avec !

Paul, je te devais déjà une Chouffe, tu viens de doubler ton score 🙂

Notes

[1] Au lieu d’un fichier .srt, j’ai utilisé un petit fichier PHP qui va lire le contenu de la page du Wiki, élimine le superflu pour ne garder que la partie sous-titre.




3 000 jours de retard pour Hadopi

Inocuo - CC byIl y a une semaine, Sylvain Zimmer, l’un des fondateurs de la plate-forme de musique « libre, légale et illimitée » Jamendo, faisait paraître un intéressant article témoignage dans la presse (en l’occurrence Le Monde), que nous avons choisi de reproduire ici avec son autorisation (oui, je sais, c’est sous licence Creative Commons, donc il n’y a pas besoin d’autorisation, mais rien n’empêche l’élégance et la courtoisie).

3 000 jours de retard, ça nous ramène directement à l’époque de l’apogée de Napster, où il n’était quand même pas si compliqué de comprendre que nous étions à l’aube de grands bouleversements[1] dans le monde musical…

3 000 jours de retard pour HADOPI

Sylvain Zimmer – 12 avril 2009 – Jamendo
Paru initialement dans le supplément TV du Monde
Licence Creative Commons By-Sa

Pour comprendre pour quel Internet a été pensée la loi Hadopi, il faut revenir seulement 3 000 jours en arrière. Un disque dur de 15 Go coûtait 100 euros. Les réseaux peer-to-peer n’étaient pas encore cryptés, on pouvait rêver de les contrôler un jour. Je n’avais que 16 ans à l’époque, mais je me souviens encore du peu de gens dans la rue qui portaient des écouteurs. Forcément, l’iPod n’existait pas. Wikipédia, Facebook et YouTube non plus. Trois des sept sites les plus fréquentés aujourd’hui, tous gratuits.

Que s’est-il passé entre-temps qui a manifestement échappé aux douze députés ayant voté pour la loi Hadopi ? L’innovation. Des géants sont nés dans les garages de quelques auto-entrepreneurs et ont révolutionné l’accès à la culture en la rendant gratuite pour tous. On peut les accuser d’avoir fait chuter les ventes de CD, mais déjà à 16 ans je savais que je n’en achèterai aucun de ma vie. Cela ne m’a pas empêché de dépenser plus de 8 000 euros, depuis, en places de concert. Le marché de la musique se transforme, mais globalement ne cesse de grossir. Nous passons d’une économie de stock où le mélomane était limité par son budget CD à une économie de flux où la valeur ne se situe plus dans la musique elle-même (car elle est numérique, donc illimitée, donc gratuite), mais dans ce qu’elle représente : la relation entre un artiste et ses fans.

En 2008, la meilleure vente de musique en ligne sur Amazon a été un album de Nine Inch Nails, un groupe qui distribue pourtant sa musique gratuitement et légalement par ailleurs. Qu’ont donc acheté ces gens ? Certainement pas la musique elle-même. Comme les millions d’autres qui l’ont écoutée gratuitement, ils sont devenus fans, l’ont « streamée », partagée sur Facebook ou ailleurs, l’ont recommandée à leurs amis qui, à leur tour, ont acheté places de concert, coffrets collectors et autres produits ou services dérivés.

Tous les jours, des milliers d’artistes comprennent ce qu’ils ont à gagner dans la diffusion gratuite. La fidélité accrue de leurs fans crée de la valeur. Soyons cyniques : peut-être que la loi Hadopi servira à accélérer cette transformation de l’économie culturelle, cette éducation des artistes au monde numérique. Quand arriveront les premières lettres recommandées, les premières coupures d’Internet, quel cadeau pour le gratuit et légal ! Quelle remise en question pour l’artiste constatant que ses fans, punis, n’ont plus accès à Wikipédia !

Plus concrètement, comme les lois LCEN et DADVSI qui l’ont précédée, on se souviendra (ou pas) d’Hadopi comme d’une loi inapplicable dès son premier jour, imaginée pour une économie et des technologies déjà dépassées. Un gaspillage de temps et d’argent que le gouvernement aurait certainement mieux fait de consacrer à des lois plus pertinentes en faveur de l’environnement ou des auto-entrepreneurs. Car ce sont eux qui aujourd’hui innovent et préparent ce que sera Internet dans 3 000 jours. Quand l’industrie musicale existera toujours, mais ne vendra plus de disques. Quand télécharger un film prendra moins d’une seconde. Quand 200 ans de musique tiendront dans la poche. Quand une nouvelle génération d’artistes n’aura ni e-mail ni ADSL, mais un compte Facebook et une connexion Internet sans fil permanente. C’est pour ce siècle-là, pas pour le précédent, que nous devons penser la culture.

Notes

[1] Crédit photo : Inocuo (Creative Commons By)




S’accommoder ou renoncer à Internet Explorer ?

L'actu en patates - Martin Vidberg

Ce dessin de Martin Vidberg illustre bien la situation actuelle des navigateurs. En effet si Internet Explorer ne s’était pas retrouvé d’office dans tous les ordinateurs sous Windows (obligeant toute substitution à un acte engagé de téléchargement), nous n’en serions pas là.

Non, ce n’est pas forcément en cliquant sur le gros E bleu de mon bureau que je vais accéder au réseau. Et oui, commençons (avant de voir plus loin) par éradiquer ce cancer du Net que constitue la version 6 du navigateur de Microsoft, qui fit perdre tant de temps et d’argent aux créateurs de sites web du monde entier.

Vous trouverez ci-dessous le témoignage d’un webdesigner, qui ne souhaite plus se faire de cheveux blancs, et qui, constatant la poussée salutaire de la concurrence, a décidé désormais de passer outre et d’ignorer IE.

Et si c’était au tour des utilisateurs de s’adapter, en prenant 5 minutes de leur temps pour installer une alternative ?

Internet Explorer : un casse-tête pour les designers Web

Internet Explorer Is To Web Standards What Ebonics Is To Standard English

Chris Berry – 18 avril 2009 – Blog
(Traduction Framalang : Balzane, Goofy et Olivier)

Chaque fois que je m’engage dans un nouveau projet de design de site Web, je constate l’impact négatif de Microsoft Internet Explorer. Comme je l’ai déjà dit, je ne réponds pas au cliché du casseur de Microsoft typique, et j’estime que l’augmentation constante de la productivité durant les 20 dernières années est pour une grande part à mettre au crédit de l’universalité de leur système d’exploitation et des logiciels Office. Ceux qui se souviennent de l’époque qui a précédé MS-DOS et Microsoft Office se rappelleront l’absence totale de standard qui rendait virtuellement impossible l’échange de documents avec quiconque n’utilisait pas le même système que vous. Je maintiens que leur monopole dans ce domaine a produit des effets bénéfiques pour tous.

À l’inverse, leur domination sur le marché des navigateurs Web a eu un impact manifestement négatif. Bill Gates reconnaît volontiers que son manque de flair vis-à-vis du développement d’Internet au début des années 90 fut l’une de ses plus grandes erreurs stratégiques. Pour compenser son arrivée relativement tardive sur ce secteur, la société a utilisé sa position monopolistique sur les systèmes d’exploitation pour modeler l’évolution d’Internet selon sa propre volonté. En l’absence de standard universellement accepté à l’origine, Microsoft a développé un navigateur qui tentait d’imposer au Web un fonctionnement identique à celui de n’importe quel autre produit Microsoft. Près de 15 ans plus tard, malgré le développement de standards Web largement reconnus, Microsoft n’a pas encore complètement abandonné cette approche. Aujourd’hui, Internet Explorer reste aux standards Web ce que le langage SMS est à l’orthographe.

La fourniture systématique des premières versions d’Internet Explorer avec le système d’exploitation Windows a assuré à Microsoft une acceptation quasi universelle de son produit, malgré ses limitations manifestes. Suivant les statistiques auxquelles vous vous fiez, de 2002 à 2004 Internet Explorer représentait entre 85 et 95 % de l’ensemble du trafic web. En conséquence, les webdesigners n’avaient pas d’autre solution que d’adapter leurs sites aux comportements propres aux navigateurs Microsoft.

Depuis 1994, le Worldwide Web Consortium (W3C) a travaillé à la mise en place de standards Web universellement reconnus et à empêcher de nouvelles implémentations de technologies propriétaires. Selon leur site Web :

Pour que le Web atteigne son plein potentiel, les technologies Web les plus fondamentales doivent être compatibles entre elles et fonctionner avec n’importe quel matériel et logiciel utilisé pour accéder au Web. Cet objectif est appelé au W3C « l’interopérabilité du Web ». En publiant des standards ouverts (non propriétaires) pour les langages et les protocoles du Web, le W3C ambitionne d’éviter la fragmentation du marché et la balkanisation du Web.

Bien que Microsoft soit membre du W3C, ils ont continué à proposer des produits qui ne remplissent que partiellement cet objectif capital.

Fort heureusement, la domination d’Internet Explorer sur le marché des navigateurs a considérablement diminué ces dernières années, et des navigateurs respectueux des standards comme Mozilla Firefox bénéficient d’une adoption large et rapide. Là encore les statistiques présentent des écarts considérables, mais selon les chiffres du W3C Schools, Firefox représente maintenant 46,5 % du trafic Web, à comparer aux 43,5 % que représentent les différentes versions d’Internet Explorer : IE6, IE7 et le dernier sorti IE8. Les utilisateurs avancés disposent maintenant d’un large choix de navigateurs respectueux des standards et, cumulés, Firefox, Google Chrome, Opera et Safari représentent maintenant 56,1% des navigateurs Web. Un pas de géant dans la bonne direction.

Hélas, 17 % des utilisateurs du Web font toujours confiance à Internet Explorer 6, un navigateur datant d’octobre 2001. Combien d’entre nous portent encore les mêmes vêtements ou regardent les mêmes émissions télés qu’il y a huit ans ? C’est l’année où on a découvert Loft Story et le Maillon Faible. Ces émissions sont apparues, puis ont disparu, mais IE6 lui est toujours parmi nous aujourd’hui. En matière d’espérance de vie, nos années passent encore plus vite pour un logiciel que pour un chien, mais pour diverses raisons IE6 refuse de mourir.

À l’exception des webdesigners et des experts en sécurité, la plupart des gens ne sont pas conscients des limitations importantes d’IE6 ou plus récemment d’IE7. Ils ne comprennent pas combien d’heures et de ressources sont gaspillées avant qu’un site au rendu parfait sous un navigateur conforme aux standards fonctionne aussi sous Internet Explorer. Jusqu’à récemment, bricoler avec les limitations de ces navigateurs était considéré comme un mal nécessaire et peu de designers acceptaient de publier un site si son affichage dans ces navigateurs imparfaits et obsolètes conduisait à une mise en page dégradée.

Compte tenu de la part de marché grandissante des navigateurs respectueux des standards, quelques designers hardis font évoluer leurs habitudes. Cela n’a aucun sens de passer d’innombrables heures à inventer des bidouilles inélégantes et des solutions de rechange disgracieuses pour s’adapter à des utilisateurs qui se cramponnent obstinément à une technologie obsolète. D’un point de vue commercial, il peut être difficile de résister à un client qui insiste pour que son site soit rétrocompatible avec une technologie préhistorique, mais il faut au moins le rendre conscient des coûts supplémentaires importants induits par son exigence.

Selon l’avis de certains, les designers passent autant de temps à obtenir un rendu correct d’un site dans IE qu’à créer le design original. Ceci constitue clairement un gâchis de temps et d’énergie phénoménal et représente une charge financière énorme dont les clients ont rarement conscience. Il faudrait au minimum leur expliquer ouvertement qu’assurer la rétrocompatibilité de leur site avec des navigateurs obsolètes reviendra sensiblement plus cher que la création d’un site conforme aux standards. Tant que les clients ne seront pas au courant que leurs exigences impliquent un tarif très élevé, les utilisateurs d’IE resteront inconscients des problèmes qu’ils causent.

Refuser purement et simplement de prendre en charge les navigateurs non conforme serait plus facile, mais cela ne constitue pas une solution réaliste. Nous pouvons agir pour sensibiliser les internautes néophytes à la nature et à l’étendue des problèmes qu’ils causent. Après avoir créé ce nouveau thème pour mon site, j’ai décidé de ne faire aucune modification pour les utilisateurs d’Internet Explorer. Si vous visitez ce site avec un navigateur respectueux des standards, son rendu sera exactement celui voulu. Si vous utilisez Internet Explorer, la mise en page sera dégradée. Les utilisateurs d’IE7 constateront entre autres qu’en arrière-plan les images et les couleurs ne sont pas assorties, que les boîtes de commentaires ne sont pas alignées avec la marge gauche. Si vous survolez les numéros de pages en bas de l’écran dans IE, vous allez probablement voir leur position sauter de 15 ou 20 pixels. Si vous regardez la page d’accueil ou l’une des pages d’archives, vous allez remarquer des espaces vides supplémentaires entre chaque extrait des billets. Ce sont juste quelques-uns des défauts que j’ai constatés jusqu’ici avec IE7, et je ne me suis même pas préoccupé d’afficher le site dans IE6. Je suppose que c’est bien pire.

Si vous voulez contribuer à débarrasser le monde des navigateurs non respectueux des standards, vous pouvez afficher le logo Bring Down IE6 (NdT : Meurs, IE6 !). Procurez-vous le vôtre dès aujourd’hui sur Bring Down IE6.com.




Quand Internet croit faire de la politique

Ted Percival - CC by« 18 juin 1940 – le général de Gaulle envoit un message sur Twitter et crée une cause sur Facebook. 19 juin 1940 – déjà plus de 30 millions d’internautes ont rejoint les rangs des Français Libres sur les réseaux sociaux. Les SMS et mails de soutien affluent. Des milliers de blogs fleurissent… »

Voici un article de Cédric Biagini[1] dont le préambule accroche illico et donne envie d’en savoir plus. Il interroge profondément le sens que nous donnons, ou feignons de donner, à tout ce temps passé à nous connecter et échanger des informations. Et si nous étions en train de nous fourvoyer à croire qu’un autre monde est possible, vissés que nous sommes derrière nos écrans ?

Participer plein d’espoir et d’énergie à notre propre enfermement alors même que nous pensons nous libérer, voilà un scénario que l’Histoire a déjà connu. Internet deviendra-t-il la nouvelle caverne de Platon de notre époque numérique ?

En tant que créateur de Framasoft (qui a donc de bonnes heures de vol net derrière lui), je tenais à vous faire partager ma perplexité existentielle face à ce texte militant qui pose quelques bonnes questions.

On pensera également bien entendu à la forte mobilisation du réseau contre le projet de loi Création et Internet (opération Blackout, pétition, Réseau des Pirates, groupe Facebook, tag Twitter, etc.) dont on peut légitimement se demander si elle ne s’est pas effectivement arrêtée aux frontières du Web. D’autant que lorsque l’on tente d’en sortir (ça, ça et bientôt ça), on franchit difficilement le stade de la confidentialité, quand bien même on passe assurément un bon moment ensemble.

Au final la loi risque bien d’être votée. Et le Net, constitué de gens toujours plus informés, est, dans sa grande majorité, totalement abasourdi devant tant d’incompétences et d’irresponsabilités. Sauf que comme il est dit plus bas, ce n’est pas parce que les gens savent que les choses changent. Le décalage entre le bruit virtuel et le silence du terrain est patent.

Il y a indéniablement une aspiration et de nouvelles possibilités pour faire de la politique autrement. Mais lorsqu’il est question de contester une loi émanant de la majorité, les classiques rapports de force gardent toute leur efficacité. De mémoire de parlementaire, on n’a encore jamais vu un buzz avoir raison d’un gouvernement…

Cet article est issu du dossier « le piège Internet » du numéro d’avril de La Décroissance (2€ chez votre point de vente le plus proche). Ce journal « de combat veut faire progresser une cause encore minoritaire, et fait désormais partie du paysage médiatique national, contribuant, par son indépendance, à la vitalité du débat démocratique sur l’avenir de la planète »[2].

La Toile contre la politique ?

Cédric Biagini – avril 2009 – La Décroissance

18 juin 1940 – le général de Gaulle envoit un message sur Twitter et crée une cause sur Facebook.

19 juin 1940 – déjà plus de 30 millions d’internautes ont rejoint les rangs des “Français Libres” sur les réseaux sociaux. Les SMS et mails de soutien affluent. Des milliers de blogs fleurissent. Sur les forums, Gaullistes, FFI, FTP et Miliciens pétainistes s’écharpent..

18 juin 2009 – In Frankreich wird nur noch Deutsch gesprochen…

Les milieux contestataires ont imposé l’idée que pianoter derrière un écran pour diffuser sur Internet était une pratique subversive. Les mouvements conservateurs tendant à reconquérir ce terrain, il est temps de mettre à bas ce mythe de la communication. Et de savoir construire (aussi) des rapports de force sociaux ou politiques dans le monde réel. Saurons nous encore le faire ?

Cette promesse d’un monde meilleur a été portée par les pionniers d’Internet. L’émergence du mouvement alter mondialiste est concomitante de l’éclosion de ces nouveaux médias, la lutte se mène désormais à l’échelle planétaire et prend le réseau comme modèle.

Mais cette illusion d’avoir dépassé le capitalisme vermoulu, ancré dans le réel, pesant, hiérarchisé, bref, associé à l’ancien monde du XXème siècle, n’a duré que quelques années, le temps que celui-ci se redéploie dans l’univers virtuel et en tire des bénéfices immenses, en terme financiers bien sûr, mais surtout idéologiques. Le basculement numérique lui offre, au contraire un nouveau territoire à conquérir et lui permet de se moderniser en se parant de valeurs issues de la tradition émancipatrice et de mots comme révolution, liberté, gratuité, horizontalité, participation, nomadisme, échange, etc…

Bien que toutes les forces sociales dominantes, de l’État aux multinationales, en passant par les industries culturelles, participent au déferlement technologique et tentent de mettre l’ensemble de l’humanité devant tel ou tel écran, les mouvements contestataires, passé l’euphorie des débuts, sont anesthésiés, incapables de formuler un discours un tant soit peu critique. Seules quelques technologies comme les puces RFID et celles associées aux contrôles policiers éveillent leur méfiance.

Pourtant la question numérique est éminemment politique. Nos rapports au temps, à l’espace, aux autres et à nos environnements s’en trouvent profondément modifiés. L’essence même de la technologie est en train de transformer le monde. Son emprise croissante sur nos vies ne fait que renforcer le libéralisme : marché autorégulé, disparition des intermédiaires, accélération des échanges, déterritorialisation, individualisation, destruction des modes de vie traditionnels, culte de la performance et de la nouveauté. Que les béni-oui-oui du progrès applaudissent à toutes les innovations, persuadés que chaque problème trouvera sa solution technique, paraît logique. Plus étonnante est la permanence du discours sur la neutralité de la technique – tout dépend de ce qu’on fait… – ou sur l’illusion de pouvoir la maîtriser – c’est bien pratique et efficace…

L’obsession de l’information. Peu à peu, une frénésie informationnelle s’est emparée de la société, le monde de la contestation ayant parfaitement intégré que tout n’était qu’information et que si les gens savaient, tout changerait !…. Puisque les grands médias sont responsables de tous les maux, leur critique devient obsessionnelle et rétablir la vérité devient le cœur des nouvelles pratiques militantes. Se multiplient alors forums, listes, sites, blogs, etc…

Le temps n’étant pas extensible, les moments de rencontre se raréfient et plus personne ne devient disponible pour organiser de vraies réunions ou penser des mobilisations ou des alternatives collectives. Cette réduction utilitariste de l’agir politique empêche de questionner le sens de nos pratiques, alors que nous devrions avoir compris, après les multiples échecs des mouvements du XXème siècle, que le chemin importe plus que le but. Faire un journal militant, par exemple, n’a pas uniquement pour objectif de diffuser des idées ; le support en lui-même crée du collectif et amorce une prise sur le réel.

Les militants passent un temps croissant vissés devant leur ordinateur à faire circuler des informations et à s’écharper sur les forums avec une violence que l’absence de liens véritables permet. Une information chasse l’autre dans un ballet sans fin qui donne le tournis… et de nouvelles raisons de s’inquiéter et de s’indigner. Plus le temps de prendre du recul pour mettre en perspective, de conceptualiser ou de débattre. Il faut se connecter aux évènements les plus récents et rester vigilants pour être sûrs de ne rien manquer ! Cette dictature de l’instant empêche de chercher des réponses philosophiques et politiques.

L‘homo communicans. Cette obsession de l’information libératrice postule qu’il suffirait d’être au courant des horreurs du monde pour les combattre. Ce peut être une condition nécessaire mais jamais suffisante, et il n’y a pas de lien direct entre information et action – si l’on entend bien sûr par « action » actes et engagement, et non un simple réflexe émotionnel ou compassionnel.

Le rapport de force politique ne se crée pas devant un écran. Car scoops et révélations n’entraînent pas mobilisations. Car ces informations et cette masse de connaissances accessibles, aussi critiques soient-elles, si elles n’entrent pas dans la « réalité de nos situations », c’est-à-dire dans un ordre constitué de croyances, de valeurs, de repères et de pratiques, ne produisent aucune puissance politique. Or la société communicationnelle nous condamne à n’être que des émetteurs-récepteurs d’informations, perpétuellement plongés dans l’univers des machines, extérieurs au monde.

Bien évidemment, il ne s’agit pas de refuser toute forme de communication, d’échanges d’informations et d’analyses. Mais plutôt, de cesser de nous bercer d’illusions que l’instantanéité et la profusion de données nous permettent de maîtriser le monde.

En évitant d’être happé par ces flux, un double processus peut s’enclencher : prendre le recul nécessaire à la réflexion, à la construction de soi et à la production de sens. Et, en même temps, nous réinscrire dans une histoire, dans un environnement social, dans la nature et dans la durée.

Notes

[1] Cédric Biagini est l’auteur de La Tyrannie technologique : Critique de la société numérique aux éditions L’échapée (dont on peut lire une critique contextuelle sur le site des Écrans).

[2] Crédit photo : Ted Percival (Creative Commons By)




Leçon n°1 : Cliquer sur le gros E bleu permet d’accéder à Internet

Tajai - CC byCe blog n’est pas le dernier à le constater : les enseignants et le logiciel libre, c’est parfois tout un poème…

Enfin surtout aux États-Unis où un enseignant se propose carrément ci-dessous « d’éduquer ses collègues au Libre », et de se demander au passage si la situation ne serait pas meilleure ailleurs.

En Angleterre certainement, mais en France ?

C’est, en l’absence de statistiques fiables, difficile à évaluer[1]. En bas ça fourmille à n’en pas douter d’initiatives pas forcément médiatisées, mais en haut ?

En haut, ça coince toujours pour je ne sais quelles obscures raisons. Où sont les documents d’informations, les plans d’action ou les directives courageuses ? Et confier la chose à Microsoft ou Google n’est certainement pas la solution…

Il faut éduquer les profs au Libre

Teachers Need An Open Source Education

Matt Hartley – 27 janvier 2009 – Datamation
(Traduction Framalang : Daria, Don Rico et Tyah)

Vous rappelez-vous en 2008, quand un professeur nommé « Karen » avait interdit à ses élèves d’utiliser Linux ? Apparemment, dans son raisonnement, des élèves qui utilisaient Linux étaient sans doute impliqués dans des pratiques illégales.

Elle s’est plus tard excusée même si dans les deux camps on a continué à se crêper le chignon. Il me semble que ce ne sont pas seulement les acteurs du logiciel propriétaire qui ne connaissent rien aux logiciels Open Source. Il semblerait qu’à présent le groupe des fanas de la désinformation inclut aussi les professeurs.

C’est la liberté qui compte, pas la gratuité

Malgré la croissance récente dans l’adoption des logiciels Open Source sur les plateformes propriétaires, il reste d’innombrables responsables et décisionnaires qui ignorent tout des logiciels libres/Open Source (Free/Open Source Software : FOSS). Et pour être complètement juste, il n’est pas difficile d’imaginer le trouble d’un professeur bombardé par le discours des présentateurs des grands médias qui passent plus de temps à brandir la menace du « piratage de logiciels » qu’à parler de leurs alternatives libres (FOSS).

Même les « freeware » (gratuiciels) peuvent être échangés illégalement puisqu’ils contiennent souvent un accord de licence stipulant qu’il faut la permission expresse de ses créateurs pour distribuer les travaux créés avec ces gratuiciels. On imagine alors sans mal comment un professeur mal informé peut être enclin à tirer des conclusions hâtives quand un de ses étudiants fait passer un CD contenant un « logiciel inconnu » à ses camarades.

En réalité, ces mêmes étudiants utilisent leur liberté de choix pour sélectionner les alternatives légales aux logiciels propriétaires. Ils évitent ainsi tout recours au piratage de logiciels. Grâce aux nombreuses licences Open Source existantes, les étudiants peuvent échanger ces logiciels sans restriction. Cette liberté n’a aucune conséquence néfaste. Hélas, la plupart des professeurs l’ignorent.

Ce qui n’arrange en rien cette incompréhension entre élèves et enseignants, ce sont les fortes présomptions voulant que les responsables informatique qui travaillent dans les mêmes établissements que ces professeurs mal informés ne sont pas en reste pour encourager ce genre de réactions et faire en sorte qu’elles aillent plus loin encore.

Des professionnels de l’informatique qui ont besoin de « retourner à l’école »

Essayez de suggérer à un utilisateur de Linux qu’il devrait retirer Linux de son PC : il y a de fortes chances qu’il vous rie au nez. Pourtant, il semblerait que ce soit des pratiques courantes dans les établissements.

Le problème, c’est que les utilisateurs de Linux eux-mêmes sont perçus comme des éléments perturbateurs dans un univers régi par des administrateurs certifiés Microsoft. Ces admins, qui étalent souvent leur « grande connaissance de Linux » acquise lors d’une aventure de vingt minutes avec une distribution Linux prise au hasard il y a quelques années, choisissent d’apporter leur pierre à la désinformation. On les accuse parfois de fabriquer des semi-vérités à propos de ceux qui utilisent exclusivement cette plateforme, ou de leur avoir simplement refusé l’accès au réseau. Voilà qui pose problème dès lors que les étudiants concernés viennent d’une famille où l’on n’utilise que Linux, ce qui pourrait les contraindre à devoir apporter au lycée leur propre portable tournant sous Linux.

Est-ce un problème mondial, ou est-un problème propre aux établissements scolaires américains ? Même si j’ai lu dans certains articles que ça se passe un peu partout, le gros des exemples cités semble venir essentiellement des États-Unis.

Les établissements scolaires américains sont-ils seuls à nager dans l’ignorance ?

À l’heure actuelle, les établissements américains sont plus doués pour enseigner la « docilité envers Microsoft » que pour faire en sorte que les élèves sachent lire avant leur entrée au lycée. Remarquez, ce n’est pas grave, ces mêmes élèves ont déjà appris tout seuls à cliquer sur « le gros E bleu » pour se rendre comme des grands sur MySpace et Facebook.

Ajoutez à cela le talent avec lequel ils utilisent la toute dernière suite de sécurité propriétaire pour se prémunir des programmes malveillants qui se baladent sur Internet, et nos élèves américains, en grandissant, deviendront une ressource sur laquelle on pourra compter.

Pendant ce temps, des régions du monde telles que l’Amérique centrale et l’Amérique du Sud connaissent des taux record de migrations vers Linux. Les lycéens de pays bien plus pauvres que le nôtre apprennent à mettre à profit leurs capacité à résoudre les problèmes pour contourner les « anicroches » de leur OS, alors qu’aux États-Unis, les lycéens s’échinent à améliorer leur perso World of Warcraft !

Même au Canada, notre voisin immédiat, des dépêches annoncent chaque mois que des groupements d’établissements passent à des alternatives Open Source, simplement parce qu’ils préfèrent consacrer leur budget éducatif à autre chose qu’à des licences Microsoft.

Arrêtez-moi si je me trompe, mais il y a quelque chose qui cloche, non ? Les enseignants et les administrateurs système serinent aux jeunes élèves portés vers les nouvelles technologies que s’ils veulent être compétitifs sur le marché, ils doivent utiliser Windows. N’oublions pas que nous espérons former ces mêmes élèves à être performants dans un monde ou Linux et Windows sont tous les deux très utilisés.

D’accord, on voit souvent passer des articles qui affirment que l’utilisation de Linux est marginale. Pourtant, quand on demande comment on peut bien s’y prendre pour comptabiliser un système d’exploitation qui ne fournit pas de réel moyen de le comptabiliser, ces mêmes sources médiatiques se referment comme des huîtres. En d’autres termes, nul ne peut fournir un pourcentage tangible, et ceux qui montrent des camemberts représentant les parts de marché en avançant des arguments confus doivent comprendre qu’ils ne racontent pas toute la vérité.

Mais revenons à nos moutons. Avec le budget éducatif dont disposent actuellement les établissements scolaires américains, il semblerait qu’il y ait un paquet d’argent à dépenser en logiciels et en renouvellement de matériel ! Les économies réalisées par les établissements américains qui utilisent toujours Windows 98 et 2000 Pro, voilà qui à l’évidence est plus rentable qu’embaucher des administrateurs formés à plusieurs systèmes d’exploitation et capables de travailler sur autre chose que Windows, non ?

Ces administrateurs ne passent quand même pas plus de temps à lutter contre les logiciels malveillants qu’à améliorer l’environnement informatique pour les élèves, non ? Ah si, au temps pour moi.

Une proposition modeste

Je vais faire une proposition. Et si on permettait aux élèves qui le souhaitent d’apprendre à se servir de Linux, et ce sur leur temps libre ? Peut-être pourrait-on même en faire une option qui leur vaudrait des points supplémentaires, ce qui serait forcément mieux que de les assommer d’ennui avec des matières en option dont ils se fichent comme d’une guigne.

Cela ne coûterait rien aux établissements, et pour couronner le tout, contribuerait à parfaire les capacités de résolution de problème des élèves.

En outre, je suggère que les enseignants et les techniciens informatique formés par Microsoft se documentent davantage sur Linux avant de porter dessus des jugements hâtifs.

Bien que je reconnaisse volontiers que Linux n’est pas une plateforme accessible à tout le monde, elle est de plus en plus utilisée dans le monde entier, et ceux qui la maîtriseront en plus des systèmes d’exploitation propriétaires seront en bien meilleure position pour réussir sur le marché du travail.

Qui plus est, n’importe quel utilisateur de Linux peut se coller devant une machine tournant sous Windows et réussir à s’en servir en quelques minutes. Pouvons-nous en dire autant de l’utilisateur de Windows de base qui tenterait la même expérience avec Linux ? Sans « le gros E bleu » sur le bureau, c’est peu probable.

Notes

[1] Crédit photo : Tajai (Creative Commons By)




Scoop : Christine Albanel publie sous licence libre un livre sur le partage !

Sebastian Bergmann - CC by-saSi seulement c’était vrai… Bien que le premier avril soit passé depuis longtemps, vous devez vous en doutez un peu : mon titre n’est qu’un fake.

Je plaide coupable donc. Mais coupable par approximation parce qu’à quelques milliers de kilomètres au nord près, j’avais bon !

En effet, je me suis juste trompé de ministère et de pays puisqu’aujourd’hui, en Norvège, Madame Heidi Grande Røys (sur la photo ci-contre[1]), ministre de l’Administration publique et de la réforme, publie un livre sous licence Creative Commons By-Sa.

Il s’intitule Delte meninger, est accompagné d’un site participatif autour du projet, et, à en croire le blog des Creative Commons, il porte sur le partage et l’aspect social des réseaux informatiques et d’Internet.

Merci à tout visiteur qui comprend un tant soit peu le norvégien de nous en dire plus dans les commentaires. Parce qu’avec l’outil de traduction Google appliquée à cette page du site, on se retrouve avec des morceaux intéressants (le procès du The Pirate Bay, évocation des logiciels et de la culture libre…) pour un titre aux accents étranges : « La paix, la liberté, et tout est gratuit ! ».

En attendant, et quand bien même nous n’en connaissons pas encore le contenu dans le détail, on ne peut que saluer l’initiative. Nous y viendrons nous aussi en France, même si visiblement il faudra s’armer d’un peu de patience…

Notes

[1] Crédit photo : Sebastian Bergmann (Creative Commons By-Sa)




Je pense avoir acheté mon dernier Mac

Procsilas - CC byFramasoft en général et le Framablog en particulier vous ont souvent raconté des histoires de migration du système d’exploitation Microsoft Windows vers GNU/Linux (de préférence des histoires qui se finissent bien).

Pour changer un peu, il nous a semble original et intéressant de vous proposer le témoignage d’un « vieux fidèle » du Mac qui a lui aussi décidé de « briser ses chaînes » (et Dieu sait si avec Apple elle sont nombreuses) pour s’en aller le cœur léger aborder le pays des manchots, en l’occurrence le manchot sud-africain Ubuntu.

Que les geeks qui ne cessent de vanter les mérites de Linux mais dont l’ordinateur principal tourne sous Mac[1] (si, si, j’en connais, au moins autant que ceux qui restent sous Windows), n’hésitent pas à apporter leur pierre dans les commentaires 😉

Migration

Switching

Ian Betteridge – 11 janvier 2009 – Technovia
(Traduction Framalang : Balzane)

Comme vous avez pu le déduire de mes billets récents, j’ai changé de système d’exploitation. Mon ordinateur principal est maintenant un portable Dell tournant sur Ubuntu 8.10.

J’avais utilisé des Mac depuis 1986, et j’en avais pratiquement toujours possédé un depuis 1989. Le Mac Plus, le LC 475, le PowerBook Duo, l’iBook et le MacBook Pro figurent parmi les machines qui subirent mon utilisation quotidienne. J’ai gagné ma vie en écrivant sur les Macs et je ne compte plus les Macworld Expos auxquelles j’ai assisté.

Mais, sauf évolution de la politique d’Apple et lancement de machines résolument différentes, je pense avoir acheté mon dernier Mac.

Les causes d’une migration de Mac OS X vers Linux sont diverses. La première était simple : le prix. Indéniablement, les toutes dernières générations de machines Apple sont surpuissantes. Malheureusement, leur prix est tout aussi surpuissant. C’est simple, je n’étais pas prêt à dépenser 200 £ (NdT : environ 230 €) de plus que pour mon dernier MacBook Pro.

Bien sûr, j’aurais pu me rabattre sur un MacBook standard. Il aurait été assez puissant pour mon usage. Mais il ne dispose que d’un écran 13 pouces et, après avoir travaillé des années sur un 15 pouces, 13 pouces c’était vraiment trop petit.

À l’inverse de beaucoup de constructeurs, Apple ne comptait pas de portables 15 pouces moins puissants que le MacBook Pro dans sa gamme. On comprendra que, pour des raisons de logistique et de simplicité de ses produits, Apple limite le nombre de variantes sur ses chaînes de production. Du coup, Apple ne proposait pas de machine qui corresponde à mes besoins.

Ceci constitue d’ailleurs un élément de réponse à la lancinante question : « Un Mac est-il un bon investissement ? » Par rapport à un PC aux performances identiques, c’est parfois le cas. Cependant, il arrive que l’utilisateur n’ait pas forcément besoin des fonctionnalités supplémentaires ou de la puissance du Mac. À moins qu’elles ne soient gratuites ou bon marché, acheter une machine aux fonctionnalités superflues n’est pas un bon investissement. Dans mon cas, payer 1400 £ (NdT : environ 1600 €) simplement pour bénéficier d’un écran 15 pouces alors que je n’ai pas l’usage d’un bus système cadencé à 1 GHz ou de deux cartes graphiques n’est pas un investissement intéressant.

Il y avait aussi une autre raison de migrer, mise en évidence par Mark Pilgrim lors de son passage sous Linux. Apple est une société particulièrement privatrice, elle ne documente pas ses formats de fichiers et a tendance à plus ou moins subtilement enfermer ses clients.

L’exemple le plus évident est l’iPhone. Comme un Mac, un iPhone possède un design exceptionnel. C’est aussi un écosystème très fermé. Les développeurs qui refusent de jouer le jeu d’Apple ne peuvent pas distribuer officiellement leurs applications. Ils ne peuvent que compter sur d’autres pour contourner les limitations du système d’exploitation du téléphone. Si vous voulez que vos applications tournent sur la majorité des iPhones, vous devez accepter les règles fixées par Apple. Et ces règles sont, semble-t-il, pour le moins arbitraires.

Je connais les justifications à ces règles. Ce sont exactement les mêmes arguments que ceux qu’utilisait IBM à l’époque où il ne voulait pas que vous exécutiez d’autres programmes que les leurs sur votre mainframe IBM. Certes, faire partie d’un écosystème fermé et rigoureusement contrôlé assure votre sécurité. C’est aussi hypothéquer votre capacité à disposer d’un Personal Computer réellement personnel.

Je fais une prédiction : pour des raisons similaires, l’écosystème de développement Mac va progressivement ressembler à celui du iPhone. D’optionnel, le recours à des binaires signés va finalement devenir « aucune possibilité d’exécution de code non signé ». Apple deviendra un distributeur d’applications, et fixera des règles du jeu similaires à celles appliquées à l’iPhone. Le raisonnement fait pour l’iPhone peut être transposé au Mac. Je ne pense pas que cela se produira dans les cinq prochaines années, mais je suppose que ça arrivera tôt ou tard. (Mise à jour : si vous êtes arrivé sur ce billet par le billet de Giles qui souligne cette prédiction, la lecture de Why Apple will have a Mac App Store peut vous intéresser.)

Après tout, Apple est une société qui se base sur le DMCA (NdT : Digital Millennium Copyright Act, pendant américain à DADVSI) pour empêcher la rétro-ingénierie sur les fichiers de base de données d’un iPod, élément essentiel à l’interopérabilité d’un iPod avec d’autres plates-formes que Windows ou Mac. Une société qui déploie sans avertissement la technologie anti-copie HDCP, de façon à bloquer jusqu’à la lecture même de contenus qui ne sont pas en haute définition sur des matériels non homologués.

Heureusement il existe une autre possibilité, une possibilité qui n’implique pas de faire confiance à une unique société commerciale pour prendre en compte l’ensemble de nos besoins informatiques. Alors je n’ai ni acheté un MacBook ni un MacBook Pro, mais un Dell XPS1530 flambant neuf, qui maintenant tourne avec bonheur sous Ubuntu 8.10. Il n’est pas aussi puissant qu’un MacBook Pro, mais la configuration matérielle correspond exactement à mes besoins, et son système d’exploitation n’est pas la propriété d’une multinationale monolithique.

Comment s’est passé l’essai jusqu’ici ? Le Mac ne m’a pas manqué une seule minute. Tout a bien fonctionné.

Je garde encore une partition Windows sur la machine, mais elle ne sert vraiment plus qu’en cas d’urgence. WoW tourne à la perfection sous Wine, et la fréquence de rafraîchissement fait passer mon vieux Mac Book Pro pour un Apple II. Le jour est proche où je n’aurai plus besoin d’un Windows « au cas où » et récupérerai les 80 Gb de la partition pour un meilleur usage. De toutes les façons ce Dell est équipé d’un disque de 400 Gb, ce qui me laisse le temps de voir venir.

ITunes ? Je n’en ai pas besoin, Amarok est meilleur, de loin. Pour tous mes documents, j’utilise OpenOffice.org et j’accède ainsi à un format de fichier dont l’existence n’est pas soumise au bon vouloir d’une société, à l’inverse de Pages (NdT : traitement de texte sur Mac).

La configuration d’Ubuntu a été un plaisir. Je pense vraiment que c’est à la portée de tous, et si vous avez la malchance de rencontrer le moindre problème, une rapide recherche Google devrait vous retourner une réponse de l’étonnante communauté Ubuntu. Avec mon Dell, j’ai rencontré une difficulté avec le trackpad, problème que j’ai pu résoudre en dix minutes grâces à Google et à la communauté Ubuntu. Si vous savez installer un Windows, vous saurez sans aucun doute installer et utiliser Ubuntu

Certains aspects du boulot effectué sont particulièrement impressionnants. Le modem 3G intégré, dont mon Dell est équipé, n’a pas juste été reconnu pas Ubuntu, il était aussi fonctionnel en quelques minutes. Un clic sur l’assistant qui m’a demandé quel réseau mobile utiliser, et ça marchait. Ce fut la même chose pour mon imprimante, une HP Deskjet vieille de moins d’un an. Alors que Windows Vista ne voulait pas en entendre parler, Ubuntu l’a reconnue dès son branchement et elle a fonctionné du premier coup.

Devriez-vous en faire de même ? Si vous êtes sensibilisés aux logiciels libres et aux formats ouverts, si vous refusez d’être captifs d’un matériel ou d’un unique système d’exploitation, alors la réponse est oui. Si vous vous préoccupez davantage de la simplicité d’utilisation de votre ordinateur et êtes satisfait de ce que vous impose Apple, alors non. De tous les systèmes d’exploitation existants, la distribution Ubuntu est la plus proche d’un système d’exploitation pour tous publics, mais il n’est pas pour tout le monde.

C’est une bonne chose, parce que la monoculture est nuisible. Je souhaite que Mac OS X s’améliore et prospère, tout comme que je souhaite que Microsoft perfectionne Windows. L’émulation est positive, et une concurrence entre trois plates-formes qui adoptent chacune une approche différente est très saine.

Notes

[1] Crédit photo : Procsilas (Creative Commons By)