La démocratie 2.0 à l’œuvre en France pour défendre la neutralité du réseau

Codice Internet - cc-by-saSujet récurrent depuis maintenant de nombreuses années, la Neutralité du Net, principe pourtant fondateur de l’Internet, est de plus en plus menacée. En France, plusieurs lois récentes l’attaquent, comme la Hadopi, la Loppsi ou l’Arjel. Mais c’est le cas partout en Europe, comme au Royaume Uni, en Allemagne ou en Italie. Et finalement, le reste du monde n’est pas non plus dans une ère favorable aux libertés comme on le constate en Australie ou en Nouvelle-Zélande, ainsi que dans beaucoup d’autres démocraties et de non-démocraties. La Neutralité du Net n’existe tout simplement plus en Chine ou en Iran ainsi que dans d’autres pays qui tentent ouvertement de contrôler l’opinion publique.

Les enjeux de cette Neutralité sont considérables, tant sur un plan économique, que politique et culturel. C’est l’existence même du réseau qui est en cause, car la Neutralité du Net c’est la prévention des discriminations à l’égard de la source, de la destination et du contenu de l’information transmise via le réseau.

Préserver cette situation de non-privilèges dans les télé-communications pourrait être naturel pour tous, mais ça ne l’est apparemment pas pour les fournisseurs d’accès à Internet, quand bien même la loi française définit la neutralité des réseaux de communication de manière claire et sans équivoque :

Article L32-1 du Code des Postes et communications électroniques :
II.-Dans le cadre de leurs attributions respectives, le ministre chargé des communications électroniques et l’Autorité de régulation des communications électroniques et des postes (note: ARCEP) […] veillent :
« 5° Au respect par les opérateurs de communications électroniquesdu secret des correspondances et du principe de neutralité au regard du contenu des messages transmis, ainsi que de la protection des données à caractère personnel; »
« 13° Au respect de la plus grande neutralité possible, d’un point de vue technologique, des mesures qu’ils prennent […] »

C’est cette liberté de transmission qui met tous les utilisateurs d’Internet sur un pied d’égalité, qui donne la même chance à tout le monde (qu’on soit une multinationale ou un artisan local) et qui permet à tous de recevoir et de distribuer l’information de son choix, et ce, quelques soient ses ressources financières ou son statut. C’est grâce à cette « neutralité » que de petites entreprises peuvent se faire connaître sur la toile et que les petits projets libres peuvent se développer. C’est comme ça que sont apparus Microsoft (un lecteur nous indique en commentaire que l’ancienneté de Microsoft, créé 1975, dessert l’argument, lisons donc « eBay » à la place), Google, ou Facebook… Et maintenant, des projets prometteurs voient le jour tels que Seeks, Diaspora ou Movim et peuvent se développer sans se faire phagocyter voire interdire par leurs « aînés » devenus d’influentes puissances commerciales.

Pourtant, aujourd’hui de nombreux opérateurs de télécommunications (Orange, Comcast, SFR, Free…) mais aussi des gouvernements souhaitent remettre en cause cette neutralité dans le but de monopoliser, ou de censurer les différents flux d’information, les protocoles, les sites, les blogs, nos paroles.

On peut parler entre autres de l’affaire Free / Dailymotion, de la polémique que le filtrage du Port 25 (SMTP) par Orange a suscité, de la loi LOPPSI ou de la loi sur les jeux en lignes (ARJEL) et de son obligation de filtrage alors qu’il a été démontré, plusieurs fois, que ce filtrage est impossible et peut avoir des effets collatéraux dangereux et simplement sans précédents. Autant de « petits » détails qui nous rappellent que la liberté d’expression, rendue possible par le numérique [1], est menacée et que la liste des dérives s’allonge.

Les gouvernements eux, cherchent à mettre en place des techniques de filtrage du réseau, bridant notre liberté d’expression (Hadopi en France), ou dans le but d’avoir la mainmise sur les organes de presses (Berlusconi en Italie), pour empêcher les manifestants de se concerter (Iran), ou filtrer des sites prétenduement « pédophiles » (Australie)…

C’est dans ce contexte qu’une loi sur la Neutralité du Net vient d’être proposées en France pour la fin de l’année. Et elle est bienvenue car la lecture du rapport « La neutralité de l’Internet. Un atout pour le développement de l’économie numérique » de la secrétaire d’État chargée de la Prospective et du Développement de l’économie numérique Nathalie Kosciusko-Morizet (UMP), fait froid dans le dos, comme le disait récemment Benjamin Bayart sur Écrans.fr : « Dans ce rapport, ce qui saute aux yeux, c’est l’incompétence ». Et en effet, de l’incompétence on en trouve dans ce rapport mais pas seulement, on trouve également des traces de lobbyisme de vendeurs de contenus ayant racheté un FAI, ou de FAI ayant acheté du contenu à vendre

C’est un autre personnage politique donc, le député Christian Paul (PS), qui a mis en ligne sur son blog une ébauche de proposition de loi consacrant la Neutralité du Net.

Pour compléter cette ébauche, il invite les citoyens à commenter et améliorer le texte en-ligne grâce à un outil libre : co-ment. Et il a également rédigé une tribune ré-affirmant l’importance de la Neutralité du Net en guise d’introduction à son projet de loi. C’est cette tribune, publiée conjointement sur Numérama et sur son blog (sous licence libre) que nous vous invitons à lire ci-dessous.

Il est primordial de réaliser l’importance de la Neutralité du Net et d’établir des règles pour la pérenniser. Cette loi ne doit pas être faite dans l’intérêt privé de certains groupes industriels, mais pour et par les citoyens. La France pourrait, sur ce sujet, retrouver ses Lumières et montrer la voie à suivre…

Merci à Skhaen pour la rédaction originale de cette introduction.

Proposition de loi visant à affirmer le principe de neutralité de l’internet, et son contenu

Christian Paul – 16 août 2010 – Numerama

I had a dream… J’ai fait un rêve, ou plutôt un cauchemar. Je me réveillais en 2030, buvais une tasse de café noir, puis allumais mon ordinateur, et me voyais soudain interdire l’accès à l’Internet. Mes dernières déclarations sur les pratiques abusives des géants de l’Internet n’y étaient certainement pas pour rien. Ou, du moins, quelques propos sur le « filtrage de bordure », directement intégré à ma « box » sous prétexte de lutte contre les contenus illicites, avec un « moteur de contrôle » jugeant automatiquement de la légalité de mes faits et gestes. Le service où je publiais jusqu’ici régulièrement des tribunes (lointain successeur de Médiapart, de Rue 89 ou de Numérama !), où j’avais accès à une information que l’on ne trouvait plus forcément dans les médias traditionnels, venait de fermer, après une longue descente aux enfers au gré de la généralisation des accords de priorisation de certains services et contenus. Un de mes principaux canaux d’expression avait disparu.

Ces derniers temps, ma « box » Internet me conseillait fermement (m’imposait même parfois) plusieurs heures par jour le visionnage de programmes choisis par mon opérateur. J’étais certes informé de cette limitation, mais que faire alors que tous les opérateurs se comportaient à l’identique et que le contournement de ce dispositif de contrôle était passible de prison ? J’avais eu par ailleurs à changer ces dernières années plusieurs fois d’équipement, au gré des accords exclusifs entre mon FAI avec le constructeur ou l’éditeur le plus offrant. Mes plaintes contre cette censure et cette vente forcée avaient été classées sans suite par le procureur compétent du tribunal de Nevers.

Je me souvenais alors qu’il y a plus de 20 ans, l’irruption de l’Internet portait la promesse d’une croissance durable de la diversité, de nouvelles médiations, d’un plus grand accès à l’information et à la culture et d’une amélioration du droit réel à l’initiative économique pour le plus grand nombre.

Mais depuis son ouverture au grand public au milieu des années 90, les coups de canifs à la liberté et l’égalité des utilisateurs du « réseau des réseaux » s’étaient multipliés. Les réseaux « de pair à pair » avaient été combattus en tant que tel, alors qu’ils ne sont pourtant que de simples outils dont seuls certains usages sont répréhensibles. Le choix de l’appareil de raccordement au réseau, la « box », avait progressivement été imposé aux particuliers par tous les opérateurs. Les services « exclusifs » s’étaient généralisés, après une période transitoire où ils étaient seulement plus prioritaires que les autres.

Retour à 2010, au cœur de l’été. Pourquoi faut-il s’inquiéter ? Le cadre juridique garantissant nos libertés a considérablement évolué [2], et les dernières années ont donné le signal de la régression. Mais aujourd’hui, le socle même de ces libertés est en jeu, du fait de l’évolution du cadre technique que préfigurent les débats actuels. Comme le dit Lawrence Lessig, « Code is Law », « le logiciel et le matériel font du cyberespace ce qu’il est » [3]. Pour autant, la menace n’est pas que technique. Jiwa, sur lequel j’aimais écouter de la musique, n’est pas aujourd’hui en liquidation du fait d’une censure généralisée du net ou de mutations du réseau, mais à cause du maintien d’un modèle inadapté de négociation de gré à gré des droits. Il produit des effets également très négatifs, et la responsabilité du gouvernement qui tarde à agir, écrasante.

Le débat sur la « neutralité du net », qui a cours en France ou aux Etats-Unis depuis des mois, doit être l’occasion de réaffirmer les principes d’ouverture et de liberté auxquels nous sommes attachés. À la laïcité garantissant la liberté de conscience et le libre exercice des cultes doit correspondre dans l’espace numérique une « laïcité informationnelle » garantissant nos libertés de choix, d’initiative et d’expression.

Qu’on ne s’y trompe pas ! Notre amour de la liberté nous conduit non pas au laisser-faire, mais au choix d’une « bonne » régulation. La transparence et l’information sur les pratiques des opérateurs ne suffisent à l’évidence pas. Les pouvoirs publics doivent prendre leurs responsabilités et garantir de nouveaux droits à tous les internautes. Nous n’accepterions pas que tel ou tel opérateur de réseau autoroutier n’accueille plus que les automobiles d’une certaine marque. De même, nous n’accepterions pas que les fournisseurs d’énergie électrique nous imposent le choix d’un panneau de raccordement ou de la marque de notre machine à laver. Il doit en être de même dans le monde numérique. Un accès à l’Internet n’est, au niveau le plus simple, qu’un ensemble de signaux électriques convoyés par notre fournisseur d’accès. Le choix de notre appareil de raccordement doit être libre, pour peu que les normes en vigueur ou à inventer rapidement soient respectées. Sous réserve du paiement permettant de disposer d’une puissance suffisante, chacun est également libre de faire fonctionner simultanément autant d’appareils électriques qu’il le souhaite. Il doit en être de même pour le numérique. Les règles de circulation des signaux numériques en notre domicile doivent relever de notre seul choix.

Choisissons un combat juste. Il ne s’agit pas ici de défendre le tout gratuit. Il est logique que celui qui consomme plus de ressources, par exemple en visualisant continuellement des vidéos en haute définition, ait à payer plus cher que celui qui envoie et reçoit quelques courriers électroniques par jour. Il s’agit par contre de s’assurer que l’utilisation du réseau restera libre et non faussée, tant en émission qu’en réception.

C’est pourquoi je transmets ces jours-ci à Jean-Marc Ayrault, président du groupe PS à l’Assemblée nationale le texte d’une proposition de loi affirmant le principe de neutralité de l’internet, et son contenu. Son article 1er est sans ambiguïté : « Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage commercial ou privé des réseaux numériques. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux tarifications, aux émetteurs ou aux destinataires des échanges numériques de données. »

Vous en lirez le texte complet sur mon blog. Aidez-moi à enrichir cette proposition, le principe et son contenu. C’est un nouveau combat pour la liberté du net, pour sa « bonne » régulation, pour résister à son asservissement commercial.

Vite, prenons date ! Mieux vaut prévenir, que tenter de réparer tardivement. La neutralité du net apparait, d’ores et déjà, comme un principe offensif, efficace et indispensable.

Christian PAUL, député de la Nièvre

Notes

[1] « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire » – Benjamin Bayart dans La bataille HADOPI 2009

[2] Avec les lois LCEN, DADVSI, la loi sur les jeux en ligne, HADOPI 1 et 2, en attendant la LOPPSI2…

[3] À lire en français sur le Framablog




Bagdad et Gaza : OpenStreetMap 1 Google Maps 0

Il y a deux mois, nous publiions un article sur le zoo de Berlin illustrant le fait qu’OpenStreetMap pouvait être plus pertinent que Google Maps dans ce cas très particulier.

Un commentaire nous signala alors qu’il en était de même pour certaines zones sensibles et de donner alors l’exemple de la ville de Bagad où la comparaison se révèle effectivement spectaculaire.

Bagdad

Sur Google Maps :

Bagdad - Google Maps - 2010

Sur OpenStreetMap (accueil du projet de cartographie de Bagdad) :

Bagdad - OpenStreetMap - 2010

Mais la bande de Gaza n’est pas en reste.

Gaza

Ici la ville de Gaza (ou Gaza City) n’existe carrément pas chez Google Maps !

Gaza - Google Maps - 2010

Chez OpenStreetMap (accueil du projet de cartographie de Gaza) :

Gaza - OpenStreetMap - 2010

But why ?

Pourquoi Google Maps se montre si peu précis ici ?

J’attends vos commentaires. La réponse est peut-être à rechercher du côté de la géopolitique américaine et des restrictions imposées à ses entreprises ?

Google a beau travailler dans les nuages, Google n’en a pas moins un pays d’origine et d’appartenance qui a ses propres règles et suit ses propres intérêts…

Règles et intérêts qui heureusement ne sont les mêmes que ceux d’un projet libre et coopératif comme OpenStreeMap !




Les statistiques du réseau Framasoft réactualisées au début 2010

Au mois d’octobre/novembre 2008, nous présentions ici-même les statistiques de l’ensemble du réseau Framasoft. Les voici réactualisées en janvier/février 2010 pour comparaison.

Globalement nous n’avons ni progressé ni régressé sachant cependant que nous n’avons pas pris en compte les nouveaux projets que sont par exemple Framalang, Framapack ou EnVenteLibre, qui drainent eux aussi leur petit lot de visiteurs. Ainsi sur une période d’un mois on dénombre 816.000 visiteurs, 1.132.000 visites et 2.726.000 pages vues (en 2008 : 807.000 visiteurs, 1.124.000 visites et 2.911.000 pages vues).

Plusieurs facteurs internes peuvent expliquer cette relative stagnation. Mais il est possible que les Facebook et les Twitter associés aux flux RSS aient eux aussi leur influence (ce qui pourrait expliquer que le Framablog se retrouve lui dans une bonne dynamique).

Du côté des OS, Linux et Mac ont pris en un peu plus d’un an quelques points à Windows, mais cela reste bien (trop) faible. Quant aux navigateurs, IE poursuit sa chute annoncée (mais plus lentement que prévu/souhaité) et Firefox a très légèrement baissé au profit de Chrome (comme nous avons eu l’occasion de le remarquer dans ce billet polémique).

Statistiques Framasoft entre le 11 janvier et le 10 février 2010

  • Framasoft
    • visiteurs/mois : 560 000
    • visites/mois : 717 000
    • pages vues/mois : 1 831 000
    • Les 3 premiers OS : Windows 81%, Linux 11%, Mac 7%
    • Les 3 premiers navigateurs : Firefox 57%, IE 29%, Chrome 6%
  • Framakey
    • visiteurs/mois : 106 000
    • visites/mois : 224 000
    • pages vues/mois : 563 000
    • Les 3 premiers OS : Windows 95%, Linux 4%, Mac 1%
    • Les 3 premiers navigateurs : Firefox 82%, IE 11%, Chrome 2%
  • Framabook
    • visiteurs/mois : 24 000
    • visites/mois : 28 000
    • pages vues/mois : 52 000
    • Les 3 premiers OS : Windows 66%, Linux 30%, Mac 4%
    • Les 3 premiers navigateurs : Firefox 68%, IE 18%, Chrome 6%
  • Framablog
    • visiteurs/mois : 53 000
    • visites/mois : 78 000
    • pages vues/mois : 122 000
    • Les 3 premiers OS : Windows 58%, Linux 33%, Mac 8%
    • Les 3 premiers navigateurs : Firefox 66%, IE 14%, Chrome 7%
  • Framagora
    • visiteurs/mois : 73 000
    • visites/mois : 85 000
    • pages vues/mois : 158 000
    • Les 3 premiers OS : Windows 73%, Linux 22%, Mac 5%
    • Les 3 premiers navigateurs : Firefox 63%, IE 23%, Chrome 6%



Quand le cloud computing bouleverse l’équilibre entre le matériel et le logiciel

Leonardo Rizzi - CC by-saUn court billet pour évoquer la relation entre le software et le hardware, entre le logiciel et le matériel, à l’ère où le (mal nommé) cloud computing – ou informatique dans les nuages – bouscule les habitudes et pose de nombreuses questions en particulier à ladite communauté du Libre.

Nous avons peut-être tendance à l’oublier mais cette relation ne va pas de soi, a évolué avec le temps et a de nombreuses conséquences selon que l’un prend le pas sur l’autre.

Nous achetons un ordinateur et avec plus ou moins de bonheur nous y mettons un peu, beaucoup, passionnément du logiciel libre dedans. Mais sans toujours nous rendre compte nous modifions alors le vieil équilibre entre le software et le hardware. Jusqu’à atteindre son paroxysme avec le cloud computing où l’on veut nous faire croire que cela se passe dans les nuages alors qu’il n’en est rien puisque tout est très concrètement centralisé dans des énormes (et peu écologiques) datacenters dont nous ignorons généralement tout et qui paradoxalement redonnent la main au matériel et à ceux qui les construisent[1].

Le cloud computing représente-t-il une menace pour le logiciel libre ?

Is cloud computing a threat to open source?

John Spencer – 14 avril 2009 – ComputerWorld.uk
(Traduction Framalang : Don Rico, Poupoul2 et Olivier)

Allons-nous nous libérer d’une prison logicielle pour mieux nous jeter dans celle des fabricants de matériel ?

La disparition annoncée du logiciel propriétaire laisse un vide qui va être comblé… et il se pourrait bien que nous n’aimions pas ça.

Le PC arrive sur nos bureaux

Quand j’étais à la fac, le PC – l’ordinateur personnel – n’existait pas encore. Nous achetions du temps machine (très cher) sur l’ordinateur central (NdT : mainframe) ; l’un de mes amis a ainsi gagné des sommes conséquentes en vendant du temps machine à des entreprises qui en avaient besoin.

Après mes études, alors que je travaillais pour une multinationale, nous avons vu arriver nos premiers PC, et, je ne vous mens pas, mon supérieur a apporté le sien au bureau pour utiliser SuperCalc (ce qui lui a valu d’ailleurs une méga promotion).

Les administrateurs informatiques ont vu l’arrivée du PC d’un très mauvais œil. Ils aimaient trop leurs terminaux avec leur applis tout sauf sexy ; ils avaient le pouvoir parce qu’eux seuls avaient la main le serveur. Ce qu’ils voulaient, c’était le contrôle, et ce satané PC apportait bien trop de liberté.

Arrive le réseau… et avec lui une perte de liberté

La révolution du PC a produit une explosion de créativité et des libertés, mais très vite ces libertés se sont effritées. Première étape : la mise en réseau. Le prix à payer pour accéder à une zone de partage de fichiers et pouvoir ainsi utiliser n’importe quel PC de l’entreprise en voyant toujours le même bureau a été… d’adhérer au terrible « Domaine ». Ajoutez aux restrictions du Domaine, les coûts de plus en plus exorbitants des logiciels propriétaires, et soudain la révolution du PC prenait du plomb dans l’aile.

Demandez donc à ceux qui travaillent dans les réseaux d’entreprise s’ils se sentent libres.

La deuxième vague de liberté arrive

La deuxième vague de liberté est arrivé groupée. Le World Wide Web et Linux ont émergé plus ou moins au même moment. On n’insistera jamais assez sur l’effet libérateur qu’a provoqué l’accès ouvert au Web et à des logiciels libres et open source. D’un seul coup, le logiciel propriétaire et la poigne de fer du réseau ne signifiaient plus rien. Une fois de plus, on a connu une explosion de créativité et de libertés, et qui se poursuit encore actuellement à une très forte cadence.

Aujourd’hui, je possède mon propre matériel (et pas qu’un peu), personne, que ce soit un particulier ou une entreprise, n’a le contrôle de mes logiciels, et je dispose du Web comme extraordinaire terrain de jeu. Nous vivons une ère de liberté sans précédent. Merci à vous, les gars – merci Tim B-L, merci Linus T, merci Richard S.

Je crois que cette liberté est menacée.

Ce que je crains, c’est qu’Internet soit absorbé par les serveurs des « nuages » (comme ils disent), et qu’il finisse sous le contrôle des fabricants de matériel informatique.

Le Manifeste pour l’informatique dématérialisée ouvert était bizarre (NdT : The Cloud Computing Manifesto). Parmi les signataires, on trouve Cisco, AT&T, IBM et Sun, qui produisent une sacrée part du matériel sur lequel repose l’informatique dans les « Nuages ». Rien d’étonnant alors qu’ils soient partants. Red Hat et SAP sont partantes aussi, mais pourquoi ? SAP perd ses employés comme des pellicules et Red Hat voudrait bien s’asseoir à la table des grands en tant que mini Microsoft, mais qu’est-ce qui attire ces petits joueurs ? Ce n’est pas très clair.

Ce que je sais avec certitude, c’est que, comme on pouvait s’y attendre, deux des signataires, à savoir les puissants Microsoft (MS par la suite) et Google, ont annoncé qu’ils n’étaient guère satisfaits du peu de transparence avec laquelle en coulisses on concoctait ce manifeste (le monde à l’envers, n’est-ce pas ?). Résultat : ils se sont retirés, et l’ont bien fait savoir.

C’est sans doute très significatif, et malgré l’absence de faits concrets, cela corrobore quelques conjectures.

Harware contre Software

Il est important de rappeler que le logiciel n’existe pas dans un nuage mais sur des ordinateurs. L’information n’est pas diffusée par l’action du Saint-Esprit, mais acheminée par des câbles et des commutateurs.

MS a fait fortune quand IBM a collé leur système d’exploitation sur son premier PC ; sans le hardware ce dernier n’avait aucune valeur, et vice versa. Apple n’existerait pas non plus aujourd’hui s’ils n’avaient pas associé ses logiciels à ses matériels.

MS et Apple sont à l’évidence des éditeurs de logiciels propriétaires, logiciels qui, prétendent-ils, possèdent une forte valeur intrinsèque qu’ils facturent au prix que l’on sait. Ainsi donc MS a fonctionné de façon symbiotique avec Intel et il en a été de même avec Apple et ses processeurs IBM. Pendant des années ces deux entités ont dominé le monde main dans la main.

Là où je veux en venir, c’est que hardware et software étaient liés dans une même chaîne de valeur. L’un ne prédominait pas sur l’autre. Pour Google, en revanche, c’est différent. Google est un gigantesque fournisseur de services d’information qui repose sur des logiciels libres et open source. Dans leur cas, la relation hardware/software n’est plus la même.

Le logiciel libre et open source casse la relation entre hardware et software

Sans logiciel, le matériel n’est bien sûr d’aucune utilité (même si à l’époque où j’ai acheté mon premier ZX81 je pensais simplement qu’on était censé programmer soi-même son logiciel). À présent, en revanche, avec la révolution du logiciel libre, la disponibilité du logiciel n’est plus un problème, ni en termes de coût, ni en termes de quantité. Ces logiciels sont là, on n’a qu’à se servir dans tous ces super trucs qui ne demandent qu’à être utilisés.

Mais voyez-vous les problèmes que cela soulève ?

Avec le logiciel libre et open source ne redonne-t-on pas le contrôle aux fabricants de hardware ? Les associations software/hardware ont été dissoutes… pour le meilleur ou pour le pire.

Suivra une nouvelle ère, je pense, où le vieux statu quo se rétablira. Une ère où de nouveau nous achèterons du temps sur les serveurs pour faire ce dont nous avons besoin… au prix fixé par les fournisseurs !

Je ne me souviens que trop bien de l’époque des infrastructures centralisées contrôlées par des services informatiques guidés par le totalitarisme le plus complet. Une époque aussi où le software avait beaucoup moins de valeur que le hardware (et encore, quand il y avait du software) et que tout le hardware était estampillé IBM. Je n’aimerais vraiment pas connaître de nouveau une telle époque.

La révolution du logiciel libre n’aura servi à rien si une forme d’informatique centralisée et basée sur le hardware fait main basse sur notre liberté.

Notes

[1] Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




Quand les universités espagnoles montrent l’exemple

Cenatic - CC byPrenant des allures de « Courrier International du Libre » (mais sans les albums de Prince), le Framablog vous propose aujourd’hui la traduction non pas d’un classique billet repéré sur les blogs américains mais d’un bout de revue de presse espagnole.

En effet, promenant ma souris sur le site de la précieuse « Asociación de Internautas » espagnole, qui regroupe depuis 12 ans la plupart des organisations de protection des utilisateurs d’Internet en Espagne et constitue le fer de lance en matière de défense de la neutralité du réseau chez eux (on se demande ce que je faisais là…), je suis tombé sur la revue de presse tenue par le groupe d’utilisateurs de Linux de l’association, le Linux-GUAI.

Et là, merveille ! Plein d’actualités espagnoles croustillantes sur GNU/Linux et les logiciels libres. Informant la branche extrémiste hispanophone autonome de Framalang (la bien nommée FramEspagnol) de ma trouvaille, nous partîmes joyeusement sur le chemin de la traduction.

Le premier sujet ayant retenu notre attention concerne l’éducation. Il s’agit des avancées espagnoles dans un domaine où la France a encore de gros progrès à accomplir (on y travaille cependant) : l’adoption des logiciels libres par les universités[1].

Et aujourd’hui, ce n’est pas un, mais deux articles (pour le même prix !) que nous vous avons traduits pour illustrer le sujet. Bonne lecture 😉

L’université espagnole fait le pari de soutenir le logiciel libre

La Universidad española apuesta por impulsar el software libre

EFE – 1 mars 2010 – ADN.es
(Traduction Framalang : Burbumpa, Thibz, TV, Goofy, Siltaar et Barbidule)

L’Université espagnole a décidé d’ « encourager l’utilisation de logiciels libres » afin ne pas dépendre des grandes entreprises d’informatique lors du développement d’applications spécifiques, que ce soit pour la gestion des établissements ou pour favoriser la communication au sein de la communauté universitaire.

C’est l’une des recommandations adoptées lors de la réunion de la Commission Sectorielle des Technologies de l’Information et de la Communication (TIC) de la Conférence des Recteurs des Universités Espagnoles (CRUE) qui s’est tenue à l’école universitaire d’études entrepreneuriales de Bilbao.

L’utilisation de ce type de technologies, selon des sources appartenant à l’Université du Pays Basque (UPV), permettra de plus au professeur et à l’élève ayant une formation dans les nouvelles technologies d’intervenir dans son développement, « ce qui est certainement une excellente façon d’employer les connaissances des universitaires ayant des compétences dans ce domaine ».

Un autre avantage, comme l’a souligné l’UPV, est que le logiciel libre permet l’implantation des langues minoritaires dans les différentes applications dans la mesure où des personnes intéressées et ayant des connaissances informatiques suffisantes voudront bien s’impliquer dans ce développement.

Lors de la réunion d’aujourd’hui, un catalogue des nouvelles applications qui ont déjà été implantées ou qui vont l’être sous peu dans les différentes institutions a été présenté. Cela va des plateformes d’enseignement en-ligne aux blogs et aux réseaux sociaux.

L’objectif, ont insisté les différentes sources, « est de placer les universités en position de référence dans le domaine des nouvelles technologies, ce qui les conduirait à ce qu’on pourrait appeler l’Université 2.0 ».

Plus de 80 personnes en lien avec les nouvelles technologies dans le monde universitaire et représentant les 71 universités publiques et privées de la CRUE ont assisté à la réunion.

Par ailleurs, le gouvernement basque a fait son entrée aujourd’hui au Conseil du CENATIC (Centre National de Référence pour l’Application des TIC basées sur des Sources Ouvertes), une fondation publique nationale dont la mission est de promouvoir et de diffuser l’usage des logiciels libres et open source.

Avec l’entrée du Pays Basque, ce sont maintenant 8 communautés autonomes qui sont présentes au Conseil de cette entité, en plus du Ministère de l’Industrie, du Tourisme et du Commerce au travers de Red.es ("réseau.espagne", site de se nsibilisation, de soutien et d’information sur la question des réseaux), ainsi que 4 grandes entreprises du domaine technologique.

60% des serveurs des universités espagnoles sont basés sur des logiciels libres

El 60% de los servidores de las universidades españolas se basan en software libre

Fecha – 10 mars 2010 – ComputerWorld / IDG.es
(Traduction Framalang : Burbumpa, TV, Goofy, Quentin, Siltaar et Barbidule)

Selon une étude présentée par le CENATIC (Centre National de Référence d’Application des TIC basées sur l’open-source), la quasi totalité des Universités et des Centres de R&D espagnols utilisent des logiciels libres dans leur fonctionnement quotidien.

Dans la partie « Étude sur la situation actuelle du logiciel libre dans les universités et centres de recherche espagnols », le rapport souligne que 60% des serveurs des universités espagnoles sont basés sur des logiciels libres. Le chiffre atteint 67% pour le courrier électronique, 87% si l’on considère les outils de gestion, de même que 42% des bases de données, 67% des systèmes antispams, 40% des campus à distance, ou 44% des solutions d’administration électronique.

L’étude révèle également que 83% des universités ont des groupes de recherche sur ce type de logiciel, qui travaillent sur le transfert de technologies de ses outils vers l’industrie. Dans 57% des universités, il existe aussi des associations d’usagers de soutien aux logiciels libres et 90% d’entre elles ont créé des unités d’enseignement en rapport avec les technologies ouvertes.

Selon Javier Uceda, président de la section TIC de la Conférence des Recteurs d’Universités Espagnoles, « durant la réalisation de ce rapport nous avons découvert que les Universités et les Centres de Recherche et Développement espagnols participent elles aussi à cette réalité technologique qu’est le logiciel libre ; il apporte des bénéfices en termes de coûts, d’adaptabilité et d’ indépendance, et est devenu une composante essentielle de la recherche en Espagne ». De son côté, Miguel Jaque, Directeur du CENATIC, a affirmé que « le logiciel libre occuppe une place importante ans le quotidien des enseignants et des chercheurs dans le cadre universitaire espagnol. Parier sur le logiciel libre, c’est parier sur le futur des technologies dans le domaine de l’éducation supérieure et la recherche en Espagne ».

Le rapport a été élaboré par le CENATIC à travers l’Observatoire National du Logiciel de Code Source Libre (ONSFA) en collaboration avec le groupe Libresoft de l’Université Roi Juan Carlos de Madrid et le groupe CRUE-TIC-SL (groupe de travail de la Conférence des Recteurs dédié à l’étude du logiciel libre) de la Commission TIC de la Conférence des Recteurs d’Universités Espagnoles. Il contient les résultats d’une enquête sur l’usage des technologies open source dans l’Université espagnole, comme par exemple l’étude de 25 cas d’implantation, développement et promotion des technologies de code source libre, et une sélection de 20 projets de Recherche et Développement autour du logiciel open source financés par des programmes d’envergure nationale et européenne.

Notes

[1] Crédit photo : Cenatic (Creative Commons By)




Et l’homme créa la vie… mais déposa un brevet dans la foulée

Liber - CC by-saGrande première : des chercheurs américains sont récemment parvenus à créer une cellule bactérienne vivante dont le génome est synthétique.

Il n’en fallait pas plus pour que la presse vulgarise l’évènement en nous posant cette spectaculaire question : et si l’homme venait de créer la vie ?

C’est aller un peu vite en besogne nous précise le célèbre scientifique français Joël de Rosnay : « Craig Venter, l’auteur de la fameuse publication dans Science, n’a pas créé la vie, il a fait un copier coller du génome d’une bactérie qui existe dans la nature ». Mais il reconnaît cependant que « c’est la première fois qu’un être vivant n’a pas d’ancêtre, qu’il a pour père un ordinateur ».

Nous voici donc en présence d’un être vivant dont le père serait partiellement un ordinateur. Or qui manipule cet ordinateur ? Craig Venter et son équipe, et si l’homme est avant tout un biologiste c’est également un homme d’affaire, ce ne sont pas des fonds publics mais privés qui financent ses recherches. Ainsi Le Monde nous révèle que « Venter, qui aurait déjà investi 40 millions de dollars dans ce projet, a déposé un portefeuille de brevets pour protéger son concept de Mycoplasma laboratorium, hypothétique machine à tout faire des biotechnologies ».

Une vie qui n’est alors qu’information et données entrées dans un ordinateur mais dont l’exploitation et l’accès sont strictement contrôlés et réservés aux entreprises qui l’ont enfantée. Cela ressemble à de la mauvaise science-fiction. C’est pourtant peut-être le monde qui nous attend demain. Et l’Apocalypse arrivera plus tôt que prévu[1].

Sauf si… sauf si on insuffle là aussi un peu d’esprit « open source », nous dit cet article du The Economist traduit ci-dessous.

Avoir ou non la possibilité de « hacker la vie », telle sera l’une des questions fondamentales de ce siècle.

Et l’homme créa la vie…

And man made life

20 mai 2010 – The Economist Newspaper
(Traduction Framalang : Martin, Olivier et Don Rico)

La vie artificielle, porteuse de rêves et de cauchemars, est arrivée.

Créer la vie est la prérogative des dieux. Au plus profond de sa psyché, malgré les conclusions rationnelles de la physique et de la chimie, l’homme a le sentiment qu’il en est autrement pour la biologie, qu’elle est plus qu’une somme d’atomes en mouvement et en interaction les uns avec les autres, d’une façon ou d’une autre insufflée d’une étincelle divine, d’une essence vitale. Quel choc, alors, d’apprendre que de simples mortels ont réussi à créer la vie de façon artificielle.

Craig Venter et Hamilton Smith, les deux biologistes américains qui en 1995 ont démêlé pour la première fois la séquence d’ADN d’un organisme vivant (une bactérie), ont fabriqué une bactérie qui possède un génome artificiel – en créant une créature vivante sans ascendance (voir article). Les plus tatillons pourraient chipoter sur le fait que c’est seulement l’ADN d’un nouvel organisme qui a été conçu en laboratoire, les chercheurs ayant dû utiliser l’enveloppe d’un microbe existant pour que l’ADN fasse son travail. Néanmoins, le Rubicon a été franchi. Il est désormais possible de concevoir un monde où les bactéries (et à terme des animaux et des plantes) seront conçues sur ordinateur et que l’on développera sur commande.

Cette capacité devrait prouver combien l’Homme maîtrise la nature, de façon plus frappante encore que l’explosion de la première bombe atomique. La bombe, bien que justifiée dans le contexte de la Seconde Guerre mondiale, n’avait qu’une fonction de destruction. La biologie, elle, s’attache à « mettre en culture » et « faire croître ». La biologie synthétique, terme sous lequel on regroupe cette technologie et des tas d’autres moins spectaculaires, est très prometteuse. À court terme, elle devrait permettre d’obtenir de meilleurs médicaments, des récoltes moins gourmandes en eau (voir article), des carburants plus écologiques, et donner une nouvelle jeunesse à l’industrie chimique. À long terme, qui peut bien savoir quels miracles elle pourrait permettre d’accomplir ?

Dans cette perspective, la vie artificielle semble être une chose merveilleuse. Pourtant, nombreux sont ceux qui verront cette annonce d’un mauvais œil. Pour certains, ces manipulations relèveront plus de la falsification que de la création. Les scientifiques n’auraient-ils plus les pieds sur terre ? Leur folie conduira-t-elle à l’Apocalypse ? Quels monstres sortiront des éprouvettes des laboratoires ?

Ces questionnements ne sont pas infondés et méritent réflexion, même au sein de ce journal, qui de manière générale accueille les progrès scientifiques avec enthousiasme. La nouvelle science biologique a en effet le potentiel de faire autant de mal que de bien. « Prédateur » et « maladie » appartiennent autant au champ lexical du biologiste que « mettre en culture » et « faire croître ». Mais pour le meilleur et pour le pire, nous y voilà. Créer la vie n’est désormais plus le privilège des dieux.

Enfants d’un dieu mineur

Il est encore loin le temps où concevoir des formes de vie sur un ordinateur constituera un acte biologique banal, mais on y viendra. Au cours de la décennie qui a vu le développement du Projet Génome Humain, deux progrès qui lui sont liés ont rendu cet événement presque inévitable. Le premier est l’accélération phénoménale de la vitesse, et la chute du coût, du séquençage de l’ADN qui détient la clé du « logiciel » naturel de la vie. Ce qui par le passé prenait des années et coûtait des millions prend maintenant quelques jours et coûte dix fois moins. Les bases de données se remplissent de toutes sortes de génomes, du plus petit virus au plus grand des arbres.

Ces génomes sont la matière première de la biologie synthétique. Tout d’abord, ils permettront de comprendre les rouages de la biologie, et ce jusqu’au niveau atomique. Ces rouages pourront alors êtres simulés dans des logiciels afin que les biologistes soient en mesure de créer de nouvelles constellations de gènes, en supposant sans grand risque de se tromper qu’elles auront un comportement prévisible. Deuxièmement, les bases de données génomiques sont de grands entrepôts dans lesquels les biologistes synthétiques peuvent piocher à volonté.

Viendront ensuite les synthèses plus rapides et moins coûteuses de l’ADN. Ce domaine est en retard de quelques années sur l’analyse génomique, mais il prend la même direction. Il sera donc bientôt à la portée de presque tout le monde de fabriquer de l’ADN à la demande et de s’essayer à la biologie synthétique.

C’est positif, mais dans certaines limites. L’innovation se porte mieux quand elle est ouverte à tous. Plus les idées sont nombreuses, plus la probabilité est élevée que certaines porteront leurs fruits. Hélas, il est inévitable que certaines de ces idées seront motivées par une intention de nuire. Et le problème que posent les inventions biologiques nuisibles, c’est que contrairement aux armes ou aux explosifs par exemple, une fois libérées dans la nature, elles peuvent proliférer sans aide extérieure.

La biologie, un monde à part

Le club informatique Home Brew a été le tremplin de Steve Jobs et d’Apple, mais d’autres entreprises ont créé des milliers de virus informatiques. Que se passerait-il si un club similaire, actif dans le domaine de la biologie synthétique, libérait par mégarde une bactérie nocive ou un véritable virus ? Imaginez qu’un terroriste le fasse délibérément…

Le risque de créer quelque chose de néfaste par accident est sans doute faible. La plupart des bactéries optent pour la solution de facilité et s’installent dans de la matière organique déjà morte. Celle-ci ne se défend pas, les hôtes vivants, si. Créer délibérément un organisme nuisible, que le créateur soit un adolescent, un terroriste ou un État-voyou, c’est une autre histoire. Personne ne sait avec quelle facilité on pourrait doper un agent pathogène humain, ou en choisir un qui infecte un certain type d’animal et l’aider à passer d’une espèce à une autre. Nous ne tarderons toutefois pas à le découvrir.

Difficile de savoir comment répondre à une telle menace. Le réflexe de restreindre et de bannir a déjà prouvé son efficacité (tout en restant loin d’être parfait) pour les armes biologiques plus traditionnelles. Mais celles-ci étaient aux mains d’états. L’omniprésence des virus informatiques montre ce qu’il peut se produire lorsque la technologie touche le grand public.

Les observateurs de la biologie synthétique les plus sensés favorisent une approche différente : l’ouverture. C’est une manière d’éviter de restreindre le bon dans un effort tardif de contrer le mal. Le savoir ne se perd pas, aussi le meilleur moyen de se défendre est-il de disposer du plus d’alliés possible. Ainsi, lorsqu’un problème se présente, on peut rapidement obtenir une réponse. Si l’on peut créer des agents pathogènes sur ordinateur, il en va de même pour les vaccins. Et à l’instar des logiciels open source qui permettent aux « gentils sorciers » de l’informatique de lutter contre les « sorciers maléfiques » (NdT : white hats vs black hats), la biologie open source encouragerait les généticiens œuvrant pour le bien.

La réglementation et, surtout, une grande vigilance seront toujours nécessaires. La veille médicale est déjà complexe lorsque les maladies sont d’origine naturelle. Dans le cas le la biologie synthétique, la surveillance doit être redoublée et coordonnée. Alors, que le problème soit naturel ou artificiel, on pourra le résoudre grâce à toute la puissance de la biologie synthétique. Il faut encourager le bon à se montrer plus malin que le mauvais et, avec un peu de chance, on évitera l’Apocalypse.

Notes

[1] Crédit photo : Liber (Creative Commons By-Sa)




Les utilisateurs Linux bien plus généreux que les utilisateurs Windows ?

David Paul Ohmer - CC byUn pack de 5 jeux disponible pendant une semaine au prix que vous voulez, tel est l’objet de l’opération « Humble Indie Bundle », lancée par Wolfire Games avec d’autre éditeurs de jeux indépendants.

On notera que vous pouvez choisir la répartition de la somme que vous allouez entre les développeurs, l’EFF (Electronic Frontier Foundation) et l’association caritative Child’s Play. On notera également, et c’est voulu, que les jeux sélectionnés sont tous multiplateformes, c’est-à-dire tous compatibles Windows, Mac et GNU/Linux[1].

Du coup tout le monde est potentiellement intéressé et l’on peut faire des statistiques en fonction du système d’exploitation (OS) des donateurs. Or, justement, que constate-t-on, alors même que la campagne n’est pas encore terminée et qu’elle s’annonce déjà être un succès avec ses 600 000 dollars de dons à l’heure où je vous parle ?

On observe que les contributeurs GNU/Linux sont bien plus nombreux à donner que ce qu’ils représentent dans l’absolu sur le marché des OS (certains disent qu’ils ne dépassent pas les 1%), et que ce don est deux fois supérieur à celui d’un utilisateur Windows.

Je vous laisse en tirer vos propres conclusions 😉

Les utilisateurs Linux donnent 2 fois plus que les utilisateurs Windows

Linux users contribute twice as much as Windows users

Jeff – 7 mai 2010 – Wolfire Games Blog
(Traduction Framalang : Yostral et Goofy)

Nous avons toujours prôné le développement multiplateforme ; en fait, l’année dernière, nous avions écrit un billet expliquant pourquoi nous devrions supporter Mac OS X et Linux. En organisant le Humble Indie Bundle, nous avons décidé le mettre de l’argent dans ce que nous soutenons et de sélectionner uniquement des jeux qui étaient portés sur les 3 principales plateformes : Mac, Windows et Linux.

En ce moment nous avons environ 53 500 dons ; beaucoup plus que ce que nous espérions ! Mais d’où sont-ils venus ? La décomposition en nombre de dons par plateforme est : 65 % Windows, 31 % Mac et 14% Linux. Cependant, quand nous regardons la somme des dons par plateforme, on voit quelque chose de différent. Les dons que nous recevons peuvent être décomposés ainsi par plateforme : 52% Windows, 25% Mac et 23% Linux. Voici ces résultats sous forme de diagramme en camembert :

Linux Windows Mac - Make a Donation

La seule explication est que les utilisateurs Mac et Linux donnent beaucoup plus que les utilisateurs Windows. Jusqu’à présent, l’utilisateur Mac donne en moyenne 40% de plus et l’utilisateur Linux en moyenne 100% de plus ! Voici un histogramme montrant les différentes moyennes des dons : Linux Windows Mac - Make a Donation

Si vous voulez voir les mises à jour en temps réel de la moyenne des dons par plateforme, J’ai modifié la section stats de la page bundle. Cliquez ici pour y faire un tour. Ces moyennes sont restées très stables pendant ces 3 derniers jours, mais maintenant qu’elles sont visibles sur le site, ça sera intéressant de voir si elles changent !

Notes

[1] Crédit photo : David Paul Ohmer (Creative Commons)




Pourquoi le gouvernement du Québec ne s’ouvre pas davantage aux logiciels libres ?

Telle est en résumé la question posée le 26 avril dernier par Marie Malavoy, députée de Taillon pour le Parti Québécois, lors d’un échange public à la Commission des finances du Québec.

Cet échange est exemplaire et révélateur.

Exemplaire parce qu’il interpelle un gouvernement sur sa timidité vis-à-vis du logiciel libre. Et révélateur parce que les réponses données demeurent prudentes pour ne pas dire confuses voire embarrassées.

Mais ce passage est également à situer dans le contexte particulièrement tendu d’un procès local dénonçant la décision d’accorder sans appel d’offres un contrat public de 722 848 $ à Microsoft Canada pour une migration à Windows Vista. Nous l’avions évoqué dans un précédent billet.

Pour en savoir plus nous vous invitons à vous rendre sur le site de l’association FACIL dont nous profitons de l’occasion pour témoigner de notre soutien.

PS : Il est fait allusion, en fin d’intervention, à un remboursement de frais exorbitant demandé à FACIL dans le cadre d’une autre procédure (mais dont la coïncidence est plus que troublante). Nous savons désormais que l’association n’aura pas à payer cette somme indigente qui menaçait son existence même.

—> La vidéo au format webm

Transcription

URL d’origine du document (extrait)

Mme Malavoy : Merci, M. le Président et bonjour. Moi, j’aimerais aborder, Mme la ministre, une question très précise. Je… J’entends la ministre parler des appels d’offres, j’entends la ministre parler d’une concurrence qui existerait malgré tout. Je l’entends, bien entendu, parler de l’impérieuse nécessité de réduire les coûts de tous nos systèmes d’exploitation. Mais il y a une chose dont elle ne parle pas, absolument pas, c’est d’ouvrir ces appels d’offres aux logiciels libres.

Et j’aimerais aborder cette question-là, cet après-midi. J’aimerais l’aborder d’abord parce que dans beaucoup de pays du monde, on a pris le virage des logiciels libres. On leur a permis de, non seulement, faire des soumissions, mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de…

Mme Malavoy : …mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de faire, ils sont mois coûteux pour les contribuables, et, à l’heure où on cherche désespérément de l’argent, j’aimerais comprendre pourquoi le gouvernement du Québec ne fait pas un virage important pour s’ouvrir aux logiciels libres.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Alors, M. le Président, comme mon expertise n’est pas tellement poussée dans la matière, et j’aimerais que la députée ait véritablement la bonne réponse, si vous le permettez, je demanderais au secrétaire associé, M. Parenteau, si vous le souhaitez, de répondre à la députée pour lui donner la meilleure réponse possible.

Le Président (M. Bernier) : Est-ce qu’il y a consentement du côté de l’opposition officielle? Consentement. Allez-y, M. Parenteau, on vous écoute. La parole est à vous.

M. Parenteau (Alain) : Alors, bonjour aux membres de la commission. Écoutez, sur le plan de l’application ou de l’existence des logiciels libres, il y a déjà à des… c’est peut-être pas à une immense envergure, j’en conviens, mais le logiciel libre, au gouvernement du Québec, ça existe: le CSPQ, le MDEIE, le ministère des Services gouvernementaux, le MDEIE, c’est le ministère du Développement économique, là, bon, ont déjà pris en charge des logiciels libres au sein de l’organisation pour des applications peut-être un peu plus locales, mais ça existe.

L’autre défi auquel on est confrontés, puis il faut bien l’admettre, pour des grosses infrastructures, par exemple, si on parle des logiciels propriétaires, on parle des Microsoft et compagnie, quand arrive le temps de faire des changements au niveau des processus informatiques, il y a un… il faut prendre en considération les dimensions du coût d’impact que ça peut avoir que de transformer l’ensemble des… ce n’est pas juste une question de logiciel, il y a toute la mutation et les coûts d’impact que ça va avoir pour faire cette mutation-là.

Le défi auquel on est confrontés actuellement, et sur lequel on travaille, je ne vous dis pas qu’on ne travaille pas, au contraire, on travaille très fort pour essayer de déterminer comment on peut mettre en concurrence justement des entreprises qui favorisent les logiciels libres et les logiciels propriétaires. Je vous dis juste qu’au moment où on se parle sur le plan de la mécanique contractuelle, rien ne s’oppose dans la réglementation à ce qu’on y aille, mais il y a des limitations technologiques auxquelles on est confrontés, dont notamment le fait que, dans certains cas, le besoin est de mettre à niveau certains logiciels existants. Et le gain d’aller en logiciel libre dans un contexte comme celui-là doit être évalué au cas par cas, ce n’est pas nécessairement la meilleure solution, la panacée.

Partir à zéro, puis dire qu’on va y aller… mettons qu’on part qu’une nouvelle entreprise, une nouvelle organisation, puis on repart en logiciel libre, il n’y en a pas de problème. Le problème se pose lorsque tu as déjà une infrastructure de bien établie, par exemple, je ne sais pas, moi, Microsoft de niveau Vista, puis qu’on veut upgrader, par exemple, un certain niveau de logiciel, la question de l’opportunité doit être considérée, et ça, dans ce niveau-là, il y a des coûts d’impact comme je le mentionnais tantôt.

Ce que vous voyez actuellement dans certains ministères qui décident d’aller en appel… en gré à gré, c’est justement à cause de cette difficulté à pouvoir amener la mise à niveau et de mettre en concurrence potentiellement des logiciels libres, puis dire: On fait fi de tout ce qui existe, puis on rentre du logiciel libre. Il faut voir un peu du cas par cas puis comment on peut l’amener. Mais je vous dis: Sérieusement, on travaille là-dessus. Le Président (M. Bernier): Merci, M. Parenteau. Mme la députée de Taillon.

Mme Malavoy : J’apprécie beaucoup les commentaires de M. Parenteau, mais il y a aussi une dimension politique à ma question. Et, à cette dimension-là, j’aimerais aussi que la ministre me réponde. Le problème des logiciels propriétaires, c’est qu’à chaque fois que vus voulez les mettre au niveau, vous devez tout racheter. Ça on n’a pas besoin d’être spécialiste pour comprendre ça. Vous êtes pris avec une suite Office, Microsoft Office, vous voulez la mettre à niveau, vous ne pouvez pas l’ajuster à vos besoins, vous devez la mettre de côté, en racheter une autre. Ce sont des coûts astronomiques.

L’avantage du logiciel libre, c’est qu’il a justement dans sa nature même la possibilité d’une évolution permanente en fonction de expertises qu’on a chez nous, mais en fonction des expertises qu’il y a dans le monde entier. Et je pense qu’il ne s’agit pas à ce moment-ci de regarder: Est-ce que l’on peut, cas par cas, à petite dimension, les introduire timidement? Je pense qu’il s’agit de voir si le gouvernement du Québec pourrait, comme par exemple, les 27 pays de l’OCDE, faire un virage et exprimer une volonté politique. Il y a des millions de dollars en cause dans cette aventure, et je pense qu’il est temps que le Québec prenne le tournant.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Bien, écoutez, M. le Président, c’est qu’on n’est pas en défaveur, là, d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés, au contraire, on est en faveur de ça. Mais, en même temps, il faut dire que c’est des logiciels propriétaires qu’on appelle. Alors, est-ce que, demain matin, on met tout à la porte et on recommence…

Mme Gagnon-Tremblay : …des faveurs, là, de… d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés. Au contraire, on est en faveur de ça. Mais en même temps, c’est… il faut dire que ça, c’est des logiciels propriétaires, qu’on appelle, alors, est-ce que demain matin on met tout à la porte et on recommence à zéro? Alors, c’est ça, là, je pense qu’il faut le faire graduellement, mais tu ne peux pas d’une journée à l’autre arriver puis dire: Bien, voici… Ça, c’est comme je vous dis, c’est des logiciels qui sont déjà la propriété. Alors donc, on ne peut pas demain matin tout balancer puis revenir. Alors, il faut le faire correctement, mais il faut le faire aussi, je dirais, régulièrement, mais ça ne peut pas… on ne peut pas tout balancer demain matin. Alors donc, nous, est-ce qu’on est en faveur? Oui, on est en faveur de… d’avoir… de… on est en faveur d’aller chercher des sommes, des… c’est-à-dire des réductions de coûts, mais il faut le faire correctement. On ne peut demain matin faire table rase et puis dire: Bien, voici, on met de côté tout ce que nous possédons actuellement et on recommence à zéro avec ce genre… ce libre… ces logiciels libres. Mais on n’est pas en défaveur, mais encore faut-il faire correctement.

Le Président (M. Bernier) : Merci. Mme la députée de Taillon.

Mme Malavoy : Bien, j’aimerais en profiter, M. le Président, pour dénoncer une situation qui me semble un peu aberrante. Je comprends donc qu’il y a, mettons, une timide volonté politique pour s’ouvrir petit à petit au logiciel libre, en même temps il y a un groupe qui s’appelle le FACIL, qui plaide sa cause depuis des années et le gouvernement du Québec actuellement le poursuit pour 107 000 $. J’essaie de comprendre comment on peut, d’un côté, croire que le logiciel libre est une voie d’avenir éventuellement, et, d’un autre côté, mettre dans la misère, parce que c’est ça qui va se passer, un groupe qui se porte à la défense de ce type d’exploitation qui est assez révolutionnaire, mais qui n’est pas unique au Québec, qui a fait ses preuves déjà dans bien des pays du monde. Et vous me permettrez de donner un seul exemple qui devrait nous toucher. L’Assemblée nationale française, après un projet pilote, est passée entièrement au logiciel libre. Alors, je me demande pourquoi au Québec on devrait être en retard par rapport à d’autres pays de la planète qui ont compris que c’est un virage essentiel.

Le Président (M. Bernier) : Merci. Mme la ministre.

Mme Gagnon-Tremblay : Bien, M. le Président, c’est qu’on… comme je le mentionnais tout à l’heure, on ne l’exclut pas, il faut le faire, je dirais, graduellement. Mais en même temps, bon, la députée de Taillon a fait mention d’une compagnie qui est actuellement devant la cour face au gouvernement, alors vous comprendrez que je vais m’abstenir de… d’élaborer sur ce sujet.