Naissance du (pas très bien nommé) Conseil National du Logiciel Libre

Gruntzooki - CC by-saCe matin je reçois dans ma boite aux lettres (électronique) un communiqué de presse m’informant de la création du Conseil National du Logiciel Libre (ou CNLL).

Le nom m’a intrigué parce que de Conseil national, je connaissais surtout celui de Suisse, de la Résistance et de l’Ordre des médecins !

En fait il s’agit d’une nouvelle association nationale regroupant 10 associations régionales représentant 200 entreprises françaises spécialisées dans le logiciel libre.

Le CNLL a pour vocation de parler au nom de l’ensemble de la filière économique du logiciel libre, sans discrimination, afin de faire connaître les bénéfices du logiciel libre dans le contexte actuel de relance économique, et de faire entendre les demandes de ses membres auprès des pouvoirs publics, pour un soutien à l’activité économique de la filière.

L’union faisant la force, c’est une très bonne nouvelle que voilà.

D’ailleurs l’Aful, associée au communiqué de presse, se réjouit de cette création. Tandis que l’April salue l’initiative.

On remarquera au passage la subtile nuance entre la réjouissance et la salutation. Le titre de l’annonce n’étant d’ailleurs pas le même chez nos deux associations : Création du Conseil National du Logiciel Libre pour le premier, Création d’une fédération professionnelle du Logiciel Libre pour le second 😉

J’ai eu la curiosité de parcourir la FAQ du site.

« Logiciels Libre » ou « Open Source », quelle est la position du CNLL ?

Logiciel Libre et Open Source Software désignent des logiciels dont les licences permettent de les utiliser, de les modifier et de redistribuer librement, selon des conditions qui ont été codifiées précisément, respectivement par la FSF et l’OSI. Les deux termes ont cependant des connotations différentes, et certains préfèrent utiliser l’un plutôt que l’autre, ce que nous respectons, tout en estimant que nous n’avons pas à trancher dans ce débat.

Quelle que soit la façon dont on les appelle, nous estimons que le processus de développement et de diffusion des logiciels libres / open source est à même d’apporter plus de valeur à moindre coût, et plus de contrôle sur leurs choix technologiques, aux clients des entreprises que nous représentons.

Cette dernière phrase a tout de même de forts accents « open source » selon moi. Comme si on répondait tout de même à la question en faisant un choix (au demeurant tout à fait cohérent, logique et respectable)[1].

Mais du coup je n’aurais pas forcément adopté un tel nom de baptême, qui peut prêter à confusion dans le sens où on ne comprend pas forcément qu’il s’agit de fédérer des entreprises.

Proposition alternative : l’ANAREFOS pour Association Nationale des Associations Régionales des Entreprises Françaises Open Source. Mais c’est plus long, moins sexy et puis il y a « anar » dedans !

Certaines mauvaises langues m’objecteront qu’il existait déjà une structure similaire avec la FniLL, qui a pour « vocation de représenter en France l’ensemble des acteurs professionnels qui participent au dynamisme de l’économie du Logiciel Libre ». N’étant pas dans le secret des dieux, je me dis qu’il doit y avoir quelques bonnes raisons à une telle (saine) concurrence.

Aful / April, CNLL / FniLL, Logiciel Libre / Open Source, ce billet figurera en bonne place dans le « Hall of Troll » du blog !

Mais qu’on ne se meprenne pas. Moi aussi je salue, que dis-je, je me réjouis de la naissance de ce projet qui témoigne du dynamisme des FLOSS dans notre beau pays 😉

Notes

[1] Crédit photo : Gruntzooki (Creative Commons By-Sa)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)




Au secours, l’Hadopi arrive en Belgique !

Yumyumbubblegum - CC byOn peut être éventuellement fiers d’exporter nos parfums et nos vins, mais certainement pas notre Hadopi !

C’est pourtant la menace qui plane en Belgique. Ce court extrait vidéo d’un récent débat télévisé de la RTBF vous rappellera en effet illico bien des souvenirs.

Pour en savoir plus nous avons recontré un membre d’une association locale qui souhaite sensibiliser et mobiliser le grand public pour éviter la contagion française.

PS : Désolé pour le choix de la photo clichée de la Belgique[1], mais ça symbolise les quatre majors du disque pissant dans les violons des artistes 😉

Entretien avec André Loconte du collectif NURPA

Bonjour, pouvez-vous vous présenter succinctement ?

André Loconte, belge, étudiant ingénieur, politiquement orienté vers le logiciel libre, développeur et fervent défenseur de l’accessibilité du Web et de la neutralité du Net. Mes connaissances techniques liées à l’informatique sont issues principalement (pour ne pas dire « exclusivement ») du Net.

Je suis l’un des trois co-fondateurs de NURPA (avec Laurent Peuch et Frédéric Van Der Essen).

Qu’est ce que NURPA ? (et pourquoi un acronyme anglophone dans un pays qui a déjà trois autres langues officielles ?)

Nous sommes un collectif hétéroclite constitué initialement d’étudiants (sciences informatiques, ingénieurs, ..) bercés dans la culture du libre mais qui s’est très vite complété de citoyens de tous horizons professionnels, concernés par les problèmes que l’application de lois telles que celle proposée par le sénateur Philippe Monfils (Proposition de loi visant à promouvoir la création culturelle sur Internet) serait susceptible d’engendrer. Deux des co-fondateurs ont contribué (et contribuent toujours) chacun à leur manière aux débats qui font rage en France.

La Net Users’ Rights Protecion Association (trad. Association de protection des droits des internautes) est la réponse collective de citoyens amoureux du Net et de leurs libertés, décidés à ne brader ni l’un ni l’autre au prétexte qu’un gouvernement flexible au poids des industries du divertissement tente d’imposer subrepticement une surveillance généralisée du Net. Si l’on écarte une hypothétique pression des lobbys, il est évident que nos politiques ont un retard considérable dans l’appréhension d’Internet et dans la compréhension de sa complexité. C’est donc avant tout dans une démarche pédagogique forte que s’inscrit NURPA : (in)former pour éviter de voir se reproduire en Belgique les erreurs qui ont conduit à la promulgation d’HADOPI en France (et qui ont poussé les députés à aller plus loin dans l’absurde avec HADOPI2, LOPPSI…).

En observateurs avisés des déboires français et du contexte européen, nous craignons que cet HADOPI à la belge ne soit qu’un cheval de Troie, le calme avant la tempête. L’ombre d’ACTA plane. Nous ne nous positionnons pas comme collectif uniquement contre l’HADOPI de Monfils, nous sommes évidemment contre cette loi, mais le débat ne s’arrête pas là.

Dans un pays qui possède trois langues officielles (l’allemand, le néerlandais et le français), l’utilisation de l’anglais pour la formation du nom, in fine de l’acronyme, a été pour nous une manière de passer outre cette indéniable barrière linguistique. Il nous a semblé que l’anglais était le meilleur choix pour garantir que notre but soit compris de tous.

Voici donc que la Belgique nous propose par l’entremise du sénateur Philippe Monfils son « Hadopi locale » baptisée tendancieusement « Proposition de loi visant à promouvoir la création culturelle sur Internet ». Pouvez-vous nous en dire plus ? Quelles sont les similarités et différences par rapport à la loi française ?

Le sénateur Monfils, qui a déclaré « la culture gratuite, ça n’existe pas » (lors de l’émission InterMedia de la RTBF du 25 janvier 2010), explique que des systèmes de juste rémunération des artistes et de contrôle du Net ont fait leur preuve ailleurs et cite sans scrupule, .. HADOPI en France (page 5, paragraphe 5 de sa proposition de loi). Signe évident selon nous d’une part, de sa méconnaissance du contexte qui a entouré la promulgation du texte de loi non seulement dans l’hexagone mais également au niveau européen; d’autre part, de la nature inapplicable de la loi française.

Le texte belge est une version édulcorée de l’HADOPI français, on y retrouve d’ailleurs les erreurs de jeunesse d’HADOPI :

  • Pas de Haute Autorité de Contrôle mais des agents commissionnés par le ministère de l’économie : des agents qui ont un pouvoir d’investigation a priori illimité (car non-défini dans la proposition de loi), qui constatent les infractions et qui décident des sanctions.
  • Pas de mouchard mais une collaboration des FAI : les FAI (Fournisseurs d’Accès à Internet) auront l’obligation juridique de fournir toutes les informations nécessaires pour l’association d’une personne physique à une adresse IP. Actuellement, obtenir ce type d’information nécessite l’ordonnance d’un juge, ce qui garantit le respect de la vie privée et limite les dérapages.

    Une différence importante par rapport au dispositif français qui pénalise le titulaire de la ligne en cas de défaut de sécurisation, le texte belge ne prévoit de peine que pour le titulaire qui télécharge illégalement du contenu soumis au droits d’auteur ou droits voisins sur sa propre ligne. On imagine aisément l’immense difficulté de prouver qu’il s’agit effectivement du titulaire qui s’est rendu coupable de téléchargements illégaux sur sa propre ligne.

  • Double peine : le paiement de l’abonnement à Internet dans sa totalité est d’application même si celui-ci a été suspendu pour raison de téléchargement illégal.
  • Théoriquement pas de coupure de la ligne mais un bridage du débit : « en théorie » car bien que cela semble être l’argument clé de Philippe Monfils, sa proposition de loi ne manque pas de préciser que la coupure serait tout à fait envisageable en cas de multiple récidive. Bridage du débit, c’est à dire : diminuer la vitesse de transfert de telle sorte que l’internaute puisse continuer à chercher du travail et à consulter ses mails (sic).

    On conçoit un peu mieux la qualité de ce texte quand on sait qu’un débit suffisant à la consultation de mail et à la recherche d’emploi est également suffisant au téléchargement de la plupart des fichiers (moins rapidement certes). Ne parlons même pas des mises à jour de sécurité qui vont devenir pénible à obtenir et toutes les conséquences fâcheuses que cela risquerait d’entraîner.

    Lors d’une coupure (en cas de récidive après le bridage), quid du téléchargement légal ? L’internaute qui verrait sa ligne coupée serait en effet dans l’incapacité d’acheter du contenu légalement en ligne. A cela s’ajoute la décision du 10 juin 2009 du Conseil Constitutionnel français qui présente Internet comme une composante de la liberté d’expression et de consommation nécessaire à l’exercice la liberté d’expression et de consommation tel que décrit dans l’article 11 de la déclaration des droits de l’homme de 1789.

  • Enfin, le texte qui trouve sa justification dans la juste rémunération des artistes, ne contient pas une ligne à leur propos.

L’Hadopi est certes passée en France mais modifiée par rapport au texte initial (et non encore appliquée). Et puis « nous » avons coutume de dire que c’est une victoire à la Pyrrhus car « nous » avons gagné au passage la bataille de la médiatisation et des idées. Comment alors selon vous peut-elle encore servir d’exemple à d’autres pays ?

Je soulevais la question plus haut : profonde méconnaissance du dossier, incompétence technique, influence des lobbys du divertissement ? Probablement un savant mélange des trois.

Et pour citer un certain Jérémie Zimmerman (reprenant Michel Audiard) : « Les cons ça osent tout, c’est à ça qu’on les reconnaît ».

D’autres sénateurs (écologistes je crois) ont rédigé une proposition de loi visant à instaurer quelque chose qui ressembe à une « licence globale ». Approuvez-vous cette initiative ? A-t-elle une chance d’être comprise et entendue par les politiques en particulier et la société belge en générale ?

Cette idée de licence globale est en effet portée par Ecolo (à travers Benoit Hellings) et n’a pas encore été déposée. Il nous est donc impossible de nous prononcer précisément à son sujet. Les interventions télévisuelles de Benoit Hellings permettent cependant de dresser un rapide état des lieux : il semble que cette licence globale soit largement inspirée du livre de Philippe Aigrain « Internet & Création. Comment reconnaître les échanges hors-marché sur internet en finançant et rémunérant la création ? » (sic); que la contribution de l’internaute serait répercutée directement dans le prix de l’abonnement (sans sur-coût); que la grille de répartition des biens aux artistes serait semblable à celle actuellement en usage par la SABAM (NDLR : la SACEM locale). Il est évoqué également la possibilité de création d’un organisme indépendant chargé d’établir des statistiques sur les téléchargements sur base d’enquêtes anonymes.

Sans chercher à créer la polémique avant même que la proposition de loi d’Ecolo ne soit déposée, nous relevons déjà plusieurs points qui à n’en pas douter seraient problématiques s’ils étaient introduits dans la proposition de loi :

  • Je parlais de contribution directement répercutée dans le prix de l’abonnement, Benoit Heillings va plus loin : il suggère une retarification des connexions au Net selon le critère du téléchargement, en d’autres termes les « gros téléchargeurs » bénéficieraient, pour des tarifs semblables à ceux pratiqués actuellement, de vitesses de connexion plus élevées et d’une capacité de téléchargement supérieure (illimitée ?); les autres, pour un tarif plus modeste, de vitesses de connexion réduites et de capacité de téléchargement inférieure (permettant uniquement la consultation des mails et la recherche d’emploi). De notre point de vue, cette vision bipolaire du comportement des internautes (soit il télécharge, soit il ne télécharge pas du tout) traduit une fois de plus une méconnaissance profonde d’Internet et de ses usages.

    Ce n’est pas la première fois que le gouvernement belge est pris à défaut sur cette problématique, on se rappellera le courrier adressé par Microsoft au Ministre fédéral des télécommunications à propos des quotas de téléchargement en application en Belgique qui empêcheraient la firme de Redmond de déployer son service de VOD.

  • Ensuite, l’utilisation de la grille de répartition – déjà obsolète – de la SABAM ne permettrait en rien une meilleure rémunération des artistes.
  • Enfin, nous voyons d’un oeil méfiant la création d’un organisme indépendant, ô combien respectueux de l’anonymat soit-t-il. A quel niveau et de quelle manière s’effectuerait l’analyse des échanges ? Qui s’assurait que cet organisme respecte le cadre de ses attributions, la vie privée des internautes ? Quels moyens cet organisme serait-il capable de mettre en place afin d’observer les échanges via les VPN ou dans les Darknet ?

Nous n’hésiterions pas à leur faire part de ces remarques si nos craintes s’avéraient fondées à la lecture du projet de loi.

NURPA est-elle la seule structure belge à s’opposer ? Quelles sont les forces en présence ? Etes-vous en contact avec, par exemple, La Quadrature du Net ? Et quelles sont vos relations avec le tout jeune Parti Pirate belge ?

NURPA n’est heureusement pas la seule association que cette proposition de loi révolte. Citons par exemple « HADOPI mayonnaise » qui partage de nombreux points d’accord avec notre vision et avec qui nous collaborerons bientôt.

Quant aux forces en présence, le système de majorité étant différent en Belgique et en France, c’est avec la proposition Ecolo et la proposition annoncée du PS que les débats parlementaires se dérouleront. Contrairement à la situation qu’a connu la France avec l’UMP, la possibilité pour le Mouvement Réformateur (dont est issu P. Monfils) de faire passer sa loi de force est rendue complexe (pour ne pas dire impossible) tant la répartition des sièges à la Chambre et au Sénat est panachée.

Nous avons eu il y a quelques semaines, des échanges avec Jeremy Zimmerman, il nous a prodigué – fort de son expérience avec La Quadrature du Net – de précieux conseils d’ordre organisationnel. Des actions coordonnées pourraient être envisagées mais ne sont pas d’actualité.

Nous avons contacté le Parti Pirate belge afin de recueillir leur avis concernant la proposition de loi du sénateur MR. Notre interlocuteur (Germain Cabot) a manifesté un réel intérêt pour la question et nous a informé que le PP belge dressait un état des initiatives citoyennes afin d’envisager des collaborations. Le Parti Pirate belge fait les frais de sa jeunesse politique (création en juillet 2009), ne disposant pas de siège parlementaire, il verra son rôle limité à celui de commentateur sans avoir l’opportunité d’apporter un réel contre-poids politique.

Nous tenons à conserver une indépendance politique certaine, nos rapports au PP belge ne seront pas différents de ceux envers les autres partis politiques.

Quelles sont les échéances et quels moyens d’action envisagez-vous ?

Il n’y a pour l’instant pas d’échéances précises, en Belgique, un projet de loi met habituellement une année à passer à travers les rouages parlementaires. Bien que le projet de loi de P. Monfils ait été déposé, celui-ci est en cours de correction et de traduction. ECOLO n’a pas encore publié le leur et le PS s’en tient à des déclarations d’intention sans plus de précisions. Cela ne nous dispense pas de faire preuve de vigilence dès à présent, c’est un combat de longue haleine qui nous attend.

Nous allons principalement nous concentrer sur l’information et la sensibilisation de l’opinion publique et politique à ce sujet au travers d’analyses, de dossiers et de communiqués de presses, de rencontres et d’actions sur le terrain.

Nous avons, dès les premiers jours, mis à disposition un wiki afin d’asseoir l’aspect communautaire prépondérant de notre action.

Inspiré par le modèle de La Quadrature du Net, nous comptons également attirer les projecteurs des médias pour éviter que cette proposition de loi et les débats qui l’entourent soient passés sous silence.

Au delà d’Hadopi, vous dites être également sensible à des sujets comme le filtrage du Net ou la taxe sur la copie privée. En France on est actuellement mobilisé sur le front de la loi Loppsi et les cachotteries de l’Acta. Les libertés numériques dans leur ensemble sont-elles menacées ?

Lorsque l’on constate l’inconscience et l’incompétence avec laquelle les libertés numériques sont abordées par les politiques, on ne peut que craindre pour la pérennité de celles-ci. C’est pourquoi nous nous faisons un devoir d’éduquer et de sensibiliser les politiques à ces sujets.

Nous craignons que cet « HADOPI à la belge » soit le précédent nécessaire et suffisant à l’émergence d’autres lois plus pernicieuses encore. Je le disais en préambule, nous partons avec l’avance non négligeable que sont les enseignements tirés de l’expérience française.

Nous ferons ce qui est en notre pouvoir afin de nous assurer que ce projet de loi ne soit jamais promulgué et que LOPPSI et consorts demeurent le fait de l’exception française.

Brel disait « Je préfère les hommes qui donnent à ceux qui expliquent ».

La connaissance est parfois tout ce que l’on a à offrir. Tant qu’à la partager, autant que cela se fasse sous licence libre.

Que ferait le Grand Jacques aujourd’hui, il s’enfuirait aux Marquises ou résisterait debout ?

Il chanterait.

Pour NURPA, André Loconte

Notes

[1] Crédit photo : Yumyumbubblegum (Creative Commons By)




Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique

One Laptop Per Child - CC byLa « culture libre » va-t-elle enfin être reconnue, soutenue et encouragée à l’école française ?

Si vous êtes un lecteur régulier du Framablog, vous n’ignorez pas que c’est une question qui nous taraude depuis plusieurs années (sachant que patience et longueur de temps font plus que force ni que rage).

Or on tient peut-être un début de réponse positive avec le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. Sous l’égide d’un autre politique issu du monde de l’industrie, le ministre Luc Chatel, ce rapport ambitieux a pour titre Réussir l’école numérique et il a été remis aujourd’hui même à François Fillon.

70 mesures réparties en 12 priorités dans un document de 333 pages, le moins que l’on puisse dire est qu’ils n’ont pas chômé. Enseignant, étudiant[1], parent d’élèves ou simple citoyen curieux de l’avenir du système éducatif dans la société actuelle de l’information et de la communication, je vous invite à le parcourir à votre tour car il y a beaucoup de choses intéressantes dans ce rapport, que l’on soit ou non d’accord avec les analyses, les constats et les pistes de propositions.

En attendant je me suis permis d’en extraire ci-dessous les quelques trop rares passages concernant plus ou moins directement la ligne éditoriale de ce blog. Parce quand bien même ce soit peut-être, ou sûrement, trop timide (est-ce volontaire ?), j’y vois quand même une avancée significative pour le « Libre à l’école » (expression valise que j’avais tenté de synthétiser dans un court article pour une brochure Sésamath).

Des passages dont ne parlent ni la dépêche AFP (et à sa suite tous les grands médias) ni le Café pédagogique (mais ça on sait pourquoi),

On notera que dans le cadre de la consultation préalable, l’April avait envoyé une lettre détaillée et argumentée à Jean-Michel Fourgous. Ceci participant certainement à expliquer cela.

Enfin n’oublions pas qu’un rapport parlementaire n’est qu’un document de travail qui n’augure en rien des décisions qui seront effectivement prises par le gouvernement. Sans compter, comme le souligne cette fois-ci le Café Pédagogique, qu’une « évolution de cette ampleur nécessite une école en paix, est-ce envisageable si l’austérité vient chaque année dégrader la situation scolaire ? »

Libres extraits du rapport Fourgous

URL d’origine du document

Page 29

Grâce aux wikis les contenus sont élaborés de façon collaborative. L’encyclopédie en ligne Wikipedia, les wikilivres (création de ressources pédagogiques libres) ou encore les wikicommons (banque de fichiers multimédias) traduisent la naissance de ce que Pierre Lévy appelle une « intelligence collective » où l’internaute passif, simple « récepteur », est devenu un « webacteur », un « élaborateur » de contenus.

Tiens, Wikipédia et quelques autres projets Wikimédia ont droit de cité. Un peu plus loin, page 141, il sera dit que 40% des « digital natives » consultent l’encyclopédie. Et surtout, le rapport ne craint pas de proposer des liens directs vers ses articles lorsqu’il s’agit d’expliciter certains termes (exemples : Machine to machine, Réalité augmentée, Modèle danois, Littératie, Échec scolaire, Ingénieur pédagogique ou encore Livre électronique). Une telle légitimité officielle est à ma connaissance une grande première dans le secteur éducatif. Serions-nous définitivement en route vers la réconciliation ?

Une note (un peu confuse) est collée aux ressources pédagogiques libres avec un lien Educnet :

Les contenus libres trouvent leurs origines dans le concept de copyleft (en opposition au monopole d’exploitation reconnu par le copyright et le droit d’auteur) né avec les premiers logiciels dit libres car leurs utilisations, copies, redistributions ou modifications étaient laissées au libre arbitre de leurs utilisateurs. L’accès au code source était libre (open source). Cette philosophie du partage et de la promotion du savoir et de sa diffusion s’est propagée ensuite à toutes les formes de créations numériques.

Page 234

Un paragraphe entier est consacré à des pratiques dont je n’arrive toujours pas à comprendre pourquoi on ne veut pas faire ou voir le lien avec la culture du logiciel libre.

Vers de nouvelles pratiques coopératives et collaboratives

« J’ai amélioré ma pratique enseignante parce que je l’ai enrichie de l’expérience de tous les autres »

Cette citation me parle.

Est ensuite fait mention des associations d’enseignants, en distinguant dans cet ordre mutualisation, coopération et collaboration (cf ces dessins).

Il n’est pas anodin de remarquer que l’association la plus avancée dans la collaboration, Sésamath pour ne pas la nommer, a depuis longtemps adopté les licences libres aussi bien pour ses logiciels que pour ses contenus. Il y a corrélation, mais le rapport ne le dira pas.

Le travail d’équipe est, de manière traditionnelle, peu pratiqué et non valorisé sur le plan professionnel. L’organisation des établissements et du service des enseignants ne le facilite d’ailleurs d’aucune manière. L’arrivée de l’Internet et des modèles de travail coopératif ou collaboratif bouleversent les habitudes.

En France, des associations toujours plus nombreuses (Sésamaths, WebLettres, Clionautes…) regroupent des enseignants qui mutualisent leurs supports pédagogiques. La mutualisation correspond à la mise en commun et à l’échange de documents personnels. Dans le travail coopératif chaque participant assume une tâche propre au sein d’un projet donné et dans le travail collaboratif, chaque tâche est assumée collectivement. Ainsi, si Clio-collège est un site de mutualisation, Mathenpoche un exemple de travail coopératif, les manuels Sésamaths sont un bon exemple de travail collaboratif.

(…) La mutualisation arrive officiellement dans les académies : dans celle de Versailles, un site, destiné à recueillir les ressources utilisées par les enseignants sur les tableaux numériques interactifs, a été créé. Les enseignants peuvent y partager les fichiers qu’ils réalisent. En attendant, l’interopérabilité de l’outil, les ressources sont réparties selon les marques de TNI.

C’est l’une des rares fois où l’interopérabilité est évoquée dans le rapport. Un gouvernement responsable n’est pas forcément obligé « d’attendre l’interopérabilité ». Il peut la suggérer fortement, voire l’inclure systématiquement dans ses cahiers des charges.

Les échanges et la communication permettent d’aboutir à une production collégiale finale riche et cohérente et les documents numériques deviennent accessibles et téléchargeables par l’ensemble de la communauté éducative.

(…) Le travail collaboratif prend le pas sur la coopération, comme en témoigne l’évolution depuis quelques mois des associations WebLettres et Clionautes vers ce mode de fonctionnement. Internet permet ainsi de faire évoluer la culture enseignante du « chacun pour soi » vers un travail en équipe.

Les associations Weblettres et Clionautes se dirigent donc vers la collaboration. Ma main à couper qu’elles rencontreront les outils et licences libres en chemin.

Page 267

Un passage important dont le titre est à la fois erroné (« libres de droit ») et peu téméraire (« quelques » avantages) :

Les ressources libres de droit offrent quelques avantages pédagogiques

Quant au corps du paragraphe il a le grand mérite d’exister (Jean-Pierre Archambault est cité dans la note de bas de page) :


Le logiciel libre (gratuit) est mis à disposition des utilisateurs qui peuvent à loisir le modifier ou l’adapter avec pour obligation de le mettre à leur tour à la disposition de tous. Cette technique du « don » permet de générer de la valeur, enrichissant le produit, des compétences et des idées de chacun. Le plus célèbre de tous les logiciels libres est sans conteste le système d’exploitation « Linux » et la suite « Open office » qui se placent en concurrents respectivement de Windows et du pack Office de Microsoft. On peut citer également « Gimp », pendant de Photoshop, le navigateur « Firefox »…

L’entrée du logiciel libre dans l’Éducation nationale s’est réalisée à la suite d’un accord cadre conclu en 1998 avec l’Aful (Association française des utilisateurs de Linux et des logiciels libres).

L’idée de partage et de gratuité a séduit le monde enseignant, mais changer d’environnement de travail nécessite du temps et de la formation.

Certes. Mais se borne-t-on à le constater ou bien agit-on en conséquence comme le Canton de Genève ?

Les avantages pour les élèves sont importants, notamment pour la lutte contre la fracture numérique : l’élève peut en effet télécharger le logiciel gratuitement à son domicile sans aucune difficulté ; en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité ; il permet d’entrer dans le programme informatique, de le comprendre voire de le modifier (pour les plus férus d’informatique) : les avantages pédagogiques sont donc plus nombreux.

Cela fait plaisir à lire.

Et pourtant un sentiment mitigé prédomine puisqu’une fois ceci exposé on n’en reparlera plus dans tout le rapport. C’est plus que dommage que dans les 70 mesures préconisées, le logiciel libre n’ait pas fait l’objet d’une mesure à part entière.

Page 274

L’offre libre a peu à peu pénétré le système éducatif : en effet, l’idée de partage et de gratuité (permettant à l’élève de télécharger le logiciel gratuitement à son domicile) a séduit le monde enseignant, de même que l’offre émanant des enseignants eux-mêmes : la collaboration dans le but d’élaborer des ressources adaptées à leurs attentes, remporte un franc succès auprès du monde éducatif. La vocation du métier d’enseignant sera donc sûrement d’évoluer vers plus d’élaborations de ressources, plus de créations, de passer d’un travail solitaire à un travail d’équipe.

Cela séduit le monde enseignant. Mais cela séduit-il le rapport ? Cela n’est pas très clair et ne séduira alors pas forcément le gouvernement.


Page 292

Un long extrait tout à fait pertinent :

Une liberté pédagogique freinée

L’autre problème majeur reste les ressources mises à disposition de l’enseignant afin de préparer son cours : dans l’idéal, la technologie le permettant, chacun s’accorde à penser que les enseignants du XXIe siècle devraient pouvoir trouver sur la toile, toutes les ressources numériques, toute la documentation, toute l’aide qu’ils seraient en droit d’utiliser dans le cadre de leur enseignement.

Pourtant, les droits d’auteur les en empêchent et certains documents qui leur semblent pertinents pour illustrer leurs cours ne leur sont pas accessibles, sauf à se mettre hors la loi.

Ce que font tous les jours des milliers d’enseignants.

En ce temps d’Hadopi, que l’on n’a de cesse de présenter comme une loi « favorisant la création », c’est tout de même intéressant de remarquer qu’ici c’est le rôle castrateur des droits d’auteur qui est mis en exergue. Sans compter que…

Des solutions commencent à apparaître et se révèlent être un appui sérieux pour le travail collaboratif. Les licences creative commons (organisation née en 2001) sont ainsi un début de réponse, de même qu’en sont les cours en ligne sous licences libres proposés par les universités. Creative Commons propose gratuitement des contrats flexibles de droit d’auteur pour diffusions des créations. Ces « autorisations » permettent aux titulaires de droits d’autoriser le public à effectuer certaines utilisations, tout en ayant la possibilité de réserver les exploitations commerciales, les œuvres dérivées ou le degré de liberté (au sens du logiciel libre). Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web… Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre…

Merci de l’évoquer. Ouf, c’en est fini du temps où l’on criait dans le désert. Mais que ce fut long !

Il y a une note, un peu étrange, concernant les Creative Commons (et Benoît Sibaud, l’excellent mais désormais ex-président de l’April, est cité) :

Creative Commons : Liberté de reproduire, distribuer et communiquer cette création au public, selon les conditions by-nc-sa (paternité, pas d’utilisation commerciale, partage des conditions à l’identique).

Et arrive alors le serpent de mer de « l’exception pédagogique » :

Cependant, beaucoup de ressources n’étant pas sous le « logo » creative commons, les enseignants sont freinés dans leurs pratiques et leur pédagogie (impossibilité de reprendre une publicité ou une photo afin de l’exploiter, de la disséquer pour mieux la comprendre…). L’exception pédagogique, déjà présente dans différents pays s’impose, notamment si on veut éduquer les enfants aux médias numériques et à l’impact de l’image.

Ce n’est pas gagné. Si vous avez cinq minutes, allez jeter un coup d’œil au tout récent Bulletin officiel n° 5 du 4 février 2010 concernant la propriété intellectuelle (partie 1 et 2). Pourquoi faire simple quand on peut faire tellement compliqué que cela en devient totalement incompréhensible !

Toujours est-il que contrairement au logiciel, on a droit à deux mesures bienvenues (dont une « en urgence ») :

Mesure 14 : Créer en urgence, dans le système juridique du droit d’auteur, une exception pédagogique facilitatrice et durable.

Mesure 23 : Favoriser le développement de ressources « libres » et la mise à disposition de ressources non payantes.

Restons sur cette note optimiste pour clore nos morceaux choisis. La balle est désormais dans le camp du législateur.

Pour lire le rapport dans son intégralité

Notes

[1] Crédit photo : One Laptop Per Child (Creative Commons By)




iPad et éducation sont des mots qui ne vont pas bien ensemble

Rego - CC by-saLe site OpenSource.com étant soutenu par Red Hat qui soutient également le projet OLPC, il n’est guère étonnant de les voir réagir lorsque l’on se permet d’affirmer que l’iPad pourrait être meilleur que le petit ordinateur vert pour enfants pour lutter contre la fracture numérique.

Difficile de leur donner tort.

Il faut dire que d’un côté on a un produit pensé pour les enfants (cf cet extrait vidéo de Télématin et l’interface pédagogiquement révolutionnaire Sugar) et de l’autre un énième produit Apple aussi beau dehors que totalement vérrouillé dedans[1].

L’éducation et l’architecture de contrôle de l’iPad

Education and the iPad’s architecture of control

Gunnar Hellekson – 4 février 2010 – OpenSource.com
(Traduction Framalang : Poupoul2 et Daria)

Comme la plupart des travaux de Jonathan Ive, l’iPad est beau. Comme la plupart des réalisations d’Apple, cet appareil me met également mal à l’aise. Je m’apprêtais à rédiger quelque chose à propos de ce sentiment d’inconfort, lorsque j’ai découvert avec plaisir que Timothy B. Lee et d’autres avaient déjà fait cela pour moi. Dans « Pourquoi les Geeks détestent l’iPad, « Le Crépuscule des bidouilleurs et « Rien de créatif, nous sommes entraînés dans une analyse minutieuse de ce que nous sacrifions lorsqu’Apple nous contraint à échanger flexibilité et liberté contre une nouvelle machine qui brille. Je crois qu’on peut appliquer la même analyse à l’iPhone, l’iTouch, ainsi qu’à toute l’électronique grand public qui trône sur les étagères d’Apple.

En d’autres termes, l’iPad et ses frères ne sont pas des ordinateurs personnels. Ce sont les ordinateurs d’Apple. Le matériel lui-même est hermétiquement fermé, décourageant ainsi quiconque souhaitant l’améliorer ou savoir comment il fonctionne. La plateforme logicielle est largement propriétaire. Le si vanté AppStore, qui a apporté à l’informatique grand public la même simplicité d’installation et de gestion des applications que celle dont bénéficie les utilisateurs de logiciel libre depuis des années, est strictement contrôlé au profit des intérêts d’Apple. Posez la question à Google !

Pour autant, cela ne fait pas d’Apple le diable. Ils ont bien sûr le droit de produire autant d’appareils beaux et verrouillés qu’ils le souhaitent. Il est pourtant important de comprendre ce que vous abandonnez en adoptant l’architecture de contrôle douillette d’Apple. Dans ce contexte, Andrea Di Maio, du Gartner Group, nous propose une argumentation étrange : « l’iPad d’Apple pourrait faire plus pour les gouvernements que l’OLPC ». Je pardonne à DiMaio son enthousiasme pour l’iPad (il a certes un joli look), mais sa suggestion que l’iPad est supérieur à l’OLPC en matière d’éducation démontre une très sérieuse méconnaissance du projet OLPC.

En bref, son argument est le suivant : « Il est bon marché, et suffisamment simple d’utilisation; les gouvernements pourraient donc l’utiliser pour vaincre la fracture numérique dans l’éducation.»

L’OLPC a été conçu dans le but de fournir aux étudiants une plateforme créative, pas uniquement un ordinateur portable bon marché. Il ne s’agit pas de proposer aux étudiants une copie bon marché de Microsoft Office et un portable à 100$. L’OLPC est passionnant parce que les principes de bidouillabilité et de partage sont au cœur du projet. Le portable lui-même a été conçu avec du logiciel libre, garantissant que la collaboration et l’innovation pouvaient s’étendre au plus profond de ses tripes. L’innovant réseau maillé a supprimé le besoin d’une infrastructure centralisée ; les étudiants sont automatiquement connectés les uns aux autres, et si un étudiant dispose d’une connexion à Internet, tous en bénéficient. Les connexions sont ad hoc, le partage est disponible par défaut, et les applications fournies par l’OLPC ont été réalisées collaborativement. Exception faite de la viabilité commerciale, je crois qu’il s’agit là d’une expérience pédagogique passionnante. Les fruits de cette expérience sont visibles au Brésil sur cette vidéo.

Imaginez un moment l’iPad comme plateforme pour l’éducation. Comment les enfants peuvent-ils collaborer sur une telle plateforme ? Comment peuvent-ils, comme M. Lee, triturer ses entrailles ? Comment les étudiants peuvent-ils construire leurs propres applications ? Les étudiants ne peuvent rien faire de tel sans autorisation d’Apple. C’est inquiétant.

De la même manière, l’exploitation par les fournisseurs de services et de contenus est aussi un motif d’inquiétude sur une plateforme aussi fermée que l’iPad. Une plateforme fermée simplifie la mise en place de contrôles rigides sur le type de contenu proposé aux étudiants. Pensez simplement à la mainmise d’AT&T sur le service iPhone, et étendez cela aux livres de toute une académie. Ce contrôle monopolistique est déjà un problème pour les consommateurs de technologies aisés et raffinés. C’est un désastre pour les moins nantis et c’est catatrophique pour les pays en voie de développement. Livrer 100 iPad à un village de l’Ouest africain ou à une école qui essaie d’émerger dans l’académie du Mississippi, ce n’est pas de la charité, c’est une paire de menottes.

Alors, lorsque M. Di Maio suggère que l’iPad est supérieur à l’OLPC pour l’éducation, je m’interroge ! Qu’espère-t-il d’un programme de formation certifiée Apple tel que One to One ? L’objectif est-il de mettre un appareil connecté dans les mains de chaque étudiant, quel qu’en soit le prix pour la liberté de l’école et de l’étudiant, ou devrions-nous plutôt fournir des outils qui encouragent les étudiants à apprendre les uns des autres, à partager leurs succès, et à permettre de créer un environnement dans lequel ils peuvent résoudre eux-mêmes leurs propres problèmes ? Je crois que l’éducation, c’est de la créativité, de l’ingéniosité et du partage ; toutes ces caractéristiques étant bien plus puissantes qu’un navigateur Web portable, aussi joli soit-il.

Notes

[1] Crédit photo : Rego (Creative Commons By-Sa)




Des statistiques plus qu’encourageantes pour OpenOffice.org

viZZZual.com - CC byUn site allemand a réalisé une étude originale sur l’usage planétaire et comparée des différentes suites bureautiques, MS Office et OpenOffice.org en tête.

L’échantillon est relativement faible (200 000 personnes) et la méthode pas forcément très fiable (à partir des polices installées sur les ordinateurs, sachant de plus qu’installation n’équivaut pas forcément à utilisation au quotidien), mais il n’empêche qu’elle dessine une carte du monde où OpenOffice.org possède une non négligeable part de marché[1].

Et qu’est-ce qui l’empêcherait de suivre la même dynamique ascendante que Firefox ? s’exclame alors un Glyn Moody des plus enthousiastes !

Remarque : Une bonne nouvelle n’arrivant jamais seule, je signale également, mais vous le saviez déjà, que la version 3.2 vient de voir le jour avec plein d’intéressantes améliorations dedans.

L’irrésistible ascension d’OpenOffice.org a-t-elle commencé ?

Has the Irresistible Rise of OpenOffice.org Begun?

Glyn Moody – 8 février 2010 – ComputerWorld
(Traduction Framalang : Julien et Martin)

OpenOffice.org - StatistiquesLes lecteurs assidus de ce blog savent déjà que je suis un grand fan d’OpenOffice.org, et que je pense qu’il a le potentiel pour percer auprès du grand public. Peut-être que cette percée a déjà commencé, à en juger par ces récents chiffres (ci-contre) de Webmasterpro.de :

« Les statistiques ont été recueillies au moyen d’une nouvelle méthodologie : plus de 200 000 visiteurs du monde entier ont été analysés par le service de statistiques FlashCounter. En listant (via l’utilisation de Javascript) quelles polices de caractères étaient installées sur le système, nous avons pu identifier les suites bureautiques installées. »

Même répartis tout autour de la planète, ces 200 000 utilisateurs ne sont pas très nombreux, donc je prendrais ces chiffres avec des pincettes. Mais même dans leur orientation générale, ils sont assez significatifs. Par exemple, la Pologne compte 22% pour OpenOffice.org contre les 68% de Microsoft Office ; la République Tchèque compte aussi 22% contre 76% ; tandis que l’Allemagne fait bien avec 21% et 72%. Les pays suivants en ordre décroissant sont la France, l’Italie, l’Espagne, le Danemark, la Belgique, la Suède et l’Autriche.

Le Royaume-Uni, c’est presque inutile de le préciser, tourne misérablement avec 9% – comme les États-Unis – aux côtés d’un massif et moutonnier 80% d’utilisation de Microsoft Office (75% aux États-Unis). La honte.

Ce qui est intéressant dans ces chiffres – en particulier les nombres élevés dans certains pays – est que cela place OpenOffice.org dans la même position de parts de marché que Firefox occupait il y a quelques années. Ce qui soulève deux questions intéressantes. Premièrement, sommes-nous en train d’assister à l’émergence du même type de trajectoire ascendante, et deuxièmement, comment la communauté open source peut-elle propulser plus rapidement OpenOffice.org le long de cette trajectoire ?

Comme Simon Phipps l’a à juste titre souligné sur Twitter, cette rapide évolution n’est pas le meilleur moment pour qu’Ubuntu retire OpenOffice.org de sa prochaine édition pour Netbook : au contraire, il devrait faire tout son possible pour promouvoir cette suite bureautique si son souci affirmé est d’élargir l’écosystème du logiciel libre. Peut-être bien que c’est quelque chose à quoi devrait réfléchir Matt Asay dans la première semaine de sa prise de fonction en tant que Directeur général de Canonical…

Notes

[1] Crédit photo : viZZZual.com (Creative Commons By)




Geektionnerd : L’iPad’quoi fouetter un chat

En écho à notre tout récent billet sur l’iPad, voici le Geektionnerd de la semaine.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




9 prévisions open source pour l’année 2010

Sergis Blog - CC byQue va-t-il se passer en 2010 dans le monde de l’open source et du logiciel libre ?

Seul Nostradamux le sait.

Mais le journaliste Bruce Byfield s’est tout de même risqué au jeu des prédictions dans un article que nous avons traduit avec un petit mois de retard (ouf, il était temps !).

Tout comme nous, vous ne serez pas forcément d’accord sur tout. Il va alors sans dire que les commentaires sont là pour accueillir vos critiques et vos propres plans sur la comète[1].

L’open source en 2010 : Neuf prédictions

Open Source in 2010: Nine Predictions

Bruce Byfield – 30 décembre 2009 – Datamation
(Traduction Framalang : Cheval boiteux, Martin et Olivier)

Même si c’est la fin de la décennie seulement pour ceux qui ne savent pas compter, les rétrospectives semblent plus à la mode que les prédictions en ces derniers jours de 2009. Peut-être aussi qu’après une année de récession, les experts de l’avenir deviennent plus prudents.

Mais, n’étant pas de ceux qui suivent les tendances et n’étant pas du genre nostalgique, je préfère tourner mon regard vers le futur, pour envisager ce qu’il pourrait réserver aux logiciels open source. Tout bouge dix fois plus vite dans l’open source que dans l’informatique grand public, et 2010 risque bien de ne pas déroger à la règle.

Je pense que nous pouvons considérer comme acquis que l’open source va continuer à gagner en popularité. 2010 ne sera pas cette légendaire « Année où Linux se démocratise », mais nous devrions continuer à observer la même lente et constante progression de son adoption que dans la dernière décennie.

Mais quoi d’autre ? Permettez-moi de prouver ma témérité en faisant neuf prédictions sur ce que 2010 nous réserve sur le plan des communautés, de la technologie et de l’économie de l’open source.

1. L’arrivée des pilotes vidéos totalement libres

Les utilisateurs ont dû attendre longtemps pour avoir des pilotes vidéo open source aussi performant que leurs pendants propriétaires. Mais d’ici à la fin de l’année prochaine cela pourrait bien se concrétiser. Les pilotes Intel sont déjà stables, et utilisés sur plus de 25% des ordinateurs open source.

Quant aux autres cartes graphiques, le noyau 2.6.33 de Linux devrait apporter une meilleure gestion des cartes ATI et NVIDIA. Attendez-vous donc à de gros progrès d’ici à la fin de l’année. Et dans le pire des cas, si des fonctions manquent encore, elles devraient être au point pour la mi-2011[2].

2. La communauté crééra un fork de MySQL

Quand Oracle a racheté Sun Microsystems en avril 2009, ils ont également acquis MySQL, la base de données la plus populaire d’Internet. Huit mois plus tard, le sort réservé par Oracle à MySQL est toujours incertain et les gens s’inquiètent.

Richard Stallman a demandé publiquement à Oracle de rendre MySQL à la communauté, alors que Monty Widenius, le créateur de MySQL, a initié une campagne de rédaction de lettres à la Commission européenne pour éviter le démembrement de la base de données par Oracle.

Étant donné qu’il semble n’y avoir aucune logique juridique pour aider ces campagnes, je pense qu’ils vont échouer. S’ils y arrivent, la méfiance envers Oracle aura certainement raison de l’intégration de MySQL dans les distributions open source.

Il y a de grandes chances que la communauté privilégie des forks existants de MySQL, probablement MariaDB de Widenius, qui est déjà intégrée au Launchpad d’Ubuntu. PostgreSQL, l’autre grande base de données open source, ne devrait pas tant en profiter car elle semble moins adaptée aux besoins des sites Web.

3. La sortie de Gnome 3.0 risque de déclencher une révolte chez les utilisateurs

Il y a deux ans, un vent de révolte accompagna la sortie de KDE 4.0, car cette nouvelle version instaurait une rupture avec les précédentes (des fonctions clés n’y étaient pas encore intégrées). GNOME 3.0, provisoirement prévu pour septembre 2010, ne devrait pas souffrir du même manque de fonctionnalités, mais les premières versions suggèrent un style nouveau, comme KDE 4.0 (et les premières réactions montrent que les utilisateurs y seront aussi hostiles).

L’avantage de GNOME est que ses développeurs peuvent bénéficier de l’expérience de KDE. Aucune hostilité n’est permanente, surtout si la prochaine version a une feuille de route claire.

Tout de même, les plaintes peuvent être spécialement fortes ou longues, qui sait ? Peut-être que les critiques envers GNOME attireront plus d’utilisateurs vers KDE ou vers des environnements graphiques moins connus comme Xfce.

4. La différence entre Logiciel Libre et Open Source va se creuser davantage

De l’extérieur, open source et logiciel libre sont des noms différents désignant le même phénomène. Cependant pour beaucoup de membres de communautés c’est comme dire que le Protestantisme n’est pas différent du Catholisisme. Malgré bon nombre de similarités l’open source est un mouvement de développeurs qui vise à perfectionner la qualité du code source, alors que le mouvement du logiciel libre se concentre sur les libertés accordées à l’utilisateur[3].

Dans la pratique, les deux philosophies coexistent (souvent à l’intérieur d’un même projet). Cependant, de temps à autre, ces membres rentrent en conflit. Le dernier conflit majeur était il y a deux ou trois ans à propos de la version 3.0 de la licence GNU GPL (GNU General Public License), qui donnait plus d’importance au logiciel libre que la version 2.0.

Le problème suivant qui provoquera un conflit reste incertaine. Cependant, les personnes soutenant le logiciel libre n’ont jamais été timides sur le fait d’exprimer leurs opinions, et les adhérents de l’open source sont devenus de plus en plus méprisants envers le logiciel libre en général et leur fondateur Richard Stallman en particulier. Dans la même veine, la rhétorique est devenue si méprisante que le conflit semble n’être qu’une question de temps.

Il y a deux ou trois semaines, le problème le plus probable apparaissait être le possible retrait de GNOME du projet orienté logiciel libre GNU, un changement qui ne signifierait presque rien dans la pratique, mais qui serait probablement perçu comme une preuve que GNOME est désormais clairement dans le camp de l’open source. Le problème, cependant, est plus complexe que la contestation du conflit lui-même.

5. L’open source sera encore confronté au sexisme

2009 nous a montré une série d’évènement dans lesquels des gens comme Richard Stallman[4] et Mark Shuttleworth ont été accusés de sexisme à cause de remarques faites en public.

Et avec l’observation que les femmes sont sous-représentées dans l’open source, 2009 a été l’année où la communauté a semblé découvrir cette problématique[5].

6. Google Chrome OS inaugurera les OS dans les nuages

Chrome OS, le système d’exploitation dans les nuages de Google, devrait sortir dans la deuxième moitié de 2010. Étant donné ce que l’on dit toujours sur l’état des version bêta des produits de Google, personne ne sera surpris que version finale soit retardée. Mais 2010 montrera, au moins, une version bêta avancée ou une release candidate. Malgré l’existence de Jolicloud, la majorité des utilisateurs verra Chrome OS comme le premier système d’exploitation dans les nuages.

Chrome OS devrait être téléchargé des millions de fois dans le premier mois de sa sortie, du fait de sa nouveauté. De plus, Google est en train de travailler avec les fabricants de matériel pour être sûr que Chrome OS sera supporté. Malgré tout, une grande partie des utilisateurs resteront sceptiques à l’égard de Chrome OS. Beaucoup d’entre-eux ont déjà de sérieux doutes sur les systèmes d’exploitations dans les nuages, et jusqu’à présent ils y sont moins à l’aise que sur les systèmes d’exploitations traditionnels, desquels ils sont censés être ainsi délivrés.

Je pense et j’espère que Chrome OS ne sera rien de plus qu’un produit de niche. De toutes les façons, on aura quand même le verdict sur la validité du concept avant la fin de 2010.

7. Mozilla Firefox et Google Chrome se disputeront la première place

Même si je ne me trompe pas en affirmant que Chrome OS ne suscitera que peu d’engouement, ce qu’il restera après sa disparition c’est bien le navigateur Chrome. Sa vitesse et son aspect multitâches sont des défis que devra relever Mozilla Firefox avec habileté pour lui faire face, d’autant plus que Chrome pourrait signifier une interruption du soutien de Google dans le développement de Mozilla.

Pour le moment, le plus grand avantage de Firefox réside dans ses milliers d’extensions. Bien que les premières extensions pour Chrome soient d’ores et déjà disponibles, elles ne battront pas celles de Mozilla en nombre ou en polyvalence avant quelques années (et ceci seulement s’il se forme une large communauté).

Cette situation veut dire que Chrome n’est pas plus prêt à dépasser Mozilla que Mozilla est prêt à dépasser Internet Explorer dans les prévisions futures. Cependant, en 2010, Chrome peut ronger la base des utilisateurs de Firefox sur le même principe que Firefox le fait avec ceux d’Internet Explorer.

8. Raindrop et Wave ne vont pas réussir à trouver des utilisateurs

Par coïncidence, deux des nouvelles applications que nous trouvons prometteuses pour 2010 sont Mozilla Raindrop, un outil de réseau social et de messagerie électronique one-stop[6], et Google Wave, un outil collaboratif.

Les deux sont intéressants pour les développeurs et les ergonomes. Cependant, à l’heure où j’écris ces lignes, Raindrop n’est pas encore sorti, et Wave est seulement accessible sur invitations. Je serais surpris que l’un ou l’autre devienne un grand succès. Il s’agit en effet de résoudre des problèmes que les utilisateurs ne voient pas comme tels. Je n’ai simplement pas l’impression que les utilisateurs souhaitent centraliser leur messagerie, ou soient particulièrement intéresses par une collaboration en temps-réel.

Même si les utilisateurs se montrent motivés, Raindrop et Wave sont tous les deux en l’état trop compliqués et spécialisés en l’état pour qu’ils soient réellement adoptés. Un réajustement est nécessaire. Les critiques seront probablement enthousiastes, parce qu’ils font partie des utilisateurs expérimentés. Et les autres utilisateurs ? Pas tellement.

9. Le Nexus One ne sera qu’un jouet pour les geeks

Dans le courant du mois de janvier, le Nexus One de Google va être disponible[7]. Le Nexus One a fait un gros (bien que pas totalement favorable) buzz à l’intérieur de la communauté des techniciens, mais on peut se demander se faire une place.

D’après des rapports, le Nexus One n’inclura pas de fonctionnalités qui aurait pu lui attirer les faveurs du grand public. En plus, il va entrer sur le marché des téléphones mobiles déjà saturé, et Google ne possède pas la réputation d’Apple. Sans compter qu’il sera d’autant moins aidé que, au début, il ne sera pas vendu par les opérateurs de téléphonie mobile, et ne sera pas non plus dans les boutiques. En ces circonstances, je pense que il se vendra principalement aux développeurs, et qu’il peinera à élargir ce cercle[8].

Avec un peu de recul

Cette liste a été établie en toute indépendance. Pourtant, en la relisant, je réalise que quatre des neuf prédictions impliquent Google. Cette observation suggère une meta-prédiction : 2010 sera une année cruciale pour Google. Son évolution de développeur en acteur majeur aussi bien dans le logiciel que dans le matériel se joue cette année.

Connaissant l’histoire de Google, le succès de cette entreprise me laisse pessimiste. Et pourtant, Google lance tellement d’innovations que tôt ou tard, elle est susceptible de sortir quelque chose d’incroyable, la démonstration du paradoxe du singe savant peut-être tout simplement[9].

Pour ce qui est de mes autres prédictions, même si je m’attends à des changements dans la communauté open source, je ne me prépare pas à l’Apocalypse. La communauté est vaste, les changements sont inéluctables, mais en même temps, cela n’aura pas forcément beaucoup d’impact sur les milliers de personnes qui envoient des correctifs quotidiennement. Sur le coup, les sentiments sont exacerbés, mais en fin de compte, la communauté poursuivra tranquillement sa route, même si de temps en temps le cours des choses sera perturbé par un événement imprévisible.

Et si jamais je me trompe ? Alors j’en appelle aux privilèges des voyantes et demanderait qu’il ne me soit pas tenu rigueur de mon manque de précision ou de mon incapacité à prévoir le futur et je me réserve le droit de retenter ma chance l’an prochain, sans que personne ne me rappelle à mes erreurs passées.

Notes

[1] Crédit photo : Sergis Blog (Creative Commons By)

[2] NDLR : À propos de vidéo, Byfield a rédigé son article avant la nouvelle guerre des formats du Web.

[3] NDLR : Pour mieux comprendre la nuance, il y a un livre intéressant sur le sujet 🙂

[4] NDLR : Byfield a consacré un article entier à ce sujet : Richard Stallman, Leadership, and Sexism.

[5] NDLR : Voir aussi ces deux articles du Framablog : Les femmes et le logiciel libre et Le code issu de Venus est-il meilleur que celui de Mars ?

[6] NDLR : Voir aussi l’article de Tristan Nitot : Thunderbird et Raindrop.

[7] Le Nexus One est déjà disponible, puisque nous publions cette traduction avec un mois de retard. On remarquera qu’il a les faveurs de Linus Torvalds

[8] NDLR : Le Nexus One ne sera peut-être pas un succès, mais il semblerait bien par contre qu’Android devienne lui un sérieux concurrent open source à Apple.

[9] NDLR : Le paradoxe du singe savant stipule qu’avec suffisamment de temps, un chimpanzé qui tape au hasard sur le clavier d’une machine à écrire pourra presque sûrement produire une copie intégrale d’une pièce de théâtre de Shakespeare.