Google se conjugue au futur et Microsoft au passé ?

Google sfida Microsoft con Chrome - Copyright Federico FieniOn le sait, Microsoft n’a pas vu venir le Web et ne porte pas le logiciel libre dans sa culture (c’est le moins que l’on puisse dire).

À partir de là comment s’étonner qu’un Google lui fasse aujourd’hui concurrence et menace demain d’attaquer frontalement ses deux plus beaux fleurons (et source colossale de revenus) que sont le système d’exploitation Windows et la suite bureautique MS Office.

Un Google qui a massivement investi dans le cloud computing, l’informatique dans les nuages, Un Google qui non seulement ne méprise pas le logiciel libre mais sait très bien l’utiliser quand ça l’arrange, par exemple pour faire s’y reposer son navigateur Chrome ou son prochain et très attendu Google OS (histore de boucler la boucle)[1].

À propos de Google OS, un petit coup de Wikipédia : « Google Chrome OS est un projet de système d’exploitation qui sera fondé sur son navigateur Web Chrome et un noyau Linux. À destination des netbooks dans un premier temps, il serait capable, à terme, de faire tourner des ordinateurs de bureau traditionnels. Google laisse à penser que son OS fonctionnerait en ligne sur tout ou partie, comme ses applications (Google Documents, Gmail, etc.). Après sa suite gratuite Google Documents concurrent de la suite payante Microsoft Office, puis Android face à Windows Mobile, ce nouveau système d’exploitation gratuit attaque le cœur du business Microsoft. »

La fin d’un cycle, si ce n’est d’une époque ?

Google est en compétition pour le futur; Microsoft, pour le passé

Google competes for the future; Microsoft, the past

Matt Asay – 23 octobre 2009 – CNET News
(Traduction Framalang : Poupoul2 et Goofy)

Google est né sur le Web, et provoque de plus en plus de quintes de toux chez Microsoft en contraignant le géant séculaire du logiciel à se battre en utilisant les règles de Google. Comme avec l’open source. Comme avec l’informatique dans les nuages.

Microsoft pourrait se reposer sur ses lauriers dans l’immédiat grâce au lancement réussi de Windows 7. Mais à long terme son plus grand succès que représentent ses vieux logiciels de bureautique menace de céder le marché à Google.

Ce n’est pas très équitable pour Microsoft. Microsoft est victime de son propre succès, en ayant besoin de s’adresser à sa clientèle existante à chaque nouvelle version, coincé qu’il est par le « dilemme de l’innovateur ». Microsoft continue de remplir ses caisses, mais ses deux derniers trimestres ont vu ses forces traditionnelles telles que le système d’exploitation Windows devenir un frein pour ses revenus, tandis que les entreprises dépensent toujours plus d’argent auprès de Google, Red Hat et quelques autres.

L’absence d’héritage de Google lui permet d’innover rapidement à large échelle, comme le suggère Todd Pierce, directeur technique de Genentech et client de Google :

Le rythme d’innovation de Google…, enfin bon, le cycle de production d’Oracle, SAP et Microsoft est de cinq ans, celui de Google est de cinq jours. C’est incrémental. En cinq jours, vous ne pouvez pas supprimer toutes vos licences de Microsoft Office, mais d’ici cinq ans, vous n’aurez plus de Microsoft Office.

Microsoft, de son côté, est tellement préoccupé par la compatibilité ascendante, « Ce produit ou cette fonctionnalité sont-ils compatibles avec notre capacité à monétiser notre monopole sur la bureautique des années 80 ? », qu’ils continuent à se battre pour comprendre le Web. Dave Rosenberg, blogueur sur CNET, note que Windows 7 aurait dû être la tête de pont de Microsoft sur l’informatique dans les nuages, mais qu’il n’en a rien été.

Il y a beaucoup de « aurait dû être » chez Microsoft, lorsqu’on parle du Web.

Dans l’intervalle, personne ne ralentit pour attendre Microsoft. Arrêtons-nous un instant sur l’informatique dans les nuages. VMware domine la virtualisation, et a de grandes ambitions dans l’informatique dans les nuages, alors que les rivaux open source Eucalyptus et VMops menacent de contester la suprématie de VMware et Microsoft, en cherchant à dominer l’informatique dans les nuages.

Et arrive alors Google, qui fournit une gamme de services d’informatique dans les nuages toujours plus large aux entreprises qui cherchent à se détacher de l’ordinateur de bureau. Dans une interview donnée à CNET News, Eric Schmidt, PDG de Google, soutient que le navigateur peut être à la fois orienté entreprise et consommateur. L’architecture est dirigée par le navigateur. C’est toute l’histoire de l’informatique d’entreprise actuelle.

En d’autres termes, le bureau est simplement un moyen pour l’utilisateur de lancer son navigateur. C’est une passerelle. Il n’y a plus de valeur dans le bureau. Elle se trouve dans le navigateur, qui devient le nouveau bureau, en termes de fonctionnalités réelles disponibles

La meilleure opportunité pour Microsoft de contrecarrer la menace de Google et des autres s’appelle SharePoint. Le PDG de Microsoft, Steve Ballmer, l’a décrit comme le nouveau système d’exploitation de Microsoft, mais ce n’est que dans un entretien récent avec Forrester qu’il lui a donné tout son sens :

Dans mon esprit, je compare SharePoint au PC, le PC est venu à la vie comme machine à tableau, puis est devenu une machine à développer, une machine à traiter du texte, SharePoint est une infrastructure à objectif global qui connectera les gens aux gens, et les gens à l’information…

Je crois que SharePoint est considéré par les administrateurs informatiques et les développeurs comme une plateforme de développement très sérieuse pour les développement rapide d’application (NdT : RAD, Rapid Application Development).

SharePoint est la meilleure tentative de Microsoft pour connecter les applications de bureau telles qu’Office, avec des outils collaboratifs et de stockage centralisé ou dans les nuages. Bien sûr, Microsoft a d’autres initiatives telles qu’Office en ligne, mais aucune ne marie aussi bien ses centres de profits historiques et l’innovation future.

SharePoint pourrait alors être le meilleur espoir de Microsoft pour marier son héritage à la future informatique en ligne.

Microsoft a besoin de cela. Ils perdent dans le marché des mobiles, et pas uniquement face à Apple. Android, le système dédié de Google, est déjà efficient et opérationnel, avec par exemple ses données AdMob qui situent aujourd’hui la pénétration des smartphones Android à 10 % au Royaume Uni.

Si nous prenons l’hypothèse que le mobile sera de plus en plus une plateforme de choix pour le client, alors nous voyons Google harceler Microsoft par le haut (les nuages de services) et par le bas (le client).

Dans les deux cas, l’open source est une arme de choix pour Google, et c’en est une que Microsoft va devoir comprendre rapidement s’ils veulent devenir un acteur de poids sur le Web. Le Web est trop grand pour que Microsoft le contrôle, et le Web est incroyablement open source, tel que le remarque Mitch Kapor, fondateur de Lotus :

La victoire de l’open source est qu’il constitue le fondement du Web, la partie invisible, celle que vous ne voyez pas en tant qu’utilisateur.

Les majorité des serveurs utilisent Linux comme système d’exploitation avec Apache comme serveur Web sur lequel tout le reste est construit. Les principaux langages sur lesquels les applications Web sont construites, qu’il s’agisse de Perl, de Python, de PHP ou de n’importe quel autre langage, sont tous open source. Donc l’infrastructure du Web est open source. Le Web tel que nous le connaissons est totalement dépendant de l’open source.

Kapor suggère que la guerre que Microsoft livre à l’open source est terminée, ou devrait l’être : l’open source a gagné. Il s’agit désormais d’une infrastructure essentielle, et quelque chose que Microsoft doit arriver à comprendre, plutôt que de le combattre. Il ne s’agit pas de « religion open source », il ne s’agit que de pragmatisme. Un pragmatisme que Microsoft peut s’approprier aussi bien que n’importe qui d’autre.

Google utilise le futur (l’open source, les nuages) pour se battre pour l’avenir, et ses tactiques menacent de frapper Microsoft au cœur de ses vaches à lait tels que Windows.

Microsoft, cependant, semble être embourbé dans son passé. Windows 7 a l’air d’une mise à jour sérieuse de son prédécesseur Vista, mais dans dix ans, cela aura-t-il une importance pour nous ? Peut-être aurons-nous changé, oubliant ces jours pittoresques où nous nous soucions du système d’exploitation et des applications telles qu’Office ?

Notes

[1] Crédit illustration : Copyright Federico Fieni




L’exemple Unicef ou le cas des licences libres dans les institutions publiques

Copie d'écran - UnicefLe blog de Sésamath nous informe que l’Unicef France invite prochainement les enseignants à fêter le vingtième anniversaire des droits des enfants dans leur classe.

Un objectif pour ce projet : que la chanson « Naître adulte », spécialement composée pour l’occasion par Oxmo Puccino, soit « reprise partout le 20 novembre, et particulièrement dans les écoles de France par les principaux concernés : les enfants ».

« Rassembler tous les élèves, collégiens et lycéens autour de la cause des droits de l’enfant, permettra ainsi de marquer cet anniversaire du sceau de la solidarité. Ensemble, chantons pour les droits de l’enfant ! ».

Excellente initiative, car Dieu sait qu’on est encore loin du compte (cf cet article édifiant du blog du Monde biplomatique). Un dossier pédagogique est également proposée en direction des enseignants.

Je vais cependant une nouvelle fois pinailler.

Résumons-nous. Une grande organisation internationale financée sur fonds publics qui produit une ressource créée par un artiste généreux et engagé, ressource qu’elle souhaite voir utilisée dans toutes les écoles à l’occasione d’une noble célébration en faveur des enfants.

Tout, tout est absolument réuni pour que la ressource en question soit disponible sous licence libre (comme par exemple la Creative Commons By-Sa pour n’en citer qu’une).

Or il n’en est rien.

Absence de mention sur le site (à moins que cela m’ait échappé), et quand vous téléchargez la musique sur le site, vous obtenez un zip où ne figure aucun fichier texte accompagnant la chanson disponible au format mp3 (pour le format audio libre et ouvert Ogg on attendra encore un peu).

Du coup c’est le régime fermé du droit d’auteur classique qui s’applique ici par défaut. Bien sûr, on peut lire en gros « téléchargement gratuit » sur la page dédiée du site de l’Unicef. Mais juridiquement parlant l’utilisateur ne dispose d’aucuns droits explicites sur l’utilisation de cette chanson.

Peut-on soupçonner l’Unicef d’avoir sciemment écarté le choix d’une licence libre (par exemple sous la pression de la maison de disques d’Oxmo Puccino ou de la SACEM et ses contrats d’exclusivité) ? C’est possible mais cela m’étonnerait beaucoup. Je penche plutôt pour une ignorance pure et simple de l’existence même de ces licences libres chez ceux de l’Unicef qui ont monté le projet.

Et c’est d’autant plus dommage que cela aurait permis aux enseignants participant à l’opération d’être également au passage sensibilisés sur la question (enseignants souvent déboussolés sur ce qu’ils sont autorisés ou non à faire en classe par des accords d’une rare complexité).

Je ne voudrais pas jouer les donneurs de leçons mais je pense que les institutions publiques devraient désormais monter l’exemple et toujours envisager la licence libre lorsqu’elles produisent ainsi du contenu (quitte à l’écarter, mais en toute connaissance de cause et en étant capable de le justifier).

Dans le cas contraire, nous sommes condamnés à demeurer dans la dialectique de la gratuité alors que c’est bien plus sûrement de liberté dont nous avons besoin.

J’avais espéré que le récent débat Hadopi eut aidé à faire sortir les licences libres de l’ombre. Force est de constater qu’il y a là aussi du chemin à parcourir…




Claude Bernard Lyon 1 offre les premières bourses Microsoft à ses étudiants

Stuartpilbrow - CC by-saL’université française ne doit plus pleurer sur le désengagement de l’État, le sauveur et bienfaiteur Microsoft est là pour y remédier.

Hier c’était Paris Descartes qui décidait de confier la communication numérique de ses étudiants à la firme de Redmond. Et aujourd’hui, fait unique dans les annales, ont vu le jour les premières bourses d’étudiants financées pour le privé.

C’est à l’Université Claude Bernard Lyon 1 que l’on doit cet acte pionnier et, vous l’aurez compris, c’est encore de Microsoft qu’il s’agit.

Extrait du communiqué de presse :

Alors qu’en novembre 2007, l’Université Claude Bernard Lyon 1 s’était engagée avec Microsoft France sur une série d’actions visant à rapprocher les deux structures en termes de partenariat économique, après plusieurs années de projets communs – l’Université et Microsoft France concrétisent aujourd’hui l’un de ses axes de partenariat qui était de contribuer financièrement au soutien d’étudiants boursiers, par le biais de la Fondation partenariale Lyon 1.

Cinq bourses sont accordées pour la rentrée universitaire 2009 à des étudiants débutants leurs études en première année de licence (…) La bourse d’un montant de 3 000 €, versée en une fois, doit permettre à des étudiants méritants d’entamer des études scientifiques dans de bonnes conditions financières.

(…) Ils recevront lundi 19 octobre 2009 à 14h30 dans la salle du conseil de l’Université leur bourse des mains d’Eric Le Marois, Directeur Education et Recherche de Microsoft France et de Lionel Collet, président de l’Université Lyon 1.

À l’issue de cette remise de bourse, Lionel Collet et Eric le Marois se prêteront au jeu des questions-réponses sur les thématiques des nouvelles technologies auprès de jeunes étudiants de l’Université.

Inclinons-nous et disons merci à la généreuse société américaine pour le soutien ainsi apporté au fleuron de notre jeunesse[1].

Quand on pense au coût annuel que représente la somme totale de toutes les licences Windows et MS Office de tous les postes de tous les établissements scolaires de France et de Navarre, on se dit que ces 5 bourses de 3 000 € ne méritent pas forcément une vaste opération de communication.

Il faut être naïf, malintentionné ou bien carrément parano pour n’y voir avant tout qu’une belle arnaque consistant à déshabiller l’élève Pierre pour habiller l’étudiant Paul sous l’œil bienveillant d’une puissance publique de moins en moins puissante et de moins en moins publique.

Notes

[1] Crédit photo : Stuartpilbrow (Creative Commons By-Sa)




Paris Descartes vend ses étudiants à Micro$oft !

TheeErin - CC by-saEncore un titre qui ne fait pas dans la dentelle ! Il ne vient pas de moi mais d’un tract qui est actuellement distribué sur le campus de l’Univesité Paris Descartes par le SNESup, le Syndicat national de l’enseignement supérieur. Tract que nous avons reproduit ci-dessous dans son intégralité.

Il est une conséquence indirecte (et non désirée) d’un vaste et ambitieux partenariat signé en juillet 2009 par Microsoft et la vénérable Université, partenariat « visant à développer des actions communes autour des nouvelles technologies » (liens html, pdf, vidéo[1] et… photo de famille !)

Ce qui frappe c’est la radicalité des mots et expressions employés (jusqu’à mettre un « $ » au « s » de Microsoft !). À la hauteur de l’exaspération suscitée par cette énième opération de marchandisation de l’éducation qui ne veut pas dire son nom ?

Je tenais cependant à apporter quelques éléments de réflexion qui sont autant de modestes tentatives de mise en perspective (en pensant aussi à un éventuel débat qui pourrait démarrer dans les commentaires) :

  • Les universités peuvent-elles résister à de telles offres dans le contexte économique actuel ? Prenez le temps de lire le communiqué de presse et vous constaterez avec moi la densité des services proposés, avec promesse de soutien de Microsoft à la future fondation de l’université (« soutien » étant pris ici dans tous les sens du terme). Même une direction rompue aux vertus du logiciel libre et sa culture aurait à mon avis du mal à ne pas sacrifier quelques unes de ses valeurs sur l’autel d’un certain pragmatisme dicté par le manque de moyens.
  • C’est le programme Live@edu de Microsoft qui est stigmatisé ici. Mais Google propose, à quelques nuances près, rigoureusement la même chose avec Google Apps Education. Ne serait-ce point « la guerre de l’informatique dans les nuages » qui pénètre ici directement le vulnérable secteur éducatif ? D’un côté on rend service aux étudiants, de l’autre on investit sur leur potentiel à… conserver les mêmes technologies une fois arrivés sur le marché du travail. Le plus dur étant d’entrer, parce qu’une fois que l’étudiant possède (sur vos serveurs) sa messagerie, son agenda, son espace de stockage, sa suite bureautique en ligne, ses documents, ses photos, ses habitudes de chat, etc. le plus dur est fait. Il lui sera alors fort difficile de migrer, même avec les meilleures volontés du monde ! Un dernier mot sur ces serveurs qui hébergent toutes ces données de nos étudiants : il est juridiquement et géographiquement presque impossible de les localiser !
  • Cet épisode interroge également sur la politique numérique française de l’éducation en général et du supérieur en particulier. Que ne nous avait-on pas dit et promis avec les ENT, les fameux Espaces numériques de travail ! À laisser Microsoft, Google et consors s’occuper de cela pour nous, nous sommes en présence d’un double aveu, celui d’un échec et d’une démission. Sans compter que dans l’intervalle sont apparus les réseaux sociaux qui risquent eux aussi de ringardiser les quelques ENT qui avec peine avaient tout de même réussi à se mettre en place (Facebook sera-t-elle la prochaine grosse société américaine à venir frapper aux portes de nos universités ?). On voit bien ici comment le public ne peut pas (ou plus) lutter contre le privé, et c’est fort inquiétant pour ceux qui demeurent attachés à la notion de biens communs. Dernier exemple en date, le risque de voir nos bibliothèques publiques numérisées par… Google et non pas nos propres moyens.

Sur ce je vous laisse avec ce tract qu’il me plait à imaginer entre les mains d’étudiants interloqués[2] mais conscients que cet accord peut en avantager quelques uns sur le court terme mais finir par freiner tout le monde sur le long terme.

Paris Descartes vend ses étudiants à Micro$oft !

SNESup – octobre 2009 – Tract


L’université s’apprête à signer avec Microsoft une convention d’utilisation du bouquet de services Live@edu. Il s’agit de confier à Microsoft le webmail des étudiants et des personnels volontaires. Une offre alléchante : gratuit, sans pub, avec 100 Go chacun, un chat intégré, un espace de stockage personnel, un accès au pack office web… et c’est compatible avec Linux, MacOS, Firefox ! Que demander de plus ?

Plus pour moins cher ?


Avec ce projet, l’université prétend offrir aux étudiants un service meilleur que le webmail actuel, pour un coût inférieur à ce que nos ingénieurs pourraient faire. Pourtant, les histoires d’externalisations sont toujours les mêmes : avant de signer le contrat, tout est rose, une fois signé on paye le prix fort. Un service a un coût, à long terme Microsoft nous le fera payer : Microsoft est un géant, qui nous imposera ses conditions s’il le souhaite.

Halte aux dealers !


Faciliter l’accès des étudiants au pack office web, c’est un cadeau empoisonné. Au lieu de former des utilisateurs avertis de l’informatique, l’université s’apprête à fabriquer des consommateurs dépendants des produits Microsoft. A la sortie de l’université, devenus accros, ils devront acheter au prix public les mêmes produits. L’université renonce donc à sa mission de formation pour servir les intérêts commerciaux d’une entreprise.


Aujourd’hui, les ingénieurs et les enseignants de Paris Descartes enseignent l’informatique via des logiciels libres : chacun peut ainsi utiliser les nouvelles technologies gratuitement et pour longtemps. Aurons-nous toujours cette liberté quand Paris Descartes sera pacsée avec Microsoft ?

Voulons-nous être les clients captifs de Microsoft ou rester des utilisateurs libres de l’informatique ?

Notes

[1] Pour rédiger cet article, je me suis tapé la vidéo de la conférence de presse jusqu’au bout et j’ai été assez stupéfait par la capacité de l’auditoire à ne pas poser les questions qui fâchent !

[2] Crédit photo : TheeErin (Creative Commons By-Sa)




Quand la Fondation Codeplex de Microsoft déchire la communauté

A priori nous devrions tous nous réjouir de voir Microsoft faire un pas significatif vers le logiciel libre avec la toute récente création de la Fondation Codeplex, dont l’objectif affiché dès la page d’accueil du site est de « permettre l’échange de code et une entente entre les éditeurs de logiciels et les communautés open source ».

Sauf que, le diable est dans les détails, l’entente proposée concerne donc explicitement les communautés open source et non la communauté du logiciel libre.

A partir de là, méfiance et vigilance nous dit Richard Stallman[1] dans l’article que nous avons traduit ci-dessous, en égratignant au passage le mythique Miguel de Icaza[2] (GNOME, Mono…), membre initial de la Fondation, qui en prend pour son grade en étant qualifié « d’apologiste Microsoft ».

Réponse immédiate de l’intéressé (toujours traduite ci-dessous) qui reproche vertement à Stallman de s’attaquer ainsi à ses propres alliés et de se complaire dans la paranoïa Microsoft, pratique pour fédérer ses troupes mais néfaste si l’on souhaite réellement aller de l’avant.

Au delà du conflit personnel qui frise parfois l’outrage, nous sommes face à une énième opposition entre le logiciel libre et l’open source.

L’avantage de l’open source c’est qu’il rend le logiciel libre enfin fréquentable pour des sociétés comme Microsoft qui l’ont longtemps ignoré puis dénigré. L’inconvénient, rappelé en exergue de ce blog, c’est d’aboutir à ce que le logiciel libre ne finisse par ne plus rien libérer d’autre que du code…

Codeplex… Perplexe ?

Lest CodePlex perplex

Richard Stallman – 5 octobre 2009 – FSF.org
(Traduction Framalang : Olivier Rosseler)

Eneko Astigarraga - CC by-saLa Codeplex Foundation ne fait pas l’unanimité au sein de notre communauté. En effet, le fait que des employés, ou ex-employés de Microsoft, plus l’apologiste Miguel de Icaza, dominent le comité de direction n’a rien de rassurant. Mais l’habit ne fait pas nécessairement le moine.

Le jour viendra où nous pourrons juger l’organisation pour ses actions (ainsi que sa communication). À l’heure d’aujourd’hui, nous pouvons seulement essayer d’anticiper ses actions, d’après ses déclarations et celles de Microsoft.

On remarque premièrement que l’organisation évite soigneusement de parler de la liberté des utilisateurs, elle emploie le terme « open source » et ne fait pas mention de « logiciel libre ». Ces deux termes définissent deux philosophies qui n’ont pas les mêmes valeurs : le logiciel libre promeut la liberté et la solidarité alors que l’open source s’intéresse uniquement aux aspects pratiques, telle que l’efficience et la fiabilité du logiciel par exemple. Voir Pourquoi l’« open source » passe à coté du problème que soulève le logiciel libre pour plus d’informations.

Il est évidemment préférable pour Microsoft d’affronter l’adversité concrète que représente l’open source plutôt que la position éthique que défend le mouvement du logiciel libre. En ne reconnaissant, et en ne critiquant, que l’open source, comme la société le fait depuis si longtemps, Microsoft poursuit deux objectifs : attaquer un concurrent tout en détournant l’attention d’un autre.

Codeplex applique strictement la même tactique. Son but déclaré est de convaincre les « éditeurs de logiciels commerciaux » de contribuer davantage à l’open source. Comme presque tous les logiciels open source sont aussi des logiciels libres, ces programmes seront certainement libres, mais la philosophie « open source » n’enseigne pas aux développeurs à défendre leurs libertés. S’ils ne comprennent pas l’importance de cette liberté, les développeurs seront plus enclins à succomber aux stratagèmes de Microsoft les encourageant à utiliser des licences plus faibles, ce qui reviendrait à mettre le doigt dans un engrenage, à accepter la cooptation de brevets et à rendre ainsi les logiciels libres dépendant d’éléments privateurs.

Cette fondation n’est pas le premier projet Microsoft à porter le nom de « Codeplex ». On retrouve aussi codeplex.com, une forge qui ne recense pas parmi les licences autorisées, la troisième version de la GNU GPL. Peut-être est-ce dû au fait que la GNU GPL v3 a été créée pour protéger les logiciels libres de la menace que représentent les brevets Microsoft au travers d’accords comme celui conclu entre Novell et Microsoft. Les intentions de la Codeplex Foundation vis à vis de la GPL v3 nous sont encore inconnues, mais le passif de Microsoft n’incite pas à l’optimisme.

Le terme « éditeurs de logiciels commerciaux » est lui-même ambigu. Par définition, toute entreprise a un but commercial, donc tout logiciel développé par une entreprise, qu’il soit libre ou privateur, est automatiquement commercial. Mais beaucoup associent faussement « logiciel commercial » et « logiciel privateur » (voir Termes prêtant à confusion, que vous devriez éviter (ou utiliser avec précaution)).

Cette confusion est grave, puisqu’elle implique qu’on ne peut pas faire commerce de logiciels libres. De nombreux éditeurs de logiciels contribuent déjà aux logiciels libres, et ces contributions commerciales sont très utiles. Peut-être que Microsoft souhaite ici renforcer cette fausse impossibilité dans l’esprit des gens.

Toutes ces considérations prises en compte, il nous apparait que Codeplex encouragera les développeurs à ne pas penser à la liberté. Il instillera subtilement l’idée que le commerce de logiciel libre ne peut se faire sans l’appui des éditeurs de logiciels privateurs commme Microsoft. Il pourrait aussi, cependant, convaincre certains fabricants de logiciels privateurs de publier plus de logiciels libres. Cette contribution servira-t-elle la liberté des utilisateurs ?

Ça ne pourra être le cas que si le logiciel libéré fonctionne correctement sur des plateformes libres, dans des environnements libres. Mais c’est à l’opposé de ce que Microsoft cherche à accomplir.

Sam Ramji, maintenant président de Codeplex, annonçait il y a quelques mois que Microsoft (son employeur d’alors) souhaitait promouvoir le développement d’applications libres qui encourageaient l’usage de Microsoft Windows. Peut-être que Codeplex cherche à corrompre les développeurs de logiciels libres pour qu’ils fassent de Windows leur plateforme principale. Codeplex.com héberge désormais de nombreux projets qui sont des extensions de logiciels privateurs. Ces programmes sont pris dans un piège similaire au Piège Java (voir Libre mais entravé – Le Piège Java).

Mais, même en cas de succès, les implications seraient limitées puisqu’un programme qui ne fonctionne pas (ou mal) dans le Monde Libre ne contribue pas à notre liberté. Un programme non-libre prive ses utilisateurs de leur liberté. Pour éviter de se retrouver ainsi lésés, nous devons rejeter les systèmes privateurs ainsi que les applications privatrices. Les extensions libres pour des programmes privateurs que l’on trouve sur Codeplex accroissent notre dépendance vis à vis de ces programmes privateurs, l’exact opposé de ce dont nous avons besoin.

Les développeurs de logiciels libres sauront-ils résister à ce travail de sape de nos efforts pour gagner plus de liberté ? C’est là que leur éthique devient cruciale. Les développeurs adeptes de la philosophie « open source », pour laquelle la liberté n’est que secondaire, n’attachent peut-être que peu d’importance à la liberté de l’environnement dans lequel leur logiciel est exécuté. Mais les développeurs se battant pour la liberté, la leur comme celle des autres, peuvent reconnaître le piège et l’éviter. Pour rester libre, la liberté doit être notre but.

Si la Codeplex Foundation souhaite devenir un vrai contributeur de la communauté du logiciel libre, elle ne peut se contenter d’extensions libres pour des paquets non-libres. Elle doit encourager le développement de logiciels portables capables de fonctionner sur des plateformes libres basées sur GNU/Linux et d’autres systèmes d’exploitation libres. Si elle essaie de nous leurrer dans une direction opposée, il nous faut absolument nous y refuser.

Mais que les actions de la Codeplex Foundation soient bonnes ou mauvaises, elles ne peuvent excuser les actes d’agression dont Microsoft s’est rendu coupable envers notre communauté. De sa tentative récente de vendre des brevets à des intermédiaires pour qu’ils fassent le sale boulot contre GNU/Linux, à sa croisade pour la promotion des menottes numériques (DRM), Microsoft n’a de cesse de s’en prendre à nous. Nous serions bien naïfs de le perdre de vue.

Copyright 2009 Richard Stallman
La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Chacun sa vision

World Views

Miguel de Icaza – 5 octobre 2009 – Blog personnel
(Traduction Framalang : Olivier Rosseler)

Storem - CC by-saApparemment, Richard Stallman n’a rien de mieux à faire que de m’attaquer personnellement. Dans son dernier texte, il s’est trouvé une nouvelle lubie : me traiter d’apologiste de Microsoft car je ne participe pas à sa chasse aux sorcières.

J’ai simplement un point de vue différent du sien au sujet de Microsoft. Certains de ses employés sont des personnes vraiment bien, et je sais qu’ils sont nombreux au sein de l’entreprise à essayer de lui faire prendre une meilleure voie. Cela fait maintenant quelques années que j’en parle sur mon blog.

Au fond, nous voulons tous les deux la même chose : le succès du logiciel libre. Mais Richard, plutôt que d’utiliser son temps pour défendre sa cause, s’en prend à ses propres alliés car ils ne sont pas pareils que lui. À ses yeux, débiter des inepties, telles que Linus « ne croit pas en la Liberté », est tout à fait normal[3].

Tout est une question de point de vue

Il y a de cela quelques années, j’ai eu la chance d’échanger avec Benjamin Zander sur son monde des possibles. Son livre, « L’art des possibilités » m’a profondément marqué.

Benjamin y raconte cette histoire :

Deux vendeurs de chaussures sont envoyés en Afrique au début du XXe siècle en prospection.

Le premier envoie son télégramme : « Situation désespérée. Stop. Personne ne porte de chaussures ».

L’autre envoie : « Opportunité d’affaires. Stop. Ils n’ont pas de chaussures ».

Notre temps sur Terre étant limité, j’ai décidé d’occuper le mien à essayer de faire comme le deuxième vendeur. J’essaie de voir des possibilités quand d’autres ne voient aucun débouché.

J’aime mon boulot pour cette raison précise, parce que je travaille avec des amis qui défient sans cesse les probabilités et parce que nous avons toujours su faire mentir ceux qui nous critiquent. Chacun de mes collègues veut changer le monde et aucun d’entre nous ne se laisse décourager par la peur.

La peur est un frein puissant et empêche trop souvent les gens de proposer des solutions créatives. Je préfère largement travailler à l’élaboration de solutions constructives plutôt que de me plaindre.

La paranoïa est un secteur très actif. C’est la solution de facilité pour ceux qui ne savent pas mener leurs troupes en donnant l’exemple. Créez un bouc émissaire, enrobez votre histoire, mentez, ou propagez des semi-vérités, satanisez, voilà une bonne recette pour fédérer votre base.

La paranoïa de Richard

Le documentaire « Le pouvoir des cauchemars » offre une description passionnante de l’économie de la « sécurité », de ces entreprises qui vendent de la « sureté » aux personnes effrayées, de ces dirigeants qui se servent de la peur des gens pour atteindre leurs buts. La paranoïa de Richard n’est en rien différente.

Richard Stallman fait souvent appelle à des bouc émissaire pour rassembler ses troupes. Parfois il s’en prend à Microsoft, d’autres fois il invente des faits, ou sinon il s’en prend à sa propre communauté[4]. Ses élocutions simplistes n’ont rien à envier à celle de Georges W. Bush : le Bien contre le Mal, Nous contre Eux.

La Codeplex Foundation est née de l’effort de ceux, chez Microsoft, qui croit en l’open source. Ils s’acharnent, au sein de l’entreprise, à la changer. Encourager Codeplex est une formidable opportunité d’encourager Microsoft dans la bonne direction.

Mais Richard n’arrive pas à le comprendre.

Aux yeux de Richard, il n’y a rien de bon à tirer de ce monde. Moi, à l’opposé, j’y vois des possibilités et des opportunités.

Non seulement on a jamais attrapé de mouches avec du vinaigre, mais il y a aussi beaucoup de chaussures à vendre.

Notes

[1] Crédit photo : Eneko Astigarraga (Creative Commons By-Sa)

[2] Crédit photo : Storem (Creative Commons By-Sa)

[3] Votre ami Google vous donnera de nombreux exemples d’attaques contre les défenseurs et développeurs de l’open source / logiciel libre.

[4] Le problème « open source » contre « logiciel libre » qui n’en est pas un et la guerre « Linux » contre « GNU/Linux » débutée dans les années 90 mais qui nous poursuit encore.




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)