La tragédie des pommes

Jeroen Kransen - CC by-sa« An apple a day keeps the doctor away » dit l’adage anglophone. Sauf que c’est désormais la pomme[1] elle-même qui a besoin d’un docteur.

Car si on nous suggère de « manger des pommes », encore faudrait-il que la pomme demeure effectivement plurielle. Ce qui est malheureusement de moins en moins le cas aujourd’hui.

La faute à qui ?

Peut-être aux mêmes forces et logiques économiques qui mettent à mal les biens communs (cf ce manifeste), de l’eau au logiciel en passant par la culture prise au piège des industriels[2].

L’enclosure des pommes

The Enclosure of Apples

David Bollier – 10 novembre 2009 – OnTheCommons.org
(Traduction Framalang : Goofy)

L’agriculture moderne a drastiquement réduit les variétés naturelles de pommes.

Il y a un siècle, en 1905, il y avait plus de 6500 variétés distinctes de pommes comestibles, d’après Verlyn Klinkenborg du New York Times. Les gens avaient leur pommes saisonnières favorites en ce qui concerne la cuisine ou pour manger directement. Ils en utilisaient différentes sortes selon qu’ils voulaient faire des tartes, du cidre ou du jus de pomme. Ils avaient le choix entre de nombreuses variétés exotiques portant des noms tels que Scollop Gillyflower, Red Winter Pearmain, Kansas Keeper.

Maintenant d’après Klinkenborg, « seulement 11 variétés constituent 90% de toutes les pommes vendues dans le pays, et la Red Delicious en représente à elle seule la moitié ». Pour ceux qui se demandent ce que signifie enclosure, en voici un bon exemple.

Depuis que les forces du marché en sont venues à dominer la production et la distribution des pommes au cours du 20ème siècle, les variétés naturelles qu’auparavant nous croyions garanties ont pour la plupart disparu. Certaines variétés ont été abandonnées parce qu’elles avaient des peaux fines et s’écrasaient trop facilement, faisant d’elles des denrées moins transportables pour le commerce de masse. D’autres semblaient être trop petites ou répondaient uniquement à des besoins de niche du marché. La Red Delicious s’est probablement imposée sur le marché parce qu’elle était grosse et très brillante.

Le point clé est que notre système d’agriculture moderne, dirigé par l’efficacité à grande échelle et les motivations commerciales, ne trouve aucun intérêt à la diversité, la différence et la singularité.

Heureusement, les différentes variétés de pommes fantastiques dont nous pouvions profiter auparavant n’ont pas disparu pour toujours, fait remarquer Klinkenborg. Beaucoup des anciens pommiers existent toujours, et ils fonctionnent comme une sorte de conservatoire des variétés de pommes perdues ou abandonnées. Sur un terrain, une propriété ou dans un endroit abandonné, il y a toujours des pommiers qui produisent des fruits, témoins silencieux de la biodiversité des pommes qui était autrefois normale.

Klinkenborg note que « les chercheurs du Centre National pour la préservation des ressources génétiques étudient les marqueurs génétiques de 280 vénérables pommiers qui poussent dans de vieux corps de fermes dans le sud ouest. Certains proviennent de pépinières commerciales, d’autres de stations d’agriculture expérimentale, mais la plupart sont uniques. »

Il est triste de penser que, nous autres les consommateurs modernes, nous sommes habitués à une offre si restreinte de pommes standardisées. Dans un sens, nous sommes devenus des créatures conditionnées par les restrictions du marché. Nos goûts sont devenus aussi ternes et génériques que la nourriture que nous consommons.

Un des buts remarquables que vise le mouvement Slow Food, c’est de retrouver la diversité naturelle de notre nourriture locale. J’aime à penser que, à mesure que nous apprécierons de plus en plus la richesse de la diversité naturelle et de ses manifestations locales, nous ferons beaucoup plus pour rebâtir le bien commun.

Notes

[1] Crédit photo : Jeroen Kransen (Creative Commons By-Sa)

[2] Le titre de mon billet est un clin d’œil à la tragédie des biens communs.




Paint.NET : du fauxpen source au vrai propriétaire

Copie d'écran - Paint.NETPaint.NET[1] est un très bon logiciel libre de retouches d’images pour Windows. De l’avis de beaucoup, bien plus « sexy » et accessible au grand public que Gimp par exemple.

Sauf qu’il possède deux défauts, un petit et un bien plus grand, éliminatoire même. Il nécessite, comme son nom l’indique, l’implémentation préalable du framework .NET de Microsoft, mais surtout il a très vite été un logiciel libre contesté qui n’avait en fait de logiciel libre que le nom, ou plutôt « que » la licence (en l’occurrence la licence MIT).

Contrôle du code, communauté inexistante et absence des dernières version des sources à télécharger, faisaient en effet de ce logiciel un exemple emblématique de « fauxpen source ». De l’aveu même de Rick Brewster, son unique développeur : « le code source était publié mais il n’a jamais été question d’un projet ouvert et collaboratif qui acceptait des soumissions de code non sollicitées ». Il appelle d’ailleurs cela un logiciel « released sources ».

Aujourd’hui les choses sont clarifiées. Rick Brewster a décidé il y a un mois de changer la licence pour en faire un vrai logiciel propriétaire gratuit (ou freeware). « You may not modify, adapt, rent, lease, loan, sell, or create derivative works based upon the Software or any part thereof », peut-on lire sur l’article de son blog qui annonce la nouvelle.

Cette nouvelle n’est pas forcément bonne (un logiciel qui quitte la lumière pour rejoindre le côté obscur de la force) mais elle est logique et cohérente vue l’évolution de l’application. Il nous a cependant semblé intéressant de traduire cet article, d’abord pour mieux comprendre les motivations de cette migration à contre-courant, mais aussi parce que les arguments avancés sont autant de justifications plus ou moins convaincantes qui vous feront peut-être réagir dans les commentaires.

Une nouvelle licence pour Paint.NET 3.5

A new license for Paint.NET v3.5

Rick Brewster – 9 novembre 2009 – Blog personnel
(Traduction Framalang : Jimbo)

Au fil des années, j’ai été obligé de me battre avec un certain nombre de personnes, et de sociétés, qui tentaient de plagier Paint.NET en recompilant le programme sous une dénomination commerciale différente et en insérant leur propre nom dans les crédits. Parfois, ils se faisaient payer pour ce service. J’ai même créé mon propre terme pour désigner cela : un « backspaceware » (NdT : en français cela donnerait quelque-chose comme « effaciciel », le backspace étant la touche « retour en arrière », qui permet d’effacer le dernier caractère tapé). En outre, de temps en temps, on trouve Paint.NET en vente sur eBay.

Et, comme beaucoup d’entre vous le savent, Paint.NET était open source. Ou plutôt, il était « released sources » (NdT : C’est-à-dire « sources publiées ») : le code source était publié mais il n’a jamais été question d’un projet ouvert et collaboratif qui acceptait des soumissions de code non-sollicitées. J’aimais publier le code source, parce qu’il me semblait bon de permettre à d’autres de l’étudier. Il y a environ un an, fatigué de voir ces versions plagiées de Paint.NET et j’ai décidé de retirer le code source du site Web. Cependant le code source était toujours dans la nature en différents endroits d’Internet (ce qui n’est guère illégal). Même sans le code source, une personne maline et douée pouvait probablement encore décompiler, modifier puis recompiler le programme, afin de lui faire dire ou faire ce qu’elle voulait.

Le plus gros problème était que, même si ces actions déplorables manquaient clairement d’éthique, le licence MIT autorisait tout cela. Ou, du moins, dans certains cas particuliers, ce qu’elle interdisait n’était pas clair. Donc, d’un point de vue juridique, ce qui pouvait précisément être entrepris à ce sujet n’était pas clair. Je ne suis pas juriste et je ne voulais pas dépenser des milliers de dollars pour avoir une explication de tout cela. Quelques personnes ont affirmé que j’avais choisi la mauvaise licence et, avec le recul, c’est sans aucun doute exact.

En outre, tout ceci va plus loin que le plagiat ou ma propre tension artérielle. La publication de copie dérivées de Paint.NET est source de confusion et perturbe la plupart des utilisateurs. J’ai reçu des e-mail de personnes troublées parce qu’elles pensaient que Paint.NET avait été renommé et que des fonctions manquaient dans « la nouvelle version ». Ces copies dérivées provoquent du désordre puisque souvent elles désinstallent le vrai Paint.NET (avec la même interface graphique que pour l’installation Windows) tout en conservant le système de mise à jour d’origine. Ce qui signifie que lorsque vous installez une telle copie dérivée, elle supprime Paint.NET, et puis lorsque Paint.NET est mis à jour, il désinstalle la version dérivée et la remplace par Paint.NET, etc… Ou la version modifiée plante, et le rapport de bugs indique à l’utilisateur de l’envoyer à mon adresse mail. Il y a aussi a risque réel de trojans et de virus.

Tout est désormais fini.

Pour la version finale de Paint.NET 3.5, qui ne devrait plus tarder, j’ai modifié la licence. Pour la plupart des utilisateurs, cela n’aura aucun impact. C’est toujours un freeware. Il n’y a toujours aucune prétention sur les fichiers créés, ouverts ou sauvés avec Paint.NET. Vous pouvez toujours établir un miroir du fichier zippé à télécharger sur votre site web (par exemple Betanews, Download.com, etc.) sans en demander la permission. Vous pouvez toujours vendre des trucs que vous créez avec Paint.NET (pour autant que vous ayez le droit de le faire bien sûr). Vous pouvez continuer à utiliser dans un contexte commercial, et à l’installer sur autant de machines que vous le désirez.

Cependant, la licence spécifie que vous ne pouvez plus modifier Paint.NET lui-même, ou créer une œuvre dérivée basée sur le logiciel Paint.NET (c’est-à-dire un logiciel dérivé). Vous ne pouvez pas non plus le vendre. Je ne pense pas que cela aura un impact sur quiconque d’autre que ceux qui désirent plagier ou détrousser Paint.NET. Je ne vais implémenter aucune restriction quant au reverse engineering ou la décompilation, par exemple à l’aide de Reflector. Je pense que ce serait bête, et je crois encore de tout mon cœur qu’il est bon qu’on soit capable d’étudier le code de Paint.NET, quand bien même il ne s’agit que du démontage approximatif fourni par Reflector. Toutefois, vous n’êtes pas autorisé à modifier et recompiler une nouvelle version de Paint.NET à partir de ce démontage.

Cette décision créera à n’en pas douter de la confusion. Par exemple, « Est-ce que les plugins sont autorisés ? ». Oui, absolument: le programme est conçu pour accepter ces dernier et ils ne constituent pas une modification de Paint.NET lui-même. Je devrai certainement mettre la FAQ à jour sur cette question, comme sur d’autres.

Je m’attends à ce qu’il y ait une minorité bien en voix qui condamne ce changement de licence. Avant de vous exprimer, veuillez vous poser cette question : cela vous touche-t-il réellement ? Comptiez vous vraiment faire quelque chose que cette nouvelle licence interdit ? Je parie que la réponse est « non », mais, je vous en prie, postez un commentaire si la réponse est un véritable oui. Beaucoup de personnes ont condamné ma décision de supprimer le code source mais après enquête, il s’est avéré que c’était une pure question de principe : elles n’avaient jamais téléchargé le code source, jamais rencontré quelqu’un qui l’avait téléchargé, et jamais prévu de faire quoi que ce soit qui tirerait profit ou dépendrait de l’accès au code source. Je comparerai cela à être contrarié par le fait que votre passeport vous interdit de voyager en Antarctique : comptiez-vous vraiment vous rendre là-bas un jour ?[2]

L’autre décision que je compte prendre est de publier le code source de portions de Paint.NET 3.5, probablement sous une licence de type MIT ou BSD. Les développeurs de plugins gagneraient en effet beaucoup à disposer du code source des effets graphiques et de certaines commandes relatives à l’interface WinForms. La meilleure façon de résumer les choses est de dire que la nouvelle licence (NdT : Voir les termes de la nouvelle licence sur l’article d’origine) couvre les « binaires », c’est-à-dire « ce que vous venez de télécharger et d’installer ». Je peux toujours créer des paquets à télécharger qui sont couverts par d’autres termes de licence. D’un point de vue de la philosophie, c’est peut-être déroutant, mais je suis prêt à en payer le prix.

Notes

[1] Crédit photo : Copyright Sabrown100

[2] Comme toutes les métaphores, celle-ci à ses limites.




Filtrage du Net : danger pour la démocratie et l’État de droit

Dolmang - CC by-saLe groupe de travail Framalang du réseau Framasoft, et La Quadrature du Net publient la traduction du résumé d’une étude juridique indépendante sur les dangers du filtrage du Net.

Ce que l’on retire de la lecture de cette étude, c’est que comme lors de la bataille HADOPI, où le gouvernement se cachait derrière la supposée « défense des artistes » pour imposer une absurde et dangereuse coupure de l’accès au Net, des politiques publiques légitimes sont désormais instrumentalisées pour imposer le filtrage gouvernemental des contenus sur Internet[1].

Toutefois, de même que les coupures d’accès, si elles sont appliquées, n’apporteront pas un centime de plus aux artistes et ne feront pas remonter les ventes de disques, le filtrage ne peut en aucun cas résoudre les problèmes au prétexte desquels il sera mis en place.

Si l’objectif de lutter contre la pédopornographie et son commerce est bien évidemment légitime, la solution qui consiste à bloquer les sites incriminés pour éviter leur consultation revient en réalité à pousser, dangereusement, la poussière sous le tapis. Le seul moyen de lutte véritablement efficace contre ces pratiques ignobles passe par le renforcement des moyens humains et financiers des enquêteurs, l’infiltration des réseaux criminels ainsi que le blocage des flux financiers et le retrait des contenus des serveurs eux-mêmes. Or, en la matière, des politiques efficaces existent déjà.

Il importe donc d’améliorer ces dispositifs existants et d’y consacrer les ressources nécessaires, plutôt que de remettre en cause les libertés au motif de politiques de prévention du crime totalement inefficaces. En effet, les arguments de lutte contre la criminalité, au potentiel émotionnel fort, sont aujourd’hui instrumentalisés pour tenter de légitimer un filtrage du Net qui porte pourtant radicalement atteinte à la structure du réseau, et entraîne de grands risques pour les libertés individuelles et « l’état de droit » tout entier.

L’étude dont le résumé de 30 pages vient d’être traduit en français conjointement par les volontaires de Framalang et de La Quadrature du Net est un pavé dans la mare. Elle conteste, démonstrations juridiques à l’appui, l’idée – évoquée par un nombre croissant de gouvernements européens – que le filtrage du Net puisse être une solution efficace et indolore de régulation des pratiques sur Internet. Réalisée par les éminents spécialistes Cormac Callanan[2], Marco Gercke[3], Estelle De Marco[4] et Hein Dries-Ziekenheine[5], ses conclusions sur l’inefficacité et la dangerosité du dispositif sont sans appel :

  • Quel que soit le mode de filtrage des contenus utilisé, il entraîne de graves risques de sur-blocage (risques de faux-positif : des sites innocents rendus inaccessibles).
  • Quel que soit le mode de filtrage retenu, il sera ridiculement facile à contourner. Les criminels se servent déjà de moyens de contournement et continueront d’agir en toute impunité.

La seule mise en place du filtrage entraine des risques de dérives : si l’on commence pour la pédopornographie, pourquoi ne pas continuer par la suite pour la vente de cigarettes sans TVA[6], le partage de musique et de films (comme le souhaitent les lobbies derrière l’ACTA)[7], les sondages en sorties des urnes ou même les insultes au président ? La plupart des pays non-démocratiques (Chine, Iran, Birmanie, etc.) utilisent le filtrage du Net aujourd’hui, systématiquement à des fins de contrôle politique.

La loi LOPPSI (loi d’orientation et de programmation pour la performance de la sécurité intérieure) sera bientôt examinée au Parlement français. Elle contient des dispositions visant à imposer le filtrage du Net sans contrôle de l’autorité judiciaire, par une autorité administrative dépendante du ministère de l’intérieur.

Il est indispensable que les citoyens attachés à Internet, aux valeurs démocratiques et à l’État de droit se saisissent de cette question, grâce à cette étude, afin de stimuler un débat public. Il est crucial de contrer cette tentative d’imposer un filtrage du Net attentatoire aux libertés fondamentales !

Passages essentiels :

p. 4 : Dans les pays où l’autorité judiciaire est indépendante du pouvoir législatif et du pouvoir exécutif, ce qui devrait être le cas dans toutes les démocraties libérales, seul un juge devrait avoir la compétence de déclarer illégal un contenu, une situation ou une action.

Un problème crucial autour des listes noires est celui de leur sécurité et leur intégrité. Une liste de contenus tels que ceux-là est extrêmement recherchée par ceux qui sont enclins à tirer parti d’une telle ressource. Sans même mentionner les fuites de listes noires directement sur Internet, des recherches indiquent qu’il serait possible de faire de la rétro ingénierie des listes utilisées par n’importe quel fournisseur de services.

p. 5 : En tout état de cause, il faut souligner qu’aucune stratégie identifiée dans le présent rapport ne semble capable d’empêcher complètement le filtrage abusif. Ceci est d’une importance décisive lorsqu’on met en balance la nécessité de bloquer la pédo-pornographie et les exigences des droits de l’Homme et de la liberté d’expression. Il semble inévitable que des contenus légaux soient aussi bloqués lorsque le filtrage sera mis en œuvre.

p. 13 : Aucune des stratégies identifiées dans ce rapport ne semble être capable de protéger du sur-filtrage. C’est une des préoccupations majeures dans l’équilibre entre la protection des enfants et les droits de l’homme et de la liberté. Il parait inévitable que le contenu légal soit filtré aux endroits où les filtres sont implémentés. Le sous-filtrage est aussi un phénomène universel spécialement présent dans la plupart des stratégies étudiées.

p 18 : Que l’accès à Internet soit ou non un droit fondamental indépendant, celui-ci est tout au moins protégé comme un moyen d’exercer la liberté d’expression, et chaque mesure de filtrage d’Internet qui tente d’empêcher les personnes d’accéder à l’information est par conséquent en conflit avec cette liberté. Chaque mesure de filtrage limite le droit à la liberté d’expression, de manière plus ou moins large selon les caractéristiques du filtrage et le degré de sur-filtrage, puisque l’objectif initial d’une telle mesure est de limiter l’accès à un contenu particulier.

p 21 : La seule sorte d’accord qui pourrait autoriser une mesure de filtrage serait le contrat entre l’utilisateur d’Internet et le fournisseur d’accès. La légalité d’une telle mesure de filtrage dépendrait pour beaucoup du type de contenu consulté, de la nature de l’entorse aux droits et libertés et des preuves requises. Si cela n’est pas précisé d’une façon raisonnable, il est facile d’envisager que de tels contrats soient considérés comme des entorses à la directive européenne sur les clauses contractuelles abusives, particulièrement si cela permet au fournisseur d’accès à Internet de prendre des sanctions unilatérales à l’encontre de son client.

p 23 : Le filtrage du web et du P2P dans l’intérêt de l’industrie de la propriété intellectuelle. Une mesure de filtrage du web ou du P2P, qui servirait l’intérêt des ayants droit, aurait probablement un effet global plus négatif :

  • tout d’abord, si le filtrage du P2P peut être présenté comme menant à un chiffrement des échanges rendant toute surveillance ou la plupart des contenus impossible, il deviendrait alors impossible de surveiller ces communications, même dans les conditions où cela est autorisé ;
  • ensuite, cela impliquerait des coûts. Elevés pour l’industrie d’Internet, les gouvernements et les internautes ;
  • enfin, cela mènerait à coup sûr au filtrage de fichiers légaux.

Au regard du critère qui requiert qu’il existe une base suffisante pour croire que les intérêts des ayants-droits soient en péril , nous pouvons dire qu’il n’y a aucune preuve d’un tel danger. Il n’y a aucune preuve de la nature et de l’étendue des pertes possibles dont souffrent les ayants-droits à cause des infractions commises à l’encontre de leurs droits sur le web ou les réseaux P2P, étant donné que les études sur ce problème sont insuffisantes ou démontrent un résultat inverse.

Le filtrage des contenus illégaux du web ou du P2P dans le but de la prévention du crime. L’objectif de la prévention du crime devrait être d’empêcher les gens de commettre des crimes ou délits ou d’en être complices en achetant, téléchargeant ou vendant des contenus illégaux. Sa proportionnalité dépendrait de l’équilibre trouvé entre, d’une part, le pourcentage de la population qui ne commettrait plus de délits puisque n’ayant plus accès aux contenus illégaux et, d’autre part, les restrictions des libertés publiques que causerait la mesure. L’effet de la mesure ne devrait pas être une réduction significative de la liberté d’expression ni du droit à la vie privée de chaque citoyen. Il n’existe pour l’instant aucune preuve qu’une mesure de filtrage pourrait aboutir à une diminution des crimes et délits, alors qu’elle restreindrait certains comportements légitimes et proportionnés.

p 25 : Si avoir le droit d’attaquer devant un tribunal une décision qui limite une des libertés est un droit fondamental, cela suppose que cette limitation a déjà été mise en place et que le citoyen a déjà subi ses effets. Par conséquent, il est essentiel qu’un juge puisse intervenir avant qu’une telle décision de filtrage ne soit prise. En ce qui concerne le filtrage d’Internet, ces situations sont tout d’abord relatives à l’estimation et la déclaration d’illégalité d’un contenu ou d’une action, puis à l’appréciation de la proportionnalité de la réponse apportée à la situation illégale.

p. 26 : Un passage en revue technique des principaux systèmes de filtrage d’Internet utilisés de nos jours, et la façon dont ils s’appliquent à différents services en ligne, soulignent la gamme croissante des contenus et des services qu’on envisage de filtrer. Une analyse de l’efficacité des systèmes de filtrage d’Internet met en évidence de nombreuses questions sans réponse à propos du succès de ces systèmes et de leur capacité à atteindre les objectifs qu’on leur assigne. Presque tous les systèmes ont un impact technique sur la capacité de résistance d’Internet et ajoutent un degré supplémentaire de complexité à un réseau déjà complexe. Tous les systèmes de filtrage d’Internet peuvent être contournés et quelquefois, il suffit de modestes connaissances techniques pour le faire. Il existe des solutions logicielles largement disponibles sur Internet qui aident à échapper aux mesures de filtrage.

p. 27 : En bref, le filtrage d’Internet est conçu avec des solutions techniques qui sont inadéquates par elles-mêmes et qui en outre sont sapées par la disponibilité de protocoles alternatifs permettant d’accéder à du matériel illégal et de le télécharger. Il en résulte que l’estimation du caractère proportionné des mesures ne doit pas seulement respecter l’équilibre des divers droits en jeu, mais aussi garder à l’esprit l’incapacité des technologies de filtrage à préserver les droits en question, ainsi que les risques d’effets pervers, tels qu’une diminution de la pression politique pour rechercher des solutions complètes, ou le risque d’introduction de nouvelles stratégies chez les fournisseurs de sites illégaux pour éviter le filtrage, ce qui rendrait à l’avenir plus difficiles encore les enquêtes pénales.

Notes

[1] Crédit photo : Dolmang (Creative Commons By-Sa)

[2] Cormac Callanan est Membre du conseil consultatif Irlandais sur la sûreté d’Internet et directeur d’Aconite Internet Solutions, qui fournit des expertises dans le domaine de la cybercriminalité.

[3] Marco Gercke est Directeur de l’Institut du droit de la cybercriminalité et professeur de droit pénal à l’Université de Cologne.

[4] Estelle De Marco est juriste. Ancienne consultante de l’Association des Fournisseurs d’Accès.

[5] Hein Dries-Ziekenheine est PDG de Vigilo Consult, cabinet de juristes spécialisés dans le droit de l’Internet.

[6] Voir Tabac et vente sur Internet : le gouvernement dément.

[7] En juin 2008, interrogé par PCINpact, le directeur général de la SPPF, Jérome Roger, qui représente les producteurs indépendants français, a déclaré : « les problématiques de l’industrie musicale ne sont pas éloignées de ces autres préoccupations (la pédophilie) qui peuvent paraître évidemment beaucoup plus graves et urgentes à traiter. Bien évidemment, les solutions de filtrage qui pourraient être déployées à cette occasion devraient faire l’objet d’une réflexion à l’égard des contenus, dans le cadre de la propriété intellectuelle ». Voir Quand l’industrie du disque instrumentalise la pédopornographie.




Soutenir les Creative Commons – Lettre de Mohamed Nanabhay (Al Jazeera)

Oso - CC by-ncL’actuelle campagne de soutien des Creative Commons (CC) bat son plein. Elle vise à récolter un demi-million de dollars avant le 31 décembre. Inutile de vous dire que nous vous encourageons vivement à participer, si vous pensez, comme nous, que ces licences font partie de ce qui est arrivé de mieux à l’Internet au cours de la présente décennie.

À cette occasion, il a été demandé à des personnalités utilisant les CC de témoigner en rédigeant une Commoner Letter. C’est la première de ces lettres que nous avons traduit ici, faisant directement écho à un billet de janvier dernier où nous évoquions l’inauguration par Al Jazeera d’un dépôt d’archives vidéos sous licence Creative Commons[1].

Rendez-vous l’an prochain pour la lettre de TF1 ?

Commoner Letter #1 : Mohamed Nanabhay de la chaîne Al Jazeera

Commoner Letter #1: Mohamed Nanabhay of Al Jazeera

7 octobre 2009 – Blog Creative Commons
(Traduction Framalang : Olivier Rosseler et Yostral)

Introduction de Allison Domicone (Creative Commons)

J’ai le plaisir de vous annoncer le lancement de notre série Commoner Letter annuelle, une série de lettres rédigées par des membres importants de la communauté des CC pour appuyer notre campagne de soutien pour les CC. Mais cette campagne ne vise pas qu’à lever des fonds, nous voulons que cela soit bien clair. Nous cherchons avant tout à faire connaître plus largement les CC et à militer pour le partage en ligne et la culture collaborative.

Je suis donc fier de vous annoncer la parution de la première Commoner Letter, de Mohamed Nanabhay, directeur du développement en ligne pour Al Jazeera English. Mohamed et Al Jazeera ont offert une visibilité à l’international aux CC grâce au travail incroyable qu’ils ont founi cette année. Comme vous le savez peut-être déjà, Al Jazeera a lancé plus tôt dans l’année un dépôt Creative Commons qui héberge des rushes vidéo que tout le monde peut partager, réutiliser et remixer. Avoir un tel allié chez Al Jazeera est un honneur et j’espère que vous apprécierez le témoignage personnel que nous livre Mohamed sur son attachement aux Creative Commons.

Lettre de Mohamed Nanabhay (Al Jazeera)

Cher Creative Commoner,

L’année a été riche pour Al Jazeera et sa relation avec les Creative Commons. En janvier nous avons inauguré le premier dépôt mondial de vidéos professionnelles placées sous licence Creative Commons 3.0 Attribution (CC BY). Nous avions alors libéré une sélection de séquences filmées par Al Jazeera, des rushes sur la guerre à Gaza, permettant ainsi à tout le monde de les télécharger, de les partager, de le re-mixer, de les sous-titrer et finalement de les rediffuser, que l’on soit un particulier ou une chaîne de télévision, à la seule condition que nous soyons crédités pour la vidéo.

Embrasser la culture libre, c’est avant tout accepter que l’on renonce au contrôle en échange de quelque chose de plus grand : son appropriation par la communauté créative. Vous ne savez donc jamais vraiment où tout cela va vous mener. À l’origine, quand nous avons inauguré notre dépôt, nous pensions mettre là à disposition des ressources pertinentes pour quelqu’un désirant produire du contenu sur la guerre et qu’elles seraient principalement utilisées par d’autres chaînes d’informations et des réalisateurs de documentaires.

Le résultat fut à la fois surprenant et enthousiasmant. À peine nos vidéos furent-elles en ligne que déjà des contributeurs de Wikipédia en extrayaient des images pour compléter les articles sur le guerre de Gaza. Et rapidement, enseignants, créateurs de films, développeurs de jeux vidéos, organisations humanitaires et producteurs de clips musicaux s’inspirèrent de nos images. Cet accueil chaleureux de la communauté de la culture libre nous conforta dans notre choix.

Joichi Ito, président de Creative Commons dit au lancement : « Les séquences d’informations filmées sont l’un des pilliers du journalisme moderne. Rendre ainsi disponibles sous licence Creative Commons ces images, pour des usages amateurs et commerciaux, est une contribution fantastique au dialogue mondial autour d’évènements importants. Al Jazeera montre l’exemple et sera, nous l’espérons, imitée par beaucoup d’autres. »

Lancer un projet ne suffit pourtant pas à générer une communauté, un engagement à long terme et des valeurs communes sont nécessaires. Notre association avec Creative Commons remonte à 2007, lorsque Lawrence Lessig, fondateur des Creative Commons, a donné son discours d’introduction lors du 3ème Al Jazeera Forum à Doha, au Qatar. Dans ce discours il nous mettait au défi de libérer nos contenus afin de renforcer la liberté d’expression. Ce défi, nous l’avons relevé, en plus de notre dépôt Creative Commons, nous rendons également disponible nombre de nos reportages sur notre chaîne dédiée sur Youtube.

Après le lancement de notre dépôt, nous avons co-animé un atelier avec Creative Commons ayant pour titre « Créer des projets médias dans des réseaux ouverts », dont l’animation était assurée par le directeur de Creative Commons, Joichi Ito. Cet atelier fut diffusé en direct dans tout le Moyen-Orient dans le cadre de notre 4ème Al Jazeera Forum, qui s’est tenu en mars 2009. Cet évènement mondial a rassemblé près de deux cents journalistes, analystes, universitaires et intellectuels.

Grâce aux licences Creative Commons nous touchons un public plus large, mais la portée de notre projet est mieux résumé par ce commentaire de Lawrence Lessig : « Al Jazeera nous donne une leçon importante de promotion et de défense de la liberté d’expression. En offrant une ressource libre et gratuite au monde, le réseau encourage l’extension du débat et sa plus grande compréhension. »

La collaboration avec Creative Commons a été très enrichissante. Nous sommes reconnaissants envers Lawrence Lessig, Joi Ito et toute l’équipe qui œuvrent à la diffusion de la liberté d’expression pour leur aide, leurs conseils et leur soutien.

La collaboration involontaire qui s’est développée après que nous ayons ouvert notre dépôt de vidéos, ainsi que le bon accueil que ce dernier a reçu dans le monde entier, n’auraient pas été possible sans l’aide des licences Creative Commons. Nous apportons notre soutien à leur campagne car nous avons été témoin, et nous le sommes toujours, des bienfaits de l’enrichissement et du renforcement des communs numériques. J’espère que vous aussi, selon vos possibilités, vous apporterez votre soutien aux CC en renforçant ainsi les biens communs. Je vous conseille vivement de vous lancer et d’utiliser vous aussi les licences Creative Commons.

Sincèrement,

Mohamed Nanabhay
Directeur du développement en ligne, Al Jazeera English

Notes

[1] Crédit photo : Oso (Creative Commons By-Nc)




Privilégier la licence Creative Commons Paternité (CC BY) dans l’éducation

Logo - Creative Commons AttributionQuelle est la licence la plus indiquée pour ce qui concerne les ressources produites dans un contexte éducatif ?

Assurément les licences Creative Commons. Or ce pluriel témoigne du fait qu’il existe justement plusieurs licences Creative Commons.

C’est la plus simple et peut-être aussi la plus « libre » d’entre toutes, la Creative Commons Paternité (ou CC BY), que est ici clairement, voire chaudement, recommandée, par les créateurs mêmes de ces licences, lorsqu’il est question de ces ressources en plein essor que constituent les « Ressources Éducatives Libres ».

Et c’est une prise de position d’autant plus remarquable que c’est une licence encore aujourd’hui très minoritaire dans la grande famille des Creative Commons.

Pourquoi licencier sous CC BY ?

Why CC BY?

CC Learn Productions – Juillet 2009 – Licence Creative Commons By (Traduction Framalang : Olivier Rosseler, Poupoul2 et Goofy)

Quelques règles d’utilisation des licences Creative Commons (CC), et plus particulièrement de la licence Creative Commons Paternité (CC BY), comme choix privilégié pour vos Ressources Éducatives Libres (NdT : OER pour Open Educational Resources en anglais).

1. Utilisez les licences Creative Commons

La famille de licences Creative Commons est un standard reconnu pour les contenus ouverts. Nous vous recommandons de consulter la FAQ ccLearn pour en apprendre davantage sur ces choix essentiels de licences dans l’éducation. Pour résumé, Creative Commons propose des licences publiques et gratuites, composées de combinaisons des conditions suivantes :

Logo CC BYPaternité : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création, et les œuvres dérivées, mais uniquement s’ils vous en attribuent expressément la paternité. Cette condition est commune à toutes les licences Creative Commons.

Logo CC NCPas d’utilisation commerciale : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création et les œuvres dérivées, mais uniquement dans un but non commercial. S’ils souhaitent utiliser votre travail à des fins commerciales, ils doivent prendre contact avec vous afin d’obtenir votre autorisation.

Logo CC SAPartage des conditions initiales à l’identique : Vous permettez aux autres de distribuer des œuvres dérivées, mais uniquement sous une licence identique à celle que vous avez initialement choisie.

Logo CC NDPas de modification : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création sous sa forme initiale, sans modification. Votre accord est nécessaire à toute traduction, altération, transformation ou ré-utilisation dans une autre œuvre.

Selon la combinaison de conditions choisies, Creative Commons fournit une licence indiquant clairement les conditions de réutilisation de votre travail. Qui plus est, les licences Creative Commons sont tout particulièrement conçues pour en faciliter l’utilisation, ainsi que la compréhension par les auteurs et les utilisateurs. Leur terminologie standardisée et leur implantation technique les rendent universelles. Les Ressources Éducatives Libres publiées sous licences Creative Commons sont déjà nombreuses et s’inscrivent dans une dynamique collective qu’il aurait été impossible d’atteindre si des licences spécifiques et différentes avaient été appliquées à chaque œuvre.

Cette standardisation permet aux gens de se familiariser avec les différentes options de nos licences. Ces permissions ont été concentrées utilement dans des contrats simplifiés et accessibles, utilisant des icônes universellement identifiables, qui fournissent une référence rapide aux droits et conditions associées à chaque ressource. En complément, les licences Creative Commons sont lisibles par des machines, permettant ainsi de rechercher des ressources sous licence Creative Commons grâce à des outils de recherche Web (tels que Google, Yahoo!, ou les propres outils de recherche de Creative Commons), favorisant ainsi avec simplicité et efficacité la découverte et la diffusion de Ressources Éducatives Libres.

2. Utilisez la licence Creative Commons Paternité (CC BY) chaque fois que c’est possible.

Parmi l’ensemble des licences Creative Commons, la licence CC BY est le moyen le plus simple de garantir que vos Ressources Éducatives Libres auront un impact maximum, en termes de diffusion et de réutilisation. Les travaux sous licence CC BY peuvent en effet être redistribués et adaptés sans autre restriction que d’en respecter la paternité. Ces travaux peuvent être traduits, localisés, intégrés dans des produits commerciaux et combinés à d’autres ressources éducatives. La licence CC BY permet ces réutilisations par n’importe qui, pour n’importe quel objectif, toutes vous présentant explicitement comme l’auteur initial. Dans certaines situations, il peut vous paraître important de restreindre les possibilités de réutilisation de vos Ressources Éducatives Libres. Dans de tels cas, vous devriez porter une attention particulière aux conséquences de ces restrictions. Prenons par exemple une ressource dont la licence interdit la création de travaux dérivés, telles que les licences Creative Commons avec clause ND (pas de modification). Alors l’intégrité de vos travaux est protégée par une licence ND, mais dans le monde des Ressources Éducatives Libres cette restriction empêche toute traduction, adaptation ou localisation, alors que ces possibilités sont d’une importance critique dans le domaine éducatif.

La clause NC, qui interdit toute utilisation commerciale, en est un autre exemple. Votre organisation pourrait ne pas souhaiter que des concurrents commerciaux intègrent gratuitement vos créations dans leurs propres travaux et puissent ainsi en tirer un bénéfice financier. Cependant, il peut être parfois difficile de déterminer si une activité est ou n’est pas commerciale, ce qui pourrait pousser certains à éviter des ressources intégrant une clause NC, même s’ils envisageaient de s’engager dans des activités légitimes et séduisantes utilisant vos travaux. En fait, il existe de nombreux cas pour lesquels les efforts commerciaux élargiront l’accès et l’impact des Ressources Éducatives Libres. Par exemple des éditeurs commerciaux pourraient diffuser ces Ressources Éducatives Libres dans des régions où la connectivité au réseau est défaillante, des opérateurs de téléphonie mobile pourraient intégrer ces Ressources Éducatives Libres dans des offres de communication qui les aideraient à vendre des téléphones, tout en élargissant le nombre de bénéficiaires de ces ressources. Lorsque se pose la question de l’utilisation de la clause NC, Creative Commons pense qu’il est primordial que vous déterminiez si vous prévoyez de tirer un profit direct de votre travail (en clair, de le vendre). Si ce n’est pas le cas, essayez d’éviter d’utiliser la clause NC.

Un troisième exemple est la clause SA (Partage des conditions initiales à l’identique), qui contraint tous les travaux dérivés à être distribués dans les mêmes conditions que l’œuvre initiale. Cette clause est séduisante pour les organisations qui souhaitent utiliser leurs travaux afin d’étendre le corpus des ressources libres et ouvertes, en assurant que toute œuvre basée sur ces ressources conserve les mêmes libertés, même au prix de l’exclusion de réutilisations potentielles. Cependant, les œuvres porteuses d’une clause SA sont difficiles, voire impossibles, à combiner avec des ressources éducatives publiées sous une autre licence, ce qui dans de nombreux cas peut représenter un obstacle pour les étudiants et leurs professeurs.

Bien que certains attendent avec impatience l’avènement d’un jour où toutes les Ressources Éducatives Libres seront versées au domaine public, ouvertment accessibles et réutilisables sans conditions, Creative Commons comprend le besoin ressenti par les auteurs de fournir à leurs œuvres éducatives ouvertes une protection légale. Nous recommandons cependant d’imposer d’autres restrictions que la simple paternité uniquement lorsque c’est nécessaire et lorsque le choix de ces restrictions peut être clairement explicité.

3. Assurez-vous que vous utilisez correctement les licences Creative Commons

Convenablement appliquées aux ressources numériques, les licences Creative Commons peuvent être lues par les machines, en facilitant ainsi leur découverte et leur diffusion. Improprement appliquées, la visibilité et l’impact de vos ressources seront très certainement diminués.

4. Vérifiez que vous diffusez vos produits dans des formats qui permettent effectivement de jouir des droits (par exemple l’accès, la traduction, la re-composition) que vous avez légalement permis.

Si vous octroyez aux utilisateurs la permission de traduire vos Ressources Éducatives Libres, vous devriez alors garantir l’accès de ces ressources dans un format qui leur permettra de le faire facilement. Si vous êtes inquiet de l’avenir et de la qualité d’un format donné, vous pouvez envisager de publier la même ressource dans de multiples formats, afin que chaque destinataire soit capable d’en trouver une version qui lui convienne.

Des questions ?

Ce document est hautement abrégé. Pour plus d’informations à propos de ces sujets, ou d’autres sujets liés, rendez vous sur le site de Creative Commons (NdT : ou sur le site de Creative Commons France).




Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Glitter Feet - CC byOn peut s’extasier béatement devant les prétendues capacités technologiques de la nouvelle génération, née une souris dans la main, et baptisée un peu vite les « digital natives ».

Mais s’il ne s’agit que de savoir manier de nouveaux objets, sans conscience, sans recul, et sans compétence ni curiosité pour en soulever les capots, alors nous nous mettons peut-être en danger[1].

Or, parmi ces nouveaux objets, il y a les logiciels, dont tout le monde aura noté la place croissante qu’ils occupent dans nos sociétés contemporaines. Nous écarterons d’autant plus facilement ce danger que nous serons toujours plus nombreux à accorder de la valeur à la liberté des logiciels.

C’est la thèse que défend ici Hugo Roy en évoquant, par analogie avec la démocratie, une approche systémique de la situation.

PS : Pour l’anecdote, il s’agit d’une traduction que nous avons entamée sans savoir qu’Hugo Roy était… français ! Du coup c’est la première fois qu’on se retrouve avec une traduction relue par l’auteur même de l’article d’origine !

Logiciel Libre, Société Libre : À propos de la Démocratie et du Hacking

Free Software, Free Society: Of Democracy and Hacking

Hugo Roy – 8 novembre 2009 – Blog de la FSFE
(Traduction Framalang : Gilles Coulais et Hugo Roy)

Lorsqu’on explique pourquoi le logiciel libre est important, une question revient souvent :
« Ai-je réellement besoin de la liberté du logiciel ? »

L’utilité de la liberté du logiciel n’est pas évidente pour tous. Tout le monde n’est pas capable de comprendre le code source d’un programme, et ils sont encore moins nombreux à pouvoir le modifier. Seuls les hackers et les développeurs peuvent en effet jouir pleinement des quatre libertés d’un logiciel libre. Il est alors difficile de convaincre quelqu’un d’abandonner le logiciel propriétaire pour le simple bénéfice de la liberté, tant qu’il ne comprend pas l’utilité de cette liberté.

Il est essentiel de penser ce problème non pas comme un simple engagement envers la liberté, mais plus comme un problème de systèmes.

Tout d’abord, ne pas jouir d’une liberté n’implique pas pour autant qu’on ne bénéficie pas des effets de cette liberté. L’analogie la plus évidente ici sont les systèmes politiques. La Constitution est à la souveraineté ce que la licence des logiciels libres est au droit d’auteur. La Constitution qui définit notre système politique donne à chaque citoyen des libertés et des droits, tel que le droit de se porter candidat à une élection.

Tout le monde peut se présenter à une élection, ce qui ne signifie pas pour autant que tout le monde le fera. Tout le monde n’a pas la compétence ou l’envie de devenir politicien. Cela étant, diriez-vous que la démocratie n’a aucune importance juste parce que vous ne souhaitez pas personnellement entrer en politique ? Je crois que la plupart des gens ne diraient pas cela.

C’est la même chose avec le logiciel libre. Chacun peut utiliser, partager, étudier ou améliorer le programme. Mais le fait que vous ne le ferez pas ne doit pas vous amener à penser que ce n’est pas important pour vous. C’est important pour le système lui-même. Et plus le système devient important, plus cette liberté prend de la valeur.

À moins, bien sûr, que vous ne partiez du principe que le logiciel n’est pas important, et par conséquent son degré de liberté également. Mais alors, je suggère que vous éteigniez votre ordinateur et que vous arrêtiez de me lire. Prenez un avion et passez le reste de votre vie sur une île déserte.

Regardons maintenant de plus près l’utilité de la liberté logicielle. Alors que de plus en plus de logiciels sont utilisés dans notre société pour faire toujours davantage, nous devrions être de plus en plus nombreux à être capables de comprendre le logiciel. Sauf à vouloir donner à certains un contrôle total sur vous-même. Et alors les autres façonneront le système à votre place, en vue d’obtenir toujours plus de pouvoir au sein de ce système.

C’est la raison pour laquelle nous avons besoin de démocratiser le hacking. Et cette démocratisation viendra naturellement si le logiciel libre est largement utilisé. Donnez aux gens la possibilité d’étudier et d’explorer quelque chose, et ils finiront par le faire, au moins par curiosité, de la même manière que l’Imprimerie a donné aux gens la volonté d’être capable de lire puis d’écrire. Il s’agit évidemment d’un long processus. Mais ce processus peut s’avérer beaucoup plus long si nous utilisons du logiciel propriétaire, un logiciel que vous ne pouvez ni lire, ni modifier, ni partager.

Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Notes

[1] Crédit photo : Glitter Feet (Creative Commons By)




Montre-moi tes commentaires et je te dirai si tu es un bon développeur

Fraserspeirs - CC byEn programmation, les commentaires sont des portions du code source ignorées par le compilateur ou l’interpréteur, car ils ne sont pas nécessaires à l’exécution du programme, nous dit Wikipédia.

De fait ils sont le plus souvent utilisés pour expliquer le code, et contrairement à ce dernier qui nécessite un langage de programmation, les commentaires se font dans une langue humaine, généralement en anglais.

C’est une opération indispensable et une partie intégrante du travail du développeur, afin qu’un autre puisse comprendre et éventuellement modifier le code initial (quitte à ce que cet autre soit l’auteur même des commentaires, reprenant son code quelques temps plus tard).

De par le fait que sa nature en autorise l’accès et le ré-appropriation, on comprendra que ces commentaires soient encore plus importants dans le cas d’un logiciel libre.

Il se trouve cependant que, par paresse, manque de temps ou mépris pour ce qui ne serait pas de la programmation stricto sensu, ils sont parfois quelque peu négligés par les développeurs.

Or l’hypothèse défendue ici est qu’il y aurait une corrélation directe en la qualité des commentaires et la qualité du code.

Affirmer ainsi péremptoirement que l’un n’irait pas sans l’autre est somme toute assez osé. Mais cela a le mérite d’évoquer cette « face cachée » de la programmation qui fait aussi partie des compétences attendues d’un bon développeur[1].

Si les commentaires sont moches, le code est moche

If the comments are ugly, the code is ugly

Esther Schindler – 15 novembre 2009 – IT World
(Traduction Framalang : Goofy)

C’est un peu dur, je sais, mais finalement je crois que c’est vrai.

Le développeur de Plone Martin Aspeli m’a signalé un billet assez judicieux dans lequel un programmeur en C faisait part de trois règles apprises à ses dépens. Celle qui a particulièrement attiré l’attention de Martin (et la mienne) est la suivante :

Les bons programmes ne comportent aucune faute d’orthographe ni de faute de grammaire. Je pense que cela vient probablement d’une attention soutenue aux moindres détails ; dans les programmes excellents tout est correct à tous les niveaux, jusqu’aux points qui terminent les phrases de commentaires.

« Allez, tu charries ou quoi ? ». Vous pourriez croire que pinailler à ce point est indigne de vous, « Et bien je m’en vais commencer à vous signaler les erreurs dans votre code lui-même ». J’ai été bien embarrassé les deux ou trois fois où ça m’est arrivé.

La programmation, que vous la pratiquiez en enthousiaste de l’open source ou parce que vous êtes au service du patron, est un exercice qui exige de l’attention aux détails. Quiconque écrit un logiciel doit être pointilleux, sinon le code ne fonctionnera pas. Je suis sûre que je n’ai pas besoin de vous citer la série des célèbres bogues de programmation dont s’est rendu coupable un programmeur qui a utilisé une virgule et non un point, ou des plantages aléatoires provoqués par deux lignes de code placées au mauvais endroit ?

Il est possible que mon jugement soit faussé par mes fonctions d’écrivain et d’éditrice, mais je crois fermement que si vous ne pouvez pas trouver le temps d’apprendre les règles de syntaxe de la langue (y compris la différence entre « c’est » et « ces », ou encore « m’a » et « ma »), je ne crois pas que vous puissiez être beaucoup plus consciencieux pour écrire du code en respectant les bonnes pratiques. Si vos commentaires sont négligés, je m’attends à trouver du code négligé.

Mon postulat vient de ce que m’a enseigné un éditeur très brillant, il y a dix ans (Laton McCartney, si tu lis ça : merci !). Si tu peux écrire le chapeau, disait-il, tu peux écrire l’article très facilement. Si tu ne peux pas écrire le chapeau, c’est que tu ne comprends pas encore ce que tu veux dire, et tu ne devrais pas commencer à écrire (le « chapeau » est le petit paragraphe d’accroche qui suit le grand titre, qui dit en un mot de quoi il est question et invite gentiment le lecteur à en savoir plus). De filandreuses « explications » du code dans les commentaires de l’application (c’est-à dire, ceux qui se lisent comme de bonnes excuses) indiquent que le développeur ne savait probablement pas ce qu’il faisait au juste. Ce qui signifie que son code est éligible au titre de nid à bugs.

Se plaindre de la mauvaise documentation interne est un vieux refrain, mais il existe une raison pour laquelle il est important de la faire bien. Vos commentaires sont la seule façon dont vous disposez pour communiquer avec la prochaine personne qui regardera votre logiciel (il se peut même que ce soit vous) en profondeur, et pas juste une ligne ou deux. À quoi pensiez-vous en écrivant ce code ? D’accord, du code « auto-documenté » c’est l’idéal, mais c’est un peu arrogant de prétendre que vous l’avez atteint, et ça l’est tout autant de ma part si je prétends que mes phrases n’ont pas besoin d’être révisées (elles en ont besoin, je suis bien contente d’avoir un correcteur).

Un autre problème habituel dans la médiocrité des commentaires apparaît lorsque les développeurs mettent à jour le code sans mettre à jour les commentaires ; comme l’a expliqué un consultant, les commentaires ne sont pas testés. Mais est-ce qu’il ne s’agit pas là encore d’un manque d’attention aux détails ? À chaque fois que vous n’êtes pas totalement attentif, vous êtes prédisposé à laisser tomber un petit bout de logique.

Vous voulez quelques exemples ?

En voici un tiré d’une explication à propos d’un choix de conception. (« oui, je devine que c’était probablement intentionnel », a écrit le programmeur qui m’a montré cet exemple. « mais c’est bien là le problème : il faut que je devine ».)

 «... des questions prévues pour injustifier un débat...» 

Voici maintenant une authentique ligne de code avec un commentaire. Notez que le commentaire met l’accent sur la faute d’orthographe. Sans compter que le commentaire vous indique que le programmeur n’avait pas la moindre idée de ce qu’il faisait au départ. Particulièrement parce qu’il n’aurait pas dû écrire « finished » (NdT : fini) dans ce bout de code, mais qu’il aurait dû essayer « complete » (NdT : terminé).

 if item.getState() == 'finsihed': #est-ce correct? 

Bon, je vous accorde quelques exceptions. Si l’anglais n’est pas votre langue maternelle, il est possible que les commentaires que vous laissez dans votre code montrent que vous n’êtes pas à l’aise pour écrire en anglais. Cependant, en ce qui me concerne je n’ai pas trouvé que c’était le cas. Comme beaucoup d’Américains s’en sont rendu compte, les capacités en anglais des « étrangers » sont généralement bien meilleures que les nôtres. Parmi les développeurs que je connais, ceux qui ont des lacunes dans leur maîtrise de la langue anglaise en sont conscients et font tout leur possible pour qu’un anglophone passe en revue leur documentation.

Je ne me lancerai pas dans des considérations sur l’indentation du code et des commentaires, c’est une guerre de religions. Mais j’ai rencontré des développeurs qui réagissaient aussi violemment devant un formatage de code « moche » que moi devant une grammaire moche.

Les environnements de développement modernes procurent la discutable possibilité aux développeurs d’être négligents sans effets pervers ; une interface glisser-déposer vous permet de créer une application vite fait bien fait (ou plutôt mal fait, j’en ai peur) avec bien moins d’horribles dommages collatéraux qu’à l’époque où les logiciels étaient généralement écrits en assembleur. Pourtant, d’une certaine façon, j’ai du mal à considérer le « je peux être négligent » comme un avantage réel.

La règle du commentaire « moche » vaut autant pour les applications propriétaires que pour les logiciels open source. Mais les développeurs de FOSS (NdT : Free and Open Source Software, les logiciels libres et open source) doivent faire beaucoup plus attention encore pour deux raisons. La première, c’est qu’au bureau, vous avez de grandes chances de croiser le développeur du code mal fichu et de pouvoir lui poser des questions (ou de lui en coller une, si c’était vraiment horrible). De plus, dans la communauté open source, davantage de gens regardent dans le code et ont besoin de le comprendre.

Toutefois, lorsque j’ai suggéré à des développeurs que « si les commentaires sont moches, le code est moche », beaucoup n’étaient pas d’accord. Et vous non plus peut-être. J’aimerais savoir pourquoi, et je vous invite donc à laisser un… commentaire.

Notes

[1] Crédit photo : Fraserspeirs (Creative Commons By)




La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)