N° 328 | FÉVRIER 2000 |    
Accueil Sommaire Archives Emplois Livres Forum Services Chercher
Bernard Lang,
directeur de recherche à l'Institut national de recherche en informatique et en automatique, est secrétaire de l'Association francophone des utilisateurs de Linux et des logiciels libres (AFUL).


* Les « langages machines » reflètent directement les instructions élémentaires utilisées par les machines et sont peu lisibles par le programmeur. Bien que plus symbolique, l' assembleur est encore très proche du langage machine.

* Les systèmes d'exploitation à
partage de temps permettent à plusieurs utilisateurs de travailler simultanément sur la machine.

*
Propriétarisation est un néologisme utilisé par les spécialistes pour désigner la transformation d'une ressource immatérielle, comme le logiciel, en un bien susceptible d'être privatisé.



(1) Michael et Ronda Hauben, Netizens, IEEE Computer Society Press, 1997.

(2) In Memoriam : J. C. R. Licklider 1915-1990, rapport DEC, août 1990.

(3) Rick Moen, Fear of Forking - How the GPL Keeps Linux Unified and Strong, Linuxcare, 17 novembre 1999.

(4) William A. Howard, « The formulae-as-types notion of construction », in To Haskell Brooks Curry : Essays on Combinatory Logic, Lambda. Jonathan Paul Seldin et James Roger Hindley, Calculus and Formalism, Academic Press, 1980.

(5) Eric S. Raymond, « The Cathedral and the Bazaar », Firstmonday, Vol.3 N°.3, mars 1998.

(6) GNU General Public License (GPL), version 2, Free Software Foundation, juin 1991.
www.fsf.org

(7) Bernard Lang, « Logiciels Libres et entreprises », à paraître dans Terminal , éditions L'Harmattan, 2000.


Le Web, et encore le Web

Internet libère les logiciels

Accessibles à tous, échangés, retouchés, les logiciels libres construits sur le mode de l'élaboration des connaissances scientifiques ont pris leur envol grâce à Internet. Créés suivant la même philosophie, la Toile et le programme libre se sont nourris l'un l'autre depuis trente ans. Le tandem dépasse aujourd'hui le cercle des informaticiens.

Au cours de l'été 1999, un phénomène étrange s'est produit sur les marchés boursiers des Etats-Unis : l'entrée au Nasdaq de la société Red Hat qui commercialise un produit, le logiciel système Linux, que tout un chacun peut se procurer gratuitement sur l'Internet. Introduite à 14 dollars en août, l'action dépasse en trois mois 230 dollars et la société Red Hat se présente dans les médias comme le David qui abattra le géant Microsoft. Ce succès financier s'appuie sur un mouvement social et technique ancien, mais qui, dynamisé par l'Internet, n'a émergé que récemment aux yeux du public avec des allures de lame de fond : les logiciels libres.

Cette histoire de liberté débute trente ans plus tôt. 1969 fut une année faste. Année de naissance de l'Internet, ce fut aussi celle de la création d'Unix aux laboratoires Bell de la société ATT. Créé par Ken Thompson et Dennis Ritchie, ce qui leur valut le prix Turing en 1983, Unix était le premier système d'exploitation facilement portable sur différents ordinateurs. Il était écrit dans un langage symbolique général, le langage C, au lieu des « langages machines * » ou « assembleurs* », spécifiques de chaque type d'ordinateurs, qui étaient habituellement utilisés à l'époque.

Le lien entre le système Unix et l'Internet est profond. Tout d'abord, comme le soulignent Michael et Ronda Hauben dans Netizens, un livre dédié à l'idéologie de l'Internet, l'une des motivations du développement des systèmes à partage de temps*, dont Unix reste l'exemple le plus achevé, était de pouvoir faire de l'ordinateur un noeud d'échange et de coopération(1). Le développement de l'Arpanet, puis de l'Internet, encouragé par les mêmes acteurs institutionnels américains, participait également de cette philosophie prônée par des pionniers comme Joseph C.R. Licklider et Robert W. Taylor(2). Flexible et rapidement disponible sur des architectures variées, Unix devint l'environnement de prédilection pour le développement des composants logiciels de l'Internet, et le reste à ce jour (voir l'article de J.-C. Guédon dans ce numéro p. 16).

Puissant monopole américain des télécommunications, ATT était à l'époque interdit d'activités commerciales dans le secteur informatique en raison des lois antitrust. N'étant pas une ressource commerciale essentielle pour son propriétaire, le logiciel Unix et le code source servant à son développement furent assez facilement mis à disposition des universitaires et des experts informaticiens. Et, compte tenu également de la portabilité du système, il se développa rapidement une communauté ouverte de professionnels de l'informatique échangeant librement idées et réalisations, collaborant, évaluant, améliorant ou reprenant les travaux de leurs pairs, comme il est de tradition dans la recherche scientifique. Les années 1970-1980 virent ainsi se multiplier les contributions au système et à la science informatique en général. Facilitant les communications et les échanges de logiciels, et étant lui-même développé dans l'environnement Unix, l'Internet fut un facteur décisif de cette éclosion.

L'Internet est constitué d'un ensemble de protocoles de communication et de gestion de la structure du réseau, réalisé par des logiciels spécifiques. La standardisation des protocoles assurée par l'action consensuelle de l'IETF (Internet Engineering Task Force) et le caractère public - dû au financement public - des logiciels qui les réalisent ont assuré, comme pour le système Unix, une activité de recherche ouverte, libre et efficace. Le succès sociologique et technique - et maintenant économique - de l'Internet est la conséquence directe de cette situation.

La fin des années 1970 marque une montée protectionniste en matière de logiciel. Les ordinateurs, jusqu'alors rares, chers et peu puissants, deviennent nombreux, bon marchés et de plus en plus puissants. Les logiciels, qui étaient souvent livrés avec les machines ou développés à la demande, sont désormais des produits commerciaux indépendants, de complexité croissante, sur le marché grandissant de ces machines bon marché. Les deux décennies qui suivent voient donc l'émergence d'une nouvelle industrie : les éditeurs de logiciels. Cette industrie repose sur une idée assez simple : comme toute oeuvre, le logiciel appartient à celui qui le crée. Ce dernier peut donc le vendre en en contrôlant la dissémination, avec des bénéfices d'autant plus grands que le coût de chaque nouvel exemplaire est quasi nul : il lui suffit de faire une copie. Et lui seul détient le droit de le faire.

Pour se préserver de la concurrence, les éditeurs prennent l'habitude de protéger leurs techniques de production des logiciels. L'effet sur l'évolution du système Unix est dramatique : une balkanisation croissante du système due à la création de versions concurrentes et privées, interdites de retouche aux programmeurs(3). Bien entendu, cette balkanisation a aussi un coût lié à une incompatibilité croissante des versions, et surtout au désengagement progressif de la communauté des chercheurs et techniciens. Cette évolution explique en partie l'émergence et de la domination de l'empire Microsoft.

La disparition du libre échange des logiciels est ressentie par nombre de chercheurs et développeurs comme une atteinte au fondement même de l'élaboration de la connaissance. Pour mieux comprendre ce sentiment, on peut s'appuyer sur un résultat de logique de H.B. Curry et W.A. Howard, dit isomorphisme de Curry-Howard, qui énonce une identité de nature entre les preuves mathématiques et les algorithmes informatiques(4). La notion mathématique de proposition ou de théorème correspond, au travers de cet isomorphisme, à celle de spécification pour les programmes.

On imagine la frustration des mathématiciens si on leur disait tout à coup que les théorèmes sont une propriété privée, qu'il faut payer pour avoir le droit de les utiliser et que, en outre, les preuves étant secrètes, ils doivent donc faire confiance à la société qui les vend, tout en spécifiant qu'elle ne saurait être tenue pour responsable des erreurs éventuelles.

La confiance que l'on peut accorder à une théorie mathématique est le résultat d'un processus social fondé sur la libre circulation de l'information dans la communauté scientifique : elle se développe par la coopération, la critique, la concurrence, les ajouts et transformations, en étant à chaque étape soumise à l'appréciation et au contrôle des pairs. La preuve mathématique est en théorie un objet rigoureux, mais en pratique si complexe que seul ce processus en garantit la crédibilité. Il en va d'ailleurs de même pour bien d'autres disciplines scientifiques, et c'est aussi comme cela que se développent efficacement les programmes informatiques, comme l'a analysé Eric S. Raymond dans son essai « La cathédrale et le bazar »(5).

La réponse des libéraux ne se fit pas attendre. Richard M. Stallman, chercheur au MIT et programmeur exceptionnel, prit conscience de ce qu'impliquait à terme la « propriétarisation* » des logiciels. Habitué à partager les fruits de son travail, il s'aperçut bien vite que des entreprises construisaient leurs produits sur ses programmes, sans le faire bénéficier en retour de leurs améliorations.

La « propriétarisation » des programmes est fondée sur le droit d'auteur. Nul n'a de droit sur la création d'autrui s'il n'est explicitement spécifié sur un contrat de cession que l'on appelle « licence ». Pour préserver le modèle de développement de la recherche scientifique, Richard Stallman créa une nouvelle licence pour ses propres programmes, mondialement connue aujourd'hui sous le nom de « General Public License » ou GPL(6). Cette licence accorde au détenteur trois droits fondamentaux, qui caractérisent les « logiciels libres » : liberté de copie et de diffusion, liberté d'utilisation et liberté de modification.

Outre la composante juridique, ces trois droits imposent la disponibilité des informations nécessaires à leur exercice effectif, notamment celle des codes sources. Mais cela existait déjà dans les licences imposées par l'administration fédérale aux projets qu'elle finançait. L'originalité de la GPL consiste en une clause complémentaire, qui oblige à réutiliser cette licence, donnant les mêmes droits à tous ceux à qui le logiciel est transmis, modifié ou non. Ainsi sont garanties la libre circulation des savoirs contenus dans les logiciels et la possibilité pour tous d'y contribuer.

Pour concrétiser sa vision, Stallman créa la Free Software Foundation qui entreprit la tâche titanesque, et sans espoir, de développer sous licence GPL un environnement informatique complet, baptisé GNU. Sa chance fut d'avoir un allié inespéré : l'Internet. Le réseau lui permit de communiquer ses idées et de trouver des collaborateurs. Mais surtout il se révéla un médium d'échange et d'accélération du processus créatif bien plus efficace que ne l'avait été l'imprimé pendant des siècles de développement scientifique. Moins de dix ans plus tard, le Finlandais Linus Torvalds parachevait l'oeuvre en commençant la réalisation du système Linux, sous licence GPL, bientôt assisté par des chercheurs et programmeurs du monde entier.

En quinze ans, Richard Stallman a prouvé le bien-fondé de sa démarche et de la vision de Joseph Licklider. Le système GNU/Linux et les logiciels libres ont fait leur preuve et commencent à être adoptés massivement par les professionnels(7).

La conclusion de cette aventure technologique n'est somme toute guère surprenante. Pourquoi ce qui serait vrai en économie, à savoir que la croissance des richesses est favorisée par leur libre circulation, devrait-il être faux dans le monde scientifique ? Et ce qui s'est révélé efficace pour le développement des logiciels peut l'être tout autant pour toute activité de création. Enfin permise par l'Internet, la libération des créateurs et des savoirs commence à peine.


Bernard Lang


-Jean-Paul Smets-Solanes et Benoît Faucon, Logiciels libres - liberté, égalité, business, éditions Edispher, 1999.

-Tribune libre - ténors de l'informatique libre, collectif, éditions O'Reilly, 1999.

-Olivier Blondeau et Florent Latrive, Libres enfants du savoir numérique, éditions de l'Eclat, Perreux, mars 2000.

SPÉCIAL INTERNET