Les logiciels libres bouleversent les lois du marché.
Internet libère les logiciels
Bernard Lang
Bernard Lang est directeur de recherche à l'Institut National de Recherche en Informatique et en Automatique et secrétaire de l'Association Francophone des Utilisateurs de Linux et des Logiciels Libres l'AFUL

 
 
 

Chapô XX
 
 
 
 

Au cours de l'été 1999, un phénomène étrange s'est produit sur les marchés boursiers des Etats-Unis : l'entrée au Nasdaq de la société Red Hat qui commercialise un produit, le logiciel système Linux, que tout un chacun peut se procurer gratuitement sur l'Internet. Introduite à 14 dollars en août, l'action dépasse en 3 mois 230 dollars et la société Red Hat se présente dans les média comme le David qui abattra le géant Microsoft. Ce succès financier s'appuie sur un mouvement social et technique ancien, mais qui, dynamisé par l'Internet, n'a émergé que récemment aux yeux du public avec des allures de lame de fond : les logiciels libres.

Cette histoire de liberté débute 30 ans plus tôt. 1969 fut une année faste. Année de naissance de l'Internet, ce fut aussi celle de la création d'Unix aux Laboratoires Bell de la société ATT. Créé par Ken Thompson et Dennis Ritchie, ce qui leur valu le prix Turing en 1983, Unix était le premier système d'exploitation des ordinateurs facilement portable sur des machines diverses. Il était écrit dans un langage symbolique général, le langage C, au lieu des « langages machines » * ou « assembleurs »*, spécifiques de chaque ordinateur, qui étaient habituellement utilisés à l'époque.
 
 

Le lien entre le système Unix et l'Internet est profond. Tout d'abord, comme le soulignent Michael et Ronda Hauben dans Netizens, un livre dédié à l'idéologie de l'Internet, l'une des motivations du développement des systèmes à partage de temps*, dont Unix reste l'exemple le plus achevé, était de pouvoir faire de l'ordinateur un noeud d'échange et de coopération [1]. Le développement de l'Arpanet, puis de l'Internet, d'ailleurs encouragé par les mêmes acteurs institutionnels américains, participait également de cette philosophie pronée par des pionniers comme John von Neumann, Joseph C.R. Licklider et Robert W. Taylor [2]. Flexible et rapidement disponible sur des architectures variées, Unix devint rapidement l'environnement de prédilection pour le développement des composants logiciels de l'Internet, et le reste à ce jour.
 
 

Puissant monopole américain des télécommunications, ATT était à l'époque interdit d'activités commerciales dans le secteur informatique en raison des lois anti-trust. N'étant pas une ressource commerciale essentielle pour son propriétaire, le logiciel Unix et le code source servant à son développement furent assez facilement mis à disposition des universitaires et des experts informaticiens. Et, compte-tenu également de la portabilité du système, il se développa rapidement une communauté ouverte de professionnels de l'informatique échangeant librement idées et réalisations, collaborant, évaluant, améliorant ou reprenant les travaux de leurs pairs, comme il est de tradition dans la recherche scientifique. Les années 70 et 80 virent ainsi se multiplier les contributions au système et à la science informatique en général. Facilitant les communications et les échanges de logiciels, et étant lui-même développé dans l'environnement Unix, l'Internet fut un facteur décisif de cette éclosion.
 
 

L'Internet est constitué d'un ensemble de protocoles de communication et de gestion de la structure du réseau, réalisés par des logiciels spécifiques. La standardisation des protocoles assurée par l'action consensuelle de l'IETF (the Internet Engineering Task Force) et le caractère public - dû au financement public - des logiciels qui les réalisent ont assuré, comme pour le système Unix, une activité de recherche ouverte, libre et efficace. Le succès sociologique et technique - et maintenant économique - de l'Internet est la conséquence directe de cette situation.
 
 

La fin des années 70 marque une montée protectionniste en matière de logiciel. Les ordinateurs, jusqu'alors rares, chers et peu puissants deviennent nombreux, bon marchés et de plus en plus puissants. Les logiciels, qui étaient souvent livrés avec les machines ou développés à la demande, sont désormais des produits commerciaux indépendants, de complexité croissante, sur le marché grandissant de ces machines bon marchés. Les deux décennies qui suivent voient donc l'émergence d'une nouvelle industrie : les éditeurs de logiciels. Cette industrie repose sur une idée assez simple : comme toute oeuvre, le logiciel appartient à celui qui le crée. Ce dernier peut donc le vendre en en contrôlant la dissémination, avec des bénéfices d'autant plus grands que le coût de chaque nouvel exemplaire est quasi nul : il lui suffit de faire une copie. Et lui seul détient le droit de le faire.
 
 

Pour se préserver de la concurrence, les éditeurs prennent l'habitude de protéger leurs techniques de production des logiciels. L'effet sur l'évolution du système Unix est dramatique : on assiste à une balkanisation croissante du système due à la création de versions concurrentes et privées, interdites de retouche aux programmeurs [3]. Bien entendu, cette balkanisation a aussi un coût lié à une incompatibilité croissante des versions, et surtout au désengagement progressif de la communauté des chercheurs et techniciens. Cette évolution explique en partie l'émergence et de la domination de l'empire Microsoft.
 
 

La disparition du libre échange des logiciels est ressentie par nombre de chercheurs et développeurs comme une atteinte au fondement même de l'élaboration de la connaissance. Pour mieux comprendre ce sentiment, on peut s'appuyer sur un résultat de logique dû à H.B. Curry et W.A. Howard , dit isomorphisme de Curry-Howard, qui énonce une identité de nature entre les preuves mathématiques et les algorithmes informatiques[4]. La notion mathématique de proposition ou de théorème correspond, au travers de cet isomorphisme, à celle de spécification pour les programmes.

On imagine la frustration des mathématiciens si on leur disait tout à coup que les théorèmes sont une propriété privée, qu'il faut payer pour avoir le droit de les utiliser et que, en outre, les preuves étant secrètes, ils doivent donc faire confiance à la société commerciale qui les vend en spécifiant qu'elle ne saurait être tenue responsable des erreurs éventuelles.

La confiance que l'on peut accorder à une théorie mathématique est le résultat d'un processus social fondé sur la libre circulation de l'information dans la communauté scientifique : elle se développe par la coopération, la critique, la concurrence, les ajouts et transformations, en étant à chaque étape soumise à l'appréciation et au contrôle des pairs. La preuve mathématique est en théorie un objet rigoureux, mais en pratique si complexe que seul ce processus en garantit la crédibilité. Il en va d'ailleurs de même pour bien d'autres disciplines de la recherche scientifique, et c'est aussi comme cela que se développent efficacement les programmes informatiques, comme l'a analysé Eric S. Raymond dans son essai « La cathédrale et le bazar » [5].
 
 

La réponse des libéraux ne se fit pas attendre. Richard M. Stallman, chercheur au MIT et programmeur exceptionnel, prit conscience de ce qu'impliquait à terme la "propriétarisation"* des logiciels. Habitué à partager les fruits de son travail, il s'aperçut bien vite que des entreprises construisaient leurs produits sur ses programmes, sans le faire bénéficier en retour de leurs améliorations.
 
 

La "propriétarisation" des programmes est fondée sur le droit d'auteur. Nul n'a aucun droit sur la création d'autrui s'il n'est explicitement spécifié sur un contrat de cession que l'on appelle « licence ». Pour préserver le modèle de développement de la recherche scientifique, Richard Stallman créa une nouvelle licence pour ses programmes, mondialement connue aujourd'hui sous le nom de "General Public License" ou GPL [6]. Cette licence accorde au détenteur trois droits fondamentaux, qui caractérisent les « logiciels libres » : liberté de copie et de diffusion, liberté d'utilisation et liberté de modification.
 
 

Outre la composante juridique, ces trois droits imposent la disponibilité des informations nécessaires à leur exercice effectif, notamment celle des codes sources. Mais cela existait déjà dans les licences imposées par l'administration fédérale aux projets qu'elle finançait. L'originalité de la GPL consiste en une clause complémentaire, qui oblige à réutiliser cette même licence, octroyant les mêmes droits à tous les utilisateurs du logiciel. Ainsi sont garanties la libre circulation des savoirs contenus dans les logiciels et la possibilité pour tous de les améliorer.
 

Pour concrétiser sa vision, Stallman créa la Free Software Fondation qui entreprit la tâche titanesque, et sans espoir, de développer sous licence GPL un environnement informatique complet, baptisé GNU. La chance de Richard Stallman fut d'avoir rapidement à ses côtés un allié inespéré : l'Internet. Le réseau lui permit de communiquer ses idées et de trouver des collaborateurs. Mais surtout il se révéla un médium d'échange et d'accélération du processus créatif bien plus efficace que ne l'avait été l'imprimé pendant des siècles de développement scientifique. Moins de dix ans plus tard, le Finlandais Linus Torvalds parachevait l'oeuvre en commençant la réalisation du système Linux, sous licence GPL, bientôt assisté par des chercheurs et programmeurs du monde entier.
 
 

En quinze ans, Richard Stallman a prouvé le bien fondé de sa démarche et de la vision de Joseph Licklider. Le système GNU/Linux et la multitude de logiciels libres qui l'accompagne ont fait la preuve de leurs qualités et commencent à être adopté massivement par les professionnels [7].

La conclusion de cette aventure technologique n'est somme toute guère surprenante. Pourquoi ce qui serait vrai en économie, à savoir que la croissance des richesses est favorisée par leur libre circulation, devrait-il être faux dans le monde scientifique ? Et ce qui s'est révélé efficace pour le développement des logiciels peut l'être tout autant pour l'ensemble des activités de création. Enfin permise par l'Internet, la libération des créateurs et des savoirs commence à peine.
 
 
 
 

Notes en marge
 
 

Les « langages machines » reflètent directement les instructions élémentaires utilisées par les machines et sont peu lisibles par le programmeur. Bien que plus symbolique, l'assembleur est encore très proche du langage machine
 
 

Les systèmes d'exploitation à partage de temps, permettent à plusieurs utilisateurs de travailler simultanément sur la machine.
 
 
 
 

la propriétarisation est un néologisme utilisé par les spécialistes pour désigner la transformation d'une ressource immatérielle, par exemple un logiciel, en un bien susceptible d'être possédé et auquel s'tattachent certains droits.
 

Références
 
 

[1] Michael Hauben et Ronda Hauben , Netizens

IEEE Computer Society Press, 1997, ISBN 0-8186-7706-6

http://www.columbia.edu/~hauben/netbook/
 
 

[2] In Memoriam: J. C. R. Licklider 1915-1990, Rapport DEC, Août 1990.

Contient 2 articles fondamentaux:

"Man-Computer Symbiosis" from IRE Trans-actions on Human Factors in Electronics, volume HFE-1, pages 4 11, March 1960.

"The Computer as a Communication Device is reprinted from Science and Technology, April 1968.

http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061.html
 
 
 
 

[3] Fear of Forking - How the GPL Keeps Linux Unified and Strong. Rick Moen, Linuxcare, 17 novembre 1999. http://www.linuxcare.com/news_columns/articles/1999/11-17-99.epl

Traduction par Jean Peyratout http://pauillac.inria.fr/~lang/libre/reperes/local/GPL-Linux.html
 
 

[4] William A. Howard, « The formulae-as-types notion of construction », in To Haskell Brooks Curry : Essays on Combinatory Logic, Lambda Calculus and Formalism, Jonathan Paul Seldin et James Roger Hindley, Academic Press, 1980.
 
 

[5] Eric S. Raymond, « The Cathedral and the Bazaar», firstmonday, Vol.3 No.3, mars 1998. http://www.firstmonday.dk/issues/issue3_3/raymond/index.html

Traduction par Sébastien Blondeel: http://www.linux-france.org/article/these/cathedrale-bazar/
 
 

[6] GNU General Public Licence (GPL), Version 2,

Free Software Fondation, juin 1991.

http://www.fsf.org/copyleft/gpl.html

Traduction par René Cougnenc et Manuel Makarévitch http://www.linux-france.org/article/these/gpl.html
 
 

[7] Logiciels Libres et entreprises. Bernard Lang, à paraître dans Terminal, Editions L'Harmattan, 2000.

http://pauillac.inria.fr/~lang/ecrits/monaco/
 
 
 
 

A lire :
 
 

Jean-Paul Smets-Solanes et Benoît Faucon

Logiciels Libres - Liberté, Egalite, Business Edition Edispher, 1999, ISBN 2-911-968-7.

http://www.freepatents.org/liberty/
 
 

Tribune libre - Ténors de l'Informatique Libre

Ouvrage collectif.

Éditions ÓReilly, 1999, ISBN : 2-84177-084-2

http://www.editions-oreilly.fr/catalogue/tribune-libre.html
 
 

Olivier Blondeau & Florent Latrive

Libres enfants du savoir numérique

éditions de l'éclat, Perreux, mars 2000, ISBN 2-84162-043-3
 
 
 
 
 
 
 
 

Illustrations
 
 

Tux le Pingouin de Linux

auteur Larry Ewing

http://www.aub.dk/~luke/linux/linux.htm#Tux
 
 
 
 
 
 

>»> Le Gnou (GNU) de la Free Software Fondation

GNOU philosophe

http://www.gnu.org/graphics/philosophicalgnu.html

auteur: Markus Gerwinski ,

GNOU

http://pauillac.inria.fr/~lang/aful/PERSO/PICS/gnu-head.jpg

Auteur inconnu, dessin fréquemment utilisé

GNOU et Blaise Pascal «== J'aime bien

http://www.gnu.org/graphics/Gnu+Pascal.jpg

auteur: Markus Gerwinski ,
 
 

Photo de Joseph C.R.Licklider .
 
 

Un camembert : répartition des systèmes utilisés pour les serveurs.