Titre



PAR BERNARD LANG



Le savoir est comme la lumière. Intangible et immatériel, il peut se propager aisément à travers le monde, illuminant l'existence de chaque individu, où qu'il se trouve. Et pourtant des millions de gens vivent toujours dans les ténèbres de la pauvreté - sans aucune nécessité.

The World Bank, “ World Development Report 1998/99 - Knowledge for Development - Summary ”, Washington, 1998/99





Les structures économiques actuelles se sont développées dans un monde de pénurie et peu communicant, où un ensemble de règles et de médiations ont été établies pour répartir les biens rares entre les individus. L'économie de l'immatériel, économie de l'abondance, n'a pas ces contraintes. Les coûts marginaux de production ou de distribution sont quasi nuls, de même que, souvent, les investissements matériels. Cela remet fondamentalement en cause la théorie économique classique, fondée pour une bonne part sur l'analyse d'équilibres à la marge, et donc sa justification des structures actuelles du marché dont on peut légitimement se demander si elles sont les plus aptes à favoriser le progrès économique et technologique.


Rappelons, par exemple, que c'est de la recherche publique (militaire et civile) que sont nés le réseau Internet, en 1969, et la Toile, en 1989, et que c'est la richesse de contributions bénévoles, associée à un certain esprit de partage, qui en a fait la vitalité. De même les programmes informatiques, par essence immatériels, échappent aux traditions du commerce. Les grands éditeurs de logiciels sont soudainement confrontés à la concurrence globale de micro-entreprises (telles les start-up de la Silicon Valley) ou de programmeurs offrant gratuitement leurs créations.


Mais la volonté conservatrice des grands acteurs du marché est de préserver leurs revenus et leurs rentes de monopole Ils cherchent à rétablir artificiellement les profits de l'économie de pénurie en créant des barrières légales et techniques pour maintenir la rareté et le besoin de médiation par une mainmise sur les standards du numériques et par un contrôle étroit, juridique et technique, de la duplication et de la transmission des ressources.


C'est tout l'objet des efforts constants pour renforcer la législation sur la propriété intellectuelle. Relevant à l'origine d'un contrat entre la société et les créateurs, dans l'intérêt des 2 parties, pour favoriser la créativité et la pérennité des savoir-faire, la création intellectuelle devient de plus en plus une simple possession, protégée pour des intérêt particuliers sans égard pour ses caractéristiques d'universalité ni pour l'intérêt général.


Ainsi à Berne, en décembre 1996, a-t-on décidé de renforcer, en durée et en contraintes, le droit d'auteur qui contrôle indistinctement les super-productions hollywoodiennes, les programmes informatiques, les oeuvres musicales ou les publications scientifiques, dont les caractéristiques et les rôles économiques et sociaux sont quelque peu disparates.


Sous la pression de lobbies industriels et financiers, soutenus par les juristes et les bureaux de brevets, la même tendance se manifeste pour les brevets. Aux États Unis, la porté des brevets a été étendue aux procédés purement immatériels ou aux structures naturelles : algorithmes, structures génomiques, gestes chirurgicaux, méthodes commerciales, sans que l'on puisse voir les limites d'une telle évolution : la ligne est bien floue qui sépare les pratiques commerciales des autres processus sociaux comme le vote électronique ou la gestion d'une association. Puis, en arguant de la nécessité d'une harmonisation mondiale, ces pratiques sont en passe d'être étendues à l'Europe, en dépit des risques de conséquences néfastes, par exemple pour l'industrie européenne du logiciel, sans parler bien sûr des pays en développement.



Il est d'ailleurs à remarquer que ces questions essentielles sont discutées au niveau des grands organismes internationaux (comme l'OMPI - Organisation Mondiale de la Propriété Intellectuelle - ou l'OMC - Organisation Mondiale du Commerce -, souvent avec le moins de publicité possible, et que l'on court-circuite ainsi le processus parlementaire de nos démocraties en prenant en compte le point de vue des “experts” et des lobbies de préférence à celui des électeurs.


Outre ce protectionnisme juridique, la propriétarisation de l'immatériel est également l'objet d'une recherche technique intense visant à marquer et suivre à la trace les biens électroniques ainsi qu'à élaborer des mécanismes destinés à empêcher la reproduction de ce qui est par nature reproductible. L'énergie naguère dépensée pour multiplier les biens est maintenant consacrée à trouver les moyens d'empêcher leur multiplication. Ces barrières techniques entravent la mise en oeuvre efficace des outils informationnels et mettent en péril la pérennité des contenus, notamment par le secret ou l'instabilité des formats et protocoles. La bataille autour du protocole de compression audio MP3 parmi d'autres exemples, montre que l'on tente même de remettre en cause le développement de techniques utiles, au prétexte qu'elles pourraient servir illégalement à porter atteinte à la propriété intellectuelle.


Bien entendu, ce rétablissement artificiel de la rareté -qui s'apparente à une destruction volontaire de ressources- peut se justifier par les revenus nécessaires au développement de la technologie, à la création de nouveaux produits ou à l'amélioration de ceux qui existent, et par les emplois ainsi créés. Il faut toutefois mettre en parallèle ce discours avec la rentabilité fabuleuse des entreprises concernées: Microsoft faisait, en 1998, 4,5 milliards de dollars de bénéfice pour un chiffre d'affaires de 14,5 milliards de dollars... et 27 000 emplois directs, soit un bénéfice de 160 000 dollars par personne employée. Qui plus est, répétons-le, la croissance brutale du secteur des technologies de l'information et de la communication a pour moteurs Internet et la Toile... qui ne doivent rien, ou fort peu, à l'économie de marché.


Pour l'industrie du logiciel, l'utilité économique de ce protectionnisme juridique et technique est discutable, faute de régulation naturelle de la concurrence et des équilibres du marché. Les logiciels commercialisés industriellement sont diffusés sous une forme directement exploitable par l'ordinateur (code exécutable), mais sans aucune des informations (code source et sa documentation) qui permettent de les modifier, de les adapter à d'autres machines et à d'autres usages, de les rendre plus fiables ou de corriger les erreurs toujours inévitables en raison de leur complexité. Qui plus est, les licences d'utilisation interdisent expressément de telles modifications. Cela prive les entreprises ou organisations clientes du contrôle de la maintenance des logiciels, de leur pérennité, de leur adaptation aux besoins. Or ce sont souvent des facteurs critiques pour le fonctionnement de ces entreprises, et surtout pour leur stratégie, quand ces logiciels sont intégrés à leurs produits ou services. La mondialisation du marché des logiciels, les propriétés spécifiques des biens immatériels, les nombreux et puissants effets de réseau amonts (producteurs de services ajoutés) et avals (clients), et surtout le contrôle légal ou technique des “ standards ”, notamment pour les interfaces fonctionnelles des logiciels et la représentation des informations, conduisent inéluctablement à une concentration monopolistique. Non seulement les entreprises clientes sont dépendantes, mais elles n'ont alors plus de solutions de rechange.


Le fournisseur, sans concurrence, est d'autant moins motivé pour satisfaire les besoins spécifiques de ses clients. Tout un secteur de la technologie peut tomber sous le contrôle d'une société (ou d'un petit nombre de sociétés). L'enseignement et la recherche sont également concernés par l'unicité de l'offre logicielle et le contrôle des informations indispensables aux chercheurs.


L'écologie des idées et des techniques obéit aux mêmes lois que celle des êtres vivants. La quasi-unicité des solutions présente plusieurs dangers. Le petit nombre d'entreprises productrices diminue d'autant la quantité et surtout la variété des recherches et, par voie de conséquence, le progrès technique. L'évolution concurrentielle, indispensable pour éviter les culs-de-sac technologiques, s'affaiblit ou disparaît. L'absence de diversité rend le tissu technologique plus vulnérable aux agressions, dont les virus informatiques ne sont qu'un exemple.


Un leitmotiv de la pensée dite libérale est l'absence de solutions de rechange à l'économie de marché. Dans le cas des logiciels, rien n'est moins vrai. Outre le fait que l'on peut douter de l'applicabilité des théories de l'économie classique à l'économie de l'immatériel, on voit apparaître de nouveau modes de production, de coopération et d'échange que l'on commence à peine à étudier et à comprendre.Car une autre voie se dessine déjà. Si elle fut longtemps ignorée par les entreprises dont la timidité devant ce changement était compréhensible, le long et quasi total black-out des médias à l'égard de ce phénomène économique nouveau et massif était moins explicable !


Cette recherche d'une autre voie fut entreprise au début des années 80 par M. Richard Stallman, alors chercheur à l'Institut de technologie du Massachusetts (MIT), et mise en pratique par la création de la Free Software Foundation, puis de plusieurs sociétés dans les années qui suivirent. Son intention initiale était de créer des logiciels libres qui, comme les idées, seraient à la disposition de tous, suivant en cela la philosophie de Pasteur, Jefferson et bien d'autres. Pour éviter que quiconque puisse les accaparer, Richard Stallman utilisa à rebours le droit d'auteur en popularisant un nouveau type de licence, dénommée “ licence publique générale ” (GPL), qui protège un logiciel contre tout verrouillage technique ou légal de son utilisation, de sa diffusion et de sa modification .


Sous l'influence de cette licence, une production considérable et variée se développe dans la liberté. Les informations nécessaires étant disponibles, chacun peut adapter ou améliorer les logiciels à sa convenance, et les redistribuer, gratuitement ou non, mais sans contrôle de la redistribution par des tiers. Et, conformément au credo libéral, cette libre concurrence a un effet extrêmement positif sur la quantité et la qualité des logiciels produits. Mais l'économie monétaire n'y joue qu'un rôle réduit.


Le produit le plus visible de cette économie est un système d'exploitation - logiciel nécessaire au fonctionnement de tout ordinateur qui offre les fonctionnalités de base aux utilisateurs (manipulation de fichiers, affichage, saisie de texte, connexion aux réseaux...) - dénommé Linux, dont le développement a débuté en 1991 sous l'impulsion d'un étudiant finlandais, Linus Torvalds. Bénéficiant des contributions concurrentielles d'une armée internationale d'experts bénévoles, reliés par le réseau Internet, le développement de Linux s'est auto-organisé comme une immense entreprise sans murs, sans actionnaires, sans salaires, sans publicité et sans revenus. La diffusion de Linux à ce jour est estimée entre 10 et 20 millions d'installations, avec une utilisation industrielle en très forte croissance.


Diverses études montrent que ces logiciels sont en tous points compétitifs avec les productions commerciales. Cela est de plus attesté par leur pénétration, leur omniprésence - quoique souvent invisible - dans l'activité économique. L'exemple le plus significatif en est sans doute Internet, qui, si l'on effaçait ces logiciels, disparaîtrait quasi totalement.


La dépendance technologique et économique à l'égard des fournisseurs est éliminée ou fortement atténuée. La pérennité des produits, leur évolution et leur adaptation, ainsi que l'assistance aux utilisateurs sont mieux garanties par la présence, l'activité et la stabilité d'une grande masse d'utilisateurs et de programmeurs que par les stratégies imprévisibles des grands éditeurs informatiques. La libre disposition de toutes les ressources de développement permet d'acheter à des spécialistes toute garantie, tout service complémentaire nécessaire.


Techniquement, les logiciels libres sont une solution crédible et déjà éprouvée. En outre, ils suscitent des activités économiques nouvelles en développant les services et le travail à façon, en encourageant une production commerciale complémentaire ou concurrente, et surtout en fertilisant les entreprises technologiques par l'apport de ressources certes gratuites, mais surtout indépendantes, maîtrisées et de grande qualité technique.


Le développement des logiciels libres remplace une activité commerciale centralisée (et monopolistique) d'édition, dont la protection étouffe, à terme, le développement économique et technique et qui est fort peu créatrice d'emplois, par une activité commerciale de services, plus créatrice d'emplois décentralisés et plus concurrentielle ; de plus il favorise, par une plus grande fluidité technologique, la création d'entreprises nouvelles. Dans les pays du sud, la disponibilité de ressources libres et gratuites permet un développement technologique indépendant et maîtrisé. Le développement des logiciels est de même nature que celui des théories mathématiques. Or la science, en général, et les mathématiques, en particulier, s'accommodent mal du secret et des barrières qui sont le pain quotidien des développements industriels. Les bonnes spécifications (définitions) et les bonnes réalisations (explications, démonstrations) ne s'élaborent que lentement par un processus social ouvert d'évaluation, de confrontation et de collaboration. Que Linux, bien que plus jeune, soit un meilleur système que Windows NT, le logiciel phare du principal éditeur de la planète, n'est donc guère surprenant. On peut se demander, sans faire d'exclusive, si l'environnement industriel classique est le plus approprié pour développer les technologies de l'immatériel. Les biens de consommation (films, musique, romans) et les biens de production (logiciels, articles scientifiques) ont des rôles économiques et sociaux bien différents. Il est absurde de leur appliquer des législations et des protections identiques. Il est tout aussi absurde de vouloir régir par les mêmes mécanismes les créations matérielles et immatérielles, qui n'ont ni la même dynamique créative, ni la même complexité, ni les mêmes propriétés économiques.



Le libéralisme économique est hémiplégique. Il justifie la disparition de bien des barrières - dont celles destinées à protéger les individus - et l'affaiblissement de la souveraineté des Etats par le besoin d'une plus grande fluidité de l'économie. Mais en même temps, il établit, par l'abus des copyrights et des brevets, par le non-respect des standards, par le contrôle des interfaces, par le secret industriel et par la recherche de monopole, des barrières bien plus nocives au progrès économique et technique et à la création d'emplois utiles.