Tous experts !

DES RÉSEAUX D’ÉCHANGE DE SAVOIRS TECHNO-SCIENTIFIQUES

PAR Aris Papathéodorou

« Si on vous croit primaire, faites dans la technique ; si on vous croit technique, donnez dans le primaire. Moi, je suis du genre hypertechnique. Alors j’avais décidé d’être le plus primaire possible. Quoique, de nos jours, il faille être sacrément technicien, ne fût-ce que pour aspirer simplement à jouer les primaires. » - Johnny Mnemonic, dans une nouvelle de William Gibson.

La communication digitale est indissolublement liée à l’informatique, au point que l’histoire même des réseaux se confond en plus d’un point avec celle de ses technologies tant matérielles que logicielles. L’Internet est le produit de la révolution micro-informatique et de l’Unix ; au même titre que les avancées du savoir-faire logiciel, et en particulier du Logiciel libre, doivent énormément aux potentialités coopératives offertes par le réseau des réseaux [1]. Au sein de ce processus se sont constitués des sujets collectifs multiples, les fameuses « communautés virtuelles » de Howard Rheingold [2], qui ont acquis et/ou développé des formes d’expertises particulières et spécifiques. De la simple utilisation des outils logiciels de communication via l’Internet au développement du code informatique ; de l’invention des usages (par exemple l’utilisation des newsgroups par les ONG) à l’invention de nouveaux langages de programmation (Perl, Python, PHP pour ne citer que les plus connus) jusqu’à la création de systèmes d’exploitation libres (les BSD, GNU/Linux, mais aussi tant d’autres). Aujourd’hui, avec la « massification » de l’accès à l’Internet, avec l’intérêt croissant que suscite un système comme GNU/Linux, il me semble qu’un des enjeux majeurs - pour le Logiciel libre et pour l’Internet - réside dans la question de la transmission de l’expertise, dans la diffusion des savoir-faire et dans l’élargissement des procès coopératifs.

« L’acte technique met en œuvre un savoir-faire et des connaissances tacites, qui sont déposées dans le corps de l’opérateur sous la forme de mémoires incarnées, comme les gestes et les postures » [3]. Le processus d’appropriation individuelle des compétences via les structures communautaires a fait ses preuves, et reste dans une large mesure opérationnel. Dans le même temps, la clôture « identitaire », un certain élitisme diffus, tout comme l’afflux massif d’utilisateurs néophytes, contiennent le risque de développement d’un dualisme entre un corps indistinct des utilisateurs et des cercles restreints d’initiés, fussent-ils des sujets hybrides entre cultures techniques et usages sociaux. Au parcours initiatique individualisé, et forcement hautement sélectif, il faut opposer un autre modèle de circulation des savoirs, un processus ouvert d’acquisition des savoir-faire et de circulation des expériences. Les possibilités étendues d’échanges offertes par les réseaux et les ressources en outils de travail coopératif offertes par le Logiciel libre rendent une telle hypothèse non seulement possible, mais praticable.

Je voudrais donc partir ici d’un ensemble de remarques générales, d’un balayage rapide du processus de cristallisation d’une intelligence collective autour du cyberspace, pour tenter d’argumenter la nécessité de réseaux d’échange de savoirs techno-scientiques.

Un bassin d’intelligence sociale

1- La multitude des pratiques de hacking [4] qui se sont développées ces vingt ou trente dernières années au gré de la croissance de l’Internet et de l’explosion micro-informatique, dans leur diversité et leur dispersion, constituent un véritable bassin d’intelligence sociale dont le Logiciel libre est aujourd’hui, en quelque sorte, la production la plus aboutie.

Mais il serait faux de limiter le phénomène à la seule apparition sur le marché de « produits finis » - logiciels plus performants, plus « user friendly » ou plus faciles à adapter pour les utilisateurs avertis -, ou de ne voir là qu’une simple émergence d’un nouveau paradigme économique (celui de la « nouvelle économie » pour le dire vite) particulièrement expansif.

La culture hacker d’abord, à la façon empirique d’un droit coutumier, puis le mouvement du Logiciel libre, comme affirmation directement politique, en posant comme centrale la nécessaire liberté de circulation et d’utilisation du code source, en pratiquant de fait la coopération productive dans l’innovation logicielle, ont produit bien plus que des lignes de code : ils ont contribué à une large diffusion des savoirs techno-scientifiques au-delà des seuls cercles d’experts ; ils ont largement estompé la distinction entre producteur (du code) et utilisateur (du logiciel, c’est-à-dire du code compilé).

Nous sommes ainsi, pour la première fois de façon aussi claire peut-être, face à un cycle de production et d’innovation sociale coopératif, collectif et communautaire, qui investit une multitude de sujets en dehors de tous les schémas classiques - entreprise capitaliste ou commande publique - de la division du travail, au-delà des seules surdéterminations du marché, et qui repropose la primauté de la valeur d’usage, de l’utilité sociale, non seulement du « produit » mais de ce qu’il contient de savoir, d’innovation, de processus et d’affect. La révolution du « Libre » consacre ainsi un modèle où l’innovation et la production se fondent non plus sur une logique hiérarchique d’entreprise, mais sur le véritable bassin d’intelligence sociale que constituent, à des titres divers certes, les équipes de développeurs et les utilisateurs, les initiateurs des projets et ceux à qui ils s’adressent.

La structure qui connecte

2- La révolution informatique (de la naissance de l’Unix à celle de « Linux » en passant par le projet GNU) n’aurait très certainement pas eu lieu sans le développement simultané des réseaux, puis leur convergence dans l’Internet. Les forums (newsgroups) et les mailing lists, en particulier, ont joué un rôle déterminant dans la circulation, mais aussi dans l’élargissement des possibilités de coopération et de co-développement pour la production d’une multitude de composants logiciels.

Mieux, c’est l’Internet qui a permis que ce processus - au départ propre aux seules « communautés virtuelles » des hackers - s’élargisse de façon spectaculaire à une foule de sujets diversifiés : simples « usagers » désireux de devenir aussi « acteurs », étudiants voulant accroître leurs moyens de recherche malgré le sous-équipement des universités, adolescents excités par le défi « technique », militants associatifs à la recherche de solutions informatiques à « bas prix », etc. L’innovation logicielle est ainsi sortie des laboratoires de la recherche scientifique de pointe, où tout se jouait dans les années 50-60, et même des équipes d’entreprises, pour investir un champ social bien plus vaste.

De fait, l’Internet, comme structure qui connecte, constitue aujourd’hui la forme même de l’organisation moléculaire de ce formidable cycle de production immatérielle. Les groupes d’utilisateurs de GNU/Linux - les fameux LUGs -, les communautés de codeurs en Perl ou PHP, diverses équipes de type hacklabs ou medialabs, des projets de logiciels libres ou encore le formidable effort pour mettre en ligne documentations, traductions ou tutoriaux divers et variés, trouvent sur le Web une visibilité tout à fait propice à leur développement.

Une visibilité qui n’est pas ici une simple mise en scène, pure représentation spectaculaire, mais surtout une ouverture sur des possibilités effectives de collaboration et d’enrichissement réciproque, non seulement entre les équipes de développement et les utilisateurs, mais aussi entre les utilisateurs eux-mêmes. Les forums sur le Web (webBBS) ou les mailing lists d’utilisateurs de logiciels sont ainsi riches de cette circulation productive de savoirs, de cet échange d’expériences et d’inventivité entre utilisateurs, qui contribuent à une amélioration du code, certes, mais permet surtout la constitution et la diffusion de « savoir-faire » parmi ceux-ci, tout comme l’innovation dans les usages possibles de tel logiciel ou tel script.

Le cyberspace est aujourd’hui, par définition, le territoire sans limites où se déploie cette formidable intelligence collective.

Autonomie et coopération

3- Dans le même temps il n’y a pas d’avènement prophétique de l’intelligence collective [5]. Le développement de masse de l’utilisation de l’Internet et la formidable croissance du développement du logiciel libre et/ou open source, bien que fondés essentiellement sur la puissance de création et de production sociale des « communautés virtuelles », en marque aussi dans le même temps certaines limites. Le paradigme communautaire, en effet, s’il reste sans doute largement opérant sur le strict niveau du développement logiciel - et largement plus opérant, en tout état de cause, que le modèle « taylorien » d’une innovation séparée de la production et des usages, enfermé dans les laboratoires professionnels et le système du code propriétaire -, s’avère dans le même temps bien trop étroit pour faire face à la multiplication et la diversification des figures sociales qui agissent sur les territoires de la communication.

À côté du modèle de l’utilisateur-acteur qualifié, symbolisé par la figure du hacker, à côté des formes d’auto-organisation communautaires qui foisonnent dans le cyberspace, apparaissent aussi les multiples déclinaisons de l’internaute-masse, un ensemble protéiforme de sujets pour qui, dans le meilleur des cas, le rapport à l’Internet est d’abord un rapport d’utilisation de services ou, éventuellement, un « détournement » de ces services à usage personnel ou collectif. Cet « internautariat », s’il est capable de produire des usages intelligents des réseaux, comme au cours du mouvement des enseignants de l’hiver 1999-2000 en France, se retrouve très vite enfermé dans l’espace balisé de l’offre commerciale sur le Web. Un exemple significatif : la présence massive de mailing lists associatives ou militantes sur les services de portails commerciaux comme eGroup, Listbot (Microsoft), Voila (France Telecom), Topica, etc.

Il ne faut pas se leurrer, l’utilisation du Logiciel libre, et des ressources communicationnelles de l’Internet qui s’appuient sur celui-ci, bien qu’étant passée des cercles restreints d’une « élite » de codeurs à des communautés larges et ouvertes nombreuses, reste un fait encore largement minoritaire. Le modèle de l’internaute-consommateur, utilisateur passif et client potentiel des portails du Web, reste largement dominant, et le sera d’autant plus que l’évidence de l’accès à l’Internet se diffusera auprès de ceux qui sont coupés de l’histoire des réseaux, de la longue marche de l’informatique libre et des insurgences subjectives qui ont fait l’Internet tout autant que la commande militaire de l’Arpa [6].

Des savoirs techno-scientifiques en réseau

4- Richard M. Stallman insiste aujourd’hui particulièrement sur l’importance stratégique pour le Logiciel libre de la documentation, ou plutôt du développement d’une documentation libre. Ce qui manque en effet cruellement aujourd’hui ce n’est pas tant du « code de qualité » - le cycle productif du logiciel libre en produit à une cadence effrénée -, mais des manuels libres qui permettent aux utilisateurs d’acquérir, de partager et de co-produire des savoirs et des formes d’expertise, qui permettent d’avancer concrètement vers l’objectif de l’utilisateurs-acteur, c’est-à-dire d’un usage conscient, créatif et innovant généralisé des outils logiciels.

L’intelligence sociale expérimentée ces dernières années par les différents sujets sociaux qui peuplent le cyberspace doit désormais, d’une certaine façon, trouver les moyens de dépasser les limites d’un cadre micro-communautaire - sorte d’enfermement affinitaire - pour circuler et se diffuser, pour investir des niveaux « de masse », pour conquérir des ouvertures en direction de l’ensemble des utilisateurs aujourd’hui prisonniers de la consommation de produits propriétaires [7], non tant pas « commodité », que parce que la maîtrise de la « technique » constitue aujourd’hui un mur qui leur semble infranchissable.

Cela signifie concrètement que les pratiques de coopération productive, qui ont fait leurs preuves sur le strict terrain du logiciel, peuvent et doivent êtres étendus à d’autres secteurs cognitifs, mais surtout à d’autres sujets sociaux. Au-delà du slogan, ce dont il est question c’est d’inventer maintenant des instances matérielles et sociales qui permettent une circulation effective des savoirs techniques, des usages particuliers et des innovations pratiques. Créer des instances d’accès public à l’expertise, ou plutôt à des formes d’expertise, qui s’inscrivent dans une pleine utilisation des potentialités du Logiciel libre et de l’Internet, pour donner à chaque utilisateur la possibilité d’accéder au « code source » des techno-sciences de la communication.

Un projet qui est, d’abord, celui de potentialiser des ressources existantes. Tout d’abord, l’expérience accumulée par les serveurs alternatifs, par les sites spécialisés et les groupes d’utilisateurs, par le circuit des mailing lists et des newsgroups, mais aussi par le parcours personnel de nombreux internautes et utilisateurs de logiciels libres, qui constituent un véritable gisement de richesses cognitives. Ensuite, les possibilités offertes aujourd’hui par l’articulation entre les bases de données et le Web (en particulier grâce à des langages de script comme Perl ou PHP) pour construire des systèmes ouverts, souples, communicants et décentralisés de circulation et d’échange de données.

Il est donc envisageable, à très brève échéance, de concevoir un agencement de moyens et de volontés qui autoriseraient une circulation productive des savoirs techno-scientifiques - sous la forme de tutoriaux, de manuels, de fichiers de configuration ou de récit - hors des circuits académiques de l’apprentissage et/ou des parcours individualisés d’initiation, comme contribution (même minime) à la constitution réelle de cette intelligence collective dont l’Internet et le logiciel libre nous ont fait savourer l’ivresse.

PS :

Copyright © 2000 Aris Papthéodorou. Les copies conformes et versions intégrales de cet article sont autorisées sur tout support pour peu que cette notice soit préservée. Article publié dans Multitudes, numéro 3, Editions Exils, Paris, novembre 2000.

[1] Voir, Marshall McKusick, « Deux décennies d’Unix Berkeley », et Eric S. Raymond, « Une brève histoire des hackers », in Tribune libre. Ténors de l’informatique libre, O’Reilly, 1999. Voir aussi Laurent Moineau, Aris Papathéodorou, « Coopération et production immatérielle dans le logiciel libre », in Multitudes, n° 1,, Exils, mars 2000.

[2] Howard Rheingold, Les communautés virtuelles, Addison-Wesley, 1995.

[3] Nicolas Auray, « L’apprentissage de l’informatique par les démos et l’épanouissement des singularités des êtres humains. Souci de soi, arrogance, autodérision », in Thèse 2001.

[4] Le terme est pris ici dans son sens historique et originel de « manipulation du code » et non dans son acception vulgaire de « pirate ».

[5] Pierre Levy, World Philosophy, Collection « Le champs médiologique », Odile Jacob, 2000. Contrairement à ce qu’affirme P. Levy dans son dernier ouvrage, l’intelligence collective reste un projet, ou une potentialité diffuse, dont la réalisation se heurte aujourd’hui à des intérêts privés, ceux des grandes compagnies de logiciels ou des lobbies corporatifs comme la Sacem, ou encore à des initiatives institutionnelles comme celle visant à instaurer un « brevetage des logiciels » en Europe, par exemple.

[6] Sur l’histoire de l’Internet voir Howard Rheingold, op. cit.

[7] Il s’agit ici de logiciels « propriétaires », c’est-à-dire disponibles uniquement sous forme de binaires exécutables, sans possibilité d’accéder au code source pour le modifier.