12.2. Domaine public versus copyright
Si le débat relatif au droit d’auteur sur l’internet est vif dans les années 2000, Philippe Loubière, traducteur littéraire et dramatique, ramène ce débat aux vrais problèmes. «Le débat sur le droit d’auteur sur le web me semble assez proche sur le fond de ce qu’il est dans les autres domaines où le droit d’auteur s’exerce, ou devrait s’exercer, écrit-il en mars 2001. Le producteur est en position de force par rapport à l’auteur dans pratiquement tous les cas de figure. Les pirates, voire la simple diffusion libre, ne menacent vraiment directement que les producteurs. Les auteurs ne sont menacés que par ricochet. Il est possible que l’on puisse légiférer sur la question, au moins en France où les corporations se revendiquant de l’exception culturelle sont actives et résistent encore un peu aux Américains, mais le mal est plus profond. En effet, en France comme ailleurs, les auteurs étaient toujours les derniers et les plus mal payés avant l’apparition d’internet, on constate qu’ils continuent d’être les derniers et les plus mal payés depuis. Il me semble nécessaire que l’on règle d’abord la question du respect des droits d’auteur en amont d’internet. Déjà dans le cadre général de l’édition ou du spectacle vivant, les sociétés d’auteurs - SACD (Société des auteurs et compositeurs dramatiques), SGDL (Société des gens de lettres), SACEM (Société des auteurs, compositeurs et éditeurs de musique), etc. - faillissent dès lors que l’on sort de la routine ou du vedettariat, ou dès que les producteurs abusent de leur position de force, ou tout simplement ne payent pas les auteurs, ce qui est très fréquent.»
Des auteurs et créateurs souhaitent respecter la vocation première du web, réseau de diffusion à l’échelon mondial. De ce fait, les adeptes de contrats flexibles - copyleft, GPL (general public license) et Creative Commons - sont de plus en plus nombreux.
L'idée du copyleft est lancée en 1984 par Richard Stallman, programmeur et défenseur inlassable du logiciel libre au sein de la Free Software Foundation (FSF). Conçu à l’origine pour les logiciels, le copyleft est formalisé par la GPL (general public license) et étendu ensuite à toute oeuvre de création. Il contient la déclaration normale du copyright affirmant le droit d'auteur. Son originalité est de donner au lecteur le droit de librement redistribuer le document et de le modifier. Le lecteur s’engage toutefois à ne revendiquer ni le travail original, ni les changements effectués par d’autres personnes. De plus, tous les travaux dérivés de l’oeuvre originale sont eux-mêmes soumis au copyleft.
Lancée en 2004 par Lawrence Lessig, professeur de droit en Californie, la licence Creative Commons a pour but de favoriser la diffusion d'oeuvres numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non exclusives permettent aux titulaires des droits d'autoriser le public à utiliser leurs créations tout en ayant la possibilité de restreindre les exploitations commerciales et les oeuvres dérivées. L'auteur peut par exemple choisir d'autoriser ou non la reproduction et la rediffusion de ses oeuvres. Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web, etc. Finalisée en février 2007, la version 3.0 de la Creative Commons instaure une licence internationale et la compatibilité avec d'autres licences similaires, dont le copyleft et la GPL.
Chose inquiétante à l’heure d’une société dite de l’information, le domaine public se réduit comme peau de chagrin. A une époque qui n'est pas si lointaine, 50% des oeuvres appartenaient au domaine public, et pouvaient donc être librement utilisées par tous. D'ici 2100, 99% des oeuvres seraient régies par le droit d’auteur, avec un maigre 1% laissé au domaine public. Un problème épineux pour tous ceux qui gèrent des bibliothèques numériques, et qui affecte aussi bien le Projet Gutenberg que Google Livres.
Si le Projet Gutenberg s’est donné pour mission de diffuser gratuitement par voie électronique le plus grand nombre possible d’oeuvres du domaine public, sa tâche n’est guère facilitée par les coups de boutoir portés au domaine public. Michael Hart, son fondateur, se penche sur la question depuis quelque trente ans, avec l’aide d’un groupe d’avocats spécialisés dans le droit d’auteur. Raison pour laquelle on expose ici ses réflexions, pour montrer combien le domaine public s'est dégradé au fil des siècles, et particulièrement au 20e siècle.
Dans la section Copyright HowTo, le Projet Gutenberg détaille les calculs à faire pour déterminer si un titre publié aux Etats-Unis appartient ou non au domaine public. Les oeuvres publiées avant 1923 sont soumises au droit d’auteur pendant 75 ans à partir de leur date de publication (elles sont donc maintenant du domaine public). Les oeuvres publiées entre 1923 et 1977 sont soumises au droit d’auteur pendant 95 ans à partir de leur date de publication (rien ne tombera dans le domaine public avant 2019). Une oeuvre publiée en 1998 et les années suivantes est soumise au droit d’auteur pendant 70 ans à partir de la date du décès de l’auteur s’il s’agit d’un auteur personnel (rien dans le domaine public avant 2049), ou alors pendant 95 ans à partir de la date de publication - ou 120 ans à partir de la date de création - s’il s’agit d’un auteur collectif (rien dans le domaine public avant 2074). Tout ceci dans les grandes lignes. D’autres règles viennent s’ajouter à ces règles de base, et la loi sur le copyright est retouchée 11 fois au cours des 40 dernières années.
Nettement plus contraignante que la précédente, la législation actuelle est entérinée par le Congrès le 27 octobre 1998 pour contrer le formidable véhicule de diffusion qu'est l'internet. Au fil des siècles, chaque avancée technique est accompagnée d'un durcissement du copyright, qui semble être la réponse des éditeurs à un accès plus facile au savoir, et la peur afférente de perdre des royalties. «Le copyright a été augmenté de 20 ans, explique Michael Hart en juillet 1999. Auparavant on devait attendre 75 ans, on est maintenant passé à 95 ans. Bien avant, le copyright durait 28 ans (plus une extension de 28 ans si on la demandait avant l’expiration du délai) et, avant cela, le copyright durait 14 ans (plus une extension de 14 ans si on la demandait avant l’expiration du délai). Comme on le voit, on assiste à une dégradation régulière et constante du domaine public.»
Les dates évoquées sont les suivantes:
(a) 1790 est la date de la main-mise de la Guilde des imprimeurs (les éditeurs de l’époque en Angleterre) sur les auteurs, qui entraîne la naissance du copyright. Le 1790 Copyright Act institue un copyright de 14 ans après la date de publication de l’oeuvre, plus une extension de 28 ans si celle-ci est demandée avant l’expiration du délai. Les oeuvres pouvant être légalement imprimées passent subitement de 6.000 à 600, et neuf titres sur dix disparaissent des librairies. Quelque 335 ans après les débuts de l'imprimerie, censée ouvrir les portes du savoir à tous, le monde du livre est désormais contrôlé par les éditeurs et non plus par les auteurs. Cette nouvelle législation est également effective aux Etats-Unis et en France.
(b) 1831 est la date d'un premier renforcement du copyright pour contrer la réédition de vastes collections du domaine public sur les nouvelles presses à vapeur. Le 1831 Copyright Act institue un copyright de 28 ans après la date de publication de l’oeuvre, plus une extension de 14 ans si celle-ci est demandée avant l’expiration du délai, à savoir un total de 42 ans.
(c) 1909 est la date d'un deuxième renforcement du copyright pour contrer une réédition des collections du domaine public sur les nouvelles presses électriques. Le 1909 Copyright Act double la période de l’extension, qui passe à 28 ans, le tout représentant un total de 56 ans.
(d) 1976 est la date d’un nouveau durcissement du copyright suite l’apparition de la photocopieuse lancée par Xerox. Le 1976 Copyright Act institue un copyright de 50 ans après le décès de l’auteur. De ce fait, tout copyright en cours avant le 19 septembre 1962 n’expire pas avant le 31 décembre 1976.
(e) 1998 est la date d’un durcissement supplémentaire du copyright suite au développement rapide des technologies numériques et aux centaines de milliers d'oeuvres désormais disponibles sur CD et DVD et sur le web, gratuitement ou à un prix très bas. Le 1998 Copyright Act allonge la durée du copyright qui est désormais de 70 ans après le décès de l’auteur, pour protéger l'empire Disney (raison pour laquelle on parle souvent de Mickey Mouse Copyright Act) et nombre de multinationales culturelles.
Pour ne prendre qu'un exemple, le classique mondial Autant en emporte le vent (Gone With the Wind), publié en 1939, aurait dû tomber dans le domaine public au bout de 56 ans, en 1995, conformément à la législation de l'époque, libérant ainsi les droits pour les adaptations en tous genres. Suite aux législations de 1976 et 1998, ce classique ne devrait désormais tomber dans le domaine public qu'en 2035.
La législation de 1998 porte un coup très rude aux bibliothèques numériques, en plein essor avec le développement du web, et scandalisent ceux qui les gèrent, à commencer par Michael Hart et John Mark Ockerbloom, créateur de l'Online Books Page en 1993. Nombre de titres doivent être retirés des collections. Mais comment faire le poids vis-à-vis des majors de l’édition?
Michael Hart raconte en juillet 1999: «J’ai été le principal opposant aux extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte que le Congrès ne mentionne pas mon action en public. Les débats actuels sont totalement irréalistes. Ils sont menés par “l’aristocratie terrienne de l’âge de l’information” et servent uniquement ses intérêts. Un âge de l’information? Et pour qui?»
John Mark Ockerbloom écrit en août 1999: «Il est important que les internautes comprennent que le copyright est un contrat social conçu pour le bien public - incluant à la fois les auteurs et les lecteurs. Ceci signifie que les auteurs devraient avoir le droit d'utiliser de manière exclusive et pour un temps limité les oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle sur le copyright. Mais ceci signifie également que leurs lecteurs ont le droit de copier et de réutiliser ce travail autant qu'ils le veulent à l'expiration de ce copyright. Aux Etats-Unis, on voit maintenant diverses tentatives visant à retirer ces droits aux lecteurs, en limitant les règles relatives à l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y compris avec certaines propositions visant à le rendre permanent) et en étendant la propriété intellectuelle à des travaux distincts des oeuvres de création (comme on en trouve dans les propositions de copyright pour les bases de données). Il existe même des propositions visant à entièrement remplacer la loi sur le copyright par une loi instituant un contrat beaucoup plus lourd. Je trouve beaucoup plus difficile de soutenir la requête de Jack Valenti, directeur de la MPAA (Motion Picture Association of America), qui demande d'arrêter de copier les films sous copyright, quand je sais que, si ceci était accepté, aucun film n'entrerait jamais dans le domaine public (Mary Bono a fait mention des vues de Jack Valenti au Congrès l'année dernière). Si on voit les sociétés de médias tenter de bloquer tout ce qu'elles peuvent, je ne trouve pas surprenant que certains usagers réagissent en mettant en ligne tout ce qu'ils peuvent. Malheureusement, cette attitude est à son tour contraire aux droits légitimes des auteurs. Comment résoudre cela pratiquement? Ceux qui ont des enjeux dans ce débat doivent faire face à la réalité, et reconnaître que les producteurs d'oeuvres et leurs usagers ont tous deux des intérêts légitimes dans l'utilisation de celles-ci. Si la propriété intellectuelle était négociée au moyen d'un équilibre des principes plutôt que par le jeu du pouvoir et de l'argent que nous voyons souvent, il serait peut-être possible d'arriver à un compromis raisonnable.»
En effet. Les instances politiques ne cessent de parler d’âge de l’information alors que, en parallèle, elles durcissent la réglementation relative à la mise à disposition de cette information. La contradiction est flagrante. Le copyright est passé d'une durée de 30 ans en moyenne en 1909 à une durée de 95 ans en moyenne en 1998, explique Michael Hart sur son blog. En 89 ans, de 1909 à 1998, le copyright a subi une extension de 65 ans qui affecte les trois quarts de la production du 20e siècle. Seul un livre publié avant 1923 peut être considéré avec certitude comme du domaine public. Un durcissement similaire touche les pays de l'Union européenne. La règle générale est désormais un copyright de 70 ans après le décès de l’auteur, alors qu’il était auparavant de 50 ans. Ceci suite aux pressions exercées par les éditeurs de contenu, sous le prétexte d’«harmoniser» les lois nationales relatives au copyright pour répondre à la mondialisation du marché.
A ceci s'ajoute la législation sur le copyright des éditions numériques en application des traités internationaux de l'OMPI (Organisation mondiale de la propriété intellectuelle) signés en 1996 dans l'optique du contrôle de la gestion des droits numériques. Le Digital Millenium Copyright Act (DMCA) est entériné en octobre 1998 aux Etats-Unis. La directive EUCD (European Union Copyright Directive) est entérinée en mai 2001 par la Communauté européenne. En français, cette directive s'intitule très précisément «Directive 2001/29/EC du Parlement européen et du Conseil sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information». Elle fait suite à la directive de février 1993 (Directive 93/98/EEC) qui visait à harmoniser les législations des différents pays en matière de protection du droit d'auteur. La directive EUCD entre peu à peu en vigueur dans tous les pays de l'Union européenne, avec mise en place de législations nationales, le but officiel étant de renforcer le respect du droit d'auteur sur l'internet et de contrer ainsi le piratage. En France, par exemple, la loi DADVSI (droit d'auteur et droits voisins dans la société de l'information) est promulguée en août 2006, et n'est pas sans susciter de nombreux remous.
Mais revenons aux bibliothèques numériques. Pour éviter les poursuites judiciaires, le Projet Gutenberg se lance régulièrement dans des recherches pouvant durer des années pour déterminer si tel ou tel livre est du domaine public ou non. A ce jour, il peut s’enorgueillir d’un résultat exact à 99,9% pour l’ensemble de ses collections, ce qui signifie que 20 livres seulement sur les 20.000 livres que comptent les collections (chiffres de décembre 2006) pourraient poser problème. Sur le site du Project Gutenberg Consortia Center (PGCC), Michael Hart raconte que la version originale en tchèque de Universal Robots de Rossum lui a demandé des années de recherches dans le monde entier pour avoir l’assurance que cette version était du domaine public aux Etats-Unis. Quant au discours I Have a Dream de Martin Luther King, tombé pendant un temps court dans le domaine public, il a dû être retiré des collections suite au passage d'une législation plus contraignante sur le copyright.
Une lueur d'espoir existe toutefois pour les livres parus après 1923. D’après Greg Newby, directeur de la Project Gutenberg Literary Archive Foundation (PGLAF), un million de livres publiés aux Etats-Unis entre 1923 et 1963 appartiendrait en fait au domaine public, puisque seuls 10% des copyrights sont effectivement renouvelés - avec renouvellement demandé entre 1950 et 1993. Les livres dont le copyright n’a pas été renouvelé peuvent donc légalement intégrer les collections du Projet Gutenberg. Pourquoi la période 1923-1963? Parce que les livres parus avant le 1er janvier 1923 sont du domaine public et que les livres parus à compter du 1er janvier 1964 ont vu leur copyright automatiquement renouvelé suite à l'adoption du 1976 Copyright Act.
Pour un titre donné, comment savoir si le copyright a été renouvelé ou non? Pour les livres aux copyrights renouvelés en 1978 et après, on dispose de la base de données en ligne du US Copyright Office. Pour les livres aux copyrights renouvelés entre 1950 et 1977, on ne disposait que des publications imprimées bisannuelles (deux fois par an) du même Copyright Office. En 2004, ces listes sont numérisées par Distributed Proofreaders et mises en ligne sur le site du Projet Gutenberg. Si un livre publié entre 1923 et 1963 ne figure sur aucune de ces listes, cela signifie que son copyright n'a pas été renouvelé, qu'il est tombé dans le domaine public et qu'on peut donc le traiter. En avril 2007, l’Université de Stanford (Californie) convertit les listes numérisées du Projet Gutenberg en base de données (Copyright Renewal Database), avec recherche possible par titre, auteur, date du copyright et date de renouvellement du copyright.
12.3. La convergence multimédia
Depuis plus de trente ans, la chaîne de l’édition est soumise à de nombreux bouleversements. Dans les années 1970, l’imprimerie traditionnelle est d’abord ébranlée par l’apparition des machines de photocomposition. Le coût de l’impression continue ensuite de baisser avec les procédés d’impression assistée par ordinateur, les photocopieurs, les photocopieurs couleur et le matériel d’impression numérique. Dans les années 1990, l’impression est souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur). Tout contenu est désormais systématiquement numérisé pour permettre son transfert par voie électronique.
La numérisation permet de créer, d’enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l’édition (qui produit des livres) et l’industrie musicale (qui produit des disques) travaillent de concert pour produire des CD-Rom.
La numérisation accélère considérablement le processus matériel de production. Dans la presse, alors qu’auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page. Dans l’édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément sur le même ouvrage. On assiste progressivement à la convergence de tous les secteurs liés à l’information: imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc.
La convergence multimédia peut être définie comme la convergence de l’informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication et de la distribution utilisant les mêmes inforoutes. Si certains secteurs voient l’apparition de nouveaux emplois, par exemple ceux liés à la production audio-visuelle, d’autres secteurs sont soumis à d’inquiétantes restructurations. La convergence multimédia a d’autres revers, à savoir des contrats occasionnels et précaires pour les salariés, l’absence de syndicats pour les télétravailleurs, le droit d’auteur souvent mis à mal pour les auteurs, etc. Et, à l’exception du droit d’auteur, vu l’enjeu financier qu’il représente, il est rare que ces problèmes fassent la Une des journaux.
La convergence multimédia amène-t-elle des emplois nouveaux, comme l’assurent les employeurs, ou bien est-elle source de chômage, comme l’affirment les syndicats? Ce sujet est débattu dès 1997 lors du Colloque sur la convergence multimédia organisé par le Bureau international du travail (BIT) à Genève.
Si elle accélère le processus de production, l’automatisation des méthodes de travail entraîne une diminution de l’intervention humaine et donc un accroissement du chômage. Dans la presse comme dans l'édition, la mise en page automatique permet de combiner rédaction et composition. Dans les services publicitaires aussi, la conception graphique et les tâches commerciales sont maintenant intégrées. L’informatique permet à certains professionnels de s’installer à leur compte, une solution choisie par 30% des salariés ayant perdu leur emploi.
Professeur associé d’études sociales à l’Université d’Utrecht (Pays-Bas), Peter Leisink précise que la rédaction des textes et la correction d’épreuves se font désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d’indépendants à la suite de licenciements, délocalisations ou fusions d’entreprises. «Or cette forme d’emploi tient plus du travail précaire que du travail indépendant, car ces personnes n’ont que peu d’autonomie et sont généralement tributaires d’une seule maison d’édition.»
A part quelques cas particuliers mis en avant par les organisations d’employeurs, la convergence multimédia entraîne des suppressions massives d’emplois. Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication), les industries graphiques françaises perdent 20.000 emplois en dix ans. Entre 1987 et 1996, les effectifs passent de de 110.000 à 90.000 salariés. Les entreprises doivent mettre sur pied des plans sociaux coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu’il aurait été préférable de financer des études fiables sur la manière d’équilibrer créations et suppressions d’emplois quand il était encore temps.
Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D’autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi.
Directeur de AT&T, géant des télécommunications aux Etats-Unis, Walter Durling insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de l'entreprise. L’invention du film n’a pas tué le théâtre et celle de la télévision n’a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d’autres postes devenus obsolètes. Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements?
De leur côté, les syndicats préconisent la création d’emplois par l’investissement, l’innovation, la formation professionnelle aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conditions équitables pour les contrats et les conventions collectives, la défense du droit d’auteur, une meilleure protection des travailleurs dans le secteur artistique et enfin la défense des télétravailleurs en tant que travailleurs à part entière.
Malgré tous les efforts des syndicats, la situation deviendra-elle aussi dramatique que celle décrite dans une note du rapport de ce colloque, demandant si «les individus seront forcés de lutter pour survivre dans une jungle électronique avec les mécanismes de survie qui ont été mis au point au cours des précédentes décennies?»
A ceci s’ajoutent la sous-traitance et la délocalisation. Pour la numérisation de catalogues par exemple, certaines bibliothèques font appel à des sociétés employant un personnel temporaire avec de bas salaires et la rapidité pour seul critère, quand les fichiers papier ne sont pas tout simplement envoyés en Asie et les informations saisies par des opérateurs ne connaissant pas la langue et faisant l’impasse sur les accents. Certains catalogues sont ensuite passés au crible et vérifiés sinon corrigés, d’autres non.
La distinction traditionnelle entre maison d’édition, éditeur de presse, librairie, bibliothèque, etc., sera-t-elle encore de mise dans quelques années? Le développement de l’édition électronique amène des changements substantiels dans les relations entre les auteurs, les éditeurs et les lecteurs. Les catégories professionnelles forgées au fil des siècles - éditeurs, journalistes, bibliothécaires, etc. - s'adapteront-elles à la convergence multimédia, comme c’est le cas avec les premiers cyberéditeurs, cyberjournalistes, cyberthécaires, etc., ou bien toutes ces activités seront-elles progressivement restructurées pour donner naissance à de nouveaux métiers?
L’internet offre aussi de réels avantages en matière d’emploi, notamment la possibilité de chercher du travail en ligne et de recruter du personnel par le même biais. Changer d’emploi devient plus facile, tout comme le télétravail. Créatrice du site littéraire Zazieweb, Isabelle Aveline raconte en juin 1998: «Grâce à internet les choses sont plus souples, on peut très facilement passer d’une société à une autre (la concurrence!), le télétravail pointe le bout de son nez (en France c’est encore un peu tabou…), il n’y a plus forcément de grande séparation entre espace pro et personnel.»
Claire Le Parco, de la société Webnet, qui gère le site Poésie française, précise à la même date: «En matière de recrutement, internet a changé radicalement notre façon de travailler, puisque nous passons maintenant toutes nos offres d’emploi (gratuitement) dans le newsgroup "emploi". Nous utilisons un intranet pour échanger nombre d’informations internes à l’entreprise: formulaires de gestion courante, archivage des documents émis, suivi des déplacements, etc. La demande des entreprises est très forte, et je crois que nous avons de beaux jours devant nous!»
Rédacteur et webmestre du Biblio On Line, un portail destiné aux bibliothèques, Jean-Baptiste Rey relate en juin 1998: «Personnellement internet a complètement modifié ma vie professionnelle puisque je suis devenu webmestre de site internet et responsable du secteur nouvelles technologies d’une entreprise informatique parisienne (Quick Soft Ingénierie, ndlr). Il semble que l’essor d’internet en France commence (enfin) et que les demandes tant en matière d’informations, de formations que de réalisations soient en grande augmentation.»
Fabrice Lhomme, webmestre d’Une Autre Terre, site consacré à la science-fiction, raconte à la même date: «Une Autre Terre est un serveur personnel hébergé gratuitement par la société dans laquelle je travaille. Je l’ai créé uniquement par passion pour la SF et non dans un but professionnel même si son audience peut laisser envisager des débouchés dans ce sens. Par contre internet a bel et bien changé ma vie professionnelle. Après une expérience de responsable de service informatique, j’ai connu le chômage et j’ai eu plusieurs expériences dans le commercial. Le poste le plus proche de mon domaine d’activité que j’ai pu trouver était vendeur en micro-informatique en grande surface. Je dois préciser quand même que je suis attaché à ma région (la Bretagne, ndlr) et que je refusais de m’"expatrier". Jusqu’au jour donc où j’ai trouvé le poste que j’occupe depuis deux ans. S’il n’y avait pas eu internet, je travaillerais peut-être encore en grande surface. Actuellement, l’essentiel de mon activité tourne autour d’internet (réalisation de serveurs web, intranet/extranet,…) mais ne se limite pas à cela. Je suis technicien informatique au sens large du terme puisque je m’occupe aussi de maintenance, d’installation de matériel, de réseaux, d’audits, de formations, de programmation… (…) J’ai trouvé dans internet un domaine de travail très attrayant et j’espère fortement continuer dans ce segment de marché. La société dans laquelle je travaille est une petite société en cours de développement. Pour l’instant je suis seul à la technique (ce qui explique mes nombreuses casquettes) mais nous devrions à moyen terme embaucher d’autres personnes qui seront sous ma responsabilité.»
Des professionnels du livre décident de rejoindre des sociétés informatiques ou alors de se spécialiser au sein de la structure dans laquelle ils travaillent, en devenant par exemple les webmestres de leur librairie, de leur maison d’édition ou de leur bibliothèque. Malgré cela, de nombreux postes disparaissent avec l’introduction des nouvelles technologies. Ces salariés peuvent-ils vraiment tous se recycler grâce à des formations professionnelles adaptées?
A ceci s’ajoutent les contrats précaires et les salaires au rabais. Pour ne prendre que l’exemple le plus connu, en 2000, cinq ans après son lancement, la librairie en ligne Amazon ne fait plus seulement la Une pour son modèle économique mais aussi pour les conditions de travail de son personnel. Malgré la discrétion d’Amazon sur le sujet et les courriers internes adressés aux salariés sur l’inutilité des syndicats au sein de l’entreprise, les problèmes commencent à filtrer. Ils attirent l’attention de l’organisation internationale Prewitt Organizing Fund et du syndicat français SUD PTT Loire Atlantique (SUD signifiant : solidaires unitaires démocratiques, et PTT signifiant: poste, télégraphe et téléphone). En novembre 2000, ces deux organisations débutent une action de sensibilisation commune auprès du personnel d’Amazon France pour les inciter à demander de meilleures conditions de travail et des salaires plus élevés. Des représentants des deux organisations rencontrent une cinquantaine de salariés du centre de distribution de Boigny-sur-Bionne, situé dans la banlieue d’Orléans, au sud de Paris. Dans le communiqué qui suit cette rencontre, SUD PTT dénonce chez Amazon France «des conditions de travail dégradées, la flexibilité des horaires, le recours aux contrats précaires dans les périodes de flux, des salaires au rabais, et des garanties sociales minimales». Le Prewitt Organizing Fund mène ensuite une action similaire dans les deux autres filiales européennes d’Amazon, en Allemagne et au Royaume-Uni.
Les problèmes auxquels la nouvelle économie est confrontée dans les années 2000 n’arrangent rien. On assiste à l’effondrement des valeurs internet en bourse. Les recettes publicitaires sont moins importantes que prévu, alors qu’elles représentent souvent la principale source de revenus. Dans tous les secteurs, y compris l’industrie du livre, le ralentissement de l’économie entraîne la fermeture d’entreprises ou bien le licenciement d’une partie de leur personnel. C’est le cas par exemple de Britannica.com en 2000, d’Amazon.com et BOL.fr en 2001, de Cytale, Vivendi et Bertelsmann en 2002, et enfin de Gemstar et 00h00 en 2003.
En novembre 2000, la société Britannica.com, qui gère la version web de l’Encyclopædia Britannica, annonce sa restructuration dans l’optique d’une meilleure rentabilité. 25% du personnel est licencié, soit 75 personnes. L’équipe de la version imprimée n’est pas affectée.
En janvier 2001, la librairie Amazon.com, qui emploie 1 800 personnes en Europe, annonce une réduction de 15% de ses effectifs et la restructuration du service clientèle européen, qui était basé à La Haye (Pays-Bas). Les 240 personnes qu’emploie ce service sont transférées dans les centres de Slough (Royaume-Uni) et Regensberg (Allemagne). Aux Etats-Unis, dans la maison-mère, suite à un quatrième trimestre 2000 déficitaire, les effectifs sont eux aussi réduits de 15%, ce qui entraîne 1 300 licenciements.
En juillet 2001, après deux ans d’activité, la librairie en ligne française BOL.fr ferme définitivement ses portes. Créée par deux géants des médias, l’allemand Bertelsmann et le français Vivendi, BOL.fr faisait partie du réseau de librairies BOL.com (BOL: Bertelsmann on line).
En avril 2002, la société française Cytale, qui avait lancé en janvier 2001 le Cybook, une tablette électronique de lecture, doit se déclarer en cessation de paiement, suite à des ventes très inférieures aux pronostics. L’administrateur ne parvenant pas à trouver un repreneur, Cytale est mis en liquidation judiciaire en juillet 2002 et cesse ses activités.
En juillet 2002, la démission forcée de Jean-Marie Messier, PDG de Vivendi Universal, une multinationale basée à Paris et à New York, marque l’arrêt des activités fortement déficitaires de Vivendi liées à l’internet et au multimédia, et la restructuration de la société vers des activités plus traditionnelles.
En août 2002, la multinationale allemande Bertelsmann décide de mettre un frein à ses activités internet et multimédias afin de réduire son endettement. Bertelsmann se recentre lui aussi sur le développement de ses activités traditionnelles, notamment sa maison d’édition Random House et l’opérateur européen de télévision RTL.
En juin 2003, Gemstar, une société américaine spécialisée dans les produits et services numériques pour les médias, décide de cesser son activité eBook, à savoir la vente de ses tablettes de lecture Gemstar eBook, puis celle des livres numériques le mois suivant. Cette cessation d’activité sonne également le glas de 00h00, pionnier de l’édition en ligne commerciale, fondé à Paris en mai 1998 et racheté par Gemstar en septembre 2000.
Toutefois, pendant la même période, les ventes d’assistants personnels (PDA) sont en forte progression, tout comme le nombre de livres numériques disponibles pour PDA. Un beau démenti au scepticisme de certains professionnels du livre qui jugent leur écran beaucoup trop petit et voient mal l’activité noble qu’est la lecture voisiner avec l’utilisation d’un agenda, d’un dictaphone ou d’un lecteur de MP3.
12.4. La relation information-utilisateur
L'internet offre un nouvel outil (relativement) économique abolissant les frontières. Une encyclopédie multilingue est désormais disponible à un prix défiant toute concurrence, une fois l’ordinateur payé. Le courriel, les forums, les chats et les blogs favorisent l’aide mutuelle et le débat d’idées.
Dans The World Wide Web: A Very Short Personal History, Tim Berners-Lee, inventeur du web, écrit en avril 1998: «Le rêve derrière le web est un espace d’information commun dans lequel nous communiquons en partageant l’information. Son universalité est essentielle, à savoir le fait qu’un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu’une réalisation très sophistiquée.»
Un auteur peut désormais faire connaître ses oeuvres en créant un site web, sans attendre de trouver un éditeur ou en se passant tout simplement d’éditeur, et il peut facilement échanger avec ses lecteurs. Nombreux sont les écrivains, journalistes, bibliothécaires, enseignants, etc. qui participent à l’enrichissement d’une toile littéraire, artistique et scientifique. La presse en ligne est bien assise à côté des journaux et magazines imprimés. Les libraires en ligne peuvent vendre des livres étrangers ou bien vendre à l’étranger des livres publiés dans leur pays. Les lecteurs ont à leur disposition des extraits ou parfois même le texte intégral des nouveautés, qu’ils peuvent feuilleter tout à loisir à l’écran. Outre les éditeurs traditionnels utilisant le web comme vitrine, on voit apparaître les éditeurs électroniques, qui utilisent l’internet pour la découverte des oeuvres, leur publication, leur promotion et leur diffusion. Les éditeurs universitaires et spécialisés peuvent largement diffuser leurs publications électroniques sans passer par des publications imprimées devenues trop coûteuses sinon inutiles. Les bibliothèques traditionnelles disposent elles aussi d’une vitrine pour faire connaître leurs collections. Les bibliothèques numériques se développent rapidement. Grâce à elles, on dispose du texte intégral de dizaines de milliers d’oeuvres du domaine public. A ceci s’ajoutent les collections d’images, de musique, de vidéos et de films.
Outre ce changement radical dans la relation information-utilisateur, on assiste à une transformation radicale de la nature même de l’information. En 1974, Vinton Cerf co-invente avec Bob Kahn le protocole TCP/IP, à la base de tout échange de données sur le réseau. Sur le site de l'Internet Society (ISOC), qu'il fonde en 1992 pour promouvoir le développement de l’internet, il explique: «Le réseau fait deux choses (…): comme les livres, il permet d’accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d’autres informations. Alors que, dans un livre, l’information est maintenue isolée.» De plus, l’information contenue dans les livres reste la même, au moins pendant une période donnée, alors que l'internet privilégie l’information la plus récente qui, elle, est en constante mutation.
Il s'ensuit un changement dans la manière d'enseigner. Dès septembre 1996, dans Creativity and the Computer Education Industry, une communication de la 14e conférence mondiale de l’International Federation of Information Processing (IFIP), Dale Spender, professeur à l’Université de Queensland (Australie), tente d’analyser ce changement. Voici son argumentation résumée en deux paragraphes.
Depuis plus de cinq siècles, l’enseignement est essentiellement basé sur l’information procurée par les livres. Or les habitudes liées à l’imprimé ne peuvent être transférées dans l’univers numérique. L’enseignement en ligne offre des possibilités tellement nouvelles qu’il n’est guère possible d’effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige donc d’entièrement repenser le processus d’acquisition du savoir, puisqu'on a maintenant l’opportunité sans précédent de pouvoir influer sur le type d’enseignement qu'on souhaite recevoir.
Dans la culture imprimée, l’information contenue dans les livres reste la même un certain temps, ce qui encourage à penser que l’information est stable. La nature même de l’imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l’ordre qu’elle engendre sont un des fondements de l’âge industriel et de l’ère des sciences et techniques. Les notions de vérité, de loi, d’objectivité et de preuve sont le fondement de nos croyances et de nos cultures. Mais l’avènement du numérique change tout ceci. Soudain l’information en ligne supplante l’information imprimée pour devenir la plus fiable et la plus utile, et l’usager est prêt à la payer en conséquence. Cette transformation radicale de la nature même de l’information doit être au cœur du débat relatif aux nouvelles méthodes d’enseignement.
En juillet 1998, Patrick Rebollar, professeur de français et d’informatique dans des universités japonaises, analyse l’impact de l’internet sur sa vie professionnelle: «Mon travail de recherche est différent, mon travail d’enseignant est différent, mon image en tant qu’enseignant-chercheur de langue et de littérature est totalement liée à l’ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J’ai cessé de m’intéresser à certains collègues proches géographiquement mais qui n’ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d’abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d’enseignement privilégiant l’acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l’emporte sur le paradigme hiérarchique - et je sais que certains enseignants m’en veulent à mort d’enseigner ça, et de le dire d’une façon aussi crue. Cependant ils sont obligés de s’y mettre…»
Professeur au département d’études françaises de l’Université de Toronto, Russon Wooldridge relate en mai 2001: «Mes activités de recherche, autrefois menées dans une tour d'ivoire, se font maintenant presque uniquement par des collaborations locales ou à distance. (…) Tout mon enseignement exploite au maximum les ressources d'internet (le web et le courriel): les deux lieux communs d'un cours sont la salle de classe et le site du cours, sur lequel je mets tous les matériaux des cours. Je mets toutes les données de mes recherches des vingt dernières années sur le web (réédition de livres, articles, textes intégraux de dictionnaires anciens en bases de données interactives, de traités du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier en ligne chez eux.»
L’internet permet une information en profondeur qu’aucun organe de presse, éditeur ou bibliothèque ne pouvait donner jusqu’ici: rapidité de propagation des informations, accès immédiat à de nombreux sites d’information, liens vers des articles et sources connexes, énormes capacités documentaires allant du général au spécialisé et réciproquement (cartes géographiques, notices biographiques, textes officiels, informations d’ordre politique, économique, social, culturel, etc.), grande variété d’illustrations (photos, graphiques, tableaux, vidéos, etc.), possibilité d’archivage avec moteur de recherche, etc.
Certains s'inquiètent des dérives commerciales du réseau. Lucie de Boutiny, romancière multimédia, relate en juin 2000: «Des stratégies utopistes avaient été mises en place mais je crains qu’internet ne soit plus aux mains d’internautes comme c’était le cas. L’intelligence collective virtuelle pourtant se défend bien dans divers forums ou listes de discussions, et ça, à défaut d’être souvent efficace, c’est beau. Dans l’utopie originelle, on aurait aimé profiter de ce nouveau média, notamment de communication, pour sortir de cette tarte à la crème qu’on se reçoit chaque jour, merci à la société du spectacle, et ne pas répéter les erreurs de la télévision qui n’est, du point de vue de l’art, jamais devenue un média de création ambitieux.»
Xavier Malbreil, auteur hypermédia, est plus optimiste. «Concernant l’avenir de l’internet, je le crois illimité, explique-t-il en mars 2001. Il ne faut pas confondre les gamelles que se prennent certaines start-up trop gourmandes, ou dont l’objectif était mal défini, et la réalité du net. Mettre des gens éloignés en contact, leur permettre d’interagir, et que chacun, s’il le désire, devienne son propre fournisseur de contenu, c’est une révolution dont nous n’avons pas encore pris toute la mesure.»
Cet optimisme est partagé par Christian Vandendorpe, professeur à l’Université d’Ottawa, qui écrit à la même date: «Cet outil fabuleux qu’est le web peut accélérer les échanges entre les êtres, permettant des collaborations à distance et un épanouissement culturel sans précédent. Mais cet espace est encore fragile. (…) Il existe cependant des signes encourageants, notamment dans le développement des liaisons de personne à personne et surtout dans l’immense effort accompli par des millions d’internautes partout au monde pour en faire une zone riche et vivante.»
12.5. Ecriture et édition en ligne
De l’avis de Jean-Pierre Balpe, directeur du département hypermédias de l’Université Paris 8, interviewé en février 2002, «les technologies numériques sont une chance extraordinaire du renouvellement du littéraire». Depuis 1998, de nombreux genres ont vu le jour: sites d’écriture hypermédia, oeuvres de fiction hypertexte, romans multimédias, hyper-romans, mail-romans, etc. Le texte fusionne avec l’image et le son en intégrant dessins, graphiques, photos, chansons, musique ou vidéos.
Lucie de Boutiny, qui participe à ce vaste mouvement, écrit en juin 2000: «Depuis l’archaïque minitel si décevant en matière de création télématique, c’est bien la première fois que, via le web, dans une civilisation de l’image, l’on voit de l’écrit partout présent 24 h / 24, 7 jours / 7. Je suis d’avis que si l’on réconcilie le texte avec l’image, l’écrit avec l’écran, le verbe se fera plus éloquent, le goût pour la langue plus raffiné et communément partagé.»
L’internet renouvelle aussi la manière d’écrire. Webmestre du site hypermédia cotres.net, Jean-Paul relate en juin 2000: «L’internet n’a pas changé ma vie, mais mon rapport à l’écriture. On n’écrit pas de la même manière pour un site que pour un scénario, une pièce de théâtre, etc. (…) Depuis, j’écris (compose, mets en page, en scène) directement à l’écran.»
Chose qu’on oublie trop souvent, il rappelle que toutes les fonctionnalités de l’internet étaient déjà en gestation dans le Macintosh - couramment appelé Mac - lancé en 1984 par Apple. Premier ordinateur personnel à disposer d’une interface graphique intuitive facilement utilisable par le non spécialiste, le Mac remporte un succès colossal parce qu’il facilite le rapport entre l’utilisateur et l’information.
«En fait, ce n'est pas sur la toile, c'est dans le premier Mac que j'ai découvert l'hypermédia à travers l'auto-apprentissage d'Hypercard, écrit Jean-Paul. Je me souviens encore de la stupeur dans laquelle j'ai été plongé, durant le mois qu'a duré mon apprentissage des notions de boutons, liens, navigation par analogies, par images, par objets. L'idée qu'un simple clic sur une zone de l'écran permettait d'ouvrir un éventail de piles de cartes dont chacune pouvait offrir de nouveaux boutons dont chacun ouvrait un nouvel éventail dont… bref l'apprentissage de tout ce qui aujourd'hui sur la toile est d'une banalité de base, cela m'a fait l'effet d'un coup de foudre (il paraît que Steve Jobs et son équipe eurent le même choc lorsqu'ils découvrirent l'ancêtre du Mac dans les laboratoires de Rank Xerox). Depuis, j'écris (compose, mets en page, en scène) directement à l'écran. L'état "imprimé" de mon travail n'est pas le stade final, le but; mais une forme parmi d'autres, qui privilégie la linéarité et l'image, et qui exclut le son et les images animées.»
Quelles sont les perspectives quelques années après? En janvier 2007, «l’hypermédia est maintenant une évidence. (…) La partie du public formée à cette école et s’intéressant à la littérature demandera de nouvelles formes de récit. Entre-temps, les juristes auront remplacé le "droit d’auteur" par un "droit d’entoileur", libérant mes ayant-droits de tout souci de royautés. L’argent commencera à circuler. Et les "auteurs" (?) pourront enfin prendre au corps la seule vraie question de cette histoire : le remplacement de la linéarité par la simultanéité, l’ubiquité. Ce que font déjà les jeux de stratégie, dans leur domaine. Et ce sera banzaï pour un siècle au moins de littérature hypermédiatique, avant de souffler un peu pour se regarder dans le rétroviseur.»
De même que la littérature numérique contribue au renouvellement du littéraire, l’édition électronique contribue au renouvellement de l’édition. Nombre d'auteurs mettent leurs espoirs dans l’édition électronique, commerciale ou non, pour bousculer une édition traditionnelle qui aurait fort besoin d’une cure de rajeunissement.
Selon Lucie de Boutiny, interviewée en juin 2000, la littérature hypertextuelle, «qui passe par le savoir-faire technologique, rapproche donc le techno-écrivain du scénariste, du dessinateur BD, du plasticien, du réalisateur de cinéma. Quelles en sont les conséquences au niveau éditorial? Faut-il prévoir un budget de production en amont? Qui est l’auteur multimédia? Qu’en est-il des droits d’auteur? Va-t-on conserver le copyright à la française? L’HTX (hypertext literature) sera publiée par des éditeurs papier ayant un département multimédia? De nouveaux éditeurs vont émerger et ils feront un métier proche de la production? Est-ce que nous n’allons pas assister à un nouveau type d’oeuvre collective? Bientôt le sampling littéraire protégé par le copyleft?»
Anne-Bénédicte Joly, écrivain auto-éditant ses oeuvres, écrit en mai 2001: «Certains éditeurs on line tendent à se comporter comme de véritables éditeurs en intégrant des risques éditoriaux comme le faisaient au début du siècle dernier certains éditeurs classiques. Il est à ma connaissance absolument inimaginable de demander à des éditeurs traditionnels d’éditer un livre en cinquante exemplaires. L’édition numérique offre cette possibilité, avec en plus réédition à la demande, presque à l’unité. (…) Je suis ravie que des techniques (internet, édition numérique, ebook…) offrent à des auteurs des moyens de communication leur permettant d’avoir accès à de plus en plus de lecteurs.»
Pour les documentaires également, on commence à utiliser les formes d’écriture et de lecture devenues courantes dans le domaine de l’hyperfiction. Outre plusieurs possibilités de lecture, linéaire, non linéaire, par thèmes, etc., le documentaire hypermédia offre de réels avantages par rapport au documentaire imprimé. Il permet l’accès immédiat aux documents cités. Les erreurs peuvent être aussitôt corrigées. Le livre peut être régulièrement actualisé, en y incluant par exemple les développements les plus récents sur tel sujet ou les derniers chiffres et statistiques. Ces horripilants index en fin d’ouvrage - mais combien pratiques, au moins quand ils existent - sont remplacés par un moteur de recherche ou une base interactive.
Tout comme pour l’hyperfiction, il reste à inventer un nouveau type de maison d’édition spécialisée dans ce type de documentaire, avec actualisation immédiate. Si ceci vaut pour tous les sujets, cela paraît d’autant plus indispensable pour les nouvelles technologies, l’internet et le web. La place des livres traitant du web n’est-elle pas sur le web? L’auteur pourrait choisir de mettre son livre en consultation payante ou gratuite. La question du droit d’auteur serait également entièrement à revoir. Copyright ou copyleft? Paiement à la source ou paiement à la consultation? Et comment l’éditeur serait-il rémunéré?
A l’heure de l’internet, pour les documentaires comme pour la fiction, il s'avère peut-être nécessaire de créer de toutes pièces une structure éditoriale entièrement numérique se démarquant des schémas traditionnels. De nombreux auteurs seraient certainement heureux d’expérimenter un nouveau système, au lieu de se plier à un système traditionnel très contraignant, qui n’est peut-être plus de mise maintenant qu’on dispose d’un moyen de diffusion à moindres frais échappant aux frontières. Ces nouveaux éditeurs seraient différents des éditeurs en ligne, électroniques ou numériques apparus ces dernières années, qui sont souvent issus de l’édition traditionnelle et la copient encore. Il s’agirait d’éditeurs qui repenseraient la chaîne éditoriale de fond en comble tout en faisant un véritable travail d’éditeur (découverte, sélection, diffusion et promotion).
Ces nouveaux éditeurs pourraient adopter des méthodes originales spécifiques au réseau: envoi des manuscrits sous forme électronique, délais de réponse courts, critères de sélection transmis par courrier électronique, publication rapide, droits d’auteur plus élevés avec montant disponible en ligne, vente simultanée de la version imprimée (impression à la demande) et de la version numérique en plusieurs formats, véritable diffusion et véritable promotion de l’oeuvre selon une méthode qui reste à mettre au point et ne se limiterait pas à un descriptif avec un extrait en téléchargement libre, versions revues et corrigées facilement envisageables sinon encouragées dans le domaine des sciences et techniques, etc.
Tous arguments bien théoriques peut-être, mais il existe certainement de nouvelles pistes à explorer.
Journaliste et infographiste, Marc Autret a derrière lui dix ans de journalisme multi-tâches et d’hyper-formation dans le domaine de l’édition, du multimédia et du droit d’auteur. «C’est un "socle" irremplaçable pour mes activités d’aujourd’hui, qui en sont le prolongement technique, explique-t-il en décembre 2006. Je suis un "artisan" de l’information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j’ai du pain sur la planche pour pas mal d’années. Aujourd’hui je me concentre sur le conseil, l’infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l’animation 3D, l’automatisation des tâches de production, l’intégration multi-supports, la base de données et toutes les technologies issues de XML vont s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C’est là que je vois l’évolution, ou plutôt l’intensification, de mon travail.»
12.6. Numérique versus imprimé
Les documents imprimés récents sont issus d’une version électronique sur traitement de texte, tableur ou base de données. Il est fréquent qu’un même document soit disponible en deux versions, numérique et imprimée. Pour des raisons budgétaires, de plus en plus de publications n’existent qu’en version électronique. Outre sa facilité d’accès et son faible coût, le document électronique peut être régulièrement actualisé. Point n’est besoin d’attendre une nouvelle édition imprimée soumise aux contraintes commerciales ou aux exigences de l’éditeur, notamment pour les ouvrages et périodiques scientifiques et techniques, dans lesquels l’information récente est primordiale.
Document électronique? Document numérique? Livre électronique? Livre numérique? Un vocabulaire adapté reste à définir. Comme expliqué en 1995 par Jean-Gabriel Ganascia, directeur du Groupement d’intérêt scientifique (GIS) Sciences de la cognition, dans un compte-rendu du cycle de « réflexion de prospective » consacré au livre électronique, le terme «livre électronique», souvent utilisé en français, est «à la fois restrictif et inopportun». Ce terme est restrictif parce que le livre désigne «un support particulier de l’écrit qui est advenu à un moment donné dans l’histoire» alors que le document électronique comporte à la fois de l’écrit, de l’image et du son. Ce terme est également inopportun parce qu’on ne peut guère juxtaposer au terme «livre» le terme «électronique», «un nouvel objet immatériel défini par un ensemble de procédures d’accès et une structuration logique». De plus, qu’il s’agisse de sa forme exacte ou de sa fonction exacte, le statut même de ce qu’on appelle «livre électronique» n'est pas encore déterminé.
C’est aussi l’avis de Pierre Schweitzer, inventeur du projet @folio, une tablette numérique de lecture nomade, qui écrit en juillet 2002: «J’ai toujours trouvé l’expression "livre électronique" très trompeuse, piégeuse même. Car quand on dit "livre", on voit un objet trivial en papier, tellement courant qu’il est devenu anodin et invisible… alors qu’il s’agit en fait d’un summum technologique à l’échelle d’une civilisation. Donc le terme "livre" renvoie sans s’en rendre compte à la dimension éditoriale - le contenu -, puisque "l’objet technique", génial, n’est pas vraiment vu, réalisé… Et de ce point de vue, cette dimension-là du livre, comme objet technique permettant la mise en page, le feuilletage, la conservation, la distribution, la commercialisation, la diffusion, l’échange, etc., des oeuvres et des savoirs, est absolument indépassable. Quand on lui colle "électronique" ou "numérique" derrière, cela renvoie à tout autre chose: il ne s’agit pas de la dimension indépassable du codex, mais de l’exploit inouï du flux qui permet de transmettre à distance, de recharger une mémoire, etc., et tout ça n’a rien à voir avec le génie originel du codex! C’est autre chose, autour d’internet, de l’histoire du télégraphe, du téléphone, des réseaux…»
Nous vivons une période transitoire quelque peu inconfortable, marquée par la généralisation des documents numériques et la numérisation à grande échelle des documents imprimés, mais qui reste encore fidèle au papier. Pour des raisons aussi bien pratiques que sentimentales, les amoureux du livre peuvent difficilement se passer du livre imprimé et de ce matériau qu'est le papier, dont certains nous prédisent régulièrement la mort prochaine mais dont la longévité risque de nous surprendre.
Il ne semble d’ailleurs pas opportun d’opposer livre numérique et livre imprimé, comme le rappelle Olivier Pujol, promoteur du Cybook, une tablette électronique de lecture. «Le livre électronique, permettant la lecture numérique, ne concurrence pas le papier, écrit-il en décembre 2000. C’est un complément de lecture, qui ouvre de nouvelles perspectives pour la diffusion de l’écrit et des oeuvres mêlant le mot et d’autres médias (image, son, image animée…). Les projections montrent une stabilité de l’usage du papier pour la lecture, mais une croissance de l’industrie de l’édition, tirée par la lecture numérique, et le livre électronique. De la même façon que la musique numérique a permis aux mélomanes d’accéder plus facilement à la musique, la lecture numérique supprime, pour les jeunes générations comme pour les autres, beaucoup de freins à l’accès à l’écrit.»
Après avoir sonné un peu vite le glas du papier, on ne parle plus du «tout numérique» pour le proche avenir, mais plutôt de la juxtaposition «papier et pixel», et de la publication simultanée d’un livre en deux versions. Il reste au livre numérique à faire ses preuves face au livre imprimé, un modèle économique qui a plus de cinq cents ans et qui est parfaitement rôdé. Le travail est gigantesque et comprend entre autres la constitution des collections, la mise en place d’un réseau de distribution, l’amélioration des supports de lecture et la baisse de leur prix. Plus important encore, les lecteurs doivent s’habituer à lire des livres à l’écran. Si elle offre des avantages certains (recherche textuelle, sommaire affiché en permanence, etc.), de l'avis général, l’utilisation d’une machine - ordinateur, assistant personnel, téléphone portable, smartphone ou tablette électronique - n'égale pas encore le confort procuré par le livre imprimé. Toutefois, malgré les difficultés rencontrées, les adeptes de la lecture numérique sont de plus en plus nombreux. Ils attendent patiemment des appareils de lecture plus satisfaisants, ou encore des livres et journaux électroniques sur support souple.
Pour les livres et revues scientifiques et techniques, qu'il est nécessaire d'actualiser régulièrement, les technologies numériques conduisent à repenser complètement la signification même de publication, et à s’orienter vers une diffusion en ligne. Les tirages papier restent toujours possibles à titre ponctuel. Des universités diffusent désormais des manuels « sur mesure » composés d’un choix de chapitres et d’articles sélectionnés dans une base de données, auxquels s’ajoutent les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être fait à la demande à partir de documents transmis par voie électronique à un imprimeur. Quant aux revues en ligne, elles passent souvent un partenariat avec une société spécialisée dans l'impression à la demande.
Enseignante-chercheuse à l’Ecole pratique des hautes études (EPHE, Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me paraît évident que la publication des articles et ouvrages au moins scientifiques se fera de plus en plus sous forme numérique, ce qui permettra aux chercheurs d’avoir accès à d’énormes banques de données, constamment et immédiatement évolutives, permettant en outre le contact direct et le dialogue entre les auteurs. Nos organismes de tutelle, comme le CNRS (Centre national de la recherche scientifique) par exemple, ont déjà commencé à contraindre les chercheurs à publier sous ce mode, et incitent fortement les laboratoires à diffuser ainsi leurs recherches pour qu’elles soient rapidement disponibles. Nos rapports d’activité à deux et à quatre ans – ces énormes dossiers peineux résumant nos labeurs – devraient prochainement se faire sous cette forme. Le papier ne disparaîtra pas pour autant, et je crois même que la consommation ne diminuera pas… Car lorsque l’on veut travailler sur un texte, le livre est beaucoup plus maniable. Je m’aperçois dans mon domaine que les revues qui ont commencé récemment sous forme numérique commencent à être aussi imprimées et diffusées sur papier dignement relié. Le passage de l’un à l’autre peut permettre des révisions et du recul, et cela me paraît très intéressant.»
Editeur puis consultant en édition électronique, Nicolas Pewny écrit en février 2003: «Je vois le livre numérique du futur comme un “ouvrage total” réunissant textes, sons, images, vidéo, interactivité: une nouvelle manière de concevoir et d’écrire et de lire, peut-être sur un livre unique, sans cesse renouvelable, qui contiendrait tout ce que l’on a lu, unique et multiple compagnon.»
Marc Autret, journaliste et infographiste, écrit pour sa part en décembre 2006 : «Sans vouloir faire dans la divination, je suis convaincu que l’e-book (ou "ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en terme de support physique dédié (les conjectures étant plus incertaines sur ce dernier point). Les éditeurs de guides, d’encyclopédies et d’ouvrages informatifs en général considèrent encore l’e-book comme une déclinaison très secondaire du livre imprimé, sans doute parce que le modèle commercial et la sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés aujourd’hui. Mais c’est une question de temps. Les e-books non commerciaux émergent déjà un peu partout et opèrent d’une certaine façon un défrichage des possibles. Il y a au moins deux axes qui émergent: 1) une interface de lecture/consultation de plus en plus attractive et fonctionnelle (navigation, recherche, restructuration à la volée, annotations de l’utilisateur, quizz interactif…); 2) une intégration multimédia (vidéo, son, infographie animée, base de données, etc.) désormais fortement couplée au web. Aucun livre physique n’offre de telles fonctionnalités. J’imagine donc l’e-book de demain comme une sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur propre? Celle d’un livre: l’unité et la qualité du travail éditorial!»
Pierre Schweitzer, inventeur du projet @folio, fait à nouveau le point en janvier 2007: «La lecture numérique dépasse de loin, de très loin même, la seule question du "livre" ou de la presse, Le livre et le journal restent et resteront encore, pour longtemps, des supports de lecture techniquement indépassables pour les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion. Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits" la presse grand public), je ne vois pas de bouleversement radical à l’échelle d’une seule génération. Au-delà de cette génération, l’avenir nous le dira. On verra bien. Pour autant, d’autres types de contenus se développent sur les réseaux. Internet défie l’imprimé sur ce terrain-là : celui de la diffusion en réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où l’imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs peuvent venir prendre leur place.
Or, dans ce domaine nouveau, les équilibres économiques et les logiques d’adoption sont radicalement différents de ceux que l’on connaît dans l’empire du papier - voir par exemple l’évolution des systèmes de validation pour les archives ouvertes dans la publication scientifique. Ou les modèles économiques émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir transformer au forceps l’écologie du papier - on la ruinerait à vouloir le faire! À la marge, certains contenus très spécifiques, certaines niches éditoriales, pourraient être transformées - l’encyclopédie ou la publication scientifique le sont déjà: de la même façon, les guides pratiques, les livres d’actualité quasi-jetables et quelques autres segments qui envahissent les tables des librairies pourraient l’être, pour le plus grand bonheur des libraires. Mais il n’y a là rien de massif ou brutal selon moi: nos habitudes de lecture ne seront pas bouleversées du jour au lendemain, elles font partie de nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur adoption (= acceptation) par les générations nouvelles.»
Une conclusion est difficile pour un tel sujet. On parlera plutôt de perspectives. Trois termes paraissent essentiels : stockage, organisation et diffusion. Dans un proche avenir, on devrait disposer de l’ensemble du patrimoine mondial stocké sous forme numérique, d’une organisation effective de l’information et du réseau internet adapté pour y accéder.
Au milieu des années 1990, le texte est omniprésent sur le web, par défaut peut-être, à cause des problèmes de bande passante. Il est ensuite mis de côté au profit de l’image et du son. Dix ans après, le texte revient en force, avec le livre numérique dans son sillage. On n’a jamais tant écrit, y compris dans les wikis et les blogs. Confidentiel en 2000, puis parent pauvre des fichiers musicaux et vidéo, le livre numérique est désormais en bonne place à côté de la musique et des films. Signe des temps, en 2005, il devient un objet convoité par les géants de l'internet pour la constitution de leurs bibliothèques planétaires.
Le futur sera-t-il le cyberespace décrit par Timothy Leary, philosophe, dans son livre Chaos et cyberculture (éditions du Lézard, 1998)? «Toute l’information du monde est à l’intérieur (de gigantesques bases de données, ndlr). Et grâce au cyberespace, tout le monde peut y avoir accès. Tous les signaux humains contenus jusque-là dans les livres ont été numérisés. Ils sont enregistrés et disponibles dans ces banques de données, sans compter tous les tableaux, tous les films, toutes les émissions de télé, tout, absolument tout.»
On n’en est pas encore là. Mais, en quelques années seulement, on ne court plus désespérément après l’information dont on a besoin. Cette information est à notre portée, disponible à l’écran, et souvent en accès libre. Un million de livres est disponible sur le web en janvier 2006, et 2,5 millions de livres en mai 2007, en ne comptant que les livres lisibles et téléchargeables gratuitement sans restriction aucune. Il existerait au moins 25 millions de livres appartenant au domaine public, toutes éditions confondues. Il reste donc beaucoup à faire.
Fondateur du Projet Gutenberg en 1971, Michael Hart précise souvent dans ses écrits que, si Gutenberg a permis à chacun d'avoir ses propres livres, jusque-là réservés à une élite, le Projet Gutenberg permet à chacun d'avoir une bibliothèque complète, jusque-là réservée à la collectivité, sur un support qu'on peut glisser dans sa poche, le support optimal actuel étant la clé USB.
Apparue en 2000, la première clé USB a une capacité de 32 mégaoctets, et elle est toujours disponible au prix de 5 dollars US. En 2006, une clé USB de 4 gigaoctets - le standard à un prix abordable - permet de stocker 10.000 livres zippés. Apparue en 2006, la clé USB de 32 gigaoctets devrait devenir le standard d'ici 2010. En décembre 2006, la capacité maximale d'une clé USB est 64 gigaoctets (à 5.000 dollars l’unité). On devrait disposer en 2020 d’une clé USB de 32 téraoctets permettant de stocker l'intégralité du patrimoine écrit de l’humanité.
Tim Berners-Lee est l'inventeur du web en 1990. A la question de Pierre Ruetschi, journaliste à la Tribune de Genève: «Sept ans plus tard, êtes-vous satisfait de la façon dont le web a évolué?», il répond en décembre 1997 que, s’il est heureux de la richesse et de la variété de l’information disponible, le web n’a pas encore la puissance prévue dans sa conception d’origine. Il aimerait «que le web soit plus interactif, que les gens puissent créer de l’information ensemble», et pas seulement consommer celle qui leur est proposée. Le web doit devenir un véritable «média de collaboration, un monde de connaissance que nous partageons». C’est chose faite quelques années plus tard.
Si, à l'origine, le web ressemble un peu à un grand livre composé de pages reliées entre elles par des liens hypertextes, et reproduisant les modèles connus de l’édition papier, le concept de web 2.0, lancé en 2004, met en avant les notions de communauté et de participation, avec un contenu alimenté par les utilisateurs, y compris une nouvelle génération de sites interactifs, par exemple les blogs et les wikis. Le web ne vise plus seulement à utiliser l’information, mais il incite les usagers à échanger et collaborer en ligne, par exemple sur Wikipedia, grande encyclopédie coopérative en ligne. La paternité du terme «web 2.0» revient d’ailleurs à un éditeur, Tim O’Reilly, qui utilise cette expression comme titre pour une série de conférences. Certains parlent de World Live Web au lieu de World Wide Web, le nom d’origine du web.
En 2007, on parle déjà d'un possible web 3.0. Ce web du futur serait un web sémantique capable d’apporter une réponse complète à une requête exprimée en langage courant, en faisant appel à des procédés d’intelligence artificielle qui seraient appliqués à large échelle. D’après la société Radar Networks, il s’agirait d’«un web doté d'une forme d'intelligence artificielle globale et collective». Des données pourraient être rassemblées sur les nombreux réseaux sociaux et participatifs existant sur le web. Elles pourraient être traitées automatiquement après avoir été structurées sur la base du langage descriptif RDF (resource description framework) développé par le W3C (World Wide Web Consortium), l'organisme international chargé du développement du web. Cette définition du web 3.0 est d’ailleurs loin de faire l’unanimité.
En ce qui concerne l'infrastructure, la connexion au réseau sera permanente, les technologies WiFi (wireless fidelity) et WiMAX (worldwide interoperability for microwave access) n’étant que des étapes intermédiaires. La prochaine génération de l’internet serait un réseau pervasif permettant de se connecter en tout lieu et à tout moment sur tout type d’appareil à travers un réseau unique et omniprésent. Le concept de réseau pervasif est développé depuis plusieurs années par Rafi Haladjian, fondateur de la société Ozone. «La nouvelle vague touchera notre monde physique, notre environnement réel, notre vie quotidienne dans tous les instants, explique-t-il sur le site de la société. Nous n’accéderons plus au réseau, nous l’habiterons.» Les composantes futures de ce réseau (parties filiaires, parties non filiaires, opérateurs) seront transparentes à l’utilisateur final. Il sera toujours ouvert, assurant une permanence de la connexion en tout lieu. Il sera également agnostique en terme d’application(s), puisque fondé sur les protocoles mêmes de l’internet.
Webmestre du site hypermédia cotres.net, Jean-Paul résume la situation en janvier 2007: «J’ai l’impression que nous vivons une période "flottante", entre les temps héroïques, où il s’agissait d’avancer en attendant que la technologie nous rattrape, et le futur, où le très haut débit va libérer les forces qui commencent à bouger, pour l’instant dans les seuls jeux.»
«La chance qu’on a tous est de vivre là, ici et maintenant cette transformation fantastique», écrit à la même date Pierre Schweitzer, inventeur du projet @folio, une tablette numérique de lecture nomade. «Quand je suis né en 1963, les ordinateurs avaient comme mémoire quelques pages de caractères à peine. Aujourd’hui, mon baladeur de musique pourrait contenir des milliards de pages, une vraie bibliothèque de quartier. Demain, par l’effet conjugué de la loi de Moore et de l’omniprésence des réseaux, l’accès instantané aux oeuvres et aux savoirs sera de mise. Le support de stockage lui-même n’aura plus beaucoup d’intérêt. Seules importeront les commodités fonctionnelles d’usage et la poétique de ces objets.»