1996: PALM PILOT

[Résumé]

Basée en Californie, la société Palm lance en mars 1996 le premier PDA (personal digital assistant), dénommé Palm Pilot, qui utilise le système d’exploitation Palm OS. 23 millions de Palm Pilot sont vendus entre 1996 et 2002. En mars 2001, on peut utiliser son Palm Pilot pour lire des livres numériques sur les logiciels de lecture Palm Reader et Mobipocket Reader. En 2002, malgré la concurrence, Palm est toujours le leader du marché (36,8% des machines vendues), suivi par Hewlett-Packard (13,5%), Sony (11%), Handspring (5,8%), Toshiba (3,7%) et Casio (3,3%). Les systèmes d’exploitation utilisés sont essentiellement le Palm OS (pour 55% des machines) et le Pocket PC de Microsoft (pour 25,7% des machines). La division PalmSource est plus précisément en charge des logiciels, notamment le logiciel de lecture Palm Reader, utilisable sur assistant personnel en mars 2001 puis sur ordinateur en juillet 2002. En 2003, 10.000 titres dans plusieurs langues sont lisibles sur le Palm Pilot et ses successeurs.

[En détail]

La société Palm lance le premier Palm Pilot en mars 1996 et vend 23 millions de machines entre 1996 et 2002. Son système d’exploitation est le Palm OS et son logiciel de lecture le Palm Reader. En mars 2001, les modèles Palm permettent aussi la lecture de livres numériques sur le Mobipocket Reader.

A la même date, la société Palm fait l’acquisition de Peanutpress.com, éditeur et distributeur de livres numériques pour PDA. Le Peanut Reader devient le Palm Reader, utilisable aussi bien sur le Palm Pilot que sur le Pocket PC (l'assistant personnel de Microsoft), et les 2.000 titres de Peanutpress.com sont transférés dans la librairie numérique de Palm (Palm Digital Media). Développé par PalmSource, une division de Palm, le Palm Reader permet de lire des livres numériques au format PDB (Palm database). D’abord utilisable uniquement sur les gammes Palm et Pocket PC, le Palm Reader est utilisable sur ordinateur en juillet 2002. A la même date, Palm Digital Media distribue 5.500 titres dans plusieurs langues. En 2003, le catalogue approche les 10.000 titres, téléchargeables à partir de la librairie Palm Digital Media, qui devient ensuite le Palm eBook Store.

Le Palm DRM System (DRM: digital rights management) est un serveur payant destiné aux éditeurs et distributeurs pour gérer le conditionnement, la protection, la distribution et la vente sécurisée de livres numériques au format PDB (Palm database), le format des fichiers lus par le Palm Reader. Ce système de DRM permet de contrôler l’accès aux livres numériques sous droits, et donc de gérer les droits d’un livre en fonction des consignes données par le gestionnaire des droits, par exemple en autorisant ou non l’impression ou le prêt.

Développé par PalmSource, une division de Palm, le Palm OS (OS: operating system) est le système d’exploitation du Palm Pilot, qui est d'abord un PDA unique avant de devenir une gamme de PDA. Le Palm OS équipe 55% des PDA vendus en 2002. L'autre "grand" système d’exploitation est le Pocket PC de Microsoft, qui équipe pour sa part 25,7% des machines, y compris les assistants personnels du même nom.

Commercialisé par Microsoft en avril 2000 pour concurrencer le Palm Pilot, l'assistant personnel Pocket PC utilise d'abord un système d’exploitation spécifique, Windows CE, qui intègre le nouveau logiciel de lecture Microsoft Reader. En octobre 2001, Windows CE est remplacé par Pocket PC 2002, qui permet entre autres de lire des livres numériques sous droits. Ces livres sont protégés par un système de gestion des droits numériques dénommé Microsoft DAS Server (DAS: digital asset server). En 2002, le Pocket PC permet la lecture sur trois logiciels: le Microsoft Reader bien sûr, le Mobipocket Reader et le Palm Reader.

D’après Seybold Reports.com, en avril 2001, on compte 100.000 tablettes de lecture pour 17 millions d’assistants personnels (PDA). Deux ans plus tard, en juin 2003, plus aucune tablette n’est commercialisée. De nouveaux modèles apparaissent ensuite, mais on se demande s'ils peuvent vraiment réussir à s’imposer face à l’assistant personnel, qui offre aussi d’autres fonctionnalités. On se demande aussi s'il existe une clientèle spécifique pour les deux machines, la lecture sur assistant personnel étant destinée au grand public, et la lecture sur tablette électronique étant réservée aux gros consommateurs de documents que sont les lycéens, les étudiants, les professeurs, les chercheurs ou les juristes. Le débat reste toujours d'actualité dans les années qui suivent.

[Résumé]

Fondée en avril 1996 par Brewster Kahle à San Francisco, l’Internet Archive a pour but premier de constituer, stocker, préserver et gérer une "bibliothèque" de l’internet, en archivant régulièrement la totalité du web, afin d’offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l’internet pour les générations futures. En octobre 2001, l’Internet Archive met ses archives en accès libre sur le web grâce à la Wayback Machine, qui permet à tout un chacun de consulter l’historique d’un site web, à savoir le contenu et la présentation d’un site web à différentes dates, théoriquement tous les deux mois, à partir de 1996. L'Internet Archive constitue aussi des collections numériques spécifiques, y compris pour les livres et les documents multimédias. Toutes ces collections sont en consultation libre sur le web.

[En détail]

Fondée en avril 1996 par Brewster Kahle à San Francisco, l’Internet Archive a pour but premier de constituer, stocker, préserver et gérer une "bibliothèque" de l’internet, en archivant régulièrement la totalité du web, afin d’offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l’internet pour les générations futures. En octobre 2001, l’Internet Archive met ses archives en accès libre sur le web grâce à la Wayback Machine, qui permet à tout un chacun de consulter l’historique d’un site web, à savoir le contenu et la présentation d’un site web à différentes dates, théoriquement tous les deux mois, à partir de 1996. Toutes ces collections sont en consultation libre sur le web. Les archives du web représentent 300 téraoctets (To) de données en 2004, avec une croissance de 12 téraoctets par mois. Ces archives représentent 30 millions de pages web en 1996, 65 milliards de pages web (provenant de 50 millions de sites web) en décembre 2006 et 85 milliards de pages web en mai 2007.

Depuis la fin 1999, l'Internet Archive constitue aussi des collections numériques spécifiques, par exemple les sites relatifs au 11 septembre 2001, les sites relatifs aux élections de 2000 (présidentielles) et 2002 (élections du Congrès et des gouverneurs des Etats), les sites des pionniers du web, le Million Book Project (10.520 livres en avril 2005), des archives de films de la période 1903-1973, des archives de concerts "live" récents, des archives de logiciels, etc. Toutes ces collections sont en consultation libre sur le web, y compris la grande bibliothèque numérique (Text Archive) en cours de constitution. A cet effet, l'Internet Archive fonde en janvier 2005 l'Open Content Alliance (OCA), une initiative visant à créer un répertoire libre et multilingue de livres numérisés et de documents multimédia pour consultation et téléchargement sur n'importe quel moteur de recherche.

[Résumé]

Sur le site de l'Internet Society (ISOC), qu'il fonde en 1992 pour promouvoir le développement de l’internet, Vinton Cerf explique: "Le réseau fait deux choses (…): comme les livres, il permet d’accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d’autres informations. Alors que, dans un livre, l’information est maintenue isolée." De plus, l’information contenue dans les livres reste la même, au moins pendant une période donnée, alors que l'internet privilégie l’information la plus récente qui, elle, est en constante mutation. Il s'ensuit un changement dans la manière d'enseigner. En septembre 1996, Dale Spender, professeur à l’Université de Queensland (Australie), tente d’analyser ce changement lors d'une communication de la 14e conférence mondiale de l’IFIP (International Federation of Information Processing).

[En détail]

Vinton Cerf co-invente en 1974 avec Bob Kahn le protocole TCP/IP, à la base de tout échange de données sur le réseau. Sur le site de l'Internet Society (ISOC), qu'il fonde en 1992 pour promouvoir le développement de l’internet, Vinton Cerf explique: "Le réseau fait deux choses (…): comme les livres, il permet d’accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d’autres informations. Alors que, dans un livre, l’information est maintenue isolée."

De plus, l’information contenue dans les livres reste la même, au moins pendant une période donnée, alors que l'internet privilégie l’information la plus récente qui, elle, est en constante mutation. Il s'ensuit un changement dans la manière d'enseigner. Dès septembre 1996, dans Creativity and the Computer Education Industry, une communication de la 14e conférence mondiale de l’IFIP (International Federation of Information Processing), Dale Spender, professeur à l’Université de Queensland (Australie), tente d’analyser ce changement. Voici son argumentation résumée en deux paragraphes.

Depuis plus de cinq siècles, l’enseignement est essentiellement basé sur l’information procurée par les livres. Or les habitudes liées à l’imprimé ne peuvent être transférées dans l’univers numérique. L’enseignement en ligne offre des possibilités tellement nouvelles qu’il n’est guère possible d’effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige donc d’entièrement repenser le processus d’acquisition du savoir, puisqu'on a maintenant l’opportunité sans précédent de pouvoir influer sur le type d’enseignement qu'on souhaite recevoir.

Dans la culture imprimée, l’information contenue dans les livres reste la même pendant un certain temps, ce qui encourage à penser que l’information est stable. La nature même de l’imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l’ordre qu’elle engendre sont un des fondements de l’âge industriel et de l’ère des sciences et techniques. Les notions de vérité, de loi, d’objectivité et de preuve sont le fondement de nos croyances et de nos cultures. Mais le numérique change tout ceci. Soudain l’information en ligne supplante l’information imprimée pour devenir la plus fiable et la plus utile, et l’usager est prêt à la payer en conséquence. Cette transformation radicale de la nature même de l’information doit être au coeur du débat sur les nouvelles méthodes d’enseignement.

En juillet 1998, Patrick Rebollar, professeur de français et d’informatique dans des universités japonaises, analyse l’impact de l’internet sur sa vie professionnelle: "Mon travail de recherche est différent, mon travail d’enseignant est différent, mon image en tant qu’enseignant-chercheur de langue et de littérature est totalement liée à l’ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J’ai cessé de m’intéresser à certains collègues proches géographiquement mais qui n’ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d’abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d’enseignement privilégiant l’acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l’emporte sur le paradigme hiérarchique - et je sais que certains enseignants m’en veulent à mort d’enseigner ça, et de le dire d’une façon aussi crue. Cependant ils sont obligés de s’y mettre…"

Professeur au département d’études françaises de l’Université de Toronto, Russon Wooldridge relate en mai 2001: "Mes activités de recherche, autrefois menées dans une tour d'ivoire, se font maintenant presque uniquement par des collaborations locales ou à distance. (…) Tout mon enseignement exploite au maximum les ressources d'internet (le web et le courriel): les deux lieux communs d'un cours sont la salle de classe et le site du cours, sur lequel je mets tous les matériaux des cours. Je mets toutes les données de mes recherches des vingt dernières années sur le web (réédition de livres, articles, textes intégraux de dictionnaires anciens en bases de données interactives, de traités du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier en ligne chez eux."

[Résumé]

Pour la publication d'ouvrages et de périodiques éducatifs et scientifiques, dans lesquels l'information la plus récente est primordiale, la numérisation conduit à repenser complètement la signification même de publication, et à s'orienter vers une diffusion en ligne qui rend beaucoup plus facile les réactualisations régulières. On observe un tournant majeur en 1997. Certaines universités diffusent par exemple des manuels "sur mesure" composés de quelques chapitres sélectionnés dans une vaste base de données, un choix complété par des articles et par les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être effectué à la demande pour un document rassemblant quelques textes et transmis par voie électronique à un imprimeur.

[En détail]

Depuis les années 1970, la chaîne traditionnelle de l'édition est soumise à de nombreux bouleversements. Le marché de l'imprimerie traditionnelle est d'abord ébranlé par l'apparition des machines de photocomposition. Les coûts d'impression continuent ensuite de baisser avec les procédés d'impression assistée par ordinateur, les photocopieurs, les photocopieurs couleur et le matériel d'impression numérique. L'impression est désormais souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur) et des entreprises d'arts graphiques. La numérisation accélère aussi le processus de rédaction, puisque le rédacteur, le concepteur artistique et le personnel chargé de la mise en page peuvent travailler simultanément sur le même ouvrage.

Pour la publication d'ouvrages et de périodiques éducatifs et scientifiques, dans lesquels l'information la plus récente est primordiale, la numérisation conduit à repenser complètement la signification même de publication, et à s'orienter vers une diffusion en ligne qui rend beaucoup plus facile les réactualisations régulières. Certaines universités diffusent par exemple des manuels "sur mesure" composés de quelques chapitres sélectionnés dans une vaste base de données, un choix complété par des articles et par les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être effectué à la demande pour quelques textes transmis par voie électronique à un imprimeur.

L'interaction entre document imprimé et document électronique devient omniprésente, et elle s'accentuera encore dans les prochaines années, à tel point qu'il deviendra probablement ridicule d'établir une distinction entre document électronique et document imprimé. Déjà, à l'heure actuelle, pratiquement tous les documents imprimés récents sont issus d'une version électronique sur traitement de texte, tableur ou base de données. De plus en plus de documents n'existent désormais qu'en version électronique, et de plus en plus de documents imprimés sont numérisés.

Outre sa facilité d'accès et son faible coût, le document électronique peut être régulièrement actualisé. Point n'est besoin d'attendre une nouvelle édition imprimée soumise aux contraintes commerciales et aux exigences de l'éditeur. L'édition électronique apparaît donc comme une bonne solution pour résoudre les problèmes budgétaires des presses universitaires et des éditeurs axés sur la publication d'ouvrages de recherche.

[Résumé]

La société de traduction Logos décide en 1997 de mettre le Logos Dictionary et tous ses outils professionnels en accès libre sur le web. Dans les années qui suivent, les dictionnaires en ligne sont soit en accès libre comme le Grand dictionnaire terminologique (GDT) de l’Office québécois de la langue française (OQLF), soit disponibles moyennant une inscription gratuite ou payante. Nombre de dictionnaires sont également disponibles sur CD-ROM (compact disc - read only memory) ou sur DVD (digital versatile disc), parallèlement à la version en ligne. En accès libre sur le site de l’ATILF (Analyse et traitement informatique de la langue française), Dictionnaires est une collection de dictionnaires informatisés anciens et récents, qui comprend notamment le TLFi (Trésor de la langue française informatisé, 1971-1994). Des dictionnaires gratuits écrits collectivement utilisent la forme du wiki, par exemple le dictionnaire multilingue Wiktionary, lancé en 2002 par la Wikipedia Foundation. Le portail yourDictionary.com répertorie 3.500 dictionnaires et grammaires dans 300 langues en avril 2007.

[En détail]

Fondé en 1979 à Modène (Italie) par Rodrigo Vergara, Logos est une société de traduction offrant des services dans 35 langues en 1997, avec 300 traducteurs travaillant sur place et un réseau mondial de 2.500 traducteurs travaillant en free-lance. Logos traduit en moyenne 200 textes par jour.

Initiative peu courante à l’époque, Logos décide de mettre tous ses outils professionnels en accès libre sur le web. Dans un entretien publié dans le quotidien Le Monde du 7 décembre 1997, Rodrigo Vergara relate: "Nous voulions que nos traducteurs aient tous accès aux mêmes outils de traduction. Nous les avons donc mis à leur disposition sur internet, et tant qu’à faire nous avons ouvert le site au public. Cela nous a rendus très populaires, nous a fait beaucoup de publicité. L’opération a drainé vers nous de nombreux clients, mais aussi nous a permis d’étoffer notre réseau de traducteurs grâce aux contacts établis à la suite de cette initiative."

Les outils de traduction disponibles sur le web comprennent un dictionnaire multilingue de 7,5 millions d’entrées (Logos Dictionary), une base de données de 553 glossaires (Linguistic Resources), des tables de conjugaison en 17 langues (Conjugation of Verbs), et enfin la Wordtheque, une base de données multilingue de 328 millions de termes issus de traductions de romans et documents techniques. La recherche dans la Wordtheque est possible par langue, mot, auteur ou titre. En 2007, la Wordtheque, devenue la Logos Library, comprend 710 millions de termes, Conjugation of Verbs, devenu l’Universal Conjugator, propose des tableaux de conjugaison dans 36 langues, et Linguistic Resources offre un point d’accès unique pour 1.215 glossaires.

Quand Logos met ses outils en accès libre en 1997, il ouvre la voie à d'autres initiatives.

Le premier dictionnaire de langue française en accès libre est le Dictionnaire universel francophone en ligne, qui répertorie 45.000 mots et 116.000 définitions tout en présentant "sur un pied d’égalité, le français dit "standard" et les mots et expressions en français tel qu’on le parle sur les cinq continents". Issu de la collaboration entre Hachette et l’AUPELF-UREF (devenu depuis l’AUF - Agence universitaire de la francophonie), il correspond à la partie "noms communs" du dictionnaire imprimé disponible chez Hachette. L’équivalent pour la langue anglaise est le site Merriam-Webster OnLine, qui donne librement accès au Collegiate Dictionary et au Collegiate Thesaurus.

En mars 2000, les 20 volumes de l’Oxford English Dictionary sont mis en ligne par l’Oxford University Press (OUP). La consultation du site est payante. Le dictionnaire bénéficie d’une mise à jour trimestrielle d’environ 1.000 entrées nouvelles ou révisées. Deux ans après cette première expérience, en mars 2002, l’Oxford University Press met en ligne l’Oxford Reference Online, une vaste encyclopédie conçue directement pour le web et consultable elle aussi sur abonnement payant. Avec 60.000 pages et un million d’entrées, elle représente l’équivalent d’une centaine d’ouvrages de référence.

En septembre 2000, l’Office québécois de la langue française (OQLF) lance le Grand dictionnaire terminologique (GDT), mis en ligne en septembre 2000. Le GDT comprend 3 millions de termes français et anglais du vocabulaire industriel, scientifique et commercial, dans 200 domaines d’activité. Il représente l'équivalent de 3.000 ouvrages de référence imprimés. Cette mise en ligne est le résultat d'un partenariat entre l'Office québécois de la langue française (OQLF), auteur du dictionnaire, et Semantix, société spécialisée dans les solutions logicielles linguistiques. Evénement célébré par de nombreux linguistes, cette mise en ligne est un succès sans précédent pour un dictionnaire. Dès le premier mois, le GDT est consulté par 1,3 million de personnes, avec des pointes de 60.000 requêtes quotidiennes. La gestion de la base est ensuite assurée par Convera Canada. En février 2003, les requêtes sont au nombre de 3,5 millions par mois. Une nouvelle version du GDT est mise en ligne en mars 2003. Sa gestion est désormais assurée par l'OQLF lui-même, et non plus par une société prestataire.

Géré par le service de traduction de la Commission européenne, Eurodicautom est un dictionnaire multilingue de termes économiques, scientifiques, techniques et juridiques, avec une moyenne de 120.000 consultations quotidiennes. Il permet de combiner entre elles les onze langues officielles de l’Union européenne (allemand, anglais, danois, espagnol, finnois, français, grec, hollandais, italien, portugais, suédois), ainsi que le latin. Fin 2003, Eurodicautom annonce son intégration dans une base terminologique plus vaste regroupant les bases de plusieurs institutions de l’Union européenne. Cette nouvelle base traite non plus douze langues, mais une vingtaine, puisque l’Union européenne s’élargit à l’Est et passe de 15 à 25 membres en mai 2004, pour atteindre 27 membres en janvier 2007. Cette base terminologique voit le jour en mars 2007, sous le nom de IATE (Inter-Active Terminology for Europe), avec 1,4 million d’entrées dans 24 langues.

[Résumé]

La convergence multimédia peut être définie comme la convergence des secteurs de l’informatique, du téléphone et de la radiotélévision dans une industrie de la communication et de la distribution utilisant les mêmes autoroutes de l’information. Cette convergence entraîne l’unification progressive des secteurs liés à l’information (imprimerie, édition, presse, conception graphique, enregistrements sonores, films, etc.) suite à l’utilisation des techniques de numérisation. La convergence multimédia amène-t-elle des emplois nouveaux, comme l’assurent les employeurs, ou bien est-elle source de chômage, comme l’affirment les syndicats? Ce sujet est débattu dès 1997 lors du Colloque sur la convergence multimédia organisé par le Bureau international du travail (BIT) à Genève. Si, dans certains secteurs, ce phénomène entraîne de nouveaux emplois, par exemple ceux liés à la production audiovisuelle, d’autres secteurs sont soumis à d’inquiétantes restructurations. La convergence multimédia a de nombreux revers, par exemple des contrats précaires pour les salariés, l’absence de syndicats pour les télétravailleurs ou le droit d’auteur mis à mal pour les auteurs.

[En détail]

La numérisation permet de créer, d’enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l’édition (qui produit des livres) et l’industrie musicale (qui produit des disques) travaillent de concert pour produire des CD-ROM.

La numérisation accélère considérablement le processus matériel de production. Dans la presse, alors qu’auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page. Dans l’édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément sur le même ouvrage. On assiste progressivement à la convergence de tous les secteurs liés à l’information: imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc. C'est ce qu'on appelle la convergence multimédia. On peut aussi la définir comme la convergence de l’informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication et de la distribution utilisant les mêmes inforoutes.

Si certains secteurs voient l’apparition de nouveaux emplois, par exemple ceux liés à la production audiovisuelle, d’autres secteurs sont soumis à d’inquiétantes restructurations. La convergence multimédia a de nombreux revers, à savoir des contrats occasionnels et précaires pour les salariés, l’absence de syndicats pour les télétravailleurs, le droit d’auteur souvent mis à mal pour les auteurs, etc. Et, à l’exception du droit d’auteur, vu l’enjeu financier qu’il représente, il est rare que ces problèmes fassent la Une des journaux.

La convergence multimédia amène-t-elle des emplois nouveaux, comme l’assurent les employeurs, ou bien est-elle source de chômage, comme l’affirment les syndicats? Ce sujet est débattu dès janvier 1997 lors du Colloque sur la convergence multimédia organisé par le Bureau international du travail (BIT) à Genève.

Si elle accélère le processus de production, l’automatisation des méthodes de travail entraîne une diminution de l’intervention humaine et donc un accroissement du chômage. Dans la presse comme dans l'édition, la mise en page automatique permet de combiner rédaction et composition. Dans les services publicitaires aussi, la conception graphique et les tâches commerciales sont maintenant intégrées. L’informatique permet à certains professionnels de s’installer à leur compte, une solution choisie par 30% des salariés ayant perdu leur emploi.

Au Royaume-Uni, les fonctions de correction d'épreuves et de rédaction s'effectuent désormais à domicile, le plus souvent par des travailleurs qui ont pris le statut d'indépendants par suite de fusions d'entreprises, délocalisations ou licenciements. "Or cette forme d'emploi tient plus du travail précaire que du travail indépendant, car ces personnes n'ont que peu d'autonomie et sont généralement tributaires d'une seule maison d'édition", analyse Peter Leisink, professeur associé d'études sociales à l'Université d'Utrecht (Pays-Bas).

A part quelques cas mis en avant par les organisations d’employeurs, la convergence multimédia entraîne des suppressions massives d’emplois. Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication), les industries graphiques françaises ont perdu 20.000 emplois en dix ans. Entre 1987 et 1996, les effectifs passent de de 110.000 à 90.000 salariés. Les entreprises doivent mettre sur pied des plans sociaux coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu’il aurait été préférable de financer des études fiables sur la manière d’équilibrer créations et suppressions d’emplois quand il était encore temps.

Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D’autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi.

Directeur du géant des télécommunications AT&T aux Etats-Unis, Walter Durling insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de l'entreprise. L’invention du film n’a pas tué le théâtre et celle de la télévision n’a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d’autres postes devenus obsolètes. Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements?

De leur côté, les syndicats préconisent la création d’emplois par l’investissement, l’innovation, la formation professionnelle aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conditions équitables pour les contrats et les conventions collectives, la défense du droit d’auteur, une meilleure protection des travailleurs dans le secteur artistique et enfin la défense des télétravailleurs en tant que travailleurs à part entière.

Malgré tous les efforts des syndicats, la situation deviendra-elle aussi dramatique que celle décrite dans une note du rapport de ce colloque, demandant si "les individus seront forcés de lutter pour survivre dans une jungle électronique avec les mécanismes de survie qui ont été mis au point au cours des précédentes décennies?"

[Résumé]

Gallica est le secteur numérique de la Bibliothèque nationale de France (BnF), mis en ligne en octobre 1997. En 1998, le serveur stocke 2.500 livres numérisés en mode image complétés par les 250 volumes numérisés en mode texte de la base Frantext de l’INaLF (Institut national de la langue française). Gallica devient rapidement la plus grande bibliothèque numérique francophone du réseau. Pour des raisons de coût, les documents sont essentiellement numérisés en mode image. En décembre 2006, Gallica propose tous les documents libres de droits du fonds numérisé de la BnF, à savoir 90.000 ouvrages numérisés (fascicules de presse compris) et 80.000 images couvrant une période allant du Moyen-Age au début du 20e siècle, avec plus d'un million de consultations par mois. En 2007, Gallica débute la conversion en mode texte des livres numérisés en mode image pour favoriser l'accès à leur contenu.

[En détail]

Secteur numérique de la Bibliothèque nationale de France (BnF), Gallica est inauguré en octobre 1997 avec des textes et images du 19e siècle francophone, le 19e siècle étant le "siècle de l’édition et de la presse moderne, siècle du roman mais aussi des grandes synthèses historiques et philosophiques, siècle scientifique et technique" (extrait du site web). A l’époque, le serveur stocke 2.500 livres numérisés en mode image complétés par les 250 volumes numérisés en mode texte de la base Frantext de l’INaLF (Institut national de la langue française). Classées par discipline, ces ressources sont complétées par une chronologie du 19e siècle et une synthèse sur les grands courants en histoire, sciences politiques, droit, économie, littérature, philosophie, sciences et histoire des sciences. Le site propose aussi un échantillon de la future iconothèque numérique, à savoir le fonds du photographe Eugène Atget, une sélection de documents sur l’écrivain Pierre Loti, une collection d’images de l’Ecole nationale des ponts et chaussées sur les grands travaux liés à la révolution industrielle en France, et enfin un choix de livres illustrés de la Bibliothèque du Musée de l’Homme.

Gallica se considère moins comme une banque de données numérisées que comme un "laboratoire dont l’objet est d’évaluer les conditions d’accès et de consultation à distance des documents numériques", lit-on sur le site web à la fin de 1997. Le but est d’expérimenter la navigation dans ces collections, en permettant aussi bien le libre parcours du chercheur ou du curieux que des recherches pointues.

Début 1998, Gallica annonce 100.000 volumes et 300.000 images pour la fin 1999, avec un accroissement rapide des collections ensuite. Sur les 100.000 volumes prévus, qui représenteront 30 millions de pages numérisées, plus du tiers concerne le 19e siècle. Quant aux 300.000 images fixes, la moitié appartient aux départements spécialisés de la BnF (Estampes et photographie, Manuscrits, Arts du spectacle, Monnaies et médailles, etc.). L’autre moitié provient de collections d’établissements publics (musées et bibliothèques, Documentation française, Ecole nationale des ponts et chaussées, Institut Pasteur, Observatoire de Paris, etc.) ou privés (agences de presse dont Magnum, l’Agence France-Presse, Sygma, Rapho, etc.).

En mai 1998, Gallica revoit ses espérances à la baisse et modifie quelque peu ses orientations premières. Dans un article du quotidien Le Figaro du 3 juin 1998, Jérôme Strazzulla, journaliste, écrit que la BnF est "passée d’une espérance universaliste, encyclopédique, à la nécessité de choix éditoriaux pointus". Dans le même article, il interviewe le président de la BnF, Jean-Pierre Angremy, qui rapporte la décision du comité éditorial de Gallica: "Nous avons décidé d’abandonner l’idée d’un vaste corpus encyclopédique de cent mille livres, auquel on pourrait sans cesse reprocher des trous. Nous nous orientons aujourd’hui vers des corpus thématiques, aussi complets que possibles, mais plus restreints. (…) Nous cherchons à répondre, en priorité, aux demandes des chercheurs et des lecteurs." Le premier corpus aurait trait aux voyages en France, avec mise en ligne prévue en 2000. Ce corpus rassemblerait des textes, estampes et photographies du 16e siècle à 1920. Les corpus envisagés ensuite auront les thèmes suivants: Paris, les voyages en Afrique des origines à 1920, les utopies, et les mémoires des Académies des sciences de province.

En 2003, Gallica donne accès à tous les documents libres de droit du fonds numérisé de la BnF, à savoir 70.000 ouvrages et 80.000 images allant du Moyen-Age au début du 20e siècle. Mais, de l’avis de nombreux usagers, les fichiers sont très lourds puisque les livres sont numérisés en mode image, et l’accès en est très long. Chose tout aussi problématique, la numérisation en mode image n’autorise pas la recherche textuelle alors que Gallica se trouve être la plus grande bibliothèque numérique francophone en nombre de titres disponibles en ligne. Seule une petite collection de livres (1.117 titres en février 2004) est numérisée en mode texte, celle de la base Frantext de l'ATILF (Analyse et traitement informatique de la langue française, le laboratoire ayant succédé à l'INaLF), intégrée dans Gallica.

En février 2005, Gallica compte 76.000 ouvrages. A la même date, la BnF annonce la mise en ligne prochaine (entre 2006 et 2009) de la presse française parue entre 1826 et 1944, à savoir 22 titres représentant 3,5 millions de pages. Début 2006, les premiers journaux disponibles en ligne sont Le Figaro (fondé en 1826), La Croix (fondée en 1883), L'Humanité (fondée en 1904) et Le Temps (fondé en 1861 et disparu en 1942). En décembre 2006, les collections comprennent 90.000 ouvrages numérisés (fascicules de presse compris), 80.000 images et des dizaines d'heures de ressources sonores. Gallica débute aussi la conversion en mode texte des livres numérisés en mode image pour pour favoriser l'accès à leur contenu.

[Résumé]

En 1998, Peter Raggett est sous-directeur (puis directeur) de la Bibliothèque centrale de l'OCDE (Organisation de coopération et de développement économiques). Il explique en juin 1998: "L’internet offre aux chercheurs un stock d’informations considérable. (…) A mon avis, les bibliothécaires auront un rôle important à jouer pour améliorer la recherche et l’organisation de l’information sur le réseau. Je prévois aussi une forte expansion de l’internet pour l’enseignement et la recherche. Les bibliothèques seront amenées à créer des bibliothèques numériques permettant à un étudiant de suivre un cours proposé par une institution à l’autre bout du monde. La tâche du bibliothécaire sera de filtrer les informations pour le public. Personnellement, je me vois de plus en plus devenir un bibliothécaire virtuel. Je n’aurai pas l’occasion de rencontrer les usagers, ils me contacteront plutôt par courriel, par téléphone ou par fax, j’effectuerai la recherche et je leur enverrai les résultats par voie électronique."

[En détail]

Voici deux expériences, relatées par Peter Raggett, sous-directeur de la Bibliothèque centrale de l'OCDE, et par Bruno Didier, webmestre de la Bibliothèque de l'Institut Pasteur.

= Bibliothèque centrale de l'OCDE

Située à Paris, l’OCDE (Organisation de coopération et de développement économiques) regroupe trente pays membres. Au noyau d’origine, constitué des pays d’Europe de l’Ouest et d’Amérique du Nord, viennent s’ajouter le Japon, l’Australie, la Nouvelle-Zélande, la Finlande, le Mexique, la République tchèque, la Hongrie, la Pologne et la Corée. Réservé aux fonctionnaires de l’organisation, la bibliothèque centrale permet la consultation de quelque 60.000 monographies et 2.500 périodiques imprimés. En ligne depuis 1996, les pages intranet du CDI deviennent une source d’information indispensable pour le personnel.

Peter Raggett est sous-directeur (puis directeur) du centre de documentation et d’information (CDI) de l’OCDE. "Je dois filtrer l’information pour les usagers de la bibliothèque, ce qui signifie que je dois bien connaître les sites et les liens qu’ils proposent, explique-t-il en juin 1998. J’ai sélectionné plusieurs centaines de sites pour en favoriser l’accès à partir de l’intranet de l’OCDE. Cette sélection fait partie du bureau de référence virtuel proposé par la bibliothèque à l’ensemble du personnel. Outre de nombreux liens, ce bureau de référence contient des pages recensant les articles, monographies et sites web correspondant aux différents projets de recherche en cours à l’OCDE, l’accès en réseau aux CD-ROM et une liste mensuelle des nouveaux titres."

Comment voit-il l’avenir de la profession? "L’internet offre aux chercheurs un stock d’informations considérable. Le problème pour eux est de trouver ce qu’ils cherchent. Jamais auparavant on n’avait senti une telle surcharge d’informations, comme on la sent maintenant quand on tente de trouver un renseignement sur un sujet précis en utilisant les moteurs de recherche disponibles sur l’internet. A mon avis, les bibliothécaires auront un rôle important à jouer pour améliorer la recherche et l’organisation de l’information sur le réseau. Je prévois aussi une forte expansion de l’internet pour l’enseignement et la recherche. Les bibliothèques seront amenées à créer des bibliothèques numériques permettant à un étudiant de suivre un cours proposé par une institution à l’autre bout du monde. La tâche du bibliothécaire sera de filtrer les informations pour le public. Personnellement, je me vois de plus en plus devenir un bibliothécaire virtuel. Je n’aurai pas l’occasion de rencontrer les usagers, ils me contacteront plutôt par courriel, par téléphone ou par fax, j’effectuerai la recherche et je leur enverrai les résultats par voie électronique."

= Bibliothèque de l'Institut Pasteur

En 1999, Bruno Didier est bibliothécaire à l’Institut Pasteur (Paris), une fondation privée dont le but est la prévention et le traitement des maladies infectieuses par la recherche, l’enseignement et des actions de santé publique. Séduit par les perspectives qu’offre le réseau pour la recherche documentaire, Bruno Didier crée le site web de la bibliothèque en 1996 et devient son webmestre.

"Le site web de la bibliothèque a pour vocation principale de servir la communauté pasteurienne, relate-t-il en août 1999. Il est le support d’applications devenues indispensables à la fonction documentaire dans un organisme de cette taille: bases de données bibliographiques, catalogue, commande de documents et bien entendu accès à des périodiques en ligne. C’est également une vitrine pour nos différents services, en interne mais aussi dans toute la France et à l’étranger. Il tient notamment une place importante dans la coopération documentaire avec les instituts du réseau Pasteur à travers le monde. Enfin j’essaie d’en faire une passerelle adaptée à nos besoins pour la découverte et l’utilisation d’internet. (…) Je développe et maintiens les pages du serveur, ce qui s’accompagne d’une activité de veille régulière. Par ailleurs je suis responsable de la formation des usagers, ce qui se ressent dans mes pages. Le web est un excellent support pour la formation, et la plupart des réflexions actuelles sur la formation des usagers intègrent cet outil."

Son activité professionnelle a changé de manière assez radicale, tout comme celle de ses collègues. "C’est à la fois dans nos rapports avec l’information et avec les usagers que les changements ont eu lieu, explique-t-il. Nous devenons de plus en plus des médiateurs, et peut-être un peu moins des conservateurs. Mon activité actuelle est typique de cette nouvelle situation: d’une part dégager des chemins d’accès rapides à l’information et mettre en place des moyens de communication efficaces, d’autre part former les utilisateurs à ces nouveaux outils. Je crois que l’avenir de notre métier passe par la coopération et l’exploitation des ressources communes. C’est un vieux projet certainement, mais finalement c’est la première fois qu’on dispose enfin des moyens de le mettre en place."

[Résumé]

De pratiquement anglophone à ses débuts, le web devient multilingue. Consultant en marketing internet de produits et services de traduction, Randy Hobler écrit en septembre 1998: "Comme l’internet n’a pas de frontières nationales, les internautes s’organisent selon d’autres critères propres au médium. En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j’appelle les "nations des langues", tous ces internautes qu’on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d’Espagne et d’Amérique latine, mais aussi tous les Hispanophones vivant aux Etats-Unis, ou encore ceux qui parlent espagnol au Maroc." Professeur d’espagnol en entreprise et traductrice, Maria Victoria Marinetti ajoute en août 1999: «Il est très important de pouvoir communiquer en différentes langues. Je dirais même que c’est obligatoire, car l’information donnée sur le net est à destination du monde entier, alors pourquoi ne l’aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?»

[En détail]

De pratiquement anglophone à ses débuts, le web devient multilingue.

Consultant en marketing internet de produits et services de traduction, Randy Hobler écrit en septembre 1998: "Comme l’internet n’a pas de frontières nationales, les internautes s’organisent selon d’autres critères propres au médium. En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j’appelle les "nations des langues", tous ces internautes qu’on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d’Espagne et d’Amérique latine, mais aussi tous les Hispanophones vivant aux Etats-Unis, ou encore ceux qui parlent espagnol au Maroc."

Bruno Didier, webmestre de la Bibliothèque de l’Institut Pasteur, écrit en août 1999: "Internet n’est une propriété ni nationale, ni linguistique. C’est un vecteur de culture, et le premier support de la culture, c’est la langue. Plus il y a de langues représentées dans leur diversité, plus il y aura de cultures sur internet. Je ne pense pas qu’il faille justement céder à la tentation systématique de traduire ses pages dans une langue plus ou moins universelle. Les échanges culturels passent par la volonté de se mettre à la portée de celui vers qui on souhaite aller. Et cet effort passe par l’appréhension de sa langue. Bien entendu c’est très utopique comme propos. Concrètement, lorsque je fais de la veille, je peste dès que je rencontre des sites norvégiens ou brésiliens sans un minimum d’anglais."

L’anglais reste en effet prépondérant et ceci n’est pas près de disparaître. Comme indiqué en janvier 1999 par Marcel Grangier, responsable de la section française des services linguistiques centraux de l’Administration fédérale suisse, "cette suprématie n’est pas un mal en soi, dans la mesure où elle résulte de réalités essentiellement statistiques (plus de PC par habitant, plus de locuteurs de cette langue, etc.). La riposte n’est pas de "lutter contre l’anglais" et encore moins de s’en tenir à des jérémiades, mais de multiplier les sites en d’autres langues. Notons qu’en qualité de service de traduction, nous préconisons également le multilinguisme des sites eux-mêmes. La multiplication des langues présentes sur internet est inévitable, et ne peut que bénéficier aux échanges multiculturels."

C'est aussi l'avis de Maria Victoria Marinetti, professeur d’espagnol en entreprise et traductrice, qui écrit en août 1999: "Il est très important de pouvoir communiquer en différentes langues. Je dirais même que c’est obligatoire, car l’information donnée sur le net est à destination du monde entier, alors pourquoi ne l’aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?"

Professeur en technologies de la communication à la Webster University de Genève, Henri Slettenhaar insiste également sur la nécessité de sites bilingues, dans la langue originale et en anglais. "Les communautés locales présentes sur le web devraient en tout premier lieu utiliser leur langue pour diffuser des informations, écrit-il en décembre 1998. Si elles veulent également présenter ces informations à la communauté mondiale, celles-ci doivent être aussi disponibles en anglais. Je pense qu’il existe un réel besoin de sites bilingues. (…) Mais je suis enchanté qu’il existe maintenant tant de documents disponibles dans leur langue originale. Je préfère de beaucoup lire l’original avec difficulté plutôt qu’une traduction médiocre."

En août 1999, il ajoute: "A mon avis, il existe deux types de recherches sur le web. La première est la recherche globale dans le domaine des affaires et de l’information. Pour cela, la langue est d’abord l’anglais, avec des versions locales si nécessaire. La seconde, ce sont les informations locales de tous ordres dans les endroits les plus reculés. Si l’information est à destination d’une ethnie ou d’un groupe linguistique, elle doit d’abord être dans la langue de l’ethnie ou du groupe, avec peut-être un résumé en anglais."

En été 2000, les usagers non anglophones atteignent puis dépassent la barre des 50%. Ce pourcentage continue ensuite d'augmenter, comme le montrent les statistiques de la société Global Reach, mises à jour à intervalles réguliers. Le nombre d’usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8% en avril 2002, 64,4% en septembre 2003 (dont 34,9% d’Européens non anglophones et 29,4% d’Asiatiques) et 64,2% en mars 2004 (dont 37,9% d’Européens non anglophones et 33% d’Asiatiques).

1999: FORMAT OPEN EBOOK

[Résumé]

Créé en septembre 1999, l’OeB (open ebook) est un format de livre numérique basé sur le langage XML (extensible markup language) pour normaliser le contenu, la structure et la présentation des livres numériques. Le format OeB est défini par l’OeBPS (open ebook publication structure), développée par l’Open eBook Forum (OeBF), un consortium industriel international fondé en janvier 2000 pour regrouper constructeurs, concepteurs de logiciels, éditeurs, libraires et spécialistes du numérique (85 participants en 2002). Téléchargeable gratuitement, l’OeBPS dispose d'une version ouverte et gratuite appartenant au domaine public. La version originale est destinée aux professionnels de la publication puisqu'elle doit être associée à une technologie normalisée de gestion des droits numériques, et donc à un système de DRM (digital rights management) permettant de contrôler l’accès des livres numériques sous droits. En avril 2005, l’Open eBook Forum devient l’International Digital Publishing Forum (IDPF), et le format OeB devient le format ePub.

[En détail]

Les années 1998 et 1999 sont marquées par la prolifération des formats, chacun lançant son propre format de livre numérique dans le cadre d’un marché naissant promis à une expansion rapide. Aux formats classiques - format texte, Word, HTML (hypertext markup language), XML (extensible markup language) et PDF (portable document format) - s’ajoutent des formats propriétaires créés par plusieurs sociétés pour une lecture sur leurs propres logiciels: Glassbook Reader, Rocket eBook Reader, Peanut Reader, Franklin Reader, logiciel de lecture Cytale, Gemstar eBook Reader, Palm Reader, etc., ces logiciels correspondant le plus souvent à un appareil donné: Rocket eBook, eBookMan (Franklin), Cybook (Cytale), Gemstar eBook, Palm Pilot, etc.

Inquiets pour l’avenir du livre numérique qui, à peine né, propose presque autant de formats que de titres, certains insistent sur l’intérêt, sinon la nécessité, d’un format unique. A l’instigation du NIST (National Institute of Standards and Technology) aux Etats-Unis, l’Open eBook Initiative voit le jour en juin 1998 et constitue un groupe de travail de 25 personnes (Open eBook Authoring Group). Ce groupe élabore l’OeB (open ebook), un format basé sur le langage XML (extensible markup language) et destiné à normaliser le contenu, la structure et la présentation des livres numériques. Le format OeB est défini par l’OeBPS (open ebook publication structure), dont la version 1.0 est disponible en septembre 1999. L’OeBPS dispose d'une version ouverte et gratuite appartenant au domaine public. La version originale est utilisée uniquement par les professionnels de la publication, puisqu’il doit être associé à un système de gestion des droits numériques (DRM - digital rights management).

Fondé en janvier 2000 pour prendre la suite de l’Open eBook Initiative, l’OeBF (Open eBook Forum) est un consortium industriel international regroupant constructeurs, concepteurs de logiciels, éditeurs, libraires et spécialistes du numérique (85 participants en 2002) dans l'optique de développer le format OeB (open ebook) et l’OeBPS (open ebook publication structure). Le format OeB devient un standard qui sert lui-même de base à de nombreux formats, par exemple LIT (pour le Microsoft Reader) ou PRC (pour le Mobipocket Reader). En avril 2005, l’Open eBook Forum devient l’International Digital Publishing Forum (IDPF) et le format OeB laisse la place au format ePub.

Outre le format PDF (non basé sur l'OeB puisque créé en 1993) et le format LIT (basé sur l'OeB), le troisième grand format est le format PRC, lisible sur le Mobipocket Reader et destiné en priorité aux appareils mobiles tels que PDA, téléphones et smartphones. Créée en mars 2000 par Thierry Brethes et Nathalie Ting, la société Mobipocket, basée à Paris, se spécialise d'emblée dans la lecture et la distribution sécurisée de livres numériques sur assistant personnel (PDA). Le Mobipocket Reader est "universel", c’est-à-dire utilisable sur tout assistant personnel (Palm Pilot, Pocket PC, eBookMan, Psion, etc.). En avril 2002, la société lance un Mobipocket Reader pour ordinateur. Au printemps 2003, le Mobipocket Reader équipe les premiers smartphones de Nokia et Sony Ericsson. A la même date, le nombre de livres lisibles sur le Mobipocket Reader est de 6.000 titres dans plusieurs langues (français, anglais, allemand, espagnol), distribués soit sur le site de Mobipocket soit dans les librairies partenaires. Le système de gestion des droits numériques est le Mobipocket DRM System. En avril 2005, Mobipocket est racheté par la grande librairie en ligne Amazon.com.

[Résumé]

Jean-Paul, auteur hypermédia et webmestre des Cotres furtifs, relate en août 1999: "L’internet va me permettre de me passer des intermédiaires: compagnies de disques, éditeurs, distributeurs… Il va surtout me permettre de formaliser ce que j’ai dans la tête et dont l’imprimé (la micro-édition, en fait) ne me permettait de donner qu’une approximation." De nombreux genres voient le jour: sites d’écriture hypermédia, oeuvres de fiction hypertexte, romans multimédias, hyper-romans, etc. Jean-Pierre Balpe, chercheur et écrivain, lance le premier mail-roman francophone en 2001. Cette expérience renforce sa "conviction que les technologies numériques sont une chance extraordinaire du renouvellement du littéraire." Le texte fusionne aussi de plus en plus avec l’image et le son.

[En détail]

Voici trois expériences, relatées par Murray Suid, auteur de livres pédagogiques, Jean-Paul, webmestre d'un site hypermédia, et Jean-Pierre Balpe, auteur d'un mail-roman.

= Livres pédagogiques

Murray Suid vit à Palo Alto, dans la Silicon Valley, en Californie. Il est l’auteur de livres pédagogiques, de livres pour enfants, d’oeuvres multimédias et de scénarios. Dès septembre 1998, il préconise une solution choisie depuis par de nombreux auteurs. "Un livre peut avoir un prolongement sur le web – et donc vivre en partie dans le cyberespace, explique-t-il. L’auteur peut ainsi aisément l’actualiser et le corriger, alors qu’auparavant il devait attendre longtemps, jusqu’à l’édition suivante, quand il y en avait une. (…) Je ne sais pas si je publierai des livres sur le web, au lieu de les publier en version imprimée. J’utiliserai peut-être ce nouveau support si les livres deviennent multimédias. Pour le moment, je participe au développement de matériel pédagogique multimédia. C’est un nouveau type de matériel qui me plaît beaucoup et qui permet l’interactivité entre des textes, des films, des bandes sonores et des graphiques qui sont tous reliés les uns aux autres."

Un an après, en août 1999, il ajoute: "En plus des livres complétés par un site web, je suis en train d’adopter la même formule pour mes oeuvres multimédias – qui sont sur CD-ROM – afin de les actualiser et d’enrichir leur contenu." Quelques mois plus tard, l’intégralité de ses oeuvres multimédias est sur le réseau, et le matériel pédagogique auquel il contribue est conçu non plus pour diffusion sur CD-ROM, mais directement pour diffusion sur le web. D’entreprise multimédia, la société de logiciels éducatifs qui l’emploie devient une entreprise internet.

= Site hypermédia

Jean-Paul, auteur hypermédia et webmestre des Cotres furtifs, relate en août 1999: "L’internet va me permettre de me passer des intermédiaires: compagnies de disques, éditeurs, distributeurs… Il va surtout me permettre de formaliser ce que j’ai dans la tête et dont l’imprimé (la micro-édition, en fait) ne me permettait de donner qu’une approximation. Puis les intermédiaires prendront tout le pouvoir. Il faudra alors chercher ailleurs, là où l’herbe est plus verte…"

En juin 2000, il se penche sur l'apport de l'hyperlien dans son travail: "La navigation par hyperliens se fait en rayon (j’ai un centre d’intérêt et je clique méthodiquement sur tous les liens qui s’y rapportent) ou en louvoiements (de clic en clic, à mesure qu’ils apparaissent, au risque de perdre de vue mon sujet). Bien sûr, les deux sont possibles avec l’imprimé. Mais la différence saute aux yeux: feuilleter n’est pas cliquer. L’internet n’a donc pas changé ma vie, mais mon rapport à l’écriture. On n’écrit pas de la même manière pour un site que pour un scénario, une pièce de théâtre, etc. (…) Depuis, j’écris (compose, mets en page, en scène) directement à l’écran. L’état "imprimé" de mon travail n’est pas le stade final, le but; mais une forme parmi d’autres, qui privilégie la linéarité et l’image, et qui exclut le son et les images animées. (…)

C’est finalement dans la publication en ligne (l’entoilage?) que j’ai trouvé la mobilité, la fluidité que je cherchais. Le maître mot y est "chantier en cours", sans palissades. Accouchement permanent, à vue, comme le monde sous nos yeux. Provisoire, comme la vie qui tâtonne, se cherche, se déprend, se reprend. Avec évidemment le risque souligné par les gutenbergs, les orphelins de la civilisation du livre: plus rien n’est sûr. Il n’y a plus de source fiable, elles sont trop nombreuses, et il devient difficile de distinguer un clerc d’un gourou. Mais c’est un problème qui concerne le contrôle de l’information. Pas la transmission des émotions."

= Mail-roman

Jean-Pierre Balpe est directeur du département hypermédias de l’Université Paris 8, chercheur et écrivain. Il lance le premier mail-roman francophone en 2001. Pendant très exactement cent jours, entre le 11 avril et le 19 juillet 2001, il diffuse quotidiennement un chapitre de Rien n’est sans dire auprès de cinq cents personnes - sa famille, ses amis, ses collègues, etc. - en intégrant les réponses et les réactions des lecteurs. Racontée par un narrateur, l’histoire est celle de Stanislas et Zita, qui vivent une passion tragique déchirée par une sombre histoire politique. "Cette idée d’un mail-roman m’est venue tout naturellement, raconte l’auteur en février 2002. D’une part en me demandant depuis quelque temps déjà ce qu’internet peut apporter sur le plan de la forme à la littérature (…) et d’autre part en lisant de la littérature "épistolaire" du 18e siècle, ces fameux "romans par lettres". Il suffit alors de transposer: que peut être le "roman par lettres" aujourd’hui?"

Jean-Pierre Balpe tire plusieurs conclusions de cette expérience: "D’abord c’est un "genre": depuis, plusieurs personnes m’ont dit lancer aussi un mail-roman. Ensuite j’ai aperçu quantité de possibilités que je n’ai pas exploitées et que je me réserve pour un éventuel travail ultérieur. La contrainte du temps est ainsi très intéressante à exploiter: le temps de l’écriture bien sûr, mais aussi celui de la lecture: ce n’est pas rien de mettre quelqu’un devant la nécessité de lire, chaque jour, une page de roman. Ce "pacte" a quelque chose de diabolique. Et enfin le renforcement de ma conviction que les technologies numériques sont une chance extraordinaire du renouvellement du littéraire."

[Résumé]

yourDictionary.com est co-fondé par Robert Beard en février 2000, dans le prolongement de son ancien site, A Web of Online Dictionaries, créé dès 1995. En septembre 2003, yourDictionary.com, devenu un portail de référence, répertorie plus de 1.800 dictionnaires dans 250 langues, ainsi que de nombreux outils linguistiques: vocabulaires, grammaires, glossaires, méthodes de langues, etc. En avril 2007, le répertoire comprend 2.500 dictionnaires et grammaires dans 300 langues. Soucieux de servir toutes les langues sans exception, le portail propose une section spécifique (Endangered Language Repository) consacrée aux langues menacées d’extinction. D'après l’encyclopédie Ethnologue: Languages of the World, publiée par SIL International et disponible gratuitement sur le web, il existerait 6.912 langues dans le monde.

[En détail]

yourDictionary.com est co-fondé par Robert Beard en février 2000, dans le prolongement de son ancien site, A Web of Online Dictionaries, créé dès 1995. En septembre 2003, yourDictionary.com, devenu un portail de référence, répertorie 1.800 dictionnaires dans 250 langues, ainsi que de nombreux outils linguistiques: vocabulaires, grammaires, glossaires, méthodes de langues, etc. En avril 2007, le répertoire comprend 2.500 dictionnaires et grammaires dans 300 langues. Soucieux de servir toutes les langues sans exception, le site propose une section spécifique (Endangered Language Repository) consacrée aux langues menacées d’extinction.

Robert Beard explique en janvier 2000: "Les langues menacées sont essentiellement des langues non écrites. Un tiers seulement des quelque 6.000 langues existant dans le monde sont à la fois écrites et parlées. Je ne pense pourtant pas que le web va contribuer à la perte de l’identité des langues et j’ai même le sentiment que, à long terme, il va renforcer cette identité. Par exemple, de plus en plus d’Indiens d’Amérique contactent des linguistes pour leur demander d’écrire la grammaire de leur langue et les aider à élaborer des dictionnaires. Pour eux, le web est un instrument à la fois accessible et très précieux d’expression culturelle."

Caoimhín Ó Donnaíle est professeur d’informatique à l’Institut Sabhal Mór Ostaig, situé sur l’île de Skye, en Ecosse. Il dispense ses cours en gaélique écossais. Il indique pour sa part en mai 2001: "En ce qui concerne l’avenir des langues menacées, l’internet accélère les choses dans les deux sens. Si les gens ne se soucient pas de préserver les langues, l’internet et la mondialisation qui l’accompagne accéléreront considérablement la disparition de ces langues. Si les gens se soucient vraiment de les préserver, l’internet constituera une aide irremplaçable."

Caoimhín est également le webmestre du site de l’institut, bilingue anglais-gaélique, qui se trouve être la principale source d’information mondiale sur le gaélique écossais. Sur ce site, il tient à jour European Minority Languages, une liste de langues européennes minoritaires elle aussi bilingue anglais-gaélique, avec classement par ordre alphabétique de langues et par famille linguistique. Il ajoute: "Nos étudiants utilisent un correcteur d’orthographe en gaélique et une base terminologique en ligne en gaélique. (…) Il est maintenant possible d’écouter la radio en gaélique (écossais et irlandais) en continu sur l’internet partout dans le monde. Une réalisation particulièrement importante a été la traduction en gaélique du logiciel de navigation Opera. C’est la première fois qu’un logiciel de cette taille est disponible en gaélique."

Publiée par SIL International (SIL: Summer Institute of Linguistics), l’encyclopédie Ethnologue: Languages of the World existe à la fois en version web (gratuite), sur CD-ROM (payant) et en version imprimée (payante). Barbara Grimes, sa directrice de publication entre 1971 et 2000 (8e-14e éditions), relate en janvier 2000: "Il s’agit d’un catalogue des langues dans le monde, avec des informations sur les endroits où elles sont parlées, une estimation du nombre de personnes qui les parlent, la famille linguistique à laquelle elles appartiennent, les autres termes utilisés pour ces langues, les noms de dialectes, d’autres informations socio-linguistiques et démographiques, les dates des Bibles publiées, un index des noms de langues, un index des familles linguistiques et des cartes géographiques relatives aux langues." En avril 2007, cette encyclopédie répertorie 6.912 langues selon plusieurs critères (pays, nom de la langue, code de la langue attribué par le SIL, famille de langues), avec moteur de recherche.

[Résumé]

En novembre 2000, la version numérique de la Bible de Gutenberg est mise en ligne sur le site de la British Library. Datée de 1454 ou 1455, cette Bible est le premier ouvrage imprimé par Gutenberg dans son atelier de Mayence, en Allemagne. Sur les 180 exemplaires d’origine, 48 exemplaires, dont certains incomplets, existeraient toujours. La British Library en possède deux versions complètes et une partielle. En mars 2000, dix chercheurs et experts techniques de l’Université Keio de Tokyo et de NTT (Nippon Telegraph and Telephone Communications) viennent travailler sur place pendant deux semaines pour numériser les deux versions complètes, légèrement différentes.

[Résumé]

Distributed Proofreaders (DP) est lancé en octobre 2000 par Charles Franks pour aider à la numérisation des livres du domaine public. Le site web permet la correction partagée en fragmentant les livres en pages pouvant être relues par des correcteurs différents. Destiné à intensifier la production de livres pour le Projet Gutenberg, grande bibliothèque numérique mondiale au format texte, Distributed Proofreaders en devient rapidement la principale source. A titre indicatif, il est suggéré de relire une page par jour. Cela semble peu, mais une page multipliée par des milliers de volontaires représente un chiffre considérable. En 2003, une moyenne de 250 à 300 relecteurs quotidiens permet de produire entre 2.500 et 3.000 pages par jour, ce qui représente deux pages par minute. En 2004, la moyenne était de 300 à 400 relecteurs quotidiens produisant entre 4.000 et 7.000 pages par jour, à savoir quatre pages par minute. Distributed Proofreaders produit 3.000 livres en février 2004, 5.000 livres en octobre 2004, 7.000 livres en mai 2005, 8.000 livres en février 2006 et 10.000 livres en mars 2007.

[En détail]

Conçu en octobre 2000 par Charles Franks pour contribuer à la numérisation des livres du domaine public, Distributed Proofreaders (DP) permet la correction partagée en fragmentant les livres en pages pouvant être relues par des correcteurs différents. Destiné à intensifier la production de livres pour le Projet Gutenberg, grande bibliothèque numérique mondiale au format texte, Distributed Proofreaders en devient rapidement la principale source. Il est officiellement affilié au Projet Gutenberg en 2002.

La progression est rapide. En 2003, une moyenne de 250 à 300 relecteurs quotidiens permet de produire entre 2.500 et 3.000 pages par jour, ce qui représente deux pages par minute. En 2004, la moyenne est de 300 à 400 relecteurs quotidiens produisant entre 4.000 et 7.000 pages par jour, à savoir quatre pages par minute. Distributed Proofreaders produit un total de 3.000 livres en février 2004, 5.000 livres en octobre 2004, 7.000 livres en mai 2005, 8.000 livres en février 2006 et 10.000 livres en mars 2007. A cette date, 700 volontaires se connectent chaque jour et 3.000 volontaires se connectent chaque mois. Les volontaires n’ont aucun quota à respecter. A titre indicatif, il est suggéré de relire une page par jour. Cela semble peu, mais une page multipliée par des milliers de volontaires représente un chiffre considérable.

En janvier 2004 est lancé en parallèle Distributed Proofreaders Europe (DP Europe) pour alimenter le site du Projet Gutenberg Europe (PG Europe). Créé à l'initiative du Projet Rastko, basé à Belgrade (Serbie), DP Europe est calqué sur le site original de Distributed Proofreaders, pour gérer la relecture partagée de PG Europe. Dès ses débuts, DP Europe est un site multilingue, qui prend en compte les principales langues nationales. Grâce à des traducteurs volontaires, le site de DP Europe est disponible en 12 langues en avril 2004 et 22 langues en mai 2008. L'objectif à moyen terme est d'atteindre 60 langues, avec prise en compte de toutes les langues européennes. DP Europe comptabilise 100 livres numérisés en mai 2005, et 500 livres numérisés en octobre 2008.


Back to IndexNext