Chapter 5

# La Creative Commons

Lancée en 2001 à l'initiative de Lawrence «Larry» Lessig, professeur de droit à la Stanford Law School, en Californie, la licence Creative Commons a elle aussi pour but de favoriser la diffusion d'œuvres numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non exclusives permettent aux titulaires des droits d'autoriser le public à utiliser leurs créations tout en ayant la possibilité de restreindre les exploitations commerciales et les oeuvres dérivées et d’autoriser ou non la reproduction et la rediffusion de leurs œuvres, par exemple. Ces contrats peuvent être utilisés pour tout type de création: texte, film, photo, musique, site web, etc. Finalisée en février 2007, la version 3.0 de la Creative Commons instaure une licence internationale et la compatibilité avec d'autres licences similaires, dont le copyleft et la GPL.

# Qui utilise la licence Creative Commons?

O’Reilly Media par exemple. Fondé par Tim O’Reilly en 1978, O’Reilly Media est un éditeur réputé de manuels informatiques et de livres sur les technologies de pointe. L'éditeur offre d’abord une formule de «copyright ouvert» pour les auteurs qui le souhaitent ou pour des projets collectifs. En 2003, il privilégie le Creative Commons Founders’ Copyright permettant d’offrir des contrats flexibles de droit d’auteur à ceux qui veulent également diffuser leurs oeuvres sur le web.

La Public Library of Science (PLoS) utilise la licence Creative Commons pour les articles de ses périodiques scientifiques et médicaux en ligne gratuits, lancés à partir de 2003. Les articles peuvent être librement diffusés et réutilisés ailleurs, y compris pour des traductions, la seule contrainte étant la mention des auteurs et de la source.

Wikipédia utilise une licence Creative Commons pour les articles de cette grande encyclopédie collaborative en ligne lancée en 2001 et rédigée par des milliers de contributeurs.

Une licence Creative Commons est utilisée pour un million d'oeuvres en 2003, 4,7 millions d'oeuvres en 2004, 20 millions d'oeuvres en 2005, 50 millions d'oeuvres en 2006, 90 millions d'oeuvres en 2007, 130 millions d'oeuvres en 2008 et 350 millions d'oeuvres en avril 2010.

2003 > LA PUBLIC LIBRARY OF SCIENCE

[Résumé] Fondée en octobre 2000, la Public Library of Science (PLoS) devient en janvier 2003 un éditeur de périodiques scientifiques et médicaux en ligne gratuits de haut niveau. Une équipe éditoriale est constituée pour lancer les deux premiers titres - PLoS Biology en octobre 2003 puis PLoS Medicine en 2004 - selon un nouveau modèle d'édition en ligne basé sur la diffusion libre du savoir. Trois nouveaux titres voient le jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS Pathogens. PLoS Clinical Trials est lancé en mai 2006. PLoS Neglected Tropical Diseases voit le jour à l’automne 2007 en tant que première publication scientifique consacrée aux maladies tropicales négligées. Tous les articles peuvent être diffusés et réutilisés ailleurs, y compris pour des traductions, selon les termes de la licence Creative Commons, la seule contrainte étant la mention des auteurs et de la source.

***

Fondée en octobre 2000, la Public Library of Science (PLoS) devient en janvier 2003 un éditeur de périodiques scientifiques et médicaux en ligne gratuits de haut niveau.

Quel est le constat de départ? À l’heure de l’internet, il paraît assez scandaleux que le résultat de travaux de recherche - travaux originaux et demandant de longues années d’efforts - soit «détourné» par des éditeurs spécialisés s’appropriant ce travail et le monnayant au prix fort. L’activité des chercheurs est souvent financée par les deniers publics, et de manière substantielle en Amérique du Nord. Il semblerait donc normal que la communauté scientifique et le grand public puissent bénéficier librement du résultat de ces recherches. Dans le domaine scientifique et médical par exemple, 1.000 nouveaux articles sont publiés quotidiennement, en ne comptant que les articles révisés par les pairs.

# PLoS en tant qu’«agitateur»

Se basant sur ce constat, la Public Library of Science (PLoS) est fondée en octobre 2000 à San Francisco (Californie) à l’initiative de Harold Varmus, Patrick Brown et Michael Eisen, chercheurs dans les Universités de Stanford et de Berkeley. Le but est de contrer les pratiques de l’édition spécialisée en regroupant tous les articles scientifiques et médicaux au sein d’archives en ligne en accès libre. Au lieu d’une information disséminée dans des milliers de périodiques en ligne ayant chacun des conditions d’accès différentes, un point d’accès unique permettrait de lire le contenu intégral de ces articles, avec moteur de recherche multicritères et système d’hyperliens entre les articles.

Pour ce faire, PLoS fait circuler une lettre ouverte demandant que les articles publiés par les éditeurs spécialisés soient distribués librement dans un service d’archives en ligne, et incitant les signataires de cette lettre à promouvoir les éditeurs prêts à soutenir ce projet. La réponse de la communauté scientifique internationale est remarquable. Au cours des deux années suivantes, la lettre ouverte est signée par 30.000 chercheurs dans 180 pays. Bien que la réponse des éditeurs soit nettement moins enthousiaste, plusieurs éditeurs donnent leur accord pour une distribution immédiate des articles publiés par leurs soins, ou alors une distribution dans un délai de six mois. Mais, dans la pratique, même les éditeurs ayant donné leur accord formulent nombre d’objections au nouveau modèle proposé, si bien que le projet d’archives en ligne ne voit finalement pas le jour.

# PLoS en tant qu’éditeur

Un autre objectif de la Public Library of Science est de devenir elle- même éditeur. PLoS fonde donc une maison d’édition scientifique non commerciale qui reçoit en décembre 2002 une subvention de 9 millions de dollars US de la part de la Moore Foundation. Une équipe éditoriale de haut niveau est constituée en janvier 2003 pour lancer des périodiques de qualité selon un nouveau modèle d’édition en ligne basé sur la diffusion libre du savoir.

Le premier numéro de PLoS Biology est disponible en octobre 2003, avec une version en ligne gratuite et une version imprimée au prix coûtant (couvrant uniquement les frais de fabrication et de distribution). PLoS Medicine est lancé en octobre 2004. Trois nouveaux titres voient le jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS Pathogens. PLoS Clinical Trials est lancé en 2006. PLoS Neglected Tropical Diseases voit le jour à l’automne 2007 en tant que première publication scientifique consacrée aux maladies tropicales négligées.

Tous les articles de ces périodiques sont librement accessibles en ligne, sur le site de PLoS et dans PubMed Central, le service d’archives en ligne public et gratuit de la National Library of Medicine (États-Unis), avec moteur de recherche multicritères. Les versions imprimées sont abandonnées en 2006 pour laisser place à un service d’impression à la demande géré par la société Odyssey Press. Les articles peuvent être librement diffusés et réutilisés ailleurs, y compris pour des traductions, selon les termes de la licence Creative Commons, la seule contrainte étant la mention des auteurs et de la source. PLoS lance aussi PLoS ONE, un forum en ligne permettant la publication d’articles sur tout sujet scientifique et médical.

Le succès est total. Trois ans après les débuts de la Public Library of Science en tant qu’éditeur, PLoS Biology et PLos Medicine ont la même réputation d’excellence que les grandes revues Nature, Science ou The New England Journal of Medicine. PLoS reçoit le soutien financier de plusieurs fondations tout en mettant sur pied un modèle économique viable, avec des revenus émanant des frais de publication payés par les auteurs, et émanant aussi de la publicité, des sponsors et des activités destinées aux membres de PLoS. PLoS souhaite en outre que ce modèle économique d’un genre nouveau inspire d’autres éditeurs pour créer des revues du même type ou pour mettre des revues existantes en accès libre.

2003 > HANDICAPZÉRO, L'INTERNET POUR TOUS

[Résumé] Un enjeu important est l’information accessible à tous. Mis en ligne en septembre 2000, le site Handicapzéro devient en février 2003 un portail généraliste offrant un accès adapté à l’information pour les francophones ayant un problème visuel, à savoir plus de 10% de la population. Les aveugles peuvent accéder au site au moyen d’une plage braille ou d’une synthèse vocale. Les malvoyants peuvent paramétrer sur la page d’accueil la taille et la police des caractères ainsi que la couleur du fond d’écran pour une navigation confortable. Les voyants peuvent correspondre en braille avec des aveugles par le biais du site. Plus de 2 millions de visiteurs utilisent les services du portail au cours de l'année 2006. Handicapzéro entend ainsi démontrer «que, sous réserve du respect de certaines règles élémentaires, l’internet peut devenir enfin un espace de liberté pour tous.»

***

Un enjeu important est l’information accessible à tous. Le site Handicapzéro devient en février 2003 un portail généraliste offrant un accès adapté à l’information pour les francophones ayant un problème visuel.

Depuis sa création en 1987, l’association Handicapzéro a pour but d’améliorer l’autonomie de ces personnes, à savoir plus de 10% de la population francophone. En France par exemple, une personne sur mille est aveugle, une personne sur cent est malvoyante et une personne sur deux a des problèmes de vue.

Mis en ligne en septembre 2000, le premier site web de l’association devient rapidement le site adapté le plus visité de France, avec 10.000 requêtes mensuelles.

En février 2003, l'association lance un portail offrant en accès libre l’information nationale et internationale en temps réel (en partenariat avec l’Agence France-Presse), l’actualité sportive (avec L’Équipe), les programmes de télévision (avec Télérama), la météo (avec Météo France) et un moteur de recherche (avec Google), ainsi que toute une gamme de services dans les domaines de la santé, de l’emploi, de la consommation, des loisirs, des sports et de la téléphonie.

Les aveugles peuvent accéder au site au moyen d’une plage braille ou d’une synthèse vocale. Les malvoyants peuvent paramétrer sur la page d’accueil la taille et la police des caractères ainsi que la couleur du fond d’écran pour une navigation confortable, en créant puis modifiant leur profil selon leur potentiel visuel. Ce profil est utilisable aussi pour la lecture de n’importe quel texte situé sur le web, en faisant un copier-coller dans la fenêtre prévue à cet effet. Les voyants peuvent correspondre en braille avec des aveugles par le biais du site, Handicapzéro assurant gratuitement la transcription et l’impression braille des courriers ainsi que leur expédition par voie postale en Europe.

Plus de 2 millions de visiteurs utilisent les services du portail au cours de l'année 2006. Handicapzéro entend ainsi démontrer «que, sous réserve du respect de certaines règles élémentaires, l’internet peut devenir enfin un espace de liberté pour tous.»

Qu’en est-il pour l’accès aux livres? Patrice Cailleaud, directeur de la communication de Handicapzéro, explique en janvier 2001 que, si le livre numérique est «une nouvelle solution complémentaire aux problèmes des personnes aveugles et malvoyantes, (…) les droits et autorisations d’auteurs demeurent des freins pour l’adaptation en braille ou caractères agrandis d’ouvrage. Les démarches sont saupoudrées, longues et n’aboutissent que trop rarement.»

D’où la nécessité impérieuse de lois nationales suite à une loi internationale du droit d’auteur pour les personnes atteintes de déficience visuelle. Dans l’Union européenne, la directive 2001/29/CE de mai 2001 sur «l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information» insiste dans son article 43 sur la nécessité pour les États membres d’adopter «toutes les mesures qui conviennent pour favoriser l’accès aux oeuvres pour les personnes souffrant d’un handicap qui les empêche d’utiliser les oeuvres elles-mêmes, en tenant plus particulièrement compte des formats accessibles». Il reste à appliquer cet article à large échelle.

2003 > LE MATÉRIEL D'ENSEIGNEMENT DU MIT

[Résumé] En septembre 2003, le MIT (Massachusetts Institute of Technology) lance officiellement le MIT OpenCourseWare pour mettre le matériel d'enseignement de ses cours à la disposition de tous, avec accès libre et gratuit. Ce matériel comprend des textes de conférences, des travaux pratiques, des exercices et corrigés, des bibliographies, des documents audio et vidéo, etc. Le site donne accès au matériel d’une centaine de cours en septembre 2003, 500 cours en mars 2004, 1.400 cours en mai 2006 et 1.800 cours en novembre 2007, à savoir la totalité des cours dispensés par le MIT. Le matériel de ces cours est ensuite régulièrement actualisé. Certains cours sont traduits en espagnol, en portugais et en chinois avec l’aide d’autres organismes. En décembre 2005 est lancé en parallèle l'OpenCourseWare Consortium (OCW Consortium) pour proposer le matériel d’enseignement d’autres universités, avec cent universités participantes un an plus tard.

***

Le MIT (Massachusetts Institute of Technology) décide de mettre le matériel d’enseignement de ses cours à la disposition de tous dans un OpenCourseWare, avec accès libre et gratuit.

Qu’est-ce qu’un OpenCourseWare? Un OpenCourseWare peut être défini comme la publication électronique en accès libre du matériel d’enseignement d'un ensemble de cours.

Professeur à l’Université d’Ottawa (Canada), Christian Vandendorpe salue dès mai 2001 «la décision du MIT de placer tout le contenu de ses cours sur le web d’ici dix ans, en le mettant gratuitement à la disposition de tous. Entre les tendances à la privatisation du savoir et celles du partage et de l’ouverture à tous, je crois en fin de compte que c’est cette dernière qui va l’emporter.»

Mise en ligne en septembre 2002, la version pilote du MIT OpenCourseWare (MIT OCW) offre en accès libre le matériel d’enseignement de 32 cours représentatifs des cinq facultés du MIT. Ce matériel d’enseignement comprend des textes de conférences, des travaux pratiques, des exercices et corrigés, des bibliographies, des documents audio et vidéo, etc. Cette initiative est menée avec le soutien financier de la Hewlett Foundation et de la Mellon Foundation.

Le lancement officiel du site a lieu un an plus tard, en septembre 2003, avec accès au matériel d’une centaine de cours. 500 cours sont disponibles en mars 2004 et 1.400 cours en mai 2006. Le matériel de la totalité des 1.800 cours dispensés par le MIT est en ligne en novembre 2007. Il est ensuite régulièrement actualisé. Certains cours sont traduits en espagnol, en portugais et en chinois avec l’aide d’autres organismes.

Le MIT espère que cette expérience de publication électronique - la première du genre - va permettre de définir un standard et une méthode de publication, et va inciter d’autres universités à créer un OpenCourseWare pour la mise à disposition gratuite du matériel de leurs propres cours. A cet effet, le MIT lance l’OpenCourseWare Consortium (OCW Consortium) en décembre 2005, avec accès libre et gratuit au matériel d’enseignement de cent universités dans le monde un an plus tard.

2004 > LE WEB 2.0, COMMUNAUTÉ ET PARTAGE

[Résumé] Le terme «web 2.0» émane d'un éditeur de livres informatiques, Tim O'Reilly, qui l’utilise pour la première fois en 2004 en tant que titre d’une série de conférences qu'il est en train d’organiser. Le web 2.0 est caractérisé par les notions de communauté et de partage, avec une flopée de sites dont le contenu est alimenté par les utilisateurs, par exemple les blogs, les wikis, les sites sociaux et les encyclopédies collaboratives. Wikipédia, Facebook et Twitter bien sûr, mais aussi des dizaines de milliers d'autres. Le web 2.0 tente de répondre au rêve formulé par Tim Berners-Lee, inventeur du web en 1990, qui écrit dans un essai daté d’avril 1998: «Le rêve derrière le web est un espace d'information commun dans lequel nous communiquons en partageant l'information. Son universalité est essentielle, à savoir le fait qu'un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu'une réalisation très sophistiquée.»

***

Le terme «web 2.0» émane d'un éditeur de livres informatiques, Tim O'Reilly, qui l’utilise pour la première fois en 2004 en tant que titre d’une série de conférences qu'il est en train d’organiser.

Le web 2.0 est caractérisé par les notions de communauté et de partage, avec une flopée de sites dont le contenu est alimenté par les utilisateurs, par exemple les blogs, les wikis, les sites sociaux et les encyclopédies collaboratives. Wikipédia, Facebook et Twitter bien sûr, mais aussi des dizaines de milliers d'autres.

# Les blogs envahissent la toile

Un blog (ou blogue) est un journal en ligne tenu par une personne ou un groupe. Ce journal est le plus souvent présenté par ordre chronologique inversé (du plus récent au plus ancien) et il est actualisé d'heure en heure ou bien une fois par mois. Le premier blog apparaît en 1997. En 2004, Le Monde.fr, site du quotidien Le Monde, lance ses propres blogs, «un formidable format d'expression journalistique qui permet un dialogue quasi-instantané avec son lecteur», selon Yann Chapellon, directeur du Monde interactif. En juillet 2005, il y aurait 14 millions de blogs dans le monde, avec 80.000 nouveaux blogs par jour. En décembre 2006, Technorati, moteur de recherche pour blogs puis site spécialisé, recense 65 millions de blogs, avec 175.000 nouveaux blogs par jour. Certains blogs sont consacrés aux photos (photoblogs), à la musique (audioblogs ou podcasts) et aux vidéos (vidéoblogs ou vlogs).

# Les wikis, sites collaboratifs

Un wiki (terme hawaïen signifiant «vite») est un site web permettant à plusieurs utilisateurs de collaborer en ligne sur un même projet. Le concept du wiki devient très populaire en 2000, avec possibilité pour les participants de contribuer à la rédaction du contenu, de modifier ce contenu et de l'enrichir en permanence. Le wiki est utilisé par exemple pour créer et gérer des sites d’information, des dictionnaires et des encyclopédies. Le programme présent derrière l'interface d'un wiki est plus ou moins élaboré. Un programme simple gère des textes et des hyperliens. Un programme élaboré permet d'inclure des images, des graphiques, des tableaux, etc. L'encyclopédie wiki la plus connue est Wikipédia.

# Facebook, réseau social

Facebook est un réseau social fondé en février 2004 par Mark Zuckerberg et ses collègues étudiants. Destiné à l'origine aux étudiants de l'Université de Harvard, puis aux étudiants de toutes les universités américaines, le réseau social s’ouvre au monde en septembre 2006 afin de connecter entre eux des personnes proches (famille, amis, collègues) ou des personnes partageant les mêmes centres d'intérêt. En juin 2010, Facebook devient le deuxième site mondial en nombre de visites, après Google, et fête ses 500 millions d'usagers tout en suscitant des débats sur le respect de la vie privée.

# Twitter, l'information en 140 caractères

Lancé en 2006 par Jack Dorsey et Biz Stone, Twitter est un outil de réseau social et de micro-blogging permettant à l'utilisateur d'envoyer gratuitement des tweets (messages brefs au format texte) de 140 caractères maximum, par messagerie instantanée, par SMS ou via l’internet. Parfois décrit comme le SMS de l'internet, Twitter gagne rapidement une popularité mondiale, avec 106 millions d'usagers en avril 2010 et 300.000 nouveaux usagers par jour. Quant aux tweets, on compte 5.000 tweets quotidiens en 2007, 300.000 en 2008, 2,5 millions en 2009, 50 millions en janvier 2010 et 55 millions en avril 2010, avec un archivage systématique des tweets à usage public par la Bibliothèque du Congrès en tant que reflet des tendances de notre époque.

# Le rêve de Tim Berners-Lee

Comme on le voit, le web 2.0 tente de répondre au rêve formulé par Tim Berners-Lee, inventeur du web en 1990, qui écrit dans un essai daté d’avril 1998: «Le rêve derrière le web est un espace d'information commun dans lequel nous communiquons en partageant l'information. Son universalité est essentielle, à savoir le fait qu'un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu'une réalisation très sophistiquée. Deuxième partie de ce rêve, le web deviendrait d'une utilisation tellement courante qu'il serait un miroir réaliste (sinon la principale incarnation) de la manière dont nous travaillons, jouons et nouons des relations sociales. Une fois que ces interactions seraient en ligne, nous pourrions utiliser nos ordinateurs pour nous aider à les analyser, donner un sens à ce que nous faisons, et voir comment chacun trouve sa place et comment nous pouvons mieux travailler ensemble.» (extrait de «The World Wide Web: A very short personal history»)

2005 > DU PDA AU SMARTPHONE

[Résumé] En avril 2001, on compte 17 millions de PDA dans le monde pour seulement 100.000 tablettes de lecture, d'après un Seybold Report disponible en ligne. 13,2 millions de PDA sont vendus en 2001. Le premier PDA du marché est le Palm Pilot, lancé en mars 1996, avec 23 millions de Palm Pilot vendus entre 1996 et 2002. Suit le Pocket PC de Microsoft en mars 2000 avec son logiciel de lecture Microsoft Reader, disponible ensuite pour toute plateforme Windows. En 2002, la gamme Palm Pilot est toujours le leader du marché (36,8% des PDA vendus), suivi de la gamme Pocket PC de Microsoft et des modèles de Hewlett- Packard, Sony, Handspring, Toshiba et Casio. Les systèmes d'exploitation utilisés sont essentiellement le Palm OS (pour 55% des PDA) et le Pocket PC (pour 25,7% des PDA). Le PDA laisse ensuite progressivement la place au smartphone, du modèle précurseur Nokia 9210 lancé en 2001 à l’iPhone d’Apple lancé en juin 2007.

***

En avril 2001, on compte 17 millions de PDA dans le monde pour seulement 100.000 tablettes de lecture, d'après un Seybold Report disponible en ligne. En 2005, le PDA laisse progressivement la place au smartphone.

# Le Palm Pilot

Basée en Californie, la société Palm lance en mars 1996 le Palm Pilot, premier PDA du marché, et vend 23 millions de Palm Pilot entre 1996 et 2002. Son système d'exploitation est le Palm OS et son logiciel de lecture le Palm Reader. En mars 2001, les usagers peuvent également lire des livres sur le Mobipocket Reader. À la même date, Palm rachète Peanutpress.com, éditeur et distributeur de livres numériques pour PDA, ainsi que son logiciel de lecture Peanut Reader et sa collection de 2.000 titres numériques, transférée dans Palm Digital Media, la librairie numérique de Palm. En juillet 2002, le Palm Reader, jusque-là utilisable sur Palm Pilot et sur Pocket PC, est également utilisable sur ordinateur. À la même date, Palm Digital Media (renommée plus tard Palm eBook Store) distribue 5.500 titres dans plusieurs langues. En 2003, le catalogue approche les 10.000 titres.

Un changement considérable donc pour les adeptes du livre numérique qui, avant l’avènement du Palm Pilot, ne pouvaient lire les livres que sur l’écran de leur ordinateur, portable ou non. Si certains professionnels du livre s'inquiètent de la petitesse de l'écran, les adeptes de la lecture sur PDA sont enthousiastes à l’idée de lire sur un appareil mobile multitâches et ne se plaignent guère de la taille de l'écran.

# L’eBookMan

Lancé par la société Franklin en 2000, l'eBookMan est un PDA multimédia permettant de lire des livres numériques sur le Franklin Reader. Il reçoit l’eBook Technology Award de la Foire internationale de Francfort (Allemagne) en octobre 2000. Trois modèles (EBM-900, EBM-901 et EBM- 911) sont disponibles début 2001, avec une mémoire vive de 8 ou 16 Mo et un écran LCD rétro-éclairé ou non. L’écran est nettement plus grand que celui des autres PDA du marché, mais n'existe qu'en noir et blanc, contrairement à la gamme Pocket PC de Microsoft ou à certains modèles du Palm Pilot avec écran couleur.

L'eBookMan permet l'écoute de livres audionumériques et de fichiers musicaux au format MP3. Le Mobipocket Reader est ajouté au Franklin Reader en octobre 2001. Le Franklin Reader est également proposé par défaut sur les gammes de PDA Psion, Palm et Pocket PC et sur le premier smartphone, lancé la même année par Nokia. Franklin développe aussi une librairie numérique sur son site et passe des partenariats avec plusieurs sociétés, notamment avec Audible.com pour avoir accès à sa collection de 4.500 livres audionumériques.

# D’autres modèles

En avril 2001, on compte 17 millions de PDA dans le monde pour seulement 100.000 tablettes de lecture, d'après un Seybold Report disponible en ligne. 13,2 millions de PDA sont vendus en 2001.

En 2002, la gamme Palm Pilot est toujours le leader du marché (36,8% des PDA vendus), suivi de la gamme Pocket PC de Microsoft lancée en mars 2000 et des modèles de Hewlett-Packard, Sony, Handspring, Toshiba et Casio. Les systèmes d'exploitation utilisés sont essentiellement le Palm OS (pour 55% des PDA) et le Pocket PC (pour 25,7% des PDA).

Pour mémoire, les grands logiciels de lecture sont le Mobipocket Reader (disponible depuis mars 2000), le Microsoft Reader (disponible depuis avril 2000), le Palm Reader (disponible depuis mars 2001), l’Acrobat Reader (disponible depuis mai 2001 pour le Palm Pilot et décembre 2001 pour le Pocket PC) et l’Adobe Reader (lancé en mai 2003 pour remplacer l’Acrobat Reader).

En 2003, des centaines de nouveautés sont vendues en version numérique sur Amazon.com, Barnes & Noble.com, Yahoo! eBook Store ou sur des sites d’éditeurs comme Random House ou PerfectBound. Le catalogue de Palm Digital Media approche les 10.000 titres lisibles sur PDA, avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux clients par semaine. Mobipocket distribue 6.000 titres numériques dans plusieurs langues, soit sur son site soit dans des librairies partenaires. Numilog distribue 3.500 titres numériques (livres et périodiques) en français et en anglais.

En 2004, les trois principaux fabricants de PDA sont Palm, Sony et Hewlett-Packard. Suivent Handspring, Toshiba, Casio et d'autres. Mais le PDA est de plus en plus concurrencé par le smartphone, qui est un téléphone portable doublé d'un PDA, et les ventes commencent à baisser. En février 2005, Sony décide de se retirer du marché des PDA.

# Les smartphones

Le premier smartphone est le Nokia 9210, modèle précurseur lancé en 2001 par la société finlandaise Nokia, grand fabricant mondial de téléphones portables, avec une plateforme Symbian OS. Apparaissent ensuite le Nokia Series 60, le Sony Ericsson P800, puis les modèles de Motorola et de Siemens. Ces différents modèles permettent de lire des livres numériques sur le Mobipocket Reader.

Appelé aussi téléphone multimédia, téléphone multifonctions ou encore téléphone intelligent, le smartphone dispose d’un écran couleur, du son polyphonique et de la fonction appareil photo, qui viennent s'ajouter aux fonctions habituelles du PDA (agenda, dictaphone, lecteur de livres numériques, lecteur de musique, etc.)

Les smartphones représentent 3,7% des ventes de téléphones mobiles en 2004 et 9% des ventes en 2006, à savoir 90 millions de smartphones pour un milliard de téléphones portables comptabilisés sur la planète.

# L’iPhone

Présenté en janvier 2007 par Steve Jobs, l'iPhone, le smartphone d’Apple, est un téléphone mobile multifonctions qui intègre le baladeur de musique iPod (lancé lui-même en octobre 2001), un appareil photo et un navigateur web, avec les caractéristiques suivantes: grand écran tactile (3,5 pouces), synchronisation automatique avec la plateforme iTunes pour télécharger musique et vidéos, appareil photo de 2 mégapixels, navigateur Safari d'Apple, système d'exploitation Mac OS X, téléphonie par les réseaux GSM (Global System for Mobile Telecommunications) et EDGE (Enhanced Data for GSM Evolution), connexion internet via la WiFi (Wireless Fidelity) et enfin connexion Bluetooth.

L'iPhone est lancé en juin 2007 aux États-Unis au prix de 499 dollars US pour le modèle de 4 Go (giga-octets) et 599 dollars pour le modèle de 8 Go. Son lancement à l’international a lieu fin 2007 en Europe et en 2008 en Asie. Le dernier modèle en date est l'iPhone 4, disponible en juin 2010. On attend l’iPhone 5 pour «bientôt» (en juin 2011).

En février 2009, Google Books lance un portail spécifique pour téléphone mobile et smartphone, par exemple sur l'iPhone 3G d'Apple ou sur le G1 de T-Mobile. Le catalogue comprend 1,5 million de livres du domaine public, auxquels s'ajoutent 500.000 autres titres téléchargeables hors des États-Unis, du fait d'une législation du copyright moins restrictive dans certains pays.

2005 > DE GOOGLE PRINT À GOOGLE BOOKS

[Résumé] Google lance Google Print en mai 2005, en partenariat avec des éditeurs et des bibliothèques. Trois mois plus tard, Google Print est suspendu pour une durée indéterminée suite au conflit opposant Google aux associations américaines d'auteurs et d'éditeurs, qui lui reprochent de numériser les livres sans l'accord préalable des ayants droit. Le programme reprend en août 2006 sous le nom de Google Books (Google Livres). La numérisation des fonds de grandes bibliothèques se poursuit, tout comme les partenariats avec les éditeurs qui le souhaitent. Le conflit avec les associations d'auteurs et d'éditeurs se poursuit lui aussi, puisque Google continue de numériser des livres sous droits sans l'autorisation préalable des ayants droit, en invoquant le droit de citation pour présenter des extraits sur le web. Un accord entre les deux parties est proposé par Google en octobre 2008 pour tenter de mettre fin aux actions légales menées à son encontre.

***

Google décide de mettre son expertise au service du livre et lance Google Print en mai 2005 avant de le rebaptiser Google Books en août 2006.

# Google Print

Le lancement de Google Print en mai 2005 est précédé de deux étapes.

En octobre 2004, Google met sur pied la première partie de son programme Google Print, établi en partenariat avec les éditeurs pour pouvoir consulter à l’écran des extraits de livres, puis commander les livres auprès d’une librairie en ligne.

En décembre 2004, Google met sur pied la deuxième partie de son programme Google Print, cette fois à destination des bibliothèques. Il s’agit d’un projet de bibliothèque consistant à numériser les livres appartenant à plusieurs grandes bibliothèques partenaires, à commencer par la bibliothèque de l’Université du Michigan (dans sa totalité, à savoir 7 millions d’ouvrages), les bibliothèques des Universités de Harvard, de Stanford et d’Oxford, et celle de la ville de New York. Le coût estimé au départ se situe entre 150 et 200 millions de dollars US, avec la numérisation de 10 millions de livres sur six ans et un chantier d'une durée totale de dix ans.

En août 2005, soit trois mois après son lancement, Google Print est suspendu pour une durée indéterminée suite à un conflit grandissant avec les associations américaines d'auteurs et d'éditeurs, celles-ci reprochant à Google de numériser des livres sans l'accord préalable des ayants droit.

# Google Books

Le programme reprend en août 2006 sous le nom de Google Books (Google Livres), qui permet de rechercher les livres par date, titre ou éditeur. La numérisation des fonds de grandes bibliothèques se poursuit, tout comme des partenariats avec les éditeurs qui le souhaitent.

Les livres libres de droit sont consultables à l’écran en texte intégral. Leur contenu est copiable et l’impression est possible page à page. Ces livres sont téléchargeables sous la forme de fichiers PDF imprimables dans leur entier. Les liens publicitaires associés aux pages de livres sont situés en haut et à droite de l’écran, comme partout dans Google.

Le conflit avec les associations d'auteurs et d'éditeurs se poursuit, puisque Google continue de numériser des livres sous droits sans l’autorisation préalable des ayants droit, en invoquant le droit de citation pour présenter des extraits sur le web. L’Authors Guild et l’Association of American Publishers (AAP) invoquent pour leur part le non respect de la législation relative au copyright pour attaquer Google en justice.

Fin 2006, d'après le buzz médiatique, Google scannerait 3.000 livres par jour, ce qui représenterait un million de livres par an. Le coût estimé serait de 30 dollars par livre. Google Books comprendrait déjà 3 millions de livres. Tous chiffres à prendre avec précaution, la société ne communiquant pas de statistiques à ce sujet.

À l’exception de la New York Public Library, les premières bibliothèques numérisées sont toutes des bibliothèques universitaires (Harvard, Stanford, Michigan, Oxford, Californie, Virginie, Wisconsin- Madison, Complutense de Madrid), auxquelles s'ajoutent début 2007 les bibliothèques des Universités de Princeton et du Texas à Austin, la Biblioteca de Catalunya (Catalogne, Espagne) et la Bayerische Staatbibliothek (Bavière, Allemagne). En mai 2007, Google annonce la participation de la première bibliothèque francophone, la Bibliothèque cantonale et universitaire (BCU) de Lausanne (Suisse), pour la numérisation de 100.000 titres en français, en allemand et en italien publiés entre le 17e et le 19e siècle. Suit un partenariat avec la Bibliothèque municipale de Lyon (France) signé en juillet 2008 pour numériser 500.000 livres.

# Le conflit avec les associations d’auteurs et d’éditeurs

En octobre 2008, après trois ans de conflit, Google tente de mettre fin aux poursuites émanant des associations d'auteurs et d'éditeurs en proposant un accord pouvant être effectif les années suivantes. L’accord serait basé sur un partage des revenus générés par Google Books ainsi qu'un large accès aux ouvrages épuisés, tout comme le paiement de 125 millions de dollars US à l'Authors Guild et à l'Association of American Publishers (AAP) pour clôturer définitivement ce conflit.

Suite à cet accord, Google pourrait proposer de plus larges extraits de livres, jusqu'à 20% d'un même ouvrage, avec un lien commercial pour acheter une copie - numérique ou non - de l'oeuvre. Les ayants droit auraient la possibilité de participer ou non à Google Books, et donc de retirer leurs livres des collections. Par ailleurs, les bibliothèques universitaires et publiques des États-Unis pourraient accéder à un portail gratuit géré par Google et donnant accès aux textes de millions de livres épuisés. Un abonnement permettrait aux universités et aux écoles de consulter les collections des bibliothèques les plus renommées. À ce jour (juin 2011), suite au rejet de l’accord proposé par Google, la société planche sur d’autres propositions.

En novembre 2008, Google Books comprend 7 millions d'ouvrages numérisés, en partenariat avec 24 bibliothèques et 2.000 éditeurs. Les 24 bibliothèques partenaires se situent principalement aux États-Unis (16), mais aussi en Allemagne (1), en Belgique (1), en Espagne (2), en France (1), au Japon (1), au Royaume-Uni (1) et en Suisse (1).

2005 > L'OPEN CONTENT ALLIANCE, BIBLIOTHÈQUE PLANÉTAIRE

[Résumé] L’Internet Archive s’associe d’abord à Yahoo! en janvier 2005 pour mettre sur pied l’Open Content Alliance (OCA), un projet mondial visant à créer un répertoire libre et multilingue de livres numérisés et de documents multimédia consultable sur tout moteur de recherche. Lancée officiellement en octobre 2005, l’Open Content Alliance souhaite éviter les travers de Google Books, à savoir la numérisation des livres sous droits sans l’accord préalable des éditeurs, tout comme la consultation et le téléchargement impossibles sur un autre moteur de recherche. Le projet regroupe de nombreux partenaires: des bibliothèques et des universités bien sûr, mais aussi des organisations gouvernementales, des associations à but non lucratif, des organismes culturels et des sociétés informatiques (Adobe, Hewlett Packard, Microsoft, Yahoo!, Xerox, etc.). Un million de livres sont consultables en décembre 2008 dans l’Internet Archive et deux millions de livres en mars 2010.

***

En 2005, l’Internet Archive met sur pied l’Open Content Alliance (OCA) pour créer une bibliothèque planétaire publique de livres numérisés et de documents multimédia.

Fondée en avril 1996 par Brewster Kahle pour archiver l’internet, l’Internet Archive pense qu'une bibliothèque numérique à vocation mondiale ne doit pas être liée à des enjeux commerciaux, contrairement au projet Google Books. L’Internet Archive s’associe donc à Yahoo! en janvier 2005 pour mettre sur pied l’Open Content Alliance (OCA), une initiative visant à créer un répertoire libre et multilingue de livres numérisés et de documents multimédia à l’échelon mondial.

L’OCA est officiellement lancée en octobre 2005. Son objectif est de fédérer un grand nombre de partenaires (bibliothèques, universités, organismes gouvernementaux, associations, organismes culturels, sociétés informatiques) pour créer une bibliothèque numérique respectueuse du copyright et sur un modèle ouvert, consultable sur tout moteur de recherche, en évitant les travers de Google Books, à savoir la numérisation des livres sous droits sans l’accord préalable des éditeurs ou des auteurs, et l’utilisation de ces collections uniquement à partir du moteur de recherche de Google.

Les premiers organismes participants sont les bibliothèques des Universités de Californie et de Toronto, les Archives européennes, les Archives nationales du Royaume-Uni, O'Reilly Media et les Prelinger Archives. Seuls les livres appartenant au domaine public sont numérisés, pour éviter les problèmes de copyright auxquels se heurte Google. L'OCA ne numérise les livres sous droits que si les éditeurs ou les auteurs de ces livres ont donné leur accord. Les collections numérisées sont progressivement intégrées à la section Text Archive de l’Internet Archive, avec 100.000 livres numérisés disponibles en décembre 2006 et 200.000 livres disponibles en mai 2007.

En décembre 2006, l’Internet Archive reçoit une subvention d'un million de dollars US de la part de la Sloan Foundation pour numériser les collections du Metropolitan Museum of Art (la totalité des livres et plusieurs milliers d’images) ainsi que certaines collections de la Boston Public Library (les 3.800 livres de la bibliothèque personnelle de John Adams, deuxième président des États-Unis), du Getty Research Institute (une collection de livres d'art), de la John Hopkins University (une collection de documents sur le mouvement anti- esclavagiste) et de l’Université de Californie à Berkeley (une collection de documents sur la ruée vers l’or).

En décembre 2006, tout en participant à l’OCA, Microsoft met en ligne aux États-Unis la version bêta de Live Search Books, sa propre bibliothèque numérique, qui permet une recherche par mots-clés dans sa collection de livres du domaine public. Ces livres sont numérisés par Microsoft suite à des accords passés avec de grandes bibliothèques, les premières étant la British Library et les bibliothèques des Universités de Californie et de Toronto, suivies en janvier 2007 par la New York Public Library et la bibliothèque de la Cornell University. Microsoft compte aussi ajouter des livres sous droits, mais uniquement avec l'accord préalable des éditeurs. En mai 2007, la société annonce des accords avec plusieurs grands éditeurs, dont Cambridge University Press et McGraw Hill. Microsoft met finalement un terme à ce projet en mai 2008. Les 750.000 livres déjà numérisés sont versés dans les collections de l'OCA disponibles dans l’Internet Archive.

Les collections de l’OCA comptent un million de livres numérisés en décembre 2008 et deux millions de livres numérisés en mars 2010.

2006 > LE CATALOGUE COLLECTIF WORLDCAT EN LIGNE

[Résumé] En août 2006, le catalogue collectif mondial WorldCat lance sa version web bêta en accès libre. Géré depuis nombre d’années par l’association OCLC (Online Computer Library Center), WorldCat était jusque-là disponible sur abonnement. Les 73 millions de notices des 10.000 bibliothèques participantes dans 112 pays permettent de localiser un milliard de documents. La migration de WorldCat sur le web est progressive puisque la consultation des notices est d'abord possible via plusieurs moteurs de recherche (Yahoo!, Google et d'autres). Suit la version web gratuite worldcat.org, qui propose non seulement les notices des documents mais aussi un accès direct (gratuit ou payant) aux documents électroniques des bibliothèques membres: livres du domaine public, articles, photos, vidéos, musique et livres audio. WorldCat permet de localiser 1,5 milliard de documents en avril 2010. L’autre grand catalogue mondial, géré par le RLG (Research Libraries Group), fusionne avec OCLC en décembre 2006.

***

En août 2006, l'association OCLC (Online Computer Library Center) lance la version web de son catalogue collectif mondial WorldCat en accès libre.

Qu’est-ce exactement qu’un catalogue collectif? Le but premier d’un catalogue collectif est d’éviter de cataloguer à nouveau un document déjà traité par une bibliothèque partenaire. Si le catalogueur trouve la notice du livre qu’il est censé cataloguer, il la copie pour l’inclure dans le catalogue de sa propre bibliothèque. S’il ne trouve pas la notice, il la crée, et cette notice est aussitôt disponible pour les catalogueurs officiant dans d'autres bibliothèques. De nombreux catalogues collectifs sont gérés à l’échelon local, régional, national ou mondial.

Les deux grands catalogues collectifs mondiaux sont lancés dès les années 1980, respectivement par OCLC (Online Computer Library Center) et par RLG (Research Libraries Group). Vingt ans plus tard, ces deux associations gèrent de gigantesques bases bibliographiques alimentées par leurs adhérents, permettant ainsi aux bibliothèques d’unir leurs forces par-delà les frontières.

# Le catalogue d’OCLC

Fondée en 1967 dans l’Ohio (États-Unis), l’association OCLC gère d'abord l’OCLC Online Union Catalog à partir de 1971 pour desservir les bibliothèques universitaires de l’Ohio avant de s’étendre progressivement à tout le pays puis au monde entier.

Rebaptisé WorldCat et disponible sur abonnement payant, ce catalogue comprend 38 millions de notices en 370 langues en 1998, avec translittération des notices dans les langues JACKPHY, à savoir le japonais, l'arabe, le chinois, le coréen (Korean en anglais), le persan, l'hébreu et le yiddish. Deux millions de notices sont ajoutées au catalogue chaque année. WorldCat utilise huit formats bibliographiques correspondant aux catégories suivantes: livres, périodiques, documents visuels, cartes et plans, documents mixtes (plusieurs supports à la fois), enregistrements sonores, partitions et enfin documents informatiques.

En 2005, 61 millions de notices bibliographiques produites par 9.000 bibliothèques participantes sont disponibles dans 400 langues. En 2006, 73 millions de notices provenant de 10.000 bibliothèques dans 112 pays permettent de localiser un milliard de documents. Une notice type contient la description du document ainsi que des informations sur son contenu (table des matières, résumé, couverture, illustrations, courte biographie de l’auteur).

Devenue la plus grande base mondiale de données bibliographiques, WorldCat migre progressivement sur le web, d’abord en rendant la consultation des notices possible par le biais de plusieurs moteurs de recherche (Yahoo!, Google et d’autres), puis en lançant en août 2006 une version web (bêta) de WorldCat en accès libre, qui propose non seulement les notices des documents mais aussi l'accès direct (gratuit ou payant) aux documents électroniques des bibliothèques membres: livres du domaine public, articles, photos, livres audio, musique et vidéos.

# Le catalogue du RLG

Le deuxième grand catalogue collectif mondial est géré par l’association RLG (Research Library Group, qui devient plus tard le Research Libraries Group). Fondé en 1980 en Californie, avec une antenne à New York, le RLG se donne pour but d’améliorer l’accès à l’information dans le domaine de l’enseignement et de la recherche et lance un catalogue collectif dénommé RLIN (Research Libraries Information Network).

Contrairement à WorldCat qui n'accepte qu'une notice par document, RLIN accepte plusieurs notices pour le même document. En 1998, RLIN comprend 82 millions de notices dans 365 langues, avec des notices translittérées pour les documents publiés dans les langues JACKPHY et en cyrillique. Des centaines de dépôts d’archives, bibliothèques de musées, bibliothèques universitaires, bibliothèques publiques, bibliothèques de droit, bibliothèques techniques, bibliothèques d’entreprise et bibliothèques d’art utilisent RLIN pour le catalogage, le prêt interbibliothèques et le descriptif de leurs archives et manuscrits.

Une des spécialités de RLIN est l’histoire de l’art. Alimentée par 65 bibliothèques spécialisées, une section spécifique comprend 100.000 notices de catalogues d’expositions et 168.500 notices de documents iconographiques (photographies, diapositives, dessins, estampes et affiches). Cette section inclut aussi les 110.000 notices de la base bibliographique Scipio, dédiée au catalogues de ventes d'objets d'art.

En 2003, RLIN devient le RLG Union Catalog, qui comprend désormais 126 millions de notices bibliographiques correspondant à 42 millions de documents (livres, cartes, manuscrits, films, bandes sonores, etc.).

Au printemps 2004, une version web du catalogue est disponible en accès libre sous le nom de RedLightGreen, suite à une phase pilote lancée à l’automne 2003. C’est la première fois qu’un catalogue collectif mondial est en accès libre, trois ans avant WorldCat. Destiné en priorité aux étudiants du premier cycle universitaire, RedLightGreen propose 130 millions de notices, avec des informations spécifiques aux bibliothèques d’un campus donné (cote du document, lien vers sa version en ligne si celle-ci existe, etc.).

Après trois ans d’activité, le site RedLightGreen ferme en novembre 2006, et le RLG fusionne avec OCLC. Les usagers sont invités à utiliser WorldCat, qui dispose d’une version web en accès libre depuis août 2006. En avril 2010, WorldCat permet de localiser 1,5 milliard de documents et d'avoir directement accès à nombre d'entre eux.

2007 > QUEL AVENIR POUR L'EBOOK?

[Résumé] Suite à une enquête lancée fin 2006 sur l’avenir de l’ebook, voici les réponses de deux professionnels du livre: Pierre Schweitzer, concepteur du projet @folio, un lecteur portable de textes, et Denis Zwirn, fondateur de la bibliothèque numérique Numilog. Selon Pierre, «la chance qu’on a tous est de vivre là, ici et maintenant cette transformation fantastique. Quand je suis né en 1963, les ordinateurs avaient comme mémoire quelques pages de caractères à peine. Aujourd’hui, mon baladeur de musique pourrait contenir des milliards de pages, une vraie bibliothèque de quartier. Demain, par l’effet conjugué de la loi de Moore et de l’omniprésence des réseaux, l’accès instantané aux oeuvres et aux savoirs sera de mise. Le support de stockage lui- même n’aura plus beaucoup d’intérêt. Seules importeront les commodités fonctionnelles d’usage et la poétique de ces objets.»

***

Suite à une enquête lancée fin 2006 sur l’avenir de l’ebook, voici les réponses de deux professionnels du livre: Pierre Schweitzer, concepteur du projet @folio, un lecteur portable de textes, et Denis Zwirn, fondateur de la bibliothèque numérique Numilog.

# «La poétique des objets»

Concepteur du projet @folio, un lecteur portable de textes, Pierre Schweitzer explique en décembre 2006: «La lecture numérique dépasse de loin, de très loin même, la seule question du "livre" ou de la presse. Le livre et le journal restent et resteront encore, pour longtemps, des supports de lecture techniquement indépassables pour les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion. Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits" la presse grand public), je ne vois pas de bouleversement radical à l’échelle d’une seule génération. Au-delà de cette génération, l’avenir nous le dira. On verra bien. Pour autant, d’autres types de contenus se développent sur les réseaux. Internet défie l’imprimé sur ce terrain- là: celui de la diffusion en réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où l’imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs peuvent venir prendre leur place.

Or, dans ce domaine nouveau, les équilibres économiques et les logiques d’adoption sont radicalement différents de ceux que l’on connaît dans l’empire du papier - voir par exemple l’évolution des systèmes de validation pour les archives ouvertes dans la publication scientifique ou les modèles économiques émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir transformer au forceps l’écologie du papier - on la ruinerait à vouloir le faire! À la marge, certains contenus très spécifiques, certaines niches éditoriales, pourraient être transformées - l’encyclopédie ou la publication scientifique le sont déjà. De la même façon, les guides pratiques, les livres d’actualité quasi-jetables et quelques autres segments qui envahissent les tables des librairies pourraient l’être, pour le plus grand bonheur des libraires. Mais il n’y a là rien de massif ou brutal selon moi. Nos habitudes de lecture ne seront pas bouleversées du jour au lendemain, elles font partie de nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur adoption (= acceptation) par les générations nouvelles.»

Selon Pierre, «la chance qu’on a tous est de vivre là, ici et maintenant cette transformation fantastique. Quand je suis né en 1963, les ordinateurs avaient comme mémoire quelques pages de caractères à peine. Aujourd’hui, mon baladeur de musique pourrait contenir des milliards de pages, une vraie bibliothèque de quartier. Demain, par l’effet conjugué de la loi de Moore et de l’omniprésence des réseaux, l’accès instantané aux oeuvres et aux savoirs sera de mise. Le support de stockage lui-même n’aura plus beaucoup d’intérêt. Seules importeront les commodités fonctionnelles d’usage et la poétique de ces objets.»

# «Un produit commercial»

Selon Denis Zwirn, fondateur de la librairie numérique Numilog, interviewé en août 2007, on peu noter «un premier point d'inflexion dans la courbe de croissance du marché des livres numériques. Plusieurs facteurs sont réunis pour cela:

(1) le développement de vastes catalogues en ligne utilisant pleinement les fonctionnalités de la recherche plein texte dans les livres numérisés, comme les catalogues de la future Bibliothèque numérique européenne, de VollTextSuche Online, de Google et d'Amazon. Une fois le contenu trouvé dans un des ouvrages ainsi "sondé" par ce type de recherche révolutionnaire pour le grand public, il est naturel de vouloir accéder à la totalité de l'ouvrage… dans sa version numérique.

(2) Des progrès techniques cruciaux tels que la proposition commerciale d'appareils de lecture à base d'encre électronique améliorant radicalement l'expérience de lecture finale pour l'usager en la rapprochant de celle du papier. Par exemple l'iLiad d'Irex ou le Sony Reader, mais bien d'autres appareils s'annoncent. Le progrès concerne toutefois tout autant le développement des nouveaux smartphones multifonctions comme les BlackBerry ou l'iPhone, ou la proposition de logiciels de lecture à l'interface fortement améliorée et pensée pour les ebooks sur PC, comme Adobe Digital Editions.

(3) Enfin, le changement important d'attitude de la part des professionnels du secteur, éditeurs, et probablement bientôt aussi libraires. Les éditeurs anglo-saxons universitaires ont massivement tracé une route que tous les autres sont en train de suivre, en tout cas aux États-Unis, en Europe du Nord et en France: proposer une version numérique de tous les ouvrages. Même pour les plus réticents encore il y a quelques années, ce n'est plus une question de "pourquoi?", c'est simplement devenu une question de "comment?". Les libraires ne vont pas tarder à considérer que vendre un livre numérique fait partie de leur métier normal.»

Selon Denis, «le livre numérique n'est plus une question de colloque, de définition conceptuelle ou de divination par certains "experts": c'est un produit commercial et un outil au service de la lecture. Il n'est pas besoin d'attendre je ne sais quel nouveau mode de lecture hypermoderne et hypertextuel enrichi de multimédia orchestrant savamment sa spécificité par rapport au papier, il suffit de proposer des textes lisibles facilement sur les supports de lecture électronique variés qu'utilisent les gens, l'encre électronique pouvant progressivement envahir tous ces supports. Et de les proposer de manière industrielle. Ce n'est pas et ne sera jamais un produit de niche (les dictionnaires, les guides de voyage, les livres pour les non voyants…): c'est en train de devenir un produit de masse, riche de formes multiples comme l'est le livre traditionnel.»

2007 > CITIZENDIUM, ENCYCLOPÉDIE EXPÉRIMENTALE

[Résumé] Citizendium - acronyme de «The Citizens' Compendium» - est une encyclopédie collaborative expérimentale lancée en mars 2007 (en version bêta) par Larry Sanger, auparavant co-fondateur de Wikipédia avec Jimmy Wales. Citizendium est une encyclopédie coopérative gratuite, tout comme Wikipédia, mais, d’après Larry, sans ses travers, à savoir le vandalisme, le manque de rigueur et l'utilisation d'un pseudonyme pour y contribuer. Les auteurs signent leurs articles de leur vrai nom et ces articles sont relus et corrigés par des «editors», âgés d'au moins 25 ans et titulaires d'une licence universitaire. De plus, des «constables» sont chargés de la bonne marche du projet et du respect du règlement. Le jour de son lancement le 25 mars 2007, Citizendium comptabilise 1.100 articles, 820 auteurs et 180 experts. L’encyclopédie comprend 11.800 articles en juillet 2009 et 15.000 articles en septembre 2010.

***

Citizendium est une encyclopédie collaborative expérimentale lancée en mars 2007 par Larry Sanger, co-fondateur de Wikipédia.

Acronyme de «The Citizens’ Compendium», Citizendium est une encyclopédie coopérative et gratuite, tout comme Wikipédia, mais, d’après Larry, sans ses travers, à savoir le vandalisme, le manque de rigueur et l'utilisation d'un pseudonyme pour y participer. Les auteurs signent leurs articles de leur vrai nom et ces articles sont relus et corrigés par des «editors» âgés d'au moins 25 ans et titulaires d'une licence universitaire. De plus, des «constables» sont chargés de la bonne marche du projet et du respect du règlement. Le jour de son lancement le 25 mars 2007, suite à une gestation débutée en novembre 2006, Citizendium comptabilise 1.100 articles, 820 auteurs et 180 experts. L’encyclopédie comprend 9.800 articles en janvier 2009 et 15.000 articles en septembre 2010.

Dans «Why make room for experts in web 2.0?» (Pourquoi accorder une place aux experts dans le web 2.0?), un article en ligne daté d'octobre 2006 et actualisé en mars 2007, Larry Sanger voit dans Citizendium l'émergence d'un nouveau modèle de collaboration massive de dizaines de milliers d'intellectuels et scientifiques, non seulement pour les encyclopédies, mais aussi pour les manuels d'enseignement, les ouvrages de référence, le multimédia et les applications en 3D. Cette collaboration serait basée sur le partage des connaissances, dans la lignée du web 2.0, un concept lancé en 2004 pour caractériser les notions de communauté et de partage et qui se manifeste d'abord par une floraison de wikis, de blogs et de sites sociaux. D'après Larry, on pourrait également créer des structures de type web 2.0 pour des collaborations scientifiques, et Citizendium pourrait servir de prototype dans ce domaine.

2007 > L'ENCYCLOPEDIA OF LIFE, PROJET GLOBAL

[Résumé] L’Encyclopedia of Life (EOL) débute en mai 2007 en tant que projet global visant à regrouper les connaissances existantes sur les espèces animales et végétales. Les espèces connues seraient au nombre de 1,8 million, y compris les espèces en voie d’extinction, avec l’ajout de nouvelles espèces au fur et à mesure de leur identification, ce qui représenterait entre 8 et 10 millions d'espèces en tout. Outil d’apprentissage et d’enseignement pour une meilleure connaissance de notre planète, cette encyclopédie collaborative multimédia sera à destination de tous: scientifiques, enseignants, étudiants, scolaires, médias, décideurs et grand public, qui pourront y contribuer directement, le contenu étant ensuite validé ou non par des experts. L’encyclopédie devrait être pleinement opérationnelle en 2012 et complète - c'est-à-dire à jour - en 2017. Des versions en plusieurs langues seront gérées par des organismes partenaires.

***

L’Encyclopedia of Life (EOL) débute en mai 2007 en tant que projet global visant à regrouper les connaissances existantes sur les espèces animales et végétales.

Les espèces connues seraient au nombre de 1,8 million, y compris les espèces en voie d’extinction, avec l’ajout de nouvelles espèces au fur et à mesure de leur identification, ce qui représenterait entre 8 et 10 millions d'espèces en tout.

Ce projet collaboratif est mené par plusieurs grandes institutions:Field Museum of Natural History, Harvard University, Marine BiologicalLaboratory, Missouri Botanical Garden, Smithsonian Institution etBiodiversity Heritage Library.

Le financement initial de l'Encyclopedia of Life est assuré par la MacArthur Foundation avec 10 millions de dollars US et la Sloan Foundation avec 2,5 millions de dollars. Un financement total de 100 millions de dollars serait nécessaire sur dix ans, avant que l'encyclopédie ne puisse s'autofinancer.

Le directeur honoraire du projet est Edward Wilson, professeur émérite à l’Université de Harvard, qui, dans un essai daté de 2002, fut le premier à émettre le voeu d’une telle encyclopédie. Cinq ans plus tard, en 2007, c'est désormais chose possible grâce aux avancées technologiques récentes: outils logiciels permettant l’agrégation de contenu, mash-up (à savoir le fait de rassembler un contenu donné à partir de nombreuses sources différentes), wikis de grande taille et gestion de contenus à vaste échelle.

Cette encyclopédie collaborative multimédia permettra de rassembler textes, photos, cartes, bandes sonores et vidéos, avec une page web par espèce, en offrant un portail commun à des millions de documents épars, en ligne et hors ligne. Outil d’apprentissage et d’enseignement pour une meilleure connaissance de notre planète, l'encyclopédie sera à destination de tous: scientifiques, enseignants, étudiants, scolaires, médias, décideurs et grand public, qui pourront y contribuer directement, le contenu étant ensuite validé ou non par des experts.

En qualité de consortium des dix plus grandes bibliothèques des sciences de la vie, qui s’ouvrira ensuite à d’autres bibliothèques, la Biodiversity Heritage Library entreprend la numérisation de 2 millions de documents dont les dates de publication s’étalent sur deux cents ans, pour intégration progressive dans l'Encyclopedia of Life. En mai 2007, à la date du lancement officiel du projet, on compte déjà 1,25 million de pages traitées dans les centres de numérisation de Londres, Boston et Washington, D.C. Les documents numérisés sont disponibles au fur et à mesure dans l’Internet Archive.

Si la réalisation des pages web débute courant 2007, l’encyclopédie fait ses réels débuts sur la toile à la mi-2008. Elle devrait être pleinement opérationnelle en 2012 et complète - c'est-à-dire à jour - en 2017.

L'encyclopédie sera un «macroscope» permettant de déceler les grandes tendances à partir d’un stock d’informations considérable, à la différence du microscope permettant l’étude de détail. La version initiale sera d’abord en anglais avant d’être traduite en plusieurs langues par de futurs organismes partenaires.

2009 > INDISCRIPTS, LABORATOIRE DE SCRIPTS INDESIGN

[Résumé] Marc Autret, infographiste, a derrière lui dix ans de journalisme multi-tâches et de formation en ligne dans les domaines de l’édition, du multimédia et du droit d’auteur. Il explique en décembre 2006: «Je suis un "artisan" de l’information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j’ai du pain sur la planche pour pas mal d’années. Aujourd’hui je me concentre sur le conseil, l’infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l’animation 3D, l’automatisation des tâches de production, l’intégration multi- supports, la base de données et toutes les technologies issues de XML [eXtensible Markup Language] vont s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C’est là que je vois l’évolution, ou plutôt l’intensification, de mon travail.» En mai 2009, Marc crée le site Indiscripts, laboratoire de scripts InDesign.

***

Marc Autret, infographiste, a derrière lui dix ans de journalisme multi-tâches et de formation en ligne dans les domaines de l’édition, du multimédia et du droit d’auteur. Il explique en décembre 2006: «C’est un "socle" irremplaçable pour mes activités d’aujourd’hui, qui en sont le prolongement technique. Je suis un "artisan" de l’information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j’ai du pain sur la planche pour pas mal d’années. Aujourd’hui je me concentre sur le conseil, l’infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l’animation 3D, l’automatisation des tâches de production, l’intégration multi- supports, la base de données et toutes les technologies issues de XML [eXtensible Markup Language] vont s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C’est là que je vois l’évolution, ou plutôt l’intensification, de mon travail.»

Comment Marc voit-il l'avenir de l'ebook? «Sans vouloir faire dans la divination, je suis convaincu que l’e-book (ou "ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en terme de support physique dédié (les conjectures étant plus incertaines sur ce dernier point). Les éditeurs de guides, d’encyclopédies et d’ouvrages informatifs en général considèrent encore l’e-book comme une déclinaison très secondaire du livre imprimé, sans doute parce que le modèle commercial et la sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés aujourd’hui. Mais c’est une question de temps. Les e-books non commerciaux émergent déjà un peu partout et opèrent d’une certaine façon un défrichage des possibles. Il y a au moins deux axes qui émergent: (a) une interface de lecture/consultation de plus en plus attractive et fonctionnelle (navigation, recherche, restructuration à la volée, annotations de l’utilisateur, quizz interactif, etc.); (b) une intégration multimédia (vidéo, son, infographie animée, base de données, etc.) désormais fortement couplée au web. Aucun livre physique n’offre de telles fonctionnalités. J’imagine donc l’e-book de demain comme une sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur propre? Celle d’un livre: l’unité et la qualité du travail éditorial!»

Marc lance en mai 2009 son site Indiscripts, qui est «un laboratoire de scripts InDesign. On y explore l'automatisation de mise en page, les techniques de scripting et le développement de plugins dans le contexte d'Adobe InDesign. Plus largement, notre ambition est d'illustrer les possibilités offertes par le langage JavaScript au sein des applications Adobe et d'informer utilement les créateurs de scripts.»

Marc réalise de beaux livres interactifs au format PDF. Quel est son sentiment sur la «concurrence» entre les formats PDF et EPUB? Il répond en juin 2011: «Je déplore que l'émergence de l'EPUB ait provoqué l'anéantissement pur et simple du PDF comme format de livre numérique. Le fait que les éléments d'interactivité disponibles au sein du PDF ne soient pas supportés par les plateformes nomades actuelles a aboli toute possibilité d'expérimentation dans cette voie, qui m'apparaissait extrêmement prometteuse. Alors que l'édition imprimée fait la place à des objets de nature très différentes, entre le livre d'art de très haute facture et le livre "tout terrain", le marché de l'ebook s'est développé d'emblée sur un mode totalitaire et ségrégationniste, comparable en cela à une guerre de systèmes d'exploitation plutôt qu'à une émulation technique et culturelle. De fait, il existe fort peu de livres numériques PDF tirant parti des possibilités de ce format.

Dans l'inconscient collectif, le PDF reste une sorte de duplicata statique de l'ouvrage imprimé et personne ne veut lui voir d'autre destin. L'EPUB, qui n'est rien d'autre qu'une combinaison XHTML/CSS (certes avec des perspectives JavaScript), consiste à mettre le livre numérique "au pas" du Web. C'est une technologie très favorable aux contenus structurés, mais très défavorable à l'artisanat typographique. Elle introduit une vision étroite de l'oeuvre numérique, réduite à un flux d'information. On ne le mesure pas encore, mais la pire catastrophe culturelle de ces dernières décennies est l'avènement du XML, ce langage qui précalibre et contamine notre façon de penser les hiérarchies. Le XML et ses avatars achèvent de nous enfermer dans les invariants culturels occidentaux.»

2010 > DU LIBRIÉ A L'IPAD

[Résumé] L'iPad est lancé par Apple en avril 2010 aux États-Unis en tant que tablette numérique multifonctions, six ans après le Librié lancé par Sony en avril 2004 au Japon. Comme on s’en souvient, les premières tablettes électroniques dédiées à la lecture sont le Rocket eBook (1998), le SoftBook Reader (1998) et le Gemstar eBook (novembre 2000), qui ne durent pas. Après une période morose qui voit la montée de la lecture sur PDA puis sur smartphone, des tablettes plus légères gagnent en puissance et en qualité d'écran grâce à la technologie E Ink. Ces nouvelles tablettes sont par exemple le Librié de Sony (avril 2004), le Cybook 2e génération (juin 2004), le Sony Reader (septembre 2006), le Kindle d'Amazon (novembre 2007), le Nook de Barnes & Noble (novembre 2009) et l'iPad d'Apple (avril 2010). La compétition est rude sur un marché prometteur, en attendant les possibilités de lecture multimédia / hypermédia et de lecture en 3D sur des supports flexibles.

***

L'iPad est lancé par Apple en avril 2010 aux États-Unis en tant que tablette numérique multifonctions, six ans après le Librié lancé par Sony en avril 2004 au Japon.

Comme on s’en souvient, les premières tablettes électroniques dédiées à la lecture sont le Rocket eBook (1998), le SoftBook Reader (1998) et le Gemstar eBook (novembre 2000), qui ne durent pas. Après une période morose qui voit la montée de la lecture sur PDA puis sur smartphone, des tablettes plus légères gagnent en puissance et en qualité d'écran, avec l’introduction de la technologie E Ink. Ces nouvelles tablettes sont par exemple le Librié de Sony (avril 2004), le Cybook 2e génération (juin 2004), le Sony Reader (septembre 2006), le Kindle d'Amazon (novembre 2007), le Nook de Barnes & Noble (novembre 2009) et l'iPad d'Apple (avril 2010).

# Le Librié (Sony)

En avril 2004, Sony lance au Japon sa première tablette de lecture, le Librié 1000-EP, produit en partenariat avec les sociétés Philips et E Ink. Le Librié est la première tablette du marché à utiliser la technologie d’affichage développée par la société E Ink. L’appareil pèse 300 grammes (avec piles et protection d’écran) pour une taille de 12,6 x 19 x 1,3 centimètres et fonctionne avec quatre piles alcalines. Sa mémoire est de 10 Mo - avec possibilité d’extension - et sa capacité de stockage de 500 livres. Son écran de 6 pouces a une définition de 170 DPI et une résolution de 800 x 600 pixels. Un port USB permet le téléchargement des livres à partir d’un ordinateur. L’appareil comprend aussi un clavier, une fonction d'enregistrement et une synthèse vocale.

# Le Cybook (Bookeen)

Suite au lancement du Cybook dès janvier 2001 par la société Cytale en tant que première tablette de lecture européenne, avec cessation des activités de Cytale en juillet 2002, la commercialisation du Cybook est reprise en 2003 par la société Bookeen, créée à l'initiative de Michael Dahan et Laurent Picard, deux ingénieurs de Cytale. Le Cybook 2e génération est lancé en juin 2004 et se décline en plusieurs modèles. En juillet 2007, Bookeen dévoile une nouvelle version de sa tablette, baptisée Cybook Gen3 (3e génération), avec un écran utilisant pour la première fois la technologie E Ink.


Back to IndexNext