Online information 2011 ou le pouls du marché de l’information professionnelle

« Tendances, silences et signaux faibles » sont les thèmes de l’intervention faite le 15 décembre 2011 par Michel Vajou (GFII) pour cette revue d’Online Information, salon qui, à Londres, servait depuis 30 ans de prisme pour une analyse de l’industrie de l’information professionnelle.

MAINSTREAMS

Ce sont les tendances du passé, aujourd’hui intégrées dans les offres des éditeurs.

Le web 2.0, émergent en 2007, est devenu une composante pour tous les éditeurs, tout en restant anecdotique pour les plus grands d’entre eux et sans effet majeur pour le travail documentaire où la dimension collaborative (usagers prescripteurs) a toujours existé.

Les applications pour mobiles, bien qu’handicapées par l’absence de format standard qui oblige à multiplier les versions, se développent, sans avoir toutefois d’impact sur la nature des fonds déclinés en ligne.

Le livre numérique qui, uniquement homothétique en 2007, prend des dimensions 3D et donne lieu à de nombreux projets innovants.

TENDANCES NOUVELLES

Le document 3D. L’article du futur renvoie à des collections de données et comporte des enrichissements (sons et images animées). On compte sur les métadonnées pour rentabiliser les investissements nécessaires à la création de ces documents coûteux, par des offres commerciales ciblées grâce aux traces laissées par les recherches d’information, le revers de ces développements.

Les métadonnées, notion « vieille comme l’information »[1], vont non seulement gagner en profondeur, dans la précision de l’information, mais aussi « exploser dans toutes les directions », chacun des axes de l’information, tridimensionnelle aujourd’hui, ayant ses propres métadonnées.

Les métadonnées conditionnent l’accès à une granularité plus fine de l’information, indispensable pour la nanopublication, notion qui organise la découpe l’information (abstract, chapitre, …) afin d’optimiser la valorisation commerciale des contenus.

Le métadonnées donnent lieu à des gammes de produits d’information comme des index de citations proposés aujourd’hui aussi pour les livres, ou des analyses sémantiques des corpus faisant émerger des connaissances nouvelles « qui ne sont pas issues de la paillasse ».

Si le data mining est loin d’être un concept nouveau, il a atteint un degré de maturité industrielle et tous les éditeurs professionnels s’intéressent aux enrichissements sémantiques de leurs bases. Constituant indéniablement les « lovenotes of the future », on va investir en amont sur ces métadonnées dont on espère décliner de nouvelles valeurs et des produits à la rentabilité incertaine.

SIGNAUX FAIBLES

Un format standard pour le document électronique. Lancé par un consortium d’éditeurs à Francfort en 2008, le standard Epub 3, qui restitue le document électronique quel que  soit l’outil, peine à émerger. Face aux formats propriétaires d’Apple et d’Amazon ou aux rentes de situation de Chemical abstracts, société savante propriétaire du chemical registry, l’adoption de standards ouverts est une question essentielle. Epub 3, qui répond à de nombreux besoins, aurait toutefois vocation à s’imposer, après un bras de fer avec Amazon et Apple.

Un regain d’attention pour les applications multilingues. Abordées dans les années 70, elles ont atteint une maturité, comme le démontre Google qui mise sur les algorithmes statistiques, Ebsco et sa plateforme dédiée aux contenus en langue allemande, ou encore le traitement des alphabets non latins, les pays émergents ayant un poids considérable dans la production scientifique. Les outils déployés pour valoriser les contenus, sont un enjeu important pour le datamining et l’intelligence économique et Google, notamment, ne s’y pas trompé.

L’intérêt porté sur les contenus hors texte qui se traduit par l’apparition de bases d’identifiants normalisés de chercheurs ou de laboratoires de recherche. Ce sont aussi des  applications découlant des analyses sémantiques des corpus de textes (c’est ainsi qu’Elsevier a racheté la société américaine Ariadne Genomics). Mais les rich media (sons et images animées) restent difficiles à décrypter. On peine à absorber l’information qui y est enchâssée, que l’on ne sait ni indexer ni décrire par un algorithme. On est loin de l’enrichissement par les métadonnées sémantiques appliquées au texte et à cet égard la technique doit progresser.

De nouveaux horizons créatifs. Ce sont des niches, comme cette base de données des best sellers oubliés de la littérature britannique. Ce sont surtout les applications passionnantes de l’image avec les fonds historiques de la  presse magazine, et  cet intérêt nouveau donné à la publicité ou à la mode. Ce sont aussi l’archéologie et, de manière générale, toutes les collections muséales, y compris en musicologie qui, numérisées, font partie du champ de l’information professionnelle. C’est aussi un axe de développement pour les bibliothèques et l’on note avec intérêt que le clivage bibliothèque /musée s’estompe.

SIGNES FORTS

L’innovation dans les logiques de discovery, en concurrençant ainsi Google sur son propre terrain. Apparaissent ainsi de nouveaux acteurs et de nouveaux services, qui seront rachetés par Google ou qui survivront en proposant une discovery payante, celle qui évite de voir apparaître Facebook dans les premiers résultats.

La préservation des contenus numérique pour laquelle bibliothèque et éditeurs font des  efforts et pour laquelle de nouveaux développements s’imposent. Un modèle économique de la préservation à long terme dont les coûts sont considérables reste à construire.

L’Open Access, axe central des éditeurs. Perçu auparavant comme fragilisant le modèle des éditeurs, il est adopté par les plus gros d’entre eux pour les nouvelles revues. On le privilégie parce qu’un laboratoire est prêt à payer pour son auteur plus facilement qu’une bibliothèque pour ses abonnements, mais aussi parce le nombre d’articles croit de manière exponentielle, que le chercheur veut que son article soit accessible, et que l’Open Access,  essentiel pour capter la production des connaissances (surtout dans les pays émergents), s’avère extrêmement positif pour le facteur d’impact.

La location d’ouvrage ou d’article, un modèle qui perce. On loue un article ou un ouvrage pour 24 heures, un service déjà proposé par certains agrégateurs de presse. Rien de neuf donc, mais la tendance est désormais ancrée, et les licences d’utilisation délivrées dans ce cadre, pour lesquelles l’éditeur est libre de définir les modalités, n’ont rien de nouveau non plus.

La montée en gamme des pays émergents, comme l’indiquait déjà la Foire de Francfort,  puisque l’Inde, la Chine, le Brésil, mais aussi la Turquie proposent des outils et des plateformes innovantes.

SILENCES

La stratégie des acteurs majeurs. Jusqu’en 1996, les groupes éditoriaux étaient des groupes de communication diversifiés sur une base nationale. Avec la crise des ressources publicitaires, ils se sont défaits des titres grand public qui dépendent  de la publicité, pour se recentrer sur l’information professionnelle. Ils ont surmonté les crises ultérieures par des fusions acquisitions, supplantant largement les éditeurs qui, comme Hachette, restaient grand public. Mais Google, Amazon ou Apple ont des chiffres d’affaires largement supérieurs et c’est Google qui est aujourd’hui le plus gros concurrent d’Elsevier.

L’évolution nécessaire de la propriété intellectuelle. Google qui avait lancé les premiers pétards en voulant anticiper sur le Copyright de l’avenir, s’est trouvé face à des procès. Aujourd’hui tous les grands éditeurs ont signé avec Google qui fait miroiter une valorisation des fonds anciens par la longue traîne pour les ventes hors commerce, un domaine où plane la question des œuvres orphelines et épuisées, objet de discussion en ce moment en France.  Sur un autre plan, au Royaume-Uni, on songe à réviser la loi sur le Copyright et à insérer, au nom de l’intérêt général, une nouvelle exception au droit d’auteur pour le datamining, pour un accès gratuit pour l’utilisateur qui menacerait le modèle économique de l’éditeur.

La crise économique. Se traduisant par des coupes budgétaires et une modification des écosytèmes du monde de l’information,  elle a eu peu d’impact pour les gros éditeurs, en dehors des phénomènes de rachats ayant permis de maintenir une croissance nulle. Mais elle a considérablement fragilisé la presse professionnelle magazine (dans le secteur industriel et médical notamment) qui vivait  de la publicité. La  crise a aussi un  impact sur les budgets des acquisitions ressources documentaires : les Patron driven acquisition (PDA) ou achats par l’utilisateur vont inciter les bibliothèques à rompre avec une vision patrimoniale, à interrompre des abonnements à des collections pour se tourner vers des locations d’articles, par exemple. L’information professionnelle médiée par les bibliothèques va connaître une  évolution profonde des logiques d’achat.

Illustr. εntropyıng ın-bεtwεεn Camεra▲Obscura . . Jef Safi, CC by-nc-nd, FLickr

Note


[1] Et point de départ de l’industrie des bases de données centrée sur des bases bibliographiques, et Chemical abstracts toujours pour la recherche en chimie.

One comment

  1. […] ont été très bien résumés dans les comptes-rendus de Michèle Battisti dans Paralipomènes : – Online Information 2011 ou le pouls du marché de l’information professionnelle – Édition scientifique et professionnelle […]

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *