
J'ai lu quelque part, puisque les commentaires sur le sujet abondent ces jours-ci (pardon de vous en imposer encore un) que les numérisations de Google Books étaient parfois médiocres. Je confirme. Mais j'ajoute que celles de Gallica aussi. Je ne sais pas quelles sont les techniques utilisées de part et d'autre, elles ne doivent en tout cas pas être très différentes, puisque le résultat est comparable. Du coup, la révolution, ou annoncée comme telle, de la recherche sur le texte reste relative. Allez, vous, fouiller un texte bourré de mots non reconnus!
Rendre accessibles des livres anciens est évidemment une excellente chose et prolonge la mission des bibliothèques publiques (ce que Google Books n'est pas, je sais, et il faudra rester attentif). Mais les passer à la volée, après une numérisation approximative, dans un logiciel de reconnaissance optique de caractères, ne suffit pas. On me dira, comme le serinent les optimistes, que ce type de logiciel est de plus en plus performant. Bien sûr. Mais je m'énerve quand un livre oppose à ma lecture une coquille toutes les dix pages. Bien qu'il ait été relu par un correcteur. Alors, qu'on ne me dise pas qu'un logiciel fera mieux qu'un spécialiste bardé de grammaires et de dictionnaires. Je n'arrive pas à y croire.
Je sens que je m'éloigne, là. Pas tant que cela. Car j'aimerais que l'on prenne en compte, aussi, la qualité des ouvrages fournis aux internautes. Comme le font, à des degrés divers, le projet Gutenberg, Ebooks libres & gratuits ou Wikisource. Comme je m'efforce de le faire, dans un domaine précis, dans la Bibliothèque malgache. C'est-à-dire avec une intervention humaine destinée à rendre le texte final digne d'une authentique réédition. C'est une autre histoire? Voire!