Expérimenter les humanités numériques Des outils individuels aux projets collectifs
  • Étienne Cavalié
  • Frédéric Clavert
  • Olivier Legendre
  • Dana Martin
Chapitre 8

L’édition électronique de manuscrits modernes

  • Fatiha Idmhand
  • Claire Riffard
  • Richard Walter

Dans les années 1970, la critique génétique a bouleversé le champ des études littéraires en introduisant les manuscrits et les brouillons des écrivains dans l’interprétation critique de l’œuvre. Après que la « ouvelle critique » a révolutionné l’analyse des textes littéraires en leur appliquant les procédés de la linguistique structurale et que Roland Barthes a théorisé ces méthodologies dans des écrits de référence [1], l’approche dite « génétique » a proposé de dépasser cette forme d’analyse du texte relativement fermée en prospectant du côté de sa genèse. Si la génétique a hérité des avancées du structuralisme, elle s’est, toutefois, immédiatement située à contre-courant du modèle en vogue en remettant la figure de l’auteur au cœur de l’analyse et en décloisonnant l’étude critique du texte qu’elle situe dans un processus d’écriture. L’introduction de concepts novateurs comme ceux d’« avant-texte » (Bellemin-Noël, 1971) et de « dossier génétique », mais aussi la publication d’écrits et d’ouvrages de référence [2], ont permis aux généticiens de développer et d’asseoir une méthodologie aujourd’hui reconnue et diffusée dans le monde entier. À l’instar de la variantistica italienne [3], la génétique a une approche multidimensionnelle de l’écrit : elle tient compte de la chronologie des événements qui ont donné naissance à l’œuvre, du contexte dans lequel celle-ci a émergé et des moyens mis en œuvre par l’auteur pour exécuter son projet. L’étude génétique vise surtout à mettre en évidence ce processus de fabrication de l’œuvre. La singularité de cette approche constitue l’un de ses obstacles, depuis des années, lorsque cette science se propose de publier les sources de sa recherche. Une édition rigoureuse de ce matériau, accompagné des interprétations scientifiques du chercheur, suppose la publication d’une masse documentaire très importante, bien supérieure au texte final et signifie la mise en place d’un protocole éditorial modulable selon l’écrivain, selon le corpus et l’hétérogénéité du dossier de genèse. Aussi, à moins de centrer la publication sur une unité réduite (un poème, un chapitre, un croquis), les contraintes de l’édition sur papier n’ont jamais permis la réalisation de telles publications : il semblerait donc que seules les technologies numériques soient en mesure de résoudre ce problème éditorial. Un tel changement de paradigme ne soulève-t-il pas de nouvelles questions ?

Les enjeux de l’édition critique et génétique

Il faut avant tout insister sur un préalable non négligeable, celui de l’existence des sources. La conservation de traces du processus de création (archives, premiers jets, ébauches, brouillons manuscrits ou dactylographiés, etc.) est une condition nécessaire à l’analyse génétique ; or s’il est vrai qu’en France, depuis la fin du XIXe siècle et le legs historique de Victor Hugo (testament du 31 août 1881 [4]) à la Bibliothèque nationale de France (BNF), les écrivains ont régulièrement légué leurs fonds aux bibliothèques, dans les autres pays d’Europe ou du monde, le legs ou le dépôt à l’institution publique restent inhabituels ; il est plutôt courant que les manuscrits soient vendus à des privés ou à des bibliothèques, engendrant ainsi la dispersion des fonds. Parfois, ce sont des ayants droit privés qui se proposent d’assumer la conservation des fonds et qui agissent sur ceux-ci en fonction de leurs capacités financières, comme cela a été le cas des archives africaines et latino-américaines qui sont au cœur de notre expérience.

Le généticien qui travaille sur de telles archives dépend de la disponibilité de ces sources primaires et des aléas juridiques inhérents à l’histoire de ces patrimoines et des pays dans lesquels ils sont conservés. Lorsqu’on a levé l’ensemble de ces verrous privés ou institutionnels, le travail du généticien est d’abord celui d’un archiviste : il récolte, classe et traite les documents en vue de leur étude scientifique et de leur communication au public. À cette étape, et en raison de ces contextes, la numérisation revêt deux fonctions essentielles : elle permet une première préservation des archives, préalable au dépôt (physique) des originaux dans un lieu de conservation pérenne, et elle facilite l’accès des chercheurs aux données génétiques.

Lorsqu’il a pu accéder aux fonds, le généticien suit alors un protocole très précis : il parcourt la masse documentaire dans le but de reconstituer la chronologie de l’écriture puis organise cet ensemble en « phases génétiques » et en « états rédactionnels » ou « génétiques [5] ». Ce premier classement est capital car il permet de constituer le « dossier génétique [6] », c’est-à-dire le dossier qui rassemble l’ensemble des documents utilisés par l’écrivain pour réaliser son œuvre, depuis les brouillons et les ébauches scripturaires (feuillets libres, dessins, carnets, etc.) jusqu’aux documents qu’il a consultés (on parlera de sources exogénétiques comme les journaux, les revues, les livres, etc.) et aux échanges qu’il a eus avec d’autres sur son projet (lettres, courriers, etc.). Ce dossier, qui est une production critique du chercheur, est une « part essentielle de la recherche, non seulement par les difficultés propres au déchiffrage et à la transcription des documents mais surtout par l’exigence d’un classement exhaustif qui suppose, en réalité, que le dossier publié ait été au préalable presque entièrement élucidé [7] » : il est l’élément-clé de l’édition scientifique des brouillons.

L’édition génétique ne vise donc pas uniquement à établir un texte, elle ambitionne de présenter les étapes situées en amont et rendues compréhensibles grâce au récit de genèse. Bien sûr, elle pourrait « légitimement se contenter […] de reproduire en fac-similé le dossier génétique complet, en l’accompagnant d’un classement génétique des documents et de leurs sous-parties […] et d’une représentation ou explication des processus génétiques sous-jacents [8] » mais la richesse d’une telle édition génétique réside dans la plus-value apportée par l’éditeur scientifique qui révèle les chemins de traverse empruntés par l’écrivain pour construire son œuvre. Deux possibilités s’offrent à lui pour mettre en évidence cette genèse : une présentation qui permette de découvrir un moment précis de la genèse en ciblant, dans le dossier génétique, une étape ou une phase particulière (dans son épaisseur spatio-temporelle) ou la mise en lumière d’une succession de strates différentes parcourues dans leur chronologie. Pour distinguer ces deux approches, consubstantielles en réalité, Pierre-Marc de Biasi parle d’horizontalité et de verticalité ; pour lui, l’édition doit tenir compte de ces « mécanismes génétiques inséparables de leur inscription temporelle dans une durée complexe et de leur déploiement dans le volume qu’occupent concrètement les documents [9] ». Les notions d’éditions horizontale et verticale ne sont peut-être pas appropriées pour refléter les possibilités de l’édition électronique, elles traduisent néanmoins les deux dimensions dans lesquelles s’inscrit l’édition génétique des manuscrits. Quels sont donc, à ce stade, les enjeux de l’édition numérique pour notre domaine ?

Soulignons d’abord que le basculement technologique ne modifie aucunement certains préalables de la recherche en génétique, celle-ci requiert toujours la même approche méthodologique : d’abord le classement du corpus et l’organisation des avant-textes dans l’ordre chronologique de leur apparition et selon les différentes phases de la genèse du projet, ensuite, la constitution du dossier génétique qui regroupe tous les documents qui ont eu, selon les phases, une incidence sur le processus de création. Ce dossier, qui rassemble les différents états génétiques de l’œuvre et toutes les sources de l’« exogenèse », suppose un traitement singulier en raison de son caractère multidimensionnel (et exponentiel). D’abord parce qu’en fonction de l’écrivain étudié, de son époque et de l’évolution des pratiques scripturaires, la nature des objets qui le constituent se diversifie avec le temps : manuscrits, copies dactylographiées et photos imprimées s’enrichissent, au fil des années, de nouveaux objets et de nouvelles ressources. Témoins des différentes révolutions technologiques que nous avons connues, les supports évoluent (cassettes, CDs, DVDs, disquettes, clés USB, disques durs, etc.), bouleversent le profil matériel des documents du dossier de genèse et induisent des traitements (numérisation, archivage, etc.) qui engendrent à leur tour de nouvelles réflexions épistémologiques sur les conditions de sauvegarde de ces sources, notamment lorsqu’elles sont nativement numériques. On pourrait d’ailleurs penser que l’édition électronique est en mesure d’intégrer, plus facilement que le papier, les éléments du dossier de genèse nativement numériques qui ne faisaient pas partie de l’édition papier, et pour cause ! Pourtant, le processus n’est pas si simple.

En effet, si la transition massive vers le numérique semble inéluctable, la perte de données l’est également si on ne réalise aucune structuration de l’information à archiver et si on n’anticipe pas le respect des normes et des standards, des méthodes et des coutumes, actuelles et futures. Le passage au numérique exige par conséquent une préparation en amont très fine (mesure des répercussions de l’édition, choix des outils et des méthodes, etc.) car chaque option peut avoir des conséquences irréversibles. L’expertise du généticien doit aujourd’hui intégrer les nouveaux horizons de cet environnement numérique avec, forcément, de nouveaux enjeux. Il semble ainsi évident, par exemple, que les possibilités de visualisation des processus génétiques fins (diverses campagnes d’écriture sur un état, rapprochement de différents états du même texte, relations avec des éléments d’exogenèse) sont démultipliées. Toutefois, il faut souligner que le basculement technologique ne modifie ni les étapes de la recherche génétique ni les principes éditoriaux d’une publication scientifique ; on ne sera donc pas étonné d’apprendre que la publication du dossier génétique reste l’enjeu principal de l’édition électronique et que, comme toute édition de ce type, elle répond préalablement aux règles scientifiques du domaine de recherche et à des règles éditoriales propres au numérique, à des normes et des standards destinés à faciliter l’échange d’informations d’une part, mais également la conservation à long terme de celles-ci.

Numériser et éditer un manuscrit, dans notre domaine, suppose par conséquent la prise en compte des différentes dimensions de l’objet (documentaire, archivistique, génétique), dont le contenu comporte des informations de multiples natures qui devront être structurées (usage de descripteurs, de normes et de règles différentes). À chaque étape du projet, le chercheur fait face à des choix de différentes natures selon les niveaux de l’édition qu’il envisage : d’un côté l’édition scientifique, de l’autre les contraintes techniques ; d’un côté l’interopérabilité nécessaire en vue de la mutualisation, de l’autre des choix technologiques spécifiques, en fonction de besoins propres. L’édition génétique numérique doit obéir à ces exigences, avec la même qualité que l’édition imprimée et en intégrant des impératifs techniques supplémentaires comme le respect des normes du domaine numérique.

e-Man : pour l’édition de textes et de manuscrits modernes ?

Face à la masse croissante de contenus numériques produits, à la variabilité et aux contraintes du virage vers le tout numérique, les problèmes posés par la gestion de telles sources sont, indéniablement, plus importants qu’autrefois et il n’existe, pour l’instant, aucune méthode ni solution clés en main. Nous avons fait le choix d’une nouvelle approche : adapter un outil générique à nos besoins pour tenter de répondre aux règles de la discipline scientifique et à celles du numérique. D’autres projets avaient déjà tenté, avant nous, de trouver des solutions techniques pour permettre à tous d’accéder aux sources des œuvres dans le but de rendre compte de leur processus de création. Nous pouvons citer parmi ceux-ci celui de Julie André et Elena Pierazzo, fondé sur une visualisation des manuscrits de Marcel Proust à partir d’un codage en Text Encoding Initiative (TEI) mais qui n’a donné lieu qu’à un prototype [10]. Le projet d’édition des avant-textes de Paisajes después de la batalla de l’écrivain Juan Goytisolo, mené par Bénédicte Vauthier [11] ), a abouti à une solution convaincante mais difficile à transposer pour qui souhaite éditer une grande quantité de manuscrits en raison, comme pour l’édition des Cahiers de Proust, du temps considérable que requiert l’encodage en TEI. Le projet d’édition des dossiers de Bouvard et Pécuchet de Flaubert, mené par Stéphanie Dord-Crouslé [12] ou des journaux de Stendhal, mené par Cécile Meynard et Thomas Lebarbé [13] avaient aussi abouti à des solutions relativement transposables ; pour le premier, l’encodage en TEI a constitué le pivot, pour le second, on a mené l’édition à l’aide d’une plate-forme, CLELIA [14]. Ensuite, un système a été mis en place pour permettre la transposition de l’édition vers la TEI. Tous ces projets, basés sur des solutions Open Source (développements et langages, formats, etc.), contrastent avec d’autres, comme le Samuel Beckett Digital Project, dont la solution éditoriale est difficile à consulter, et à transposer, en raison de la fermeture du site, avec accès payant [15].

Le projet e-Man (plate-forme pour l’édition de manuscrits modernes [16]) avait pour but le développement d’une solution ouverte, simple, fondée sur un outil de publication interopérable favorisant l’exploitation numérique de documents. Il s’agissait pour nous de conjuguer, ainsi que le suppose l’édition génétique, la publication en ligne d’images, de textes et de diverses sources numériques dans le respect d’un état de l’art éditorial et avec les exigences d’une édition critique enrichie des résultats de recherches scientifiques sur les processus de création des œuvres. Pour élaborer cet outil, nous avons fait le choix d’une volumétrie haute en envisageant le traitement de volumes d’archives importants (des dizaines de milliers de feuillets). Nous nous sommes appuyés sur des manuscrits et des archives dont les droits et les autorisations de reproduction et de diffusion ont été négociés avec des propriétaires qui ont accepté la numérisation et la diffusion des sources sous licences Creative Commons [17], à des fins de recherche scientifique. Il s’agit (pour l’instant) de fonds francophones (Jean-Joseph Rabearivelo et Mouloud Feraoun [18]) et hispaniques (José Mora Guarnido, Carlos Denis Molina, Carlos Liscano [19]) dont la genèse s’étend entre la fin du XIXe siècle et le début du XXIe siècle ; ils sont actuellement conservés soit chez leurs propriétaires ou ayants droit (en Amérique latine, en Algérie), soit dans des bibliothèques (Service commun de la documentation Lille 3, Biblioteca Nacional de l’Uruguay), soit à l’Institut français d’Antananarivo (Madagascar). Ces archives n’ont pas été traitées par des institutions nationales comme la BNF ou l’Institut mémoires de l’édition contemporaine (IMEC [20]). Notre projet illustre en réalité la plupart des cas scientifiques : ceux de chercheurs qui travaillent sur des corpus encore situés hors des bibliothèques ou des académies. Ils doivent, en quelque sorte, prouver le potentiel de ces documents de façon qu’ils puissent être préservés un jour par ces institutions. C’est donc pour cette raison que des questions d’ordre archivistique et documentaliste se sont posées à nos équipes.

Après avoir comparé et évalué les différentes solutions de publication disponibles, nous avons décidé de développer, à partir d’un outil existant, une plate-forme générique et modulaire avec trois ambitions principales :

  1. éditer les manuscrits numérisés avec des métadonnées qui respectent les normes et les standards internationaux du World Wide Web Consortium (W3C [21]) ;
  2. associer le manuscrit numérisé à sa transcription enrichie ;
  3. associer, au sein de la plate-forme, les documents entre eux grâce à des liens logiques, temporels et génétiques pour constituer les dossiers génétiques.

L’édition électronique génétique conjugue ainsi la publication d’images (édition de fac-similés) et de textes (édition de textes transcrits et d’analyses scientifiques) avec d’autres types de ressources, numériques ou numérisées, présentées dans un ordre significatif : celui du processus de création. La difficulté d’une telle publication réside dans le caractère multidimensionnel des dossiers génétiques qui demandent des traitements complexes. Ce sont ces réflexions qui nous ont amenés à envisager la mise en place d’un modèle éditorial modélisable, adaptable à différents types de corpus et d’une plate-forme destinée à favoriser l’édition génétique numérique : e-Man, une plate-forme d’édition de manuscrits modernes [22].

Le logiciel Omeka
Nous avons donc choisi d’adapter un outil Open Source à nos besoins : Omeka [23]. Ce système de publication Web spécialisé dans l’édition de collections muséales, de bibliothèques numériques et d’éditions savantes en ligne se situe à la croisée du système de gestion de contenus (CMS), de la gestion de collections et de l’édition d’archives numériques ; il a été développé par une équipe de chercheurs du Roy Rosenzweig Center for History and New Media (RRCHNM [24]) de la George Mason University (Virginie, États-Unis) dans le but de faciliter l’édition en ligne d’images. Les créateurs de cet outil ont conçu un logiciel facile à prendre en main de façon à permettre aux utilisateurs, selon le site d’Omeka, de « se concentrer sur le contenu et sur l’interprétation plutôt que sur la programmation [25] ». Omeka permet de publier des contenus de façon simple et flexible, son architecture souple est adaptable aux besoins du projet grâce à l’ajout de modules (plugins) et à l’utilisation de modèles visuels (templates). En revanche, le logiciel impose un schéma pour la structuration des métadonnées, celui du Dublin Core.

Le Dublin Core a été créé en 1995 pour décrire des ressources de façon simple et compréhensible, afin de les diffuser et de les échanger facilement [26]. Ses métadonnées sont compatibles avec les autres recommandations internationales de description des archives comme l’International Standard Archival Description-General (ISAD(G) [27]) dont la DTD EAD (Document Type Definition — Encoded Archival Description [28]) est la traduction en XML. Le fait que le Dublin Core soit imposé par Omeka peut paraître réducteur pour décrire des documents aussi complexes que des manuscrits d’écrivains, mais en réalité Omeka n’impose que quelques champs du Dublin Core (quinze [29]), ensuite, l’utilisateur peut adjoindre aux contenus qu’il édite des métadonnées personnalisées. Celles-ci sont déclinables à l’infini et permettent d’enrichir la description en fonction des besoins du projet, en associant à chacune des unités documentaires publiées des informations descriptives, administratives et structurelles.

Une typologie applicable pour les manuscrits
Ainsi, pour publier nos manuscrits numérisés [30] , nous avons choisi de les décrire à l’aide des quinze champs du Dublin Core et de compléter cette description par des éléments personnalisés qui correspondent à la fois aux caractéristiques de nos fonds (poésie, théâtre, référents spatiaux…) et aux intérêts scientifiques repérés et décrits par les chercheurs spécialistes. Notre description des manuscrits s’est appuyée sur le plan proposé dans la recommandation DeMArch [31]. Ce plan, qui intègre la notion de dossier génétique (cette approche est de plus en plus présente dans les milieux archivistiques et dans les bibliothèques qui gèrent des fonds d’écrivains contemporains), nous a permis d’établir une typologie respectueuse des recommandations en vigueur et qui peut potentiellement s’appliquer à toute étude de manuscrits modernes et contemporains. Dans cette utilisation d’Omeka, nous avions donc fait le choix d’associer l’encodage des informations en Dublin Core à des informations encodées, dans des champs personnalisés, en XML.

Une approche par dossier génétique
Omeka permet par ailleurs de mettre en relation des documents entre eux grâce à des liens spécifiés : en élaborant la plate-forme e-Man, nous avons fouillé cette fonction de façon à permettre au lecteur de visualiser chaque manuscrit, au sein de son dossier génétique, en spécifiant la complexité de ses relations. Pour ce faire, on a associé chaque manuscrit – document — à l’ensemble des éléments liés à sa genèse (avant-textes, ébauches, documents préparatoires et sources exogénétiques). Cette « relation » a été établie à partir d’une extension d’Omeka, Item Relations qui permet d’associer des contenus entre eux selon le type de lien que le chercheur spécifie : « fait partie de », « est avant-texte de », etc [32]. Cette extension ne construit toutefois que des relations univoques, qui fonctionnent dans les deux sens. Or pour situer le document dans la relation chronologique qu’il entretient avec les autres documents à la fois au sein du même dossier génétique ou d’un autre, la solution que nous avons mise en place a consisté à modifier le fonctionnement de l’extension de façon que la relation exprimée ne soit effective que dans un seul sens et, surtout, que la relation chronologique soit indiquée précisément. Pour cela, il a fallu modifier légèrement le code de façon à visualiser la relation qui unit chaque document à d’autres lorsque celui-ci fait partie d’un dossier génétique. Pour aller plus loin, nous nous sommes proposé d’explorer d’autres pistes de travail, notamment celles qui concernent la façon de distinguer, au sein du dossier de genèse, les différents avant-textes et surtout, d’afficher les liens génétiques dans leur complexité à la fois diachronique et synchronique. Est-il possible de poursuivre un tel développement ad hoc dans le cadre de l’utilisation d’un outil comme Omeka ? Dans notre utilisation novatrice du logiciel, nous tentons de modifier, le moins possible, son code informatique. La poursuite de l’expérience déterminera la validité du procédé mais à ce stade, nous pouvons déjà dire que le logiciel a comblé la plupart des besoins éditoriaux, et partiellement permis de répondre aux enjeux des questions de genèse.

Les autres enjeux d’Omeka et au-delà

Lors de notre expérience, nous avons testé d’autres plugins d’Omeka : la géolocalisation, la visualisation de corpus par mots-clés et ensembles de tags… mais sans résultats significatifs. Omeka présente par ailleurs l’avantage de constituer un entrepôt OAI-PMH (Open Archives Initiative — Protocol for Metadata Harvesting, une fonctionnalité que l’utilisation de métadonnées structurées en Dublin Core simplifie [33]) destiné à faciliter la présentation de nos données auprès des grands « moissonneurs », les tests menés sur ces entrepôts ont été, en revanche, assez prometteurs. L’outil a quelques limites que nous avons tenté de repousser afin de continuer à l’adapter selon nos besoins ; une nouvelle fois, c’est par un subterfuge que nous sommes parvenus à associer à l’image du manuscrit numérisé la transcription : pour cela, nous avons utilisé l’un des champs de métadonnées de l’image. En effet, dans notre approche, la collection concerne l’auteur de l’œuvre, à chaque auteur d’œuvre, nous avons associé des contenus qui sont les œuvres et chacune de ces œuvres comporte à son tour des images, qui sont en réalité les pages numérisées. Chaque contenu est décrit avec des métadonnées associant du Dublin Core et du XML et nous pourrions encore enrichir la description du contenu en remplissant, pour chaque image, les champs des métadonnées. C’est donc dans les métadonnées des images que nous avons trouvé un champ permettant d’afficher, à côté de l’image, la transcription : le champ « description ». En effet, le projet inclut la possibilité de consulter la transcription de certains manuscrits, notamment ceux qui sont les plus difficiles à déchiffrer. Une fenêtre HTML autorise la transcription directement dans l’outil. L’une des possibilités évoquées à ce stade du projet a concerné la capacité du logiciel à intégrer un langage XML structurant comme celui de la Text Encoding Initiative (TEI [34]), par exemple.

Le Consortium TEI a développé le langage XML-TEI dans le but, d’une part, de structurer les métadonnées liées au texte et, de l’autre, d’enrichir le texte publié avec des informations scientifiques. Depuis les travaux du Special Interest Group dédié à la génétique et coordonné par Elena Pierazzo, Malte Rehbein et Amanda Galley [35], la TEI s’est enrichie de balises permettant d’encoder des opérations génétiques importantes comme les ratures, les suppressions, les substitutions ou les déplacements [36]. L’encodage des transcriptions des textes en TEI paraît évident lorsqu’il s’agit d’enrichir l’édition électronique des textes dans la mesure où l’immense bibliothèque de balises proposées par la TEI complète l’édition scientifique électronique.

Dans un premier temps, nous avons testé l’extension TEIDisplay [37], pour décider, rapidement, de l’abandonner car elle n’était plus maintenue dans les versions les plus récentes d’Omeka. Ensuite, nous avons recherché d’autres solutions [38] pour l’encodage XML-TEI de nos métadonnées et de la transcription, toujours au sein de la plate-forme e-Man. Nos contraintes de départ étaient multiples : d’abord, nous souhaitions éviter de recourir à un logiciel d’encodage payant en raison du coût d’un tel outil, de sa difficile prise en main et du fait que les personnes chargées des transcriptions ne sont pas des encodeurs professionnels et qu’ils ont souvent du mal à se familiariser avec de tels dispositifs. Ensuite, nous souhaitions que les deux actions, transcriptions et encodage, puissent être réalisées sur une unique plate-forme afin d’éviter une double manipulation informatique. Cela signifiait donc d’utiliser un outil intégrable au sein d’Omeka ; or le logiciel n’a pas prévu la saisie du texte avec des balises spécifiques. Omeka propose certes une extension, Scripto [39], qui donne à première vue l’impression de centraliser les interfaces de transcription et de saisie des notices. Nos premières utilisations de Scripto nous ont posé quelques problèmes pour travailler avec nos équipes, notamment le passage par la gestion de contenus via MediaWiki [40] qui compliquait le travail de validation de la transcription (par exemple, il ne permet pas de supprimer la dernière modification effectuée) et obligeait à travailler hors de l’environnement d’Omeka. Nous avons pensé qu’il serait possible d’intégrer à la plate-forme une barre d’outils permettant d’encoder en XML-TEI, d’ajouter à la barre HTML des fenêtres de saisie (notamment dans le champ « description » des images), des boutons additionnels destinés à coder, plus précisément, des phénomènes génétiques (sur ce point nous nous sommes inspirés du projet Transcribe Bentham [41]). Cette démarche vise à simplifier la tâche du transcripteur qui, comme avec un traitement de texte, n’aurait plus qu’à sélectionner le texte ou l’élément qu’il veut encoder et à cliquer sur l’icône correspondant à l’action pour entourer l’élément des balises adéquates. Il ne serait ralenti ni par l’apprentissage du langage informatique ni par le risque d’erreur dans la saisie manuelle des balises. Nous n’avons toujours pas testé cette option à ce jour. Sa faisabilité dépend, une fois de plus, du degré d’intervention sur le code informatique et des développements que nous pourrions être en mesure, non pas de réaliser, mais de maintenir, dans la durée notamment à l’occasion de mises à jour. En 2016, l’équipe d’Omeka avait annoncé la diffusion d’une nouvelle version du logiciel.

En guise de conclusion provisoire, revenons d’abord sur les objectifs de notre expérience. Nous voulions initialement éviter la création et le financement d’un outil ad hoc (qui aurait demandé des développements et une maintenance importants) par l’exploration des potentialités d’un outil générique, robuste, plébiscité par une large communauté et maintenu par une équipe de recherche. Pour cela, nous avons pensé que la création de fonctions spécifiques en lien avec les besoins précis de l’édition numérique génétique permettrait à la fois d’améliorer l’outil, mais également de répondre à des besoins que les créateurs d’Omeka n’avaient pas envisagés. Or de telles interventions, que nous avions initialement jugées mineures, finissent par rendre l’outil générique… non générique ! Certes, il est vrai que nos propositions de développement pourront être soumises dans l’avenir à la communauté internationale Omeka, sous forme de propositions d’extensions, afin qu’elles bénéficient au plus grand nombre et que le partage de cette expérience, et des compétences acquises, sera l’une des voies de la pérennisation des solutions par d’autres projets comparables. Mais la question qui demeure en suspens reste celle de la relation du projet avec l’outil et d’une forme de réflexe des sciences des humanités à n’opter que pour une seule et unique solution technique/numérique. Face aux nouvelles questions épistémologiques soulevées par l’expérience, nous avons donc repris le temps de la réflexion.

Ainsi, s’il est vrai que le numérique a contribué à lever certains des verrous financiers, matériels, techniques et quantitatifs des généticiens éditeurs en leur ouvrant les possibilités de la publication des textes, des images et de tous les médias de natures différentes (sources sonores, vidéos, iconographiques, etc.) qui peuvent composer le dossier de genèse d’une œuvre, il a également bouleversé l’organisation du projet scientifique avec le passage de l’édition des sources de la recherche depuis la fin du projet vers son amont. L’édition accompagnerait dorénavant le projet dans toute sa durée. Or la question est-elle vraiment éditoriale ? Le renversement de la démarche scientifique n’est-il pas moins lié à la question de l’édition, de ses moyens, de son objectif et de sa qualité, qu’à celle de l’objet d’étude lui-même ? En effet, nombreux sont les (nos) travaux qui ont signalé que la transformation/conversion numérique de l’objet d’étude génère de nouvelles questions, requiert de nouvelles approches, d’autres méthodes ; or avons-nous toujours affaire au même objet une fois celui-ci devenu donnée informatique ?

Le numérique a contribué à dégager l’horizon de travail d’un certain nombre de verrous quantitatifs qui ont longtemps freiné les ambitions, pour le domaine qui nous concerne, de l’édition génétique des œuvres, comme la limitation du nombre de pages, d’images et le rapprochement d’éléments issus de médias différents (sources sonores, vidéos, iconographiques, etc.). De plus, grâce à l’édition numérique, on peut enfin envisager un rapprochement heureux avec l’édition savante traditionnelle (philologique). Grâce à ces technologies, il est possible d’éditer l’un des éléments-clés de l’analyse génétique : le dossier génétique de l’œuvre, un élément crucial du travail critique du chercheur, en représentant les différents niveaux de relation qui existent entre les documents, sans limite, c’est-à-dire, en donnant à voir l’interprétation des phénomènes, résultat de l’herméneutique scientifique. Mais tout cela est-il possible avec un seul outil ? Notre expérience de développement de la plate-forme e-Man a tenté de répondre à cette question.

Dernière mise à jour : 7 septembre 2017
Licence Creative Commons
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d’Utilisation Commerciale 4.0 International. Merci de citer l'auteur et la source.

Réalisé avec SPIP pour la Collection Parcours Numériques aux Editions PUM par Owell.co

Sommaire
Notes additionnelles

[1Roland Barthes, 1970 et 1972.

[2Hay, 1989
Almuth Grésillon, Éléments de critique génétique, Paris, PUF, 1994.
Pierre-Marc de Biasi, 2000.

[5Pierre-Marc de Biasi, La Génétique des textes, Paris, CNRS Éditions, coll. Biblis, 2011.

[10Le projet de Julie André et d’Elena Pierazzo s’intitule Autour d’une séquence et des notes du Cahier 46 : enjeu du codage dans les brouillons de Proust. Voir le prototype.

[12Les dossiers de Bouvard et Pécuchet. En savoir plus.

[14CLELIA : Corpus littéraire et linguistique assisté par des outils d’informatique avancée. En savoir plus.

[16Désormais appelée EMAN : édition de manuscrits et d’archives numériques. Consulter la plate-forme et le carnet de recherches.

[17Licences de types CC-BY-NC-ND ou CC-BY-NC-SA, c’est-à-dire avec citation de la paternité, interdiction de modifier les documents et interdiction d’utilisation commerciale. Ces deux licences respectent la propriété intellectuelle tout en permettant l’échange de documents sur le web. En savoir plus sur les licences Creative Commons.

[18Ce projet bénéficie du soutien du LabeX TransferS et du réseau LaFEF, Institut Français.

[19Ce projet bénéficie du soutien de l’Agence Nationale de la Recherche (Projet ANR-13-JSH3-0006).

[21Le World Wide Web Consortium (W3C), fondé en octobre 1994, est l’organisme chargé de formuler les préconisations et les protocoles assurant la communication et la compatibilité des technologies et des contenus sur internet. Accéder au site.

[22Désormais appelée EMAN : édition de manuscrits et d’archives numériques. Accéder à la plate-forme.

[27Norme générale et internationale de description archivistique. En savoir plus.

[28Définition de type de document — Description archivistique encodée. En savoir plus.

[34La TEI est née à la fin des années 1980 (1987). Voir l’article de Lou Burnard et C. M. Sperberg-McQueen, « La TEI Lite : encoder pour échanger : une introduction à la TEI. Édition finale révisée pour la TEI P5 », août 2012 (traduction de Sophie David, avril 2013).

[38Nous devons ici signaler le travail effectué en 2015 par notre stagiaire, Cécile Brémon, du Master « Patrimoine écrit et édition numérique » (Renaissances & Patrimoines) du Centre d’Études Supérieures de la Renaissance (UMR 7323 du CNRS / Université François-Rabelais, Tours). Lire son billet « Une expérience de stage PEEN : édition numérique de manuscrits modernes et gestion du pojet e-Man à l’ITEM ».

[41Ce projet autour de l’œuvre de Jeremy Bentham est mené au sein de l’UCL(University College London). En savoir plus :
- sur le projet Bentham,
- sur Transcribe Bentham.

Contenus additionnels : 4 contenus

  • Bibliographie de « L’édition électronique de manuscrits modernes »

  • Description des manuscrits et fonds d’archives modernes et contemporains en bibliothèque DeMArch : recommandation

  • Plate-forme EMAN : édition de manuscrits et d’archives numériques

  • Omeka

.