Book Title

VIII. La relance numérique des archives

Retour sur le Bodmer Lab

Jérôme DAVID

Université de Genève

Radu SUCIU

Université de Genève

L’archivage soulève aujourd’hui des questions multiples. Les archives ou l’archive – au pluriel, comme au singulier – désignent moins des corpus inertes qu’il faudrait tâcher d’explorer, sinon d’épuiser par l’étude, que les processus dynamiques qui ont généré ces documents et conduit à les rassembler dans des fonds précieusement conservés. Le rapport au passé s’est creusé, en histoire comme en philosophie, d’une réflexivité nouvelle : à quelles fins, en effet, les traces à partir desquelles nous tâchons de penser des généalogies du présent ont-elles jadis été recueillies, puis transmises jusqu’à nous ? Comment héritons-nous par ailleurs de ce qui n’est pas resté ? Et notre retour dans l’archive, à quel type de relance des documents prépare-t-il à son tour ? Ces questions atteignent un degré de complexité supplémentaire avec l’avènement d’une culture numérique qui produit ses propres archives en parallèle des supports traditionnels – une culture numérique dont les nouvelles technologies modifient surtout les modalités de stockage et de consultation des documents anciens.

Ni pièces physiques, ni données « nativement » numériques, les archives numérisées ont un statut hybride. Elles sont hébergées sur les disques durs des institutions dédiées, mais ne peuvent être détachées des originaux matériels qu’elles redupliquent. Cette tension est féconde lorsqu’il s’agit de réfléchir aux bouleversements actuels de notre rapport à l’archive. Aussi l’expérience du Bodmer Lab, projet scientifique de l’université de Genève mené en partenariat avec la Fondation Martin Bodmer depuis 2014, nous permettra-t-elle de préciser ici dans quels termes ces questions se sont posées à nous1.

La triple herméneutique de l’archive

Dans le sillage de la microstoria italienne, notamment, l’histoire intègre désormais dans ses questionnements savants les gestes de « transcription » par lesquels des communautés ont documenté leurs activités2. Elle cherche ainsi à mieux comprendre la genèse sociale des traces que nos fonds conservent dans les bibliothèques ou les greniers. La critique des « sources » n’y suffit plus, si on lui associe encore le rêve d’une correction des biais éventuels (subjectifs, idéologiques, etc.) dans la représentation de ce qui a eu lieu. Chaque « source » est désormais envisagée non pas tant comme le reflet plus ou moins distordu de ce qui a eu lieu, mais comme la quête d’une prise sur ce qui avait lieu alors. La critique traditionnelle des « sources », quand elle prétend rétablir la vérité objective des faits en remontant en-deçà de leur archivation, s’empêche de comprendre les logiques sociales présidant à l’ambition même de documenter.

Une archive témoigne en ce sens de pratiques, de relations ou de codifications passées. Elle appelle une élucidation des raisons pour lesquelles on a jadis jugé légitime d’inscrire et d’enregistrer, puis de préserver jusqu’à nous, ces bribes parfois déroutantes de la vie sociale. Tout document nous parle de la réalité qu’il saisit, tout en exemplifiant le processus qui a présidé à son établissement, à sa conservation et à son classement. Bref, la « transcription » n’est pas en surplomb par rapport à la réalité transcrite. Elle y intervient de plain-pied, pour ainsi dire, avec cette faculté propre à tout document de fixer une trace et de la rendre disponible à des usages immédiats – aussi bien qu’à des réusages ultérieurs.

Triple herméneutique de l’archive, donc : les faits consignés ; la logique même de leur transcription ; les relances de cette logique dans des contextes modifiés3.

La philosophie, pour sa part, interroge sous l’égide de l’archive les finalités de toute « consignation » du réel dans des ensembles de signes stabilisés. Elle envisage cet effort de contention sémiotique comme une tâche paradoxalement nécessaire et irréalisable – une course sans fin dont les collectivités attendent, en vain, qu’elle fixe dans des séries immuables la structure du monde, de la nature ou du passé. Le « mal d’archive », formulé par Jacques Derrida, désigne l’impossibilité de tout garder de ce qui se passe ou s’est passé4. À l’échelle de l’individu, l’oubli n’est pas seulement « refoulement » en attente de son anamnèse : l’inconscient est fini, les traces s’effacent. Dans les réserves publiques ou les armoires familiales, la conservation ne prévient pas de tous les dommages matériels irréversibles ni des décisions qui pousseraient à la destruction d’un fonds. Tout document vibre d’une singularité précaire, toujours exposée à une disparition possible. L’archivage peut accueillir ce tremblement pour autant qu’il intègre dans sa réflexion non seulement ce qui reste, mais ce qui n’a pas pu être gardé.

L’axiomatique diffuse des appareils techniques

Les nouvelles technologies s’invitent de surcroît dans cette conversation, comme autant de médiations particulières dans notre rapport aux archives. Il serait possible de les assimiler à de simples instruments au service de cultures archivistiques longuement éprouvées, si ces instruments ne transformaient pas les méthodes de conservation en y instillant des ambitions, des exigences et des contraintes inédites. Aussi convient-il d’interroger leurs incidences sur la triple herméneutique évoquée à l’instant et sur l’expérience du mal d’archive.

La grande technicité de leur fonctionnement (machines, logiciels, algorithmes, formats, langages, etc.) les rend en effet souvent opaques au personnel qui les utilise à des fins strictement instrumentales. Et pourtant l’outil est programmé. Il charrie dans la structure même de ses microprocesseurs, ou dans la syntaxe de ses lignes de code, une axiomatique des relations entre le monde et la pensée, le stockage et le classement, la donnée et son traitement. Cet imaginaire est riche en opérations, en ajustements, en interconnexions techniques, mais il fourmille également d’utopies plus ou moins farfelues – dont la dernière en date est le « mirrorworld » : un duplicata virtuel de notre monde physique qui sera, paraît-il, d’autant plus précis et utile (pour la recherche médicale, la prévention des catastrophes naturelles ou la compréhension du passé) qu’il agrégera davantage de données officielles et intimes, poussiéreuses ou confidentielles5.

Ces rêves sont des aiguillons, puisqu’ils portent l’innovation en déployant l’imagination informatique des ingénieurs. Ils imprègnent cependant jusqu’aux moindres fonctionnalités des appareils et, du fait de la sophistication d’une telle ingénierie (souvent assimilée à une « boîte noire »), cet imaginaire imprègne en partie et oriente peu à peu les pratiques archivistiques, voire historiennes, dans l’emploi routinier et parfois distrait des ressources numériques6.

Poussant la pulsion de la copie7 à son paroxysme, le déploiement des nouvelles technologies fait ainsi miroiter la réduplication bienfaisante de tous les livres, de tous les actes notariés, de tous les manuscrits et de tous les croquis conservés de l’histoire humaine. Il réclame en outre, à titre préventif, le stockage massif des données produites au jour le jour par la science, l’économie et les échanges interindividuels.

Justifier la numérisation des archives : conserver, consulter, connecter

La triple herméneutique du fait consigné, de sa transcription et de sa relance a été rigoureusement formulée par les microhistoriens au sujet de documents hérités du passé (sur papier, le plus souvent). Derrida l’a déployée dans le présent en évoquant la mémoire des ordinateurs8. Entre les archives physiques et les traces exclusivement numériques – produites d’emblée en bits –, on trouve cependant un archivage hybride dont le statut gagne lui aussi à être passé au crible de ce questionnement : la numérisation d’archives physiques (papyri, manuscrits, imprimés, etc.). Cet archivage en partie « parallèle », voire « second », ne copie pas simplement, on le devine, un document existant ; il intervient à son tour comme retranscription contemporaine, relance aux accès démultipliés. Les conséquences en sont décisives.

La logique de conservation des biens archivés, d’abord, ne peut résumer à elle seule le sens de telles entreprises de numérisation. À qui prendrait la peine de méditer sur le sort du microfilm, si prisé il y a peu, une poétique de la ruine technologique s’offrirait comme antidote à l’utopie du salut par les supports dernier cri. L’effet de préservation en est dérisoire, comparé à la stabilité d’un livre matériel au fil des siècles. Les engins de lecture des microfilms, massifs comme des autels désertés dans nos bibliothèques, font office de discrets memento mori. Et ce sentiment de vanité doit aujourd’hui s’étendre à la préservation des données informatiques : l’illisibilité actuelle de tant de sites Internet, pourtant pimpants il y a quelques années, nous le rappelle, hélas, chaque jour. Plus dramatique encore : à la suite de campagnes de photographies coûteuses dont on espérait qu’elles substitueraient des avatars durables à des originaux fragiles, des collections entières de journaux du xixe siècle, comme le New York World ou le Chicago Tribune, ont été jetées ou vendues par des bibliothèques états-uniennes et britanniques (la Library of Congress et la British Library en font notamment partie), alors que les pages de ces journaux contenaient parfois des lettrines en couleur ou des impressions Art déco vivement colorées – qu’aucun de ces microfilms ne peut plus restituer. Des milliers de ces pages sont irrémédiablement perdues9.

La justification par l’accès démultiplié aux documents, ensuite, se heurte pour sa part à la spécification des publics. Qui voudra consulter telle archive sur Internet ? Si l’on y pense une fois les documents en ligne, il est trop tard. La détermination des usages escomptés d’un fonds à numériser est le préalable d’une relance réussie de l’archive par le truchement des nouvelles technologies. S’en remettre au « grand public » ou, pire, à l’accumulation indéfinie des données à l’horizon des « big data », tient en l’occurrence de la supercherie.

On attendrait moins longtemps Godot que le « grand public », à cet égard, puisque le tout est ici sans contours et bien moindre que la somme des adresses IP individuelles des internautes. Il est impossible d’anticiper la diversité des usages que le « grand public » fera d’un fonds d’archives numérisé, alors qu’on peut analyser après coup les traces de tout passage sur un site Internet (grâce à des logiciels ad hoc). Le « grand public » s’incarne ainsi, en amont d’une mise en ligne, dans des profils-types d’utilisatrices et d’utilisateurs dont on imagine les besoins pour leur fournir les fonctionnalités adéquates ; et il se concrétise en aval au travers de compilations dont l’interprétation demeure souvent problématique (nombre de visites individuelles, géographie des connexions, connexion directe ou via un moteur de recherche ou un site tiers, durée des visites, nombre de pages consultées lors de chaque visite, etc.). Ces informations pourraient servir à évaluer les profils-types du « grand public » dont s’est nourrie la conception d’une plateforme numérique, en vue de les affiner, si la corrélation des projections initiales et des visites concrètes n’était pas si délicate. Brandies isolément (tant de visites mensuelles, par exemple), les données empiriques ne renseignent pas sur les attentes des internautes, ni sur leurs besoins, et conduisent à appréhender pêle-mêle la visite et la satisfaction, la curiosité et l’étonnement, la distraction et le désir. Il faudrait, pour se réclamer de l’intérêt du « grand public » en matière de numérisation des archives, avoir les moyens de sonder cet intérêt et d’y ajuster la mise en ligne des documents. Or, très peu d’institutions disposent du temps et des compétences nécessaires pour le faire. Dans les autres cas, le « grand public » est une arlésienne, un prétexte, un trompe-l’œil.

Quant aux « big data », on ne peut guère non plus y adosser les campagnes de numérisation des archives. Elles exigent en effet des conditions d’appariement et de computabilité des données impossibles à remplir dans les sciences humaines et sociales, et partant dans les humanités numériques, avec la même rigueur qu’en biologie ou en astrophysique – non pas impossibles à remplir pour l’instant, en ce sens qu’il suffirait de récolter avec frénésie davantage de données pour y parvenir, mais impossibles à remplir tout court, parce que la valeur de chaque donnée y est indissociable d’un contexte qui lui donne sens et dont les paramètres varient en fonction des questions qu’une enquête pose au passé10. Un algorithme pourrait bien répondre à une requête sur le nombre de tonneaux ayant transité par le port de Séville entre 1504 et 1650, par exemple. Mais, pour n’avoir fait que reconnaître le mot « tonnelada » dans les livres de comptes et enregistré leur nombre exact par navire, il ne pourrait pas apprendre tout seul à découvrir que cette mesure du tonneau a changé durant cette période jusqu’à varier du simple au double11. L’assimilation des archives portuaires à des « big data » moissonnables à merci par des programmes de calcul manquerait ici l’essentiel : chaque chiffre du passé nous parvient non pas brut, mais indissociable d’une culture du comptage souvent oubliée12. L’interprétation historienne ne commente donc pas ces chiffres après seulement que les ordinateurs les ont repérés et fournis ; elle interroge au contraire la possibilité d’apparier ces chiffres apparemment similaires avant même leur agrégation statistique. Or, s’il en va de la sorte pour le nombre apparemment anodin des tonneaux d’un navire, il est aisé d’imaginer comment d’autres phénomènes historiques se soustraient aux contraintes de l’intelligibilité computationnelle.

Certains historiens de la première moitié du xxe siècle ont pointé l’écueil du psittacisme qui, selon eux, conduisait tant de leurs collègues à plaquer des mots vides sur le passé (féodalisme, réforme, romantisme, etc.) au lieu de se replacer eux-mêmes dans la situation effective des individus qu’ils étudiaient13. Nous sommes encore sous le coup d’une telle mise en garde : nous pourrions en venir, nous aussi, à répéter les résultats des algorithmes sans les comprendre, à additionner les tonneaux de vaisseaux qui n’ont jamais existé avec les cargaisons et les richesses qu’on leur prête. Le mot d’ordre des « big data », dans les disciplines de l’archive, expose à ce psittacisme d’un nouveau genre. Il ne peut donc pas servir de justification à la numérisation frénétique de tous les fonds d’archive existants.

Un troisième argument à l’appui d’une campagne de numérisation tient à l’ambition de contribuer à la constitution d’une bibliothèque numérique mondiale. C’est bien davantage qu’une variante de la justification précédente : une telle entreprise n’y est en effet pas envisagée comme une accumulation infinie de données atomisées que des algorithmes réagenceraient à leur gré, mais comme la mise en commun de ressources culturelles à vocation humaniste et universelle. Là où le discours sur les « big data » promet l’intenable, à savoir l’indexation de notre rapport au passé sur des faits univoques14, l’idée d’une bibliothèque numérique mondiale ne prétend « que » favoriser la généralisation d’opérations jusque-là localisées (de consultation des documents et des archives) à une échelle qui dépasse les réseaux existants (régionaux ou nationaux).

Cette troisième justification possible de la numérisation des archives – c’est-à-dire de leur connexion à d’innombrables autres fonds par l’intermédiaire des nouvelles technologies – se heurte néanmoins, aujourd’hui, à ce qu’on appelle l’interopérabilité des bases de données. Pour naviguer sans encombre d’un fonds numérisé à l’autre, il importe que les produits de leur numérisation soient rendus disponibles selon des standards de codification partagés. Faute de normes largement communes en la matière, toutefois, les mises en ligne de documents du passé demeurent aujourd’hui dispersées et inégalement accessibles. Certains environnements récents invitent à unifier les normes de transfert des données (comme iiiF15), mais leur implantation n’est de loin pas encore systématique.

À l’école de la bibliotheca bodmeriana

Il serait exagéré de dire que nous avions les idées aussi claires en 2014, lorsque nous avons lancé le Bodmer Lab avec Michel Jeanneret. Notre priorité d’alors se résumait à une simple ambition : valoriser à l’aide des nouvelles technologies la collection de Martin Bodmer (1899-1971), riche de plusieurs dizaines de milliers de documents écrits, embrassant quatre millénaires d’histoire humaine ; ouvrir de la sorte ces archives aux spécialistes du monde entier ; et, si possible, accompagner cette entreprise d’un supplément théorique qui nous inscrive dans les débats des humanités numériques. Nos compétences respectives nous avaient inégalement préparés à une telle aventure. Quelle formation y aurait d’ailleurs suffi ? Mais l’érudition encyclopédique de l’un jointe à la culture geek de l’autre, toujours bousculées par l’inquiétude épistémologique du troisième – ainsi que notre familiarité respective avec le xvie siècle, ce « siècle débordé » par l’imprimerie, et avec le xixe siècle, autre siècle débordé par la presse – ont contribué à aiguiser nos intérêts croisés et permis de circonscrire, au fil des mois, une zone commune d’attention autour des supports de l’écrit et de l’immersion numérique dans le passé. Que fallait-il mettre en ligne de cette archive Martin Bodmer – et comment ? – pour que nos collègues, d’abord, en tirent profit, mais aussi le corps enseignant du secondaire (auquel nous commencions à songer) et le « grand public » (dont nous tâchions de scénariser quelques figures exemplaires avec l’agence de communication qui élaborerait plus tard le site Internet) ?

Reformulé à la lumière de la triple herméneutique énoncée plus haut, et sans en écarter l’ombre portée du « mal d’archive », ce projet nous a incités à singulariser chacun des documents physiques que nous désirions mettre en ligne en leur attachant des métadonnées précises, denses, fiables et sensibles à leur matérialité ; à élucider les conditions d’entrée de ces documents dans la collection Martin Bodmer – envisagée pour la première fois dans sa stricte logique intellectuelle ; à œuvrer non seulement à des relances scientifiques ou didactiques de ces fonds, mais à en favoriser des réusages artistiques et ludiques ; à interroger, enfin, les documents que cette archive de la culture humaine n’abritait pas, parce que Martin Bodmer n’avait pas jugé légitime de les y intégrer ou parce qu’il n’en subsistait tout simplement aucune trace collectionnable.

Il a d’abord fallu trier, parmi ces dizaines de milliers de pièces, lesquelles méritaient d’être numérisées ; ou, plus précisément, lesquelles pouvaient être accompagnées en ligne par des discours d’escorte susceptibles d’en suggérer la valeur culturelle et l’actualité possible. Rien ne nous effrayait davantage que la perspective de jeter ces documents sur Internet comme autant de bouteilles à la mer, sans adresse ni annonce. Les foyers de la collection étant multiples et innombrables, nous avons déterminé des priorités de numérisation en mobilisant des critères de divers ordres (richesse du fonds, valeur ajoutée de sa numérisation, état des documents, etc.). Nous avons alors confié à des spécialistes la supervision scientifique de chacun de ces sous-ensembles, afin de garantir la plus grande rigueur dans leur description, leur contextualisation et leur commentaire16.

La douzaine de fonds déjà publiés sur notre plateforme, ou sur le point de l’être, ont ainsi bénéficié de l’expertise patiente et généreuse de chercheuses et de chercheurs reconnu-es dans le domaine concerné. Leur contribution nous a permis de joindre à chacun des documents numérisés des métadonnées nécessaires à leurs usages les plus exigeants, et de donner en même temps à quiconque les consulte en ligne une idée de la place qu’ils occupent dans l’histoire de la culture. Cette contextualisation minutieuse se devait en outre d’être vivante, pour que la curiosité des internautes soit attisée par une sorte de gai savoir collectif. Aussi avons-nous diversifié les formats d’accès aux connaissances produites par les équipes du Bodmer Lab (livres, articles, notices, anecdotes, vidéos, jeux sérieux, podcasts, conférences, ateliers, festival, etc.) et dynamisé certaines copies numériques, comme le codex de Ménandre, en les inscrivant dans des narrations numériques (digital storytelling)17.

Ces fonds apparaissent sur notre plateforme numérique comme autant de « constellations ». Le terme n’a pas été choisi au hasard : il appartient à l’imaginaire du collectionneur, Martin Bodmer. Nous en avons trouvé la notion dans ses carnets de note manuscrits, où sa réflexion évolue durant un demi-siècle en quête d’un sens pour sa collection – sur près de 20 000 pages inédites18. Bodmer a su dès les années 1920 qu’il créait une « bibliothèque de la littérature mondiale » (« eine Bibliothek der Weltliteratur »), mais ce qu’il entendait par « littérature mondiale » a changé durant l’avènement du nazisme, puis après la Seconde Guerre mondiale. L’idée qu’il se faisait de l’histoire humaine, notamment, ne pouvait plus prendre le tour hégélien d’une révélation progressive de la raison à elle-même, puisque le point culminant en aurait été le IIIe Reich. La « littérature mondiale » devint donc, à ses yeux, l’archive d’une autre histoire, plus heurtée, discontinue, renaissant sans cesse de ses catastrophes dans des « constellations » culturelles pourtant inimaginables avant leur surgissement19.

Une démarche intellectuelle d’une telle cohérence, poursuivie de surcroît avec autant de persévérance et de conviction, augmente la richesse historique de la collection – déjà immense – d’une valeur jusqu’alors insoupçonnée : la Bibliotheca Bodmeriana fut l’œuvre d’un intellectuel d’envergure européenne, inscrit dans maints réseaux littéraires, humanitaires et antiquaires de son époque. Cette logique spécifique de l’archive imprègne chaque pièce de l’ensemble ; elle se fait sentir dans la moindre des décisions du collectionneur en matière d’acquisition, de classement, de publication ou de conservation. Elle devait, selon nous, orienter tout autant notre projet de numérisation – qui complèterait alors, en ligne, les partis pris du musée de la Fondation Martin Bodmer, à Cologny, davantage tourné vers la valorisation bibliophilique de documents isolés.

La numérisation de telles archives n’aurait pas grand sens, à nos yeux, si elle ne s’accompagnait pas d’une relance de ce projet d’une « bibliothèque de la littérature mondiale ». Nous avons donc engagé des recherches en vue de mieux comprendre la logique intellectuelle de la Bibliotheca Bodmeriana et exploré, avec l’aimable soutien de la Fondation et de la famille de Martin Bodmer, les carnets de notes manuscrits et la correspondance du collectionneur. Qu’entendait-on par « Weltliteratur » entre 1920 et 1970 ? Et que peut désigner une telle expression aujourd’hui : « littérature mondiale » ? La pertinence de notre entreprise nous imposait de répondre à ces deux questions à la fois.

La réévaluation scientifique des différents fonds appelés à former des « constellations » sur notre plateforme a participé d’une préoccupation similaire. Les ouvrages de Shakespeare acquis par Bodmer dans les années 1950, dont plusieurs des premières éditions quarto et un First Folio, ont fait l’objet d’un inventaire systématique – élargi aux livres de la collection publiés dans les régions de langue anglaise aux xve et xvie siècles. Les célèbres « Papyri Bodmer » ont donné lieu à un nouveau classement, nourri de tout le savoir accumulé ces vingt dernières années sur les débuts du christianisme ou sur l’Égypte hellénistique et romaine. Les Grands Voyages dans les Indes occidentales et les Petits Voyages dans les Indes orientales, publiés par la dynastie des de Bry dès la fin du xvie siècle, sont désormais en ligne dans leur intégralité, consultables volume par volume, ou image par image (grâce à l’extraction informatique des 600 illustrations qui firent la renommée de cette édition). Ces quelques exemples suggèrent par ailleurs comment nous avons en quelque sorte tâché de susciter l’intérêt des internautes, spécialistes ou non, pour des corpus rarement accessibles.

Ces archives ont également été mises en ligne pour en favoriser des usages scolaires. Comment enseigner la littérature ou l’histoire à partir de documents numérisés désormais disponibles sur n’importe quel écran ? Plusieurs de nos initiatives ont tâché de donner à cette relance pédagogique un relais efficace parmi les enseignant-es et un accompagnement réfléchi dans les classes. Au niveau secondaire, un jeu éducatif en ligne familiarise les élèves avec les explorations européennes de ce qui s’appelait alors le « Nouveau Monde » de ce côté-ci de l’Atlantique ; il permet de parcourir en détail une dizaine d’illustrations des Voyages en « tchatant » avec Théodore de Bry, jusqu’à comprendre quels formats visuels a privilégiés ce protestant pour dénoncer les exactions des catholiques sur place. Une autre recherche collaborative élabore des séquences d’enseignement tirant parti de la première édition des Fables de La Fontaine (1668) dans toute sa matérialité (format, mise en page, lettrines, culs-de-lampe, privilèges du Roi, etc.) ; l’approche des fables à travers leur mise en livre historique prolonge leur analyse textuelle dans une relation à la littérature plus concrète (quelles marques observe-t-on sur une page donnée de cette édition ?), plus vivante (qui les y a inscrites, délibérément ou non ?) et plus actuelle (que devient, en miroir, la forme-livre à l’heure d’Internet ?). Au-delà de ces réusages à l’échelle de fonds spécifiques, il en va plus largement des valeurs attachées par Bodmer à sa collection : la « littérature mondiale » a en effet exemplifié pour lui l’idée d’un certain cosmopolitisme fédéraliste qui est non seulement le mot d’ordre de la « Genève internationale » aujourd’hui encore, mais le projet même de la communauté européenne ; à ce titre au moins, elle mérite d’être transmise comme une utopie matérialisée dans une bibliothèque – une archive aux reliefs éthiques, voire politiques.

À ces relances scientifiques et académiques s’ajoutent des réappropriations artistiques et ludiques des archives, que nous avons nommées nos « déclinaisons ». Elles réactualisent le passé de manière plus libre que la contextualisation rigoureuse ou la transmission contrôlée : des étudiant-es d’écoles d’art s’emparent d’une série « Faust » pour créer des livres aussi impossibles que l’omniscience escomptée d’un pacte avec le diable ; des amateurs colorisent des gravures d’éléphants ou de monstres marins de la Renaissance ; des enfants improvisent sur des lettrines à l’effigie de leurs initiales ; des tatouages fleuriront peut-être un jour, inspirés des ornements typographiques d’un vieil almanach numérisé. Toutes ces créations engagent une relation active avec le passé culturel, un plaisir de la découverte, du détournement, du geste retrouvé. Il est difficile d’en formaliser les acquis sous forme de connaissances ou de compétences ; et pourtant l’histoire s’y incarne et s’y rejoue joyeusement dans notre présent.

Quant au « mal d’archive », nous l’avons d’abord perçu dans certains accents mélancoliques de Bodmer. Une pièce de Ménandre retrouvée dans le désert d’Égypte, dans un lot de papyri inattendu, lui rappelait tous les autres textes de la Grèce antique définitivement perdus. Les écrits laissés par l’humanité sur des pierres, des peaux ou du papier l’incitaient à méditer sur toutes ces autres traces du vivant, plus infinies encore, mais conservées dans quelques fossiles seulement. Sa bibliothèque, aussi dense fût-elle, gardait pour lui l’empreinte de ce que le temps n’a pas fait durer. Sa « littérature mondiale » était un horizon fixé à l’histoire, et non un catalogue à compléter coûte que coûte.

Mais ce vertige nous a aussi saisis, nous, dans le cours de nos numérisations – et sous des formes parfois déroutantes. La conception que se faisait Bodmer de la grandeur intellectuelle ou littéraire, d’abord, recourait avec assurance à l’autorité établie du canon. Nous qui voulions parfois étoffer une « constellation » en y glissant la numérisation d’œuvres d’auteurs moins reconnues que celles de Shakespeare, Dante, Goethe, ou même La Fontaine, afin de rendre justice à des auteurs mineurs ou récemment redécouverts, nous avons dû nous rendre à cette évidence que la collection dessine une archive de l’histoire culturelle formée de sommets plutôt que de collines, de cascades et non de ruisseaux. Dans la façon même dont Bodmer se représentait les traces du passé, ensuite, il y a pour nous motif à regrets. Nous aurions pu mettre en ligne autre chose que des écrits, imaginer une bibliothèque visuelle ou sonore, si le collectionneur avait conçu l’archivage en un sens plus large que la seule conservation d’inscriptions lisibles. Les technologies de reproduction n’y encourageaient guère, à l’époque, et sa formation humaniste charriait maints présupposés sur la prééminence des textes. Cet impensé, jadis tout à fait compréhensible, devient pourtant doublement problématique aujourd’hui dans un projet de relance numérique : il appelle un supplément multimédia où le son et, ici, l’image plus encore, viendraient augmenter cette bibliothèque verbale et pourtant silencieuse (mais sous quelles formes ?20) ; il porte aussi préjudice, pour des raisons plus archivistiques qu’idéologiques, aux cultures littéraires orales dont les épopées, les sagas ou les refrains n’ont pas été transcrits, compilés puis copiés (avec cette question décisive pour nous, là encore, de savoir comment pallier cette invisibilisation de pans entiers de l’histoire humaine au moyen des nouvelles technologies). Enfin, le gouffre de l’archive s’est présenté à nous, sous une forme presque borgésienne, quand nous avons été face à des livres qui n’avaient pas été découronnés : fallait-il en couper les pages pour les ouvrir, les numériser intégralement et les donner à lire en ligne ? Ou devait-on considérer cet état de l’objet dans la collection comme sa caractéristique inaliénable – au risque de le conserver sous une forme qui ne permette jamais de le lire ? Inutile de préciser la façon dont nous avons tranché le dilemme ; l’énigme vaut bien une méditation.

De l’autre côté du « mirrorworld »

Si l’on en revient à l’imaginaire qui porte maintes innovations dans les nouvelles technologies, et dont certains traits s’imposent du seul fait de leur usage, on entrevoit pourquoi la dernière facétie en date des idéologues de la Silicon Valley, le « mirrorworld », engage une conception de l’archivage tout à fait discutable. L’agrégation ultime d’une infinité de données dans des « big data » exhaustives ne nous fournira jamais autre chose qu’un avatar de la réalité mondiale modélisé à des fins précises et limitées. La réplique virtuelle d’une réalité conforme en tous points au monde où l’on vit, même lorsque l’on est déconnectés, est logiquement impossible et techniquement illusoire. On peut y aspirer pour de nobles raisons, vouloir faire tourner un algorithme sur nos scénarios d’avenir, par exemple, pour en évaluer les coûts et les bénéfices respectifs. Il n’est pas impossible non plus que la modélisation rigoureuse de certains registres de phénomènes très ciblés (comme la diffusion d’une épidémie par contacts interindividuels) accroisse la rationalité des prises de décision en matière de politique publique. Mais une réduplication numérique du présent à laquelle on pourrait poser n’importe quelle question pour en obtenir une réponse fiable – des questions qui n’étaient pas prévues lors de la codification des données initiales, ni dans leurs procédures d’agrégation, ni même par les éventuels algorithmes qu’on aurait forgés pour anticiper le plus grand nombre possible de requêtes imaginables –, cet avatar fantasmé du monde réel ne peut être justifié, épistémologiquement, qu’en convoquant une conception des liens entre la science et la réalité qui parie sur la correspondance terme à terme d’un énoncé scientifique et du phénomène qu’il explique. Il y aurait donc une manière de vérifier la vérité d’un fait isolé sans interroger le cadre dans lesquels cette factualité s’offre à des procédures d’établissement et d’explication. Or, quelle que soit la science vers laquelle on se tournerait aujourd’hui pour illustrer une telle définition, l’inadéquation de cette philosophie avec les pratiques effectives de l’astrophysique, de la biologie ou de l’économie, sans même parler de l’histoire, serait criante. La superposition de la carte et du territoire n’est pas le point de fuite des sciences contemporaines.

Cette utopie de la réduplication numérique enrichirait toutefois la science-fiction avec bonheur si, d’une part, elle ne s’inspirait pas d’un roman déjà publié (Snow Crash de Neal Stephenson, Le Samouraï virtuel en traduction française) pour en lester la fiction (le « métavers ») d’une prétention exorbitante à la vérité technologique et si, d’autre part, elle ne s’aventurait pas à englober non seulement le présent ou le futur hypothétique, mais aussi le passé – et l’histoire. « Le temps est une dimension du “mirrorworld” qui peut être ajustée. Au contraire du monde réel, mais sur un mode proche du monde des applis, vous serez en mesure de faire défiler le temps vers l’arrière. […] D’un geste de la main, vous remonterez le temps, en quelque lieu du monde que ce soit, et vous verrez ce qui s’y passait jadis. Vous pourrez surimposer une vision reconstituée du xixe siècle sur la réalité actuelle. Il vous suffira, pour visiter ce lieu à un moment donné de l’histoire, de revenir à la version antérieure qu’en propose le logiciel. […] À ce titre, le “mirrorworld” peut être qualifié de monde en 4 dimensions. »21 On devine le rôle qu’y jouent les archives : leur basculement en ligne remplira toujours plus densément ces capsules passées du présent – jusqu’au jour où une « intelligence artificielle » déploiera enfin, nous laisse-t-on entendre, une imagination « objective » capable à elle seule de combler tous les trous restants bien mieux que les historien-nes. Nous l’admirerons alors reconstituer un bâtiment de Venise dont on n’avait pourtant aucune description ou récrire une pièce de Shakespeare perdue comme Cardenio.

Cette futurologie du passé a déjà quitté le papier glacé des magazines pour s’inviter dans la recherche, comme en témoigne par exemple le programme épistémologique du projet « Time Machine » lancé par Frédéric Kaplan et Isabella di Leonardo : « Au cœur de [sa] vision se trouvent une série de nouveaux concepts alimentés par les progrès récents de l’intelligence artificielle et de la science, et articulée autour des processus structurants des “big data du passé”, un système d’information numérique distribué re-transcrivant (re-document) à la fois les fonds d’archive extrêmement denses du continent européen et leur réalignement sur des modèles en quatre dimensions et en haute résolution. »22 Le financement octroyé à ce projet par la Commission européenne, à titre de soutien à la recherche scientifique, devrait nous alerter sur la légitimité croissante d’une telle idée de l’archivage – indifférente à tout ce qui en a été pensé dans les sciences humaines et sociales depuis un demi-siècle au moins, et calquée sur un agenda idéologique favorable au traitement massif et centralisé de toutes les données agrégeables.

Si la numérisation des fonds documentaires ne fait pas, dans les années qui viennent, l’objet d’un reclaiming théorique de la part des disciplines savantes de l’archive, sa justification par le « mirrorworld » reléguera progressivement l’histoire au rang de produit d’appel pour les casques d’immersion virtuelle. L’ingénierie pourra alors prétendre répondre aux exigences scientifiques des sciences humaines et sociales – sans rencontrer d’objection argumentée.

____________

1 Voir bodmerlab.unige.ch.

2 En plus de renvoyer aux œuvres désormais consacrées de Carlo Ginzburg, Giovanni Levi ou Edoardo Grendi, mentionnons simplement un article d’Angelo Torre – d’autant plus précieux pour nous qu’il effectue trois opérations à la fois : rappeler la généalogie de la microstoria, mobiliser des archives inédites, théoriser un nouveau rapport possible à l’archive. Voir « “Faire communauté” : confréries et localité dans une vallée du Piémont (xviie-xviiie siècle) », Annales. Histoire, Sciences Sociales, 62, 1 (2007), p. 101-135, p. 106 : « À la faveur d’une attention soutenue aux processus de production des documents étudiés, nous voyons émerger des actions qui sont transcrites et qui suscitent autour d’elles, non par pure coïncidence, des polémiques, des contestations et des contrôles. Cette prise de conscience pose donc un problème méthodologique : de quelle façon étudier les actions dont parlent les transcriptions – et les objets – conservés dans nos archives ? »

3 Comme nous le verrons dans le cas de la collection Bodmer, cette relance qui s’opère « along the archival grain », pour reprendre l’expression d’Ann Laura Stoler, peut aussi conduire l’enquête à rebours du « grain » qui a battu les voiles des grands vaisseaux du passé – ou loin du « grain » (de folie) qui a guidé les « transcripteurs » des documents réunis en archives : soit, pour mentionner quelques exemples de cette ethnographie critique, les administrateurs coloniaux qui dénombraient et classaient les populations dans les Indes néerlandaises (voir Ann Laura Stoler, Along the Archival Grain. Epistemic Anxieties and Colonial Common Sense, Princeton et Oxford, Princeton University Press, 2009 ; version française : Au cœur de l’archive coloniale, trad. C. Jaquet et J. Gross, Paris, Éditions de l’EHESS, 2019), les inquisiteurs frioulans qui interrogèrent Domenico Scandella sur ses croyances religieuses (voir Carlo Ginzburg, Le Fromage et les vers. L’univers d’un meunier du xvie siècle, trad. M. Aymard, Paris, Flammarion, 1980) ou l’énigmatique inspecteur de police Jean Poussot, dont les registres éclairent le traitement réservé aux plus démunis dans l’espace parisien du xviiie siècle (voir Arlette Farge et Michel Foucault, Le Désordre des familles. Lettres de cachet des Archives de la Bastille au xviiie siècle, Paris, Gallimard/Julliard, 1982).

4 Jacques Derrida, Mal d’archive. Une impression freudienne, Paris, Galilée, 1995.

5 Kevin Kelly, « AR Will Spark the Next Big Tech Platform – Call It Mirrorworld », Wired (février 2019) (URL : https://www.wired.com/story/mirrorworld-ar-next-big-tech-platform/).

6 « Un des grands dangers des humanités numériques est que les chercheurs soient séduits par une technologie informatique facilement accessible, mais dont ils ne comprennent que minimalement les modèles formels et computationnels. […] Dans certains cas, leur utilisation aveugle peut être pertinente et heuristique, mais dans bien d’autres cas, elle risque de produire des résultats dont l’interprétation est fausse parce que dissociée des algorithmes et des paramètres qui ont généré les résultats. » Jean-Guy Meunier, « Humanités numériques et modélisation scientifique », Questions de communication 31 (2017), p. 19-48, citation tirée de la version en ligne, § 68.

7 L’histoire de cette vieille obsession est dépliée par Hillel Schwartz dans un livre surprenant : The Culture of the Copy. Striking Likenesses, Unreasonable Facsimiles, New York, Zone Books, 1996 (2e édition revue et augmentée, 2014).

8 Voir Aurèle Crasson, « Derrida et l’ordinateur : une archive malgré soi », En attendant Nadeau 91 (2019), p. 70-72.

9 Dans un ouvrage passionnant Nicholson Baker conte par le menu détail cette histoire sombre de l’histoire des bibliothèques : Double Fold : Libraries and the Assault on Paper, New York, Random House, 2001. Ce livre a suscité au moment de sa parution des débats importants sur la valeur des originaux et il a été reproché à Baker d’avoir défendu une vision trop romantique des archives où tous les originaux sans distinction seraient à préserver. Voir R. J. Cox, Vandals in the stacks ? A Response to Nicholson Baker’s Assault on Libraries, Westport, Greenwood Press, 2002. Voir également la discussion critique et nuancée de Robert Darnton sur ces sujets : The Case for Books : Past, Present and Future, New York, Public Affairs, 2009, chap. 8 ; version française : Apologie du livre. Demain, aujourd’hui, hier, trad. J.-F. Sené, Paris, Gallimard, 2010.

10 Voir Jean-Claude Passeron, Le Raisonnement sociologique. Un espace non poppérien de l’argumentation [1991], Paris, Nathan, 2006.

11 Comment déchiffrer, classer, grouper, comparer 50 millions de documents déposés à l’Archivio general de Indias ? Le premier des douze volumes d’Huguette et de Pierre Chaunu était déjà entièrement consacré à cette question il y a près de 70 ans. Voir leur Séville et l’Atlantique (1504-1650), tome 1 : Introduction méthodologique, Paris, S.E.V.P.E.N, 1955.

12 « Pour comprendre le Livre des registres dans son fond, pour le juger vraiment, il faut donc encore une fois prendre la mentalité du scribe qui faisait le pointage ou inscrivait son catalogue. » H. et P. Chaunu, op. cit., p. 54.

13 Les agacements successifs de Lucien Febvre fournissent une illustration passionnée de cette critique. Voir ses Combats pour l’histoire, Paris, Armand Colin, 1965.

14 Et son corollaire : l’abandon de la causalité et de la modélisation scientifiques pour la simple corrélation, rendue robuste par des « régressions » statistiques d’algorithmes au sein des « big data ». Voir Chris Anderson, « The End of Theory : The Data Deluge Makes the Scientific Method Obsolete », Wired (juin 2008) [en ligne]. Disponible sur : https://www.wired.com/2008/06/pb-theory/.

15 iiiF ou International Image Interoperability Framework : ensemble de recommandations techniques, de méthodes et d’outils permettant la mise en commun de ressources numériques – principalement à l’intention de bibliothèques, d’archives institutionnelles ou de musées (voir iiif.io).

16 Outre les réalisations consultables en ligne, un ouvrage donne une idée de cette rigueur appliquée au fonds élizabéthain : Lukas Erne et Devani Singh, Shakespeare in Geneva : Early Modern English Books (1475-1700) at the Martin Bodmer Foundation, Paris, Ithaque, 2018.

17 Voir bodmerlab.unige.ch/recits-et-images/menandre.

18 Voir notre anthologie de ses carnets, traduite en français : Martin Bodmer, De la littérature mondiale, éds. Jérôme David et Cécile Neeser Hever, trad. Cécile Neeser Hever, Paris, Ithaque, 2018.

19 Voir Jérôme David, Martin Bodmer et les promesses de la littérature mondiale, Paris, Ithaque, 2018.

20 Nous y avons œuvré, par exemple, en créant des iconothèques en ligne qui rassemblent et classent pour un corpus donné (Faust, La Fontaine) les extractions informatiques de toutes les illustrations dispersées dans les volumes papier.

21 Kevin Kelly, « AR Will Spark the Next Big Tech Platform », art. cit.

22 Frédéric Kaplan et Isabella di Leonardo, « The Advent of the 4D Mirror World », Urban Planning 5, 2 (2020), p. 307-310, p. 309.