Texte, Bildquellen und vermehrt auch Rekonstruktion von Bauwerken werden der Öffentlichkeit digital zur Verfügung gestellt. Verschiedenste Institutionen publizieren ihre Daten von Kulturgütern frei zugänglich im Internet und versprechen Forschungsunternehmen damit qualitativ hochstehende Arbeitsgrundlagen. Um die Herausforderungen im Umgang mit diesen Daten zu meistern, sind interdisziplinäre Ansätze und Debatten zu möglichen Formen der Kooperation und zur Art und Weise der Informationsanreicherung der digitalen Artefakte notwendig. Nach jahrelangen Diskussionen um Normen der Digitalisierung und um Standards der daraus entstehenden Texte, Bilder und Daten stehen nun die Vernetzung der Daten und der Einbezug der Öffentlichkeit im Zentrum der Debatten.
Zu diesen Themen leistet die Tagung «Digitales Kulturerbe. Zugang, Vernetzung und Darstellungen» einen Beitrag. In acht Panels, einem Round-Table und zwei Keynotes wird während zweier Tage ein breites Spektrum thematisiert: Der Einbezug der Öffentlichkeit zur Anreicherung des digitalen Kulturerbes steht im Fokus und die verschiedenen Projekte mit Vernetzungsansätzen und -initiativen sollen in Kontakt und Austausch gebracht werden. Crowdsourcing, 3D-Modellierung, Forschungsdaten, rechtliche Aspekte im Umgang mit Kulturgütern, die Handhabung von Text, Bild und Ton stellen weitere Diskussionspunkte dar, ebenso kommen Vernetzungsinitiativen wie metagrid und histhub zu Wort. In alledem zeigt sich wie vielfältig, wie unterschiedlich und doch ähnlich die Herausforderungen bei der digitalen Aufbereitung, Veröffentlichung und Darstellung kultureller Artefakte sind. Nicht zuletzt geht es dabei auch um die Verantwortung, die für das Kulturerbe übernommen werden muss – unser aller Kulturerbe, das im Rahmen der Initiative #Kulturerbe2018 gefördert wird.
Die Anmeldungen nimmt Lukas Barwitzki (lukasdaniel.barwitzki@uzh.ch) bis am 20.9.2018 entgegen.
Donnerstag 27.9.2018, Universität Zürich
Kantonsschulstrasse 3, KAB G 01
14.00-14.15
Begrüssung und Einführung
Tobias Hodel (Universität Zürich)
14.15-15.45
Crowdsourcing & Öffentlichkeit
- Louise Seaward (University College London): Transcribe Bentham. Transcribing with computers and the crowd
- Antoinette Maget Dominicé (Ludwig-Maximilians-Universität München), Fabienne Graf & Dario Haux (Universität Luzern): Die Aufbewahrung unseres digital-kulturellen Erbes
- Alban Frei (Consortium Historicum): Entitäten vernetzen und normieren. histHub – eine Plattform für die historischen Wissenschaften
The Bentham Project is responsible for the scholarly edition of the writings of the English philosopher Jeremy Bentham (1748-1832). Since 2010, the Bentham Project has been supported by the community of volunteers working on Transcribe Bentham (http://blogs.ucl.ac.uk/transcribe-bentham/). This is a crowdsourcing initiative which asks members of the public to transcribe digital images of Bentham’s manuscripts. Transcripts produced by volunteers are made available online and used by the Bentham Project in the first stages of its editorial work.
This paper will summarise the creation, evolution and current operation of the Transcribe Bentham platform. It will explore the transcription process, mechanisms for user support and some of the challenges of working with members of the public to transcribe very complex material as part of an online project. The paper will also indicate the future direction of the initiative: the integration of Handwritten Text Recognition technology. The Bentham Project has been working intensively with the Transkribus platform (https://transkribus.eu/Transkribus/) for this purpose and impressive progress has been made with the automated transcription and searching of the Bentham collection. It is hoped that effective and efficient collaboration between computers and human transcribers will help the Bentham Project continue to expand and enhance what has become an important online resource for historical and philosophical scholarship.
Eine insbesondere in Gedächtnisinstitutionen und Museen zu beobachtende, voranschreitende Digitalisierung kultureller Güter, wird als sichere Methode zur Bewahrung unsers kulturellen Erbes dargestellt. Der Zugang zu den digitalen Werken wird dabei, auch in Zeithorizonten von vielen Jahren und Jahrzehnten gedacht, vorerst als gegeben angenommen. Gleichwohl kommen zunehmend Diskussionen zur Nachhaltigkeit auf – die Strategie wird hinterfragt.
Das Projekt der "Galerie der verlorenen Kunst" (The Gallery of Lost Art) im Vereinigten Königreich bringt diese aktuelle, weiter zu problematisierende Situation auf den Punkt. In dem temporär online verfügbar gemachten Ausstellungsorte, konnten die Besucherinnen und Besucher bedeutende und auch verlorene Artefakte der letzten 100 Jahre digital betrachten. Jedoch bestand der Zugang nur für kurze Zeit. Dann wurde mit dem Ende des Projekts den Besuchern diese Möglichkeit für immer genommen. Dadurch gingen auch viele digitale Ausstellungsstücke verloren, wenngleich einige von Ihnen auf sehr klassische Weise archiviert wurden: analog, auf Papier ausgedruckt. Ist es womöglich mehr als ein blosser einzelfallbezogener Eindruck, dass diese Form des Speicherns eine nachhaltigere und sicherere Wirkung ermöglicht? Sollte der digitale Kulturgüterschutz zumindest damit ergänzt werden?
Mit dieser Beobachtung, erscheint die digitale Speicherung analog und digital entstandener, digitalisierter Inhalte durchaus hinterfragungsbedürftig. Denn die Quantität und Qualität der Daten stellt ein in dieser Form noch nie dagewesenes kulturelles Erbe dar: Das digital-kulturelle Erbe. In diesem Zusammenhang stellen sich weitere Fragen. Etwa wer die Verantwortung für diese neue Form von Kulturgütern übernehmen soll und, überdies, wer technisch dazu in der Lage ist. Staatlich existierende Institutionen sind in der Qualifizierung und Selektierung von kulturellen Erzeugnissen durchaus geübt, bis heute aber technisch weiterhin auf Cloud-Systeme und Server privater Betreiber, oftmals mit Sitz außerhalb Europas, angewiesen. Die ‚Demokratisierung‘ der Blockchain eröffnet neue Wege und bietet Teilantworten zur Frage der Entwicklung technischer Standards. Sie lässt die Debatte um die Kriterien der Qualitätszuordnung jedoch weitestgehend offen. Die Koppelung beider Aufgaben bildet eine Mammutaufgabe, welche eine enge Zusammenarbeit und den kontinuierlichen Austausch zwischen verschiedensten Fachbereichen erforderlich macht. Die Notwendigkeit, auch im Rahmen der fortschreitenden Digitalisierung, auf die traditionellen Erfahrungen, Techniken und Normen von Archiven und Bibliotheken zurückzugreifen, muss dabei unterstrichen werden.
Unter Betrachtung der UNESCO-Charta zur Bewahrung des digitalen Erbes von 2003, hinterfragt der vorliegende Beitrag die Angemessenheit von Gesetzen und anderer nicht-rechtlicher Strukturen – insbesondere auch von Computer Codes – für die potentielle Entstehung einer qualititativen Nachhaltigkeit des digitalen Kulturerbes. Ziel ist es, zwischen den Erwartungen der Wissenschaft und Gesellschaft sowie den Antworten der technischen und wirtschaftlichen Realität zu vermitteln und letztendlich den Erhalt des digital-kulturellen Erbes abzusichern.
Ces dernières années ont été marquées, tant dans les institutions patrimoniales en général que dans les musées en particulier, par une numérisation exponentielle de biens culturels. Le recours à cette méthode est régulièrement justifié au nom de la conservation du patrimoine culturel. Et l'accès aux données numériques est considéré comme acquis pour les décennies à venir. Or la pérennité de cette stratégie se retrouve de plus en plus régulièrement au centre des débats.
Le projet de la 'Galerie des œuvres disparues' (The Gallery of Lost Art) présenté depuis le Royaume- Uni en 2012-2013 s'appuie sur ce paradoxe. Le lieu d'exposition temporaire et dématérialisé a permis aux visiteurs du Net d'admirer des biens culturels dont la trace a été perdue au cours du siècle passé. Au terme du projet, l'accès à ces ressources numériques a été suspendu de manière définitive. La plupart de ces objets disparurent à nouveau, tandis que d'autres retrouvèrent une identité de la manière la plus classique qu'il soit, imprimés dans un ouvrage. Se pourrait-il que cet exemple ne soit pas un cas unique et que cette forme de conservation soit la plus durable et la plus stable ? La conservation numérique des biens culturels demeure-t'elle intimement liée à l'analogique ?
Partant de cette constatation factuelle, il semble que la sauvegarde de contenus numérisés et numériques porte à questionnement. En effet, la quantité et la qualité de ces données représentent une nouvelle forme de patrimoine culturel, qui appelle à de nouvelles réflexions portant sur les compétences scientifiques, techniques et légales. On constate ainsi que les institutions mémorielles publiques ont développé des compétences étendues en matière de qualification et de sélection des objets patrimoniaux, mais que leurs émanations numériques se trouvent majoritairement stockées dans des systèmes de cloud et sur des serveurs situés en dehors d'Europe, le plus souvent en mains privées. La démocratisation de la technologie de la blockchain ouvre de nouvelles perspectives et apporte quelques réponses aux questions techniques, tout en laissant largement de côté la question des critères qualificatifs. La combinaison de ces deux perspectives représente une tâche colossale, qui exige une collaboration interdisciplinaire étroite et constante. A ce titre, le recours à l'expérience développée par les services d'archives et les bibliothèques est fondamental.
La présente contribution propose d'interroger la pertinence des textes législatifs et réglementaires existants ainsi que des structures non-juridiques, comme par exemple le code informatique, afin de tendre à une durabilité qualitative du patrimoine culturel numérique, et les confronte aux dispositions de la Charte de l'Unesco pour la préservation du patrimoine numérique adoptée en 2003. L'objectif réside dans l'atteinte d'un équilibre entre les attentes des scientifiques et celles de la société, face aux réalités techniques et économiques, afin de garantir une conservation plus sûre du patrimoine culturel numérique.
Wie können die Geschichtswissenschaften mit der zunehmenden Datenmenge aus historischen Forschungsprojekten umgehen? Die Digitalisierung der Geisteswissenschaften ist weit fortgeschritten, ja selbst historisch geworden. Dabei lassen sich zwei Beobachtungen anstellen, die sich in gewisser Hinsicht widersprechen: Einerseits existieren zahlreiche gute Datenbanken, die eine Vielzahl von Daten zu historischen Personen, Orten und Ereignissen halten und darüber hinaus Originalquellen, Belege und Metadaten erfassen. Aus dieser Sichtweise kann man von einer weit fortgeschrittenen Digitalisierung der geisteswissenschaftlichen Forschung sprechen. Andererseits fehlen Normdaten und Portale, durch welche historische Entitäten eindeutig identifziert und die heterogenen Datenbestände gemeinsam durchsucht werden können. Die Gleichzeitigkeit eines Überangebots guter Datenbanken und eines Unterangebots an spezifisch historischen Normdaten gehört zu den grossen Herausforderungen gegenwärtiger Infrastrukturprojekte in den digitalen Geschichtswissenschaften.
Der Vortrag skizziert am Beispiel des Forschungsportals histHub zwei Lösungswege für dieses Problem. histHub entwickelt erstens Vernetzungsdienstleistungen, die anstatt verschiedene Datenbestände zusammenzuführen, die Information darüber speichert, welche Daten in verschiedenen Datenbeständen über die gleiche historische Entität Aussagen enthalten. Über das Speichern und Verwalten dieser sogenannten Konkordanz lassen sich verschiedene Datenbanken einfach vergleichen. Mit eigens entwickelten Tools erlaubt histHub Quervergleiche zwischen unterschiedlichen Datenbanken vernetzt damit historische Entitäten.
Der zweite Lösungsweg von histHub besteht in der Erstellung semantischer Datenmodelle mittels Ontologien. Solche Modelle entfalten ihre Stärke durch den Einbezug von Kontextwissen und eignen sich deswegen besonders gut, um historische Wirklichkeiten in einer Datenstruktur abzubilden. histHub setzt die Datenmodelle zur Entwicklung eines Normdatensatzes ein. Dabei stellen sich elementare Fragen, wie die nach der Anbindung an internationale Standards (z. B. CIDOC-CRM) und der Validierung und Kuratierung von Normdaten, die letztlich nur kollaborativ durch eine Community erfolgen kann.
Der Vortrag bietet einen praxisnahen Einblick in eine aktuelles Infrastrukturprojekt für historische Forschungsdaten und passt wohl am besten in die Sektion «Vernetzung von Entitäten: Personen, Orte, Sachbegriffe etc.“
16.15-17.45
Keynotes und Roundtable
- Georg Vogeler (Karl-Franzens-Universität Graz): Crowdsourcing von Urkunden
- Nicolas Perreaux (Goethe Universität Frankfurt): Digital Diplomatics and its Corpora. Contents, methods, possibilities
- Roundtables mit den Vortragenden, Simon Teuscher (Universität Zürich) und Jeannette Rauschert (Staatsarchiv des Kantons Aargau)
Freitag 28.9.2018, Königsfelden/Windisch (AG)
09.00-10.30
Museum / Tourismus
- Wolfgang Dorner (Technische Hochschule Deggendorf): Peregrinus Silva Boehemica. Multimediale Einblicke in die Geschichte des kulturellen Erbes im Bayerisch-Böhmischen Grenzraum
- Patrick Aprent (Österreichische Akademie der Wissenschaften): Anna Blumlacher. Ein Beitrag zur Theatertopographie des 19. Jahrhunderts
- Cecilia Titilayo Clement (Anchor University, Lagos, Nigeria) und Israel Abayomi Saibu (Anchor University, Lagos, Nigeria): Preservation and Digitization of African Cultural Heritage. A Reflection on Osun-Osogogbo Heritage Site in Nigeria
Wie können historische Kulturgüter mit Hilfe digitaler Medien zugänglich und erlebbar gemacht werden? Mit dieser Frage beschäftigen sich Wissenschaftler/innen im Bayerisch-Böhmischen Grenzraum im Rahmen des Projektes Silva Bohemica. Dabei werden historische Stätten und Bauwerke über ein Online Kartenportal verortet und für Web- und Smartphone zur Verfügung gestellt. Wissenswertes zu den Denkmälern wird digital neu aufbereitet, interpretiert und beispielsweise unter Zuhilfenahme eigens konstruierter 3D Darstellungen oder Augmented Reality anschaulich gemacht.
So werden die in verschiedenen Archiven und Bibliotheken zur Verfügung stehenden Informationen, Bilder und Anekdoten gesammelt und für Kultur- und Geschichtsinteressierte, Wanderer und Pilger (lat. Peregrinus) in einer neuen Form erschlossen. Für den Zugang zu historischen Karten, Daten und Texten bieten interaktive Module in der Applikation, virtuelle Rundgänge, die direkt vor Ort den Vergleich zwischen Historie und Gegenwart erlauben, und lebendig erzählte Geschichten in Audio- oder Videoaufnahmen eine Alternative zur klassischen Fremdenführung über beispielsweise Schautafeln oder mobilen Applikationen mit ausschließlicher Lesefunktion. Die Nutzer können über einen integrierten Kartendienst Denkmäler auswählen und sich entlang von historischen Wegen und Stätten navigieren lassen. Ein individueller Abruf von kulturellen Informationen kann auch während der Reise erfolgen, z.B. als Hörbuch auf der Wanderung oder Autofahrt oder aber vor bzw. im Bauwerk visuell und auditiv. Je nach Interessensschwerpunkt und Zeitplanung kann zum einen die Länge der Route, zum anderen die Aufenthaltsdauer an den Stätten, abhängig vom Detailgrad an zur Verfügung gestellten Informationen, variiert werden. Über eine Vorschlagsfunktion können Bauwerke und Routen von Nutzern anderen Nutzern vorgeschlagen werden, was zum einen Rückschlüsse auf die Beliebtheit einzelner Kulturgüter gibt, als auch die Bekanntheit und das Wissen über wichtige Denkmäler fördern kann.
Kulturgüter aus der Epoche des Barock (Kirchen, Bibliotheken oder Denkmäler) bieten in Kombination mit ehemaligen Handels- oder Pilgerrouten ein gutes Beispiel, um deren Entstehung, Geschichte und bauliche Veränderungen mit historischen Materialien aus Archiven und über digitale Medien darzustellen. Der historisch bedingt wenig bewohnte Grenzraum mit seinen weiten Naturflächen einerseits und den historischen Kulturstätten und Baudenkmäler andererseits, macht die Region zu einem geeigneten und reizvollen Fallbeispiel, das durch zeitgemäße multimediale Gestaltung des touristischen Angebotes aufgewertet werden kann.
Im Vortrag wird am Beispiel der barocken Geschichte im Grenzraum Bayern-Böhmen gezeigt, wie die historischen Daten in die App integriert und in verschiedenen Medien strukturiert und nutzerfreundlich zur Verfügung gestellt werden können. Zudem werden die Erkenntnisse aus der Summer School vorgestellt, bei der die Teilnehmer aus dem Tourismus-, Kultur- und Museumsbereich ihr Wissen und ihre Einschätzung hinsichtlich der Aufbereitung und Darstellung historischer Materialien äußern und diskutieren konnten.
Anna Blumlacher (1823–1907) was a theatre actress and manager in the 19th century. During her almost 80-year long career, she played on more than 70 stages, mostly in provincial cities and towns of the Habsburg monarchy. Blumlacher’s practise and rich itinerary, present fundamental findings on theatre and cultural life in the 19th century, and her life and work offer new perspectives for studies on the social group of “Theaterleute”, the factor of mobility in the context of professional theatre and the role of women as entrepreneurs in the performing arts. The research project “Theatre Topography – The Itinerary of Anna Blumlacher” combines historiographical research with digital analysis and visualisation methods, and is developing a web application to process, curate, explore and present its data and findings.
Technological developments and linkage possibilities offer great potential to explore and present our cultural heritage. Within the humanities we can process larger amounts of data/information, we can interlink information, and we can gain new perspectives on our subject matter. Yet there is untapped potential in areas such as availability of data/information, collaborations between scientists and institutions, and presentation and visualisation. The motivation behind the Anna Blumlacher project and web application is to contribute with new approaches to these topics.
Blumlacher’s practise is documented in diverse archival sources such as handwritten notes and diaries, historical articles, theatre almanacs and police records. Many of these sources will be digitised and transcribed and are openly accessible as data tables for further investigations in the field of theatre and cultural studies and beyond (i.e. mobility studies, gender studies, social history). This data forms the basis for the before mentioned Anna Blumlacher web application which is both, an adaptive research tool and a presentation platform. Good design and visualisation are essential to mediate scientific findings to a broader audience and therefore key to aspects of outreach and presentation. By offering the user different ways to explore the Anna Blumlacher project via the app, I want to evoke interest that subsequently leads to possible participation (citizen science), and raises awareness on our subject or the humanities in general. Therefore, as a main feature, the app renders the data and findings into an interactive journey following Anna Blumlacher’s path, compiling an interactive map, digitised artefacts and related text sections. Moreover it allows to access the project in form of chronical episodes or thematic collections. Also essential are the app’s analysis-tools, to visualise person networks or geo-temporal relations and shed light on interrelations that would otherwise remain hidden, such as the factor of mobility within professional theatre in the 19th century. Furthermore, the project is a collaborative effort with Paul S. Ulrich (collections of 19th century theatre almanachs and journals), and innovative projects within the digital humanities, such as the HistoGIS development (ACDH – Austrian Academy of Sciences).
Attempts to preserve historical cultural heritage have gained prominence among historians and other practitioners worldwide. Keeping cultural heritage safe have both economic, historical and cultural process undertone. The importance of conservation of cultural heritage through digital tools has really gaining consciousness in Nigeria. Reason being that this cultural heritage has become an income generating asset to the nation’s economic development through tourism. Cultural heritage is part of the communal treasures and historical artifacts of a people worth preserving for the sake of continuity and use of the future generation. Be that as it may, the economic benefits of preservation of this heritage are inconsequential compared to the intrinsic historical value of the heritage which is being preserved. Oral traditions, libraries, achieves, and museums are replete with similar collections in a variety of ways, presenting a vast body of knowledge accumulated over the years with the purpose of making these, collection accessible to the intended users. UNESCO, has been at the frontline of identifying World heritage sites globally, and have designated Osun-Osogbo in Nigeria as one. This site is considered as very important for hoisting some of the most spectacular natural monuments in Nigeria. Osun-Osogbo contain the heritage of humanity; the record of triumphs and failures, its intellectual, scientific, artistic achievements and its collective memory. While the indigenous preservation strategy is acknowledged, there is need for a more lasting and modernized form of preserving these priceless monuments and tradition for posterity sake. With digitization this cultural heritage materials (images, pictures, artifacts, texts) are converted from analog format to a format that can be read and analyse with the aid of digital tools such as digital cameras, audio-visual tools, and computer assisted methods. The emergence of digital technology has indeed changed the
approaches historians practice their profession and disseminate knowledge today. The question then is, how is this priceless cultural heritage (Osun-Osogbo) preserved through digital tools and what are the benefits? This paper examines digital preservation of the Osun-Osogbo cultural Heritage in Nigeria to ensure permanent documentation with the aids of audio-visual tools, photography, and computer assisted methods. This paper also examines the methodology and theoretical contributions of the application of digital tools in the preservation of Osun-Osogbo cultural heritage in Nigeria. Examines how digital history relate to the area of traditional historical scholarship and the importance of digitization of this historical cultural heritage in Nigeria.
Forschungsdaten
- Sara Amsler und Stefan Trümpler (Vitrocentre Romont): L’accès aux recherches sur le patrimoine verrier suisse. Choix de mise en œuvre à travers la plateforme vitrosearch
- Christiane Sibille (Diplomatische Dokumente, Bern): Dodis. Dokumente, Daten, Derivate
- Björn Gebert (Herzogin Anna Amalia Bibliothek / Klassik Stiftung Weimar): AMAD (Archivum Medii Aevi Digitale). Mediävistisches Fachrepositorium und Wissenschaftsblog als Perspektive geisteswissenschaftlicher Publikations- und Informationsinfrastrukturen
En tant qu’institution spécialisée dans les arts du verre, le Vitrocentre Romont publie depuis sa fondation en 1988 les résultats de ses recherches, que ce soient des synthèses ou des catalogues d’œuvres. Leur diffusion se faisait jusqu’à peu sous forme imprimée. Dans un contexte où les moyens financiers sont restreints pour les éditions papier et où l’Open Access prend de l’ampleur, le Vitrocentre a adopté une nouvelle stratégie de publication, afin de faciliter l’accès aux recherches dans les domaines des arts du verre pour les initiés et un large public.
Cette contribution présente les choix définis pour répondre à cette problématique, à travers le développement de la nouvelle plateforme vitrosearch.ch.
Bien plus qu’une photothèque en ligne, vitrosearch a la particularité de lier, en un seul outil, divers types d’œuvres et leurs images correspondantes aux données de recherches scientifiques. La publication sous forme de base de données et le graphisme spécifique focalisent sur les objets. L’usager accède à des œuvres selon des critères que lui-même définit. Grâce à la structure relationnelle de vitrosearch, le résultat de ses recherches lui donne accès à d’autres informations qui l’amèneront vers d’autres objets. L’ajout régulier de contenus offre des liens supplémentaires entre les notices et permet de découvrir des œuvres selon de nouveaux points de vue.
Les vitraux ne peuvent pas être étudiés indépendamment d’un contexte : ils sont étroitement liés à la construction d’un édifice et au cadre historique et social d’une époque et s’inscrivent dans l’œuvre d’un créateur, comprenant aussi des réalisations dans d’autres techniques. Ces données se prêtent donc particulièrement à leur mise en réseau, que ce soit interne à la base (avec des liens vers des artistes, des ateliers, des bâtiments ou différents types d’objets) ou avec des ressources externes. Ceci se fait sur deux plans : au niveau international et suisse. Dès le début, le Corpus Vitrearum International a été impliqué étroitement dans la conception de la structure en vue de poursuivre le développement de pratiques communes employées pour la description des vitraux. C’est grâce à l’intégration de normes, comme GND, l’utilisation d’instruments largement répandus pour la description des œuvres, à l’instar du thésaurus Iconclass pour l’iconographie et Geonames pour la
localisation, que de nouvelles synergies seront mises en place pour donner accès aux ressources verrières sur le plan international. A ce stade, au niveau suisse, des liens vers SIKART sont intégrés à vitrosearch, qui devraient prochainement aussi être proposés en sens inverse. L’idée est de profiter des ressources de qualité mises à disposition par les autres institutions culturelles suisses et d’offrir à nos usagers des liens directs vers des contenus externes pertinents, mais aussi de faciliter l’accès à nos recherches à partir d’autres plateformes.
Basé sur le système de gestion SALSAH/Knora, mis à disposition par DaSCH et le Digital Humanities Lab de l’Université de Bâle, vitrosearch a été conçu en vue de proposer un outil moderne et souple qui tienne compte des évolutions technologiques futures, dans le but de poursuivre la démarche entamée en développant davantage de partenariats et en intégrant de nouvelles fonctionnalités.
Seit mehr als zwanzig Jahren betreibt die Forschungsstelle Diplomatische Dokumente der Schweiz die Datenbank Dodis und gehört damit zu den Pionieren im Bereich der Digital Humanities in der Schweiz.
Dodis ermöglicht den Zugang zu einer grossen Auswahl zentraler Quellen der Geschichte der schweizerischen Aussenbeziehungen. Veröffentlicht werden digitalisierte Dokumente, die primär aus dem Schweizerischen Bundesarchiv stammen. Da von Beginn an auf eine kohärente Erschliessungsform geachtet wurde, die den Eigenschaften der digitalisierten Dokumente – Verwaltungsschriftgut des 20. Jahrhunderts, das auch für ein breites Publikum gut zu lesen ist – gerecht wird, besteht heute ein umfassender Datenbestand zu Personen und Organisationen der internationalen und Schweizer Geschichte, was eine kritische Einordnung der Quellen und die Weiterführung der Forschung auf Dodis sowie in den einschlägigen Archivbeständen ermöglicht. Daneben wurden auch die in den Quellen vorkommenden geographischen Entitäten erfasst und liegen heute vollständig georeferenziert vor.
Aufbauend auf diesem Kernbestand an digitalisierten Dokumenten und erschliessenden Metadaten hat die Forschungsstelle in den letzten Jahren neben der gedruckten Edition und der Datenbank eine ganze Reihe digitaler Projekte entwickelt, beispielsweise die Monographienreihe Quaderni di Dodis, das e-Journal Saggi di Dodis, die Bibliografie zur Geschichte der Schweizerischen Aussenpolitik sowie das Vernetzungsprojekt Metagrid. Im Rahmen dieser Projekte werden sowohl neue Formen der Vernetzung als auch Möglichkeiten zur Weiternutzung in der wissenschaftlichen Praxis erprobt. Eine wichtige Rolle spielt dabei der von Dodis konsequent verfolgte Open-Science-Gedanke.
Der Vortrag zeichnet diese Entwicklung nach und diskutiert Herausforderungen und Desiderate für die Zukunft.
Depuis plus de vingt ans, le centre de recherche des Documents Diplomatiques Suisses développe la base de données Dodis et appartient ainsi aux pionniers dans le domaine des humanités digitales en Suisse.
Dodis rend possible l’accès à un grand choix de sources centrales sur l’histoire des relations extérieures suisses. Ce sont des documents numérisés, issus en premier lieu des archives fédérales suisses, qui sont publiés. Vu que l’attention portée dès le début sur une mise en forme cohérente, qui respecte les propriétés des documents numérisés – des archives de l’administration du 20ème siècle, qu’il est également bien de lire pour un plus large public –, il existe aujourd’hui un grand stock de données quant aux personnes et organisations de l’histoire internationale et suisse. Ceci rend possible une classification critique des sources et la poursuite de la recherche sur Dodis ainsi que dans les fonds d’archives s’y rapportant. À côté de cela, les entités géographiques issues des sources sont également saisies et aujourd’hui présentées entièrement géoréférencées.
En se fondant sur ce stock de base de documents numérisés et de métadonnées, le centre de recherche a, ces dernières années et à côté de l’édition imprimée ainsi que de la base de données, développé toute une série de projets numériques. Il y a, par exemple, la série de monographies des Quaderni di Dodis, le e-journal Saggi di Dodis, la bibliographie de l’histoire de la politique étrangère suisse ainsi que le projet de mise en réseau Metagrid. Dans le cadre de ce projet, aussi bien de nouvelles formes de mises en réseaux de même que des possibilités pour l’utilisation future dans la pratique scientifique sont testées. La rigoureuse pensée Open- Science suivie par Dodis y joue un rôle important.
L’exposé esquisse ce développement et discute des défis et désidératas pour le futur.
Während der freie Zugang zu digitalisiertem schriftlichen und gemeinfreien Kulturgut und sogar die Nachnutzung über nationale Handschriftenportale oder die Digitalen Sammlungen einzelner Bibliotheken und Archive wenigstens zum Teil schon gewährleistet ist und auch die Viewer weiterentwickelt werden, werden die Forschungsergebnisse der Disziplinen, die ihrerseits mit dem schriftlichen Kulturerbe, digital oder analog, arbeiten, immer noch zu großen Teilen allein gedruckt publiziert und sind danach meist nur, wenn überhaupt, nach Moving Walls von mehreren Jahren online verfügbar. Dies betrifft auch die mediävistischen Disziplinen. Zwar laden nicht wenige Wissenschaftler*innen ihre Publikationen mittlerweile als Zweitveröffentlichungen auf Universalrepositorien von Hochschulen oder auf Portale wie Academia.edu und Humanities Commons hoch, aber dort bleiben sie entweder mangels Sacherschließung, Content-Marketing und Anbindung an die Fachkulturen so gut wie unsichtbar oder ihre langfristige Verfügbarkeit steht in Zweifel. Zwar werden einzelne Fachzeitschriften e-only oder hybrid, also gedruckt und online, veröffentlicht, aber das geschieht zumeist entweder kostenpflichtig im Closed Access oder ohne Zugangsbeschränkung, jedoch unter so stark limitierten Nachnutzungsmöglichkeiten bzw. -rechten, so dass von echtem Open Access im Sinne der Berliner Erklärung nicht die Rede sein kann.
Eine Ausnahme bildet das Wissenschaftsblog „Mittelalter. Interdisziplinäre Forschung und Rezeptionsgeschichte“, das Ende 2012 gegründet wurde und mittlerweile zu einer breit von Mediävist*innen rezipierten Plattform nicht nur für den fachlichen Austausch, sondern auch für die Open-Access-Publikation von Aufsätzen, Miszellen und Editionen geworden ist, das über eine zwölfköpfige wissenschaftliche Redaktion verfügt und dessen wissenschaftliche Artikel im „RI-Opac“, also der maßgeblichen Literaturdatenbank für mediävistische Veröffentlichungen, nachgewiesen werden. Die Deutsche Forschungsgemeinschaft (DFG) hat nun ein Projekt bewilligt, in dem ab Oktober 2018 ein interdisziplinäres Fachrepositorium zur kostenfreien Erst- und Zweitveröffentlichung von mediävistischen Publikationen eingerichtet und die langfristige Verfügbarkeit und persistente Adressierbarkeit von qualitätsgeprüften mediävistischen Online- Veröffentlichungen gesichert werden sollen. Dabei soll das bestehende Blog für das Fachrepositorium „AMAD – Archivum Medii Aevi Digitale“, das zur zentralen Publikationsinfrastruktur für die mediävistische Forschung werden soll, einerseits als Plattform für einen Open Peer Review unselbständiger Veröffentlichungen und andererseits, samt seiner Social- Media-Kanäle, als Marketinginstrument für die Repositoriumsinhalte dienen. Ziel des Vortrags ist nach einer kurzen Darstellung des status quo zum elektronischen Publizieren in der Mittelalterforschung die Vorstellung des DFG-Projekts und damit einer Zukunftsperspektive für geisteswissenschaftliche Publikationsinfrastrukturen.
11.00-12.30
Bewegte und statische Bilder
- Franziska Heller & Bregt Lameris (Universität Zürich): Film – Kulturerbe – Digitalisierung. Debatten, Probleme und Praxen
- Felix Rauh & Cécile Vilas (Memoriav): Die Vernetzung des audiovisuellen Kulturerbes
Der Status von Film als Kulturerbe stellt einen Sonderfall in der politischen, institutionellen und gesellschaftlichen Debatte dar. So wurde erst 2001 mit Metropolis (Fritz Lang, 1927) der erste Film überhaupt in das UNESCO-Weltdokumentenerbe aufgenommen. Ein Kernaspekt der Problematik – neben kunstpolitischen Diskussionen – liegt in der Tatsache begründet, dass Film schon in der analogen Ära ein technisches Reproduktionsmedium darstellte und damit immer schon auf dem Prinzip des Kopierens gründete. Damit geht einher, dass Archivmaterialien und Filme als museale Objekte bereits auf Duplikaten basieren. Das historische Original ist beim Film im Unterschied zu anderen Kunstbereichen ungleich komplizierter zu bestimmen. Aufgrund medienspezifischer Eigenheiten wird der Begriff des „Originals“ im Kontext des Films sogar prekär – oder wie Nick Hiley es formuliert: „The original version is always imaginary.“ Filmhistoriker und -kurator Paolo Cherchi Usai urteilt insofern: „Film is a multiple object.“ Jede Kopie bedeutet zudem einen Abbildungsprozess auf meist neues Trägermaterial, wobei jeweils produktionstechnische, künstlerische und ästhetische Entscheidungen zum Tragen kommen, die in Bild und Ton die Erscheinung prägen. Dies wird weiterhin dadurch verkompliziert, dass Film in industrielle Produktions- und Distributionskontexte eingebettet ist. Für die Vergangenheit galt lange, dass Film als ephemeres Gebrauchs- und Konsumobjekt gesehen wurde, welches auf kurzfristige Massenauswertung ausgelegt war und dann entsorgt wurde.
Praxen der Digitalisierung des Filmerbes finden sich mit all diesen Aspekten konfrontiert. Im Gegensatz zu anderen Feldern des digitalen Kulturerbes liegen für den Film immer noch kaum Standards vor, Best Practices sind weiterhin ein komplexes, offenes Forschungsfeld. Standardisierungen werden zusätzlich erschwert durch die rasante Entwicklung der digitalen Filmtechnologien, von denen auch die Archivfilmdigitalisierung abhängig ist. Dies betrifft den tatsächlichen Transitionsprozess des Scannens, die (digitale) Bildbearbeitung (resp. Restaurierung) sowie die kuratierte Distribution und die Formen des Zugangs; insbesondere letztere werfen Fragen in Hinblick auf die Potentiale digitaler Analysetools für die Zirkulation von Wissen und historischer Filmforschung auf.
Das Seminar für Filmwissenschaft hat seit zehn Jahren einen Schwerpunkt in der Auseinandersetzung mit Fragen der Digitalisierung des Filmerbes. Unter der Leitung von Prof. Dr. Barbara Flückiger sind so in Projekten mit unterschiedlichen Förderungen (KTI, SNF, ERC) interdisziplinäre und oft auch anwendungsorientierte Projekte mit Partnern wie etwa dem Computer Graphics Lab der ETH Zürich, mit Disney Research Zürich, dem Schweizer Radio und Fernsehen (SRF) sowie der Cinémathèque Suisse und dem Lichtspiel Bern durchgeführt worden.
Der Beitrag zur Konferenz ist als Doppel-Vortrag – als Kooperation verschiedener Projekte des Seminars für Filmwissenschaft – konzipiert: Zunächst sollen die medienspezifischen und erinnerungspolitischen Aspekte der Digitalisierung des Filmerbes vorgestellt und diskutiert werden. Damit präsentiert der Vortrag auch Forschungsergebnisse einer im Manuskript abgeschlossenen Monographie, die aus den Projekten entstanden ist. Im nächsten Schritt werden an Beispielen die Fragestellungen und konkreten Erfahrungen aus den einzelnen Projekten AFRESA, Filmgeschichte Remastered, vor allem aber DIASTOR vorgestellt. Die genannten Projekte und deren Erkenntnisse finden ihre Anwendung im aktuell laufenden ERC Advanced Grant FilmColors. Der Vortrag widmet sich hier insbesondere der bottom-up stattfindenden Entwicklung von Modellen der computergesteuerten ästhetischen Filmanalyse, welche in Zukunft in einem Crowd-Sourcing-Analysetool mit der (wissenschaftlichen) Öffentlichkeit vernetzt werden soll.
So werden die zwei Sprecherinnen abwechselnd die unterschiedlichen Aspekte und komplexen Ebenen der Digitalisierung des Filmerbes an konkreten Beispielen aus den Projektarbeiten vorstellen und diskutieren.
Das Ziel der Tagung ist die Vernetzung von digital verfügbarem Kulturgut. Memoriav, der Verein zur Erhaltung des audiovisuellen Kulturguts, ist eine Netzwerk-Organisation im eigentlichen Wortsinn. Ohne eigene Dokumente zu haben, bringt Memoriav alle an der Erhaltung und am Zugang des audiovisuellen Kulturerbes interessierten Kreise in der Schweiz zusammen. Ausserdem setzt sich Memoriav für die gezielte Wahrnehmung von audiovisuellen Dokumenten als Kulturgut ein. Dieses wächst zwar exponentiell und wird zunehmend auch von der «Öffentlichkeit» generiert, gleichzeitig muss aber immer von Neuem an seinen Stellenwert als wichtiger Teil des nationalen Kulturerbes erinnert werden.
Die Erhaltung des audiovisuellen Kulturguts ist durch seine unterschiedlichen Datenträger komplex. Die inhaltliche Vielfalt ist aber eine unschätzbare Quelle für Forschende, sei es zu politischen, kulturellen oder sozialgeschichtlichen Fragestellungen oder als Zeugnis des baulichen oder immateriellen Kulturerbes.
Besonders sichtbar ist die Vernetzungsarbeit von Memoriav im Medienportal memobase.ch, wo die Früchte der Erhaltungsarbeit in Form von Fotos, Tondokumente, Filme und Videos zugänglich gemacht werden: wenn es die rechtliche Situation erlaubt, direkt über das Internet, ansonsten wird auf andere Zugangsmöglichkeiten verwiesen. Memobase ist somit ein schönes Beispiel für die kulturelle Teilhabe, die von der aktuellen Kulturbotschaft postuliert wird.
Memobase sticht gleich mehrfach aus der Menge der Medienportale heraus. Die grosse Zahl an verzeichneten Dokumenten stammen aus ganz unterschiedlichen Institutionen. Aktuell sind mehr als 300'000 Dokumente aus 49 verschiedenen Archiven, Bibliotheken, Museen, aber auch Radio- und TV- Stationen referenziert. Indem die unterschiedlichsten Bestände virtuell miteinander vernetzt werden – sie bleiben physisch bei den Partnerinstitutionen liegen – funktioniert Memoriav als nationaler Aggregator des audiovisuellen Kulturerbes. Dadurch wird Memobase gerade auch für die historische Forschung, aber auch für die Lehre attraktiv. Ein weiterer Pluspunkt ist in der guten Qualität der Erschliessungen und der Kontextualisierung der Quellen, was in anderen Portalen häufig fehlt, zu sehen. So sind die einzelnen Dokumente nicht nur inhaltlich beschrieben, zusätzlich sind sie mit einer Bestandsbeschreibung verknüpft, welche die Herkunft und die Geschichte der Quellen erläutert.
Eine besondere Herausforderung besteht darin, die sehr heterogenen Ausgangsdaten in eine Struktur zusammenzubringen. Memoriav hat dafür ein eigenes Schema entwickelt, das den datenliefernden Institutionen zur Verfügung gestellt wird.
Die Plattform wird ständig weiterentwickelt. Ein besonderes Anliegen ist es, der Wissenschaft noch bessere Instrumente zur Verfügung zu stellen. So ist denkbar, in Zukunft virtuelle Seminarräume anzubieten, wo verschiedene AV-Quellen miteinander verbunden und durch zusätzliche Dokumente angereichert werden können. Ebenso ist es möglich, dass die Memobase-Daten in Zukunft für andere Nutzungen zur Verfügung gestellt werden. Die Tagung wäre ein idealer Ort, um weitere Ideen zu sammeln.
Präsentation und Vernetzung. Digitale Edition
- Peter Dängeli & Franz Fischer (CCeH Köln): Tous les cas sont spéciaux. Erschliessungspraktiken für digitales Kulturgut
- Daniel Burckhardt & Anna Menny (Institut für die Geschichte der deutschen Juden, Hamburg): Die Online-Edition als offene Präsentationsform für das digitale Kulturerbe
- Christopher Pollin & Lina Maria Zangerl (Universitäten Graz & Salzburg): STEFAN ZWEIG DIGITAL. Zur digitalen Rekonstruktion und Erschliessung von Stefan Zweigs Nachlass
Der Vortrag möchte einen Überblick über die verschiedenen Methoden und Praktiken vermitteln, die am Cologne Center for eHumanities der Universität zu Köln bei der digitalen Erschließung von Kulturerbe Anwendung finden. Dabei sollen an konkreten Forschungsprojekten beispielhaft Aspekte der Datengewinnung, Datenmodellierung, Vermittlung und Bewahrung beleuchtet werden. Die Vielfalt der am CCeH betriebenen wissenschaftlichen Kooperationsformen spiegelt sich in einer besonders breiten sowohl fachlichen als auch technologischen Heterogenität.
Der Bogen reicht dabei von innovativen Bildgebungsverfahren zur Erfassung historischer Artefakte, über offene und community-orientierte Ansätze zur Beschreibung und Annotation bis hin zur Anreicherung und Weiterverarbeitung bereits bestehender Forschungsdaten. Projekt- und disziplinübergreifende Konvergenzen ergeben sich vor allem durch die Verwendung standardisierter Datenformate (z.B. TEI, Epidoc), die Referenzierung von Normdaten (z.B. GND, VIAF, Geonames, Trismegistos) und den Einsatz von Schnittstellenprotokollen zum Datenaustausch und zur Interoperabilität (z.B. IIIF). Dabei orientiert sich die konkrete Implementierung jeweils an den fachspezifischen Fragestellungen und Präsentationskonventionen. Neben allgemein verfügbaren Tools zur Webentwicklung und zur Datenversionierung kommen zumeist auch eigens entwickelte oder angepasste quelloffene domänenspezifische Werkzeuge zum Einsatz, etwa zur Kollation von Varianten, zur Datenvisualisierung oder zur Präsentation und Analyse von Objektdigitalisaten.
Eine langfristige Verfügbarkeit und Zugänglichkeit der digitalisierten Artefakte, der Daten und Ressourcen soll einerseits durch eine stärkere Modularisierung und andererseits über den Ausbau eines dedizierten geisteswissenschaftlichen Datenzentrums gewährleistet werden.
Editionen gelten traditionell als Domänen der Fachwissenschaft. Die inhaltlich schwergewichtigen und auch meist kostspieligen Druckausgaben erscheinen in geringen Auflagen, die sich dann in den Regalen von Spezialbibliotheken finden. Sie werden oftmals nur von einem kleinen Kreis von Kenner_innen herangezogen, um den kanonischen Wortlaut einer Textpassage korrekt zu zitieren, und dienen – entgegen ihres Anspruches – viel zu selten als Grundlage für neue Forschungen. Der Medienwandel von der kommerziellen Print- hin zur frei zugänglichen Online-Publikation hat den Zugang zu Editionen und den darin versammelten Materialien aber grundlegend verändert: Quellen können nun zentral recherchiert, Transkripte im Volltext durchsucht und digitale Faksimiles in das auf dem eigenen Rechner angelegte Quellenkonvolut integriert werden.
Über Internet-Suchen, soziale Medien und Online-Enzyklopädien werden die Editionen für eine breite Öffentlichkeit sichtbar, womit sich auch der Nutzerkreis entscheidend wandelt. Dies gilt umso mehr für Themenbereiche, die auf breites gesellschaftliches Interesse stoßen, wie es bei der jüdischen Geschichte der Fall ist. Über das Sammeln, Bewahren und Dokumentieren hinaus wird damit die Ausstellung und Vermittlung der Inhalte ein zentraler Aspekt einer Online-Edition.
Die vom Institut für die Geschichte der deutschen Juden (IGdJ) erstellte und seit September 2016 frei zugängliche zweisprachige (deutsch / englisch) Online-Quellenedition „Hamburger Schlüsseldokumente zur deutsch-jüdischen Geschichte“ (http://juedische-geschichte-online.net/) versteht sich als eine solche Brücke zwischen dem sammelnden, bewahrenden und forschenden sowie dem vermittelnden Umgang mit dem jüdischen Kulturerbe. Mit der Digitalisierung und Bereitstellung von Text-, Bild-, Ton- und Sachquellen, die exemplarisch Einblick in die jüdische Geschichte Hamburgs von der frühen Neuzeit bis in die Gegenwart bieten – den sog. Schlüsseldokumenten – führt sie das aufgrund von Vertreibung und Migration verstreute jüdische Erbe Hamburgs digital wieder zusammen und trägt zu seiner langfristigen Sicherung für zukünftige Generationen bei. Durch den systematischen Einbezug von Sach- und audiovisuellen Quellen und die Auszeichnung aller Materialien gemäß den gängigen Standardformaten für digitale Editionen sollen die neuen Möglichkeiten der digitalen Publikationsumgebung genutzt werden.
Die Bereitstellung im Internet und die vielfältige Kontextualisierung des Quellenmaterials zielt auf die Zugänglichmachung und Vermittlung für einen breiten Kreis von Nutzer_innen – von Forscher_innen über Studierende bis hin zu einer interessierten Öffentlichkeit. Die Website zeichnet sich daher durch eine einfache Bedienbarkeit und einen hohen Individualisierungsgrad aus. Neben den drei primären Zugangsmöglichkeiten (Thema, Zeitstrahl, Karte) werden verschiedene Textgattungen angeboten, die von allgemeinen Überblicksartikeln zu bestimmten Themen bis hin zu eng an der Quelle argumentierenden Interpretationstexten reichen. Letztere kommentieren die bereitgestellten Dokumente und ordnen sie in ihren historischen Entstehungszusammenhang ein. Diese Kommentare erleichtern einerseits den Einstieg in die Quelle für fachferne Leser_innen und gewähren durch die Einbindung aktueller Forschungsergebnisse anderseits die Anbindung an fachliche Diskussionen.
Die „Brückenfunktion“ der Edition wird durch das neu eingeführte Format der Online-Ausstellung weiter gestärkt. Anders als bei den bisherigen Einzelbeiträgen bietet eine Ausstellung die Möglichkeit, Quellen in einer Zusammenschau zu präsentieren und so das Augenmerk verstärkt auf wechselseitige Bezüge, Entwicklungen und Abhängigkeiten zu legen. Die attraktive visuelle Aufbereitung kann gerade Nutzer_innen ohne große Vorkenntnisse ansprechen und an die Hand nehmen. Zugleich soll mithilfe der Ausstellungen bislang kaum beachtetes Quellenmaterial einer größeren (Fach-)Öffentlichkeit präsentiert werden.
Nimmt man die Online-Publikation als Präsentationsmedium ernst, kann es kein abgeschlossenes Format mehr geben. Vielmehr muss die Bereit- und Darstellung der Materialien immer wieder neu hinterfragt und erfunden werden. Stehen entsprechende Ressourcen bereit, liegt in dieser Offenheit eine große Chance.
Editions have traditionally been regarded as being part of the sphere of academic research. Printed editions, which are both content-wise heavy and usually quite expensive, appear in limited numbers, which can be found on the shelves of special libraries. They are often only used by a small circle of specialists in order to correctly quote the canonical wording of a passage of text and – contrary to their claim – all too rarely serve as a basis for new research. However, the shift in media from print to freely accessible online publications has fundamentally changed access to editions and to the materials they contain. Sources can now be researched remotely, transcripts can be searched in fulltext and digital facsimiles may be integrated into the collection of sources created on one’s own computer.
Internet search, social media and online encyclopedias make editions visible to a broader public, which has a decisive impact on the user group. This applies all the more to topics of wide public interest, as it is the case with Jewish history. Beyond collecting, preserving and documenting, the presentation and dissemination of the material becomes a central aspect of an online edition.
The bilingual (German/English) online source edition “Key Documents of German-Jewish History” (http://jewish-history-online.net/), which is published by the Institute for the History of German Jews (IGdJ) in Hamburg and freely accessible since September 2016, sees itself as such a link between collecting, preserving and researching as well as mediating the Jewish cultural heritage. Through the digitization and presentation of textual, visual, audiovisual and material sources that provide an exemplary insight into the Jewish history of Hamburg from the early modern era to the present – the so-called key documents – it digitally recollects Hamburg's Jewish heritage scattered all over the world due to persecution and migration and contributes to its long-term preservation for future generations. The systematic inclusion of material and audiovisual sources and the markup of all materials according to current standard formats for digital editions are intended to take full advantage of the new possibilities of the digital publication environment.
The availability on the Internet and the manifold contextualization of the source material are aimed at making it accessible to a wide circle of users – from researchers and students to an interested public. The website is characterized by its high usability and a modular structure. In addition to the three primary access options (topic, timeline, map), various formats of text are offered, ranging from general overview articles on specific topics to interpretations developing their argument by a close study of the source. They comment on the documents provided and integrate them into their historical context. On the one hand, these articles facilitate access to the source for readers who without deeper knowledge of the subject and, on the other hand, provide a link to professional discussions through the integration of current scholarly debate.
The “bridging function” of the edition is further strengthened by the newly introduced format of the online exhibition. In contrast to the previous individual contributions, an exhibition offers the opportunity to present sources in a synopsis and thus emphasizes mutual references, developments and dependencies. The attractive visual presentation can appeal to users without much previous knowledge and guides them through. At the same time, the exhibitions are intended to present additional source material that has so far received little attention to a larger (academic) public.
If the online publication is taken seriously as a presentation medium, there can no longer be a definitive format. Rather, the presentation and display of the materials must always be questioned and reinvented. If corresponding resources are available, this openness offers a great opportunity.
Ziel des Projekts Stefan Zweig digital (SZD) ist es, den auf zahlreiche öffentliche und private Sammlungen weltweit zerstreuten Nachlass des österreichischen Autors Stefan Zweig über das Web zugänglich zu machen. Die so entstehende digitale Nachlassrekonstruktion bietet die Möglichkeit, Originalmaterialien – bestehend aus Werkmanuskripten, Briefen, Lebensdokumenten, Sammlungen und der Bibliothek des Autors – zu sichern und raumund zeitübergreifend zusammenzuführen.1 Da der Nachlass Stefan Zweigs stark zersplittert ist und zahlreiche Originalmaterialien bisher nur lückenhaft verzeichnet sind, möchte SZD zur Vernetzung der verstreuten Dokumente sowie der betreffenden Institutionen beitragen. Das schrittweise Einbinden der Daten und Metadaten aus verschiedenen Sammlungen macht einen lange vernachlässigten Teil des österreichischen Kulturerbes somit erstmals einem breiten Publikum zugänglich.
Im Rahmen der Nachlassrekonstruktion können nicht nur korrespondierende Bestände, oftmals mit unterschiedlicher Überlieferungsgeschichte und physisch getrennt, digital zusammengeführt werden, sondern durch Verlinkung und Markups auch inhaltliche, personelle, topographische und zeitliche Verbindungen zwischen den erhaltenen Quellen dargestellt werden. Während klassische archivarische und bibliothekarische Erschließungsmaßnahmen im Hinblick auf die individuelle Verfasstheit und Komplexität von Schriftstellernachlässen oftmals an Grenzen stoßen, sind bei einer digitalen Erschließung die Kontextualisierung und Semantisierung der digitalen Objekte potentiell immer weiter ausbaubar und flexibel verknüpfbar. Kulturerbeobjekte und ihre Metadaten – als geisteswissenschaftliche Daten verstanden – bringen besondere Herausforderungen mit sich: Sie sind kontextabhängig, haben bestimmte (abstrakte) Beziehungen zu anderen Objekten und weisen interne und externe Verknüpfungen zu Personen, Orten, Werken und Ereignissen sowie Sekundärquellen auf. Im Hinblick auf Nachlässe ergibt sich zudem die Notwendigkeit einer Darstellung des Gesamtzusammenhangs des Materials, das sich in Unikalität, Umfang, Informalität und Individualität von klassischem Archivgut unterscheidet.2 Semantic Web Technologien und ein Repository zur Langzeitarchivierung können dabei helfen, diesen Herausforderungen entgegen zu treten.
Die für SZD erschlossenen Daten wurden im Zuge des Projekts nach TEI und RDF überführt und im FEDORA-basierten, digitalen Repositorium GAMS3 gehostet, das sich als OAISkonformes Asset Management System zur Publikation und Langzeitarchivierung geisteswissenschaftlicher Ressourcen versteht.
Die Digitalisate entsprechen dem IIIF-Standard und werden über den Mirador-Viewer zur Verfügung gestellt. Beim Ingest der Daten in die GAMS-Infrastruktur werden bestimmte Metadaten und Relationen als RDF abgebildet. Sowohl formale Kriterien der RNA5 als auch inhaltliche Aspekte müssen dabei gleichermaßen beschrieben werden, um adäquate Ordnungsstrukturen aufbauen zu können.
Die RDF-Formalisierung der Daten auf Basis eines domänenspezifischen RDFs, das auf Wissensbasen (wikidata) bzw. Top-Level Ontologien (CIDOC) referenziert, wird zum einen der Komplexität des Nachlassmaterials und zum anderen den Ansprüchen an interoperable Daten im Sinne von Linked Open Data gerecht. Einen vergleichbaren Zugang zur semantischen Nachlasserschließung verfolgen die Projekte Wittgensteinsource6 und Burckhardtsource7. Sämtliche aktuellen Retrieval Funktionalitäten von SZD basieren auf RDF Daten und erlauben es, nach semantischen Konzepten und deren Verknüpfungen wie Personen, Standorte, RNA-Kategorien oder Provenienzkriterien zu suchen.
Zukünftig ist die Modellierung einer domänen-spezifischen Nachlass-Ontologie geplant, die auf RNAB, GND-Ontologie8 und auf Records of Context9 referenzierbar ist, um die Nachnutzbarkeit gewährleisten zu können. Auf Grundlage dieser Wissensbasis können weiter Retrieval und Discover-Strategien im Sinne einer heuristischen Annäherung an das Material (Informationsvisualisierung) umgesetzt werden.
14.00-15.30
Modellierung
- Beat Mattmann & Noah Regenass (Universitätsbibliothek Basel): Merian 3D. Informationen grafisch verbinden
- Dennis Niewerth & Oliver Radfelder (Deutsches Schifffahrtsmuseum/Hochschule Bremerhaven): Schiffsmodelle, freie Software und nichts als ein Browser. 3D-Visualisierungen maritimen Erbes für die Welt nach der App
- Monika Burri & Tina Tomovic (Hochschule Luzern): Textildesign als Kulturerbe. Das Webportal Silk Memory
Digitalisate von historischen Stadtplänen sind en vogue. Kaum eine Stadt oder eine Gedächtnisinstitution, die nicht über einen virtuellen Plan die Bau- und Entwicklungsgeschichte eines urbanen Umfelds aufzeigt. Leider sind diese digitalen Rekonstruktionen (oftmals von Stadtplänen) lediglich ein Nice-to-look-at und nutzen die Möglichkeiten eines Plans als Mittler zur Visualisierung der Vernetzung zwischen Objekt, Ort und Mensch nur sehr beschränkt. Diese Lücke versucht das «Projekt Merian-3D» zu schliessen. Das Projekt geht dabei von einer digitalen Rekonstruktion des Basler Stadtplans aus dem Jahre 1618 als Projektionsfläche für eine Visualisierung aller kulturellen Themenfelder und Sammlungen bis hin zur Gegenwart aus. Das Ziel ist somit, den Plan mit digitalen Inhalten zu füllen, um verschiedene evidente, strukturelle und inhaltliche Zusammenhänge zwischen den einzelnen Sachbereichen auf einen Blick zu erhalten. Unterschiedliche Themenfelder sollen spezifische Daten als Points of interest mit dem Plan verbinden und diese Open Source verfügbar machen. So kann exemplarisch Felix Platters Pestbericht von 1610 exakte humangeographische und demographische Daten liefern, die sich auf dem Plan visualisieren und zugleich mit verschiedenen Objekten zur Pest aus den Sammlungsbeständen der hiesigen Universitätsbibliothek und des Historischen Museums zusammenführen lassen – man denke hier an zeitgenössische Texte zur Pest sowie verschiedene medizinische Geräte wie die Schnabelmaske und Schröpfgläser. Verlorene oder aus ihrem Kontext herausgerissene Unterlagen können somit digital an verschiedenen Orten auf dem digitalen Plan integriert werden und so neue Aufschlüsse für die Lehre und Forschung bieten. Zusätzlich sollen verlorene Bauten und Kulturgüter, wie beispielsweise der Basler Totentanz, nicht nur über ihre Einbettung in das urbane Umfeld neue Erkenntnisse liefern, sondern parallel dazu auch die Quellen und Sammlungsgeschichten aller Institutionen abbilden. Dafür sollen die entsprechenden Points of interest nicht nur mit Normdaten angereichert werden, sondern parallel auch noch mit Georeferenzierung auf heutigen Plänen auffindbar gemacht werden. Doch nicht nur Forschungsdaten sollen im Plan verschmolzen werden, auch audiovisuelle Daten zur Gegenwart und Populärkultur sollen darin erfahrbar sein und so die Stadt in ihrer Raumentwicklung zeigen. Mit diesem Konzept bietet sich letztlich die Möglichkeit eines grafischen und 3D-modellierten Discovery-Tools für Information unterschiedlichster Art aus Geschichte und Gegenwart, das auch die Möglichkeit bietet, unterschiedliche Datenquellen und Projekte wie aus dem Vermessungsamt Basel-Stadt oder dem Denkmalschutz zu vernetzen. In einer Präsentation zeigen wir das Prinzip des Projekts, das Potenzial, das sich mit diesem Plan bietet, gerade im Hinblick auf die Zusammenarbeit mit allen möglichen Institutionen und engagierten Personen, und vermitteln einen Eindruck des Prototyps.
Digital models of historic city maps are in vogue. There is hardly a city or a memorial institution that does not show the construction and development history of an urban environment by means of a virtual plan. Unfortunately, these digital reconstructions (often of city maps) are merely a nice-to-look-at. They hardly use the possibilities of a plan as an intermediary to visualize the connections between object, place and human. The "Project Merian-3D" tries to close these shortcomings. The project is based on a digital reconstruction of the Basel city map from 1618 as a projection screen for the visualization of all cultural themes and collections up to the present day. The aim is to fill the plan with digital content in order to obtain various evident, structural and content-related connections between the individual subject areas at a glance. Different topics should connect specific data with the plan as points of interest and make this open source available. For example, the plague report by Felix Platter from 1610 can provide exact human geographic and demographic data that can be visualized on the map and at the same time be combined with various objects to the plague from the collection of the local University Library and the Historical Museum – think here of contemporary texts on the plague or various medical devices such as the beak mask and cupping glasses. Lost documents or documents torn out of their context can be digitally integrated at different locations on the digital plan and thus offer new information for teaching and research. In addition, lost buildings and cultural assets, such as the Basel Danse Macabre should not only provide new insights into their embedding in the urban environment, but at the same time also depict the sources and collection histories of all institutions. For this purpose, the corresponding points of interest are not only to be enriched with standard data, but also made searchable on current plans by means of georeferencing. Not only research data should be merged in the plan, audiovisual data as well as popular culture should also be able to be experienced and thus show the city in its spatial development. This concept ultimately offers the possibility of a graphical and 3D-modeled discovery tool for the most varied types of information from past and present, which also allows the possibility to connect different data sources and projects such as those from the Surveying Office Basel-Stadt or the protection of historical monuments. In our presentation we will show the principles of the project, the potential that this plan offers, especially with regard to cooperation with all kinds of institutions and committed people, and give an impression of the prototype.
3D-Digitalisierung ist eines der großen Themen in der digitalen Kulturvermittlung und Denkmalpflege. Die deutsche Museumslandschaft beginnt augenblicklich erst, das hierzu erforderliche Know-How zu kultivieren. Allzu oft sind Museen in ihren Digitalisierungsbestrebungen von äußeren Dienstleistern abhängig, deren Kerninteressen nicht Nachhaltigkeit von Datenstandards und Eigenständigkeit der Kulturinstitutionen sind, sondern die möglichst langfristige Bindung eines Kundenstammes durch proprietären Hard- und Softwaresupport.
Von März bis Dezember 2017 konnte das Deutsche Schiffahrtsmuseum in Bremerhaven im Rahmen des vom BMBF geförderten Projektes ‚Schiffsmodelle als Wissensspeicher zur Untersuchung des maritimen Erbes‘ die Möglichkeiten einer 3D-Erfassung und -Visualisierung seines ca. 3.000 Exemplare starken Bestandes an Schiffsmodellen evaluieren. Begleitet wurde das Forschungsvorhaben von Informatikerinnen und Informatikern aus dem studentischen Projekt ‚Fovea‘ der Hochschule Bremerhaven. Gemeinsam mit dem DSM stellte sich die Hochschule der Frage, was genau die Voraussetzungen einer digitalen Aufbereitung und Präsentation detaillierter 3D-Daten sind – und inwiefern Kultureinrichtungen niedrigschwellig in die Lage versetzt werden können, ihre eigenen Plattformen zu unterhalten und zu pflegen.
Das Ergebnis der Kooperation ist das Fundament einer komplett auf Open- Source-Technologien – namentlich der WebGL-Grafikschnittstelle und der Three.js-Befehlsbibliothek – fußenden Software-Infrastruktur, die eine rein browserbasierte Darstellung von 3D-Daten ermöglicht. Innerhalb derselben Softwareumgebung können mittels eines Internetzugangs die unterschiedlichsten digitalen Vermittlungskanäle bespielt werden – von der Museumswebseite über Medienstationen in der physischen Ausstellung bis hin zu AR- und VR- Implementierungen, die sich bereits mit wenigen Zeilen sehr schlanken HTML5- Codes ansteuern lassen.
Unser Vortrag möchte die Funktionalität dieses Verfahrens ebenso vorstellen wie seine Vorzüge gegenüber proprietären, App-basierten Lösungen – und aufzeigen, welche inhaltlichen und museumspraktischen Vermittlungshorizonte sich mit unserem Ansatz verbinden.
3D-digitisation is a hot topic in digital heritage education und conservation. The German museum community is currently just getting started on cultivating the relevant expertise. All too often in their digitisation efforts, museums must rely on commercial partners whose central interest is not in providing sustainable standards and self-sufficiency to cultural institutions, but rather to ensure their long-term dependancy upon proprietary support for hard- and software.
Between March and December of 2017, the German Maritime Museum in Bremerhaven was capable of exploring the possibilities and applications of digitising and visualising its 3.000 piece collection of model ships in 3D. This project, titled „Model Ships as Knowledge Repositories for the study of maritime heritage“, was funded by the Federal Ministry for Education and Research and supported by students from the department of computer science at Bremerhaven University of Applied Sciences. Together, we tackled the question of which conditions have to be met for the digital implementation and presentation of 3D data – and how to set cultural institutions up for maintaining their own online platforms at low cost.
The result of our cooperation is a fully open-source software infrastructure based on the WebGL API and the Three.js library, which allows for platform- independent, browser-based visualisation of 3D models. Within one unified framework, such data can be fed into various diverse channels of museum communication, from websites to media terminals within the physical exhibition or even AR and VR applications.
Our talk aims to be an introduction to the functionalities of the system as well as ist advantages over proprietary, app-based solutions. We also seek to give an overview of the actual content and didactic framing of our current digitisation efforts.
Die Forschungsgruppe Produkt & Textil der Hochschule Luzern – Design & Kunst unterhält einen interdisziplinären Forschungsschwerpunkt zur Aufarbeitung, Dokumentation und Vermittlung der Geschichte der Zürcher Seidenindustrie. Zusammen mit Lyon und Krefeld gehörte die Region um Zürich im 19. Jahrhundert zu den Zentren der europäischen Seidenstofffabrikation. Die mehrheitlich in Heimarbeit gewobenen Stoffe beschäftigten Tausende von Arbeitskräften und wurden in alle wichtigen Handelsmetropolen exportiert. Um Zollschutzschranken zu umgehen und näher an ihre Kunden zu gelangen, gründeten Zürcher Seidenfabrikanten Tochterfirmen in Europa und in den USA. Die Weltwirtschaftskrise der 1930er Jahre brachte der exportorientierten Branche einen massiven Konjunktureinbruch. Ab den 1970er Jahren setzte eine Welle der Betriebsschliessungen ein und heute gibt es in der Schweiz keine aktive Seidenweberei mehr.
Während im Projekt Silk History since 1800 eine wissenschaftlich fundierte Buchpublikation zur transnational vernetzten Geschichte der Zürcher Seidenindustrie erarbeitet wird, steht im Projekt Silk Memory die materielle Textilkultur im Vordergrund.1 Mit der Anlage eines physischen Textilarchivs zu Lehr- und Studienzwecken, mit dem Aufbau einer Textildatenbank und mit der Entwicklung eines Webportals will das Projekt Silk Memory Zugang gewähren zu ausgewählten textilen Quellen der Zürcher Seidenindustrie. Quellenbasis bilden rund ein Dutzend Firmen- und Institutionsarchive, die im Rahmen eines Lotteriefondsprojekts in öffentliche Gedächtnisinstitutionen überführt und dort gesichert und erschlossen werden.
Das Projekt Silk Memory operiert an der Schnittstelle von Archiv, Forschung und Vermittlung und wurde gezielt in einem kooperativen Netzwerk entwickelt. In enger Zusammenarbeit mit musealen Kooperationspartnern und textilen Lehrkräften, mit Zeitzeugen der Textilindustrie und praktizierenden Designerinnen und Designern werden textile Objekte aus den Archiven der Zürcher Seidenindustrie ausgewählt, digitalisiert, nach musealen Standards erfasst, mit einem eigens entwickelten Thesaurus verschlagwortet und online zugänglich gemacht. Das Projekt Silk Memory will das textile Erbe sichern und zu neuen Wertschöpfungen führen. Es adressiert Lehre, Forschung und die interessierte Öffentlichkeit und soll dem zeitgenössischen Design als Rechercheplattform und Inspirationsquelle dienen.
Schwerpunkt des Projekts Silk Memory ist die Aufbereitung der textilen Quellen unter den Gesichtspunkten der Designanalyse und der Designnutzung. Gemeinsam mit Experten des Kommunikationsdesigns wurde eine webbasierte Benutzeroberfläche entwickelt, welche die visuell strukturierte Objektpräsentation ins Zentrum stellt und systematische und intuitive Filter- und Recherchemöglichkeiten bietet.2 Die textilen Zeugnisse werden ergänzt durch ausgewählte visuelle Quellen aus der Bilddatenbank Silk Images, die Einsichten in den Herstellungskontext eröffnen vom Seidenbau über die Design- und Produktionsprozesse der Stofffabrikation bis hin zum Marketing und Vertrieb.3 Im November 2016 wurde das Webportal Silk Memory in einer ersten Version online gestellt. Unter Einbezug von Nutzerfeedback und Expertenrückmeldungen findet eine stete Anpassung und Weiterentwicklung des digitalen Vermittlungsangebots statt.
The Products & Textiles research group of the Lucerne School of Art & Design maintains an interdisciplinary research focus on the compilation, documentation and communication of the history of Zurich’s silk industry. Together with Lyons and Krefeld, the region around Zurich was one of the centres of European silk fabric production in the 19th century. The fabrics, which were mainly woven by a cottage industry, employed thousands of people and were exported to all major commercial metropolises. In order to circumvent customs barriers and move closer to their customers, Zurich’s silk manufacturers established subsidiaries in Europe and the US. The world economic crisis of the 1930s hit the export-oriented industry with a massive economic slump. From the 1970s onwards, a wave of plant closures began, and today, there is no active silk-weaving industry left in Switzerland.
Whereas the Silk History since 1800 project is about drawing up a scientifically substantiated book publication about the transnationally interlinked history of Zurich’s silk industry, the Silk Memory project focuses on tangible textile culture.1 With the assembly of a physical textile archive for teaching and research purposes, with the establishment of a textile database and with the development of a web portal, the Silk Memory project is intended to provide access to selected textile sources of the Zurich silk industry. The sources are based on about a dozen corporate and institutional archives, which within the scope of a lottery fund project are being transferred to public memory institutions, where they will be kept safe and made accessible.
The Silk Memory project operates at the interface of archive, research and communication and was deliberately developed in a cooperative network. In close cooperation with museum partners and textile teachers, with contemporary witnesses of the textile industry and practising designers, textile objects from the archives of the Zurich silk industry are selected, digitalised, recorded in accordance with museum standards, catalogued according to a specially developed thesaurus and made accessible online. The Silk Memory project is intended to safeguard the textile heritage and result in new value creation. It is aimed at teachers, researchers and anyone in the general public who is interested, and it is intended to serve contemporary design as a research platform and source of inspiration.
The focal point of the Silk Memory project is a review of the textile sources from the perspectives of design analysis and design utilisation. Together with experts in communication design, a web-based user surface was developed which places the visually structured object presentation in the centre and provides systematic and intuitive filtering and research options.2 The textile objects are complemented by selected visual sources from the Silk Images image database which furnish insights into the production context from silk culture and design and fabric production processes to marketing and distribution.3 In November 2016, a first version of the Silk Memory web portal was posted online. On the basis of feedback from users and experts, the digital communication facility is constantly being adapted and further developed.
Quantität & die digitale Edition
- Tim Geelhaar (Goethe Universität Frankfurt): Handschriften – Volltexte – Forschungsdatenbanken. Die Textdatenbanken comphistsem, HSCM und LTA zwischen Angebot und Nachfrage
- Ulrich Pässler (Berlin-Brandenburger Akademie der Wissenschaften, Berlin): Vom Kulturerbe zur Biodiversitätsforschung? Manuskripte Alexander von Humboldts in der edition humboldt digital
- Alptug Güney & Cristina Vertan (Universität Hamburg): Erfassung und Vernetzung der historischen Orte und Personen in den historischen Texten. Eine exemplarische Studie zum Werk Dimitrie Cantemirs
- Manche geographische Positionierungen werden nur vermutet. Die Orte existieren z.B. nicht mehr, also ist eine Verlinkung mit Geokoordinaten praktisch unmöglich;
- Die Namen wurden im Laufe der Geschichte ständig geändert (etwa aufgrund der politischen Transformationen);
- Für viele Orte gab es metaphorische Ausdrücke
- Die historischen Karten sind selbst unzuverlässig;
- Bei Personen kennt man Geburts- und Todesangaben häufig nicht oder man ist sich
Eine der fundamentalen Herausforderungen im Bereich der Digitalisierung der Geschichtswissenschaft ist nicht technischer, sondern eher psychologischer Natur. Obschon die Bereitschaft der Geschichtswissenschaft wächst, mit digitalisierten Hilfsmittel zu arbeiten, ist immer noch eine große Zurückhaltung in der Community festzustellen. Dies hängt erstens mit der sehr unterschiedlichen Qualität von Projekten zur digitalen Bereitstellung von Texten zusammen. Dies betrifft vor allem die Qualität der Aufbereitung, den Umfang der aufbereiteten Textmengen, die Transparenz der Entscheidungen im Vorverarbeitungsprozess und die Brauchbarkeit der angebotenen analytischen Tools. Zweitens spielen aber auch Handhabbarkeit und die Verlässlichkeit eine wesentliche Rolle. Drittens scheint es aber auch nötig zu sein, Nutzern das Spektrum digitaler Hilfsmittel vorzuführen, um somit Orientierung in einem immer unübersichtlicher werdenden Angebot zu schaffen. Gleichzeitig gehört es auch zu Selbstverpflichtung von Datenbankanbietern, auf die unumgängliche Unvollständigkeit ihres Angebotes hinzuweisen und den Rezipienten mit auf den Weg zu geben, sich nicht nur aus Bequemlichkeit aus Volltextdatenbanken zu bedienen, sondern auch andere Formate wie digitale Editionsplattformen und Digitalisate heranzuziehen, um eben nicht die großen Vorteilen der multiplen digitalen Aufbereitung außer Acht zu lassen. Aus diesem Grunde soll in diesem Vortrag das Frankfurter Datenbankprojekt „comphistsem/HSCM“ in einen größeren Kontext gestellt, was sowohl die Bereitstellung digitalen Kulturgutes als auch Verwendungszusammenhänge betrifft. Darüber hinaus soll auch über die Zukunftsfähigkeit mithin die Nachhaltigkeit solcher Projekte diskutiert werden, die mittlerweile eine der zentralen Forderungen von Seiten der Mittelgeber darstellt.
One of the fundamental challenges in the digitization of historical science is not technical, but rather psychological. Despite the willingness of historians to work with digitized tools there is still restraint in the community. Firstly, this is due to the very different quality of projects for the digital provision of texts. This concerns above all the quality of the preparation, the extent of the processed text quantities, the transparency of the decisions in the preprocessing process and the usability of the offered analytical tools. Secondly, useability and reliability also play an essential role. Thirdly, it seems to be necessary to show users the range of digital tools in order to provide orientation in an increasingly confusing offer. At the same time, it is also a commitment of database providers to point out the inevitable incompleteness of their offer and ask the recipient not only to consult full-text databases out of convenience, but also to use other formats such as digital editing platforms and digital copies, in order to consider the great advantages of multiple digital editing. Therefore, the Frankfurt database project “comphistsem/HSCM” will be presented in a wider context of cultural heritage preservation and possibilities for later reuse. In addition, the sustainability of such projects should also be discussed, which now represents one of the central demands of the funding institutions.
Das auf eine Laufzeit von achtzehn Jahren projektierte Akademienvorhaben „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung“ arbeitet seit 2015 an der wissenschaftlichen Erschließung und Herausgabe der Tagebücher und Manuskripte Alexander von Humboldts zum Themenkomplex Reisen. Die vom Vorhaben herausgegebene edition humboldt digital (https://edition-humboldt.de/) ediert die historischen Handschriften und Drucke sowie die entsprechenden Meta- und Registerdaten in XML gemäß den Richtlinien der Text Encoding Initiative (TEI) und unter Verwendung des Basisformats des Deutschen Textarchivs (DTABf). Die in den Registern aufgeführten Personen, Orte und Institutionen sind durchgehend mit entsprechenden Normdateien-IDs versehen, was eine eindeutige Identifizierung von Personen- und Ortsnamen sowie deren projektübergreifende Vernetzung erlaubt. Die edition humboldt digital nutzt Daten aus Drittprojekten (z. B. aus dem Verbundkatalog Kalliope oder dem Deutschen Textarchiv) nach und stellt ihrerseits über verschiedene Schnittstellen ihre Daten zur Verfügung (z.B. über das Briefverzeichnis correspSearch). Die Edition der Reise- und Forschungsmanuskripte ist somit eingebettet in eine bestehende und sich stets erweiternde DH-Infrastruktur und setzt die mittlerweile etablierten Standards und Best Practices in den Bereichen Digitaler Edition und Forschungsdatenmanagement um.
Darüber hinaus müssen jedoch spezifische inhaltliche Herausforderungen bewältigt werden, die die (digitale) Repräsentation und Erforschung der Humboldt’schen Handschriften mit sich bringen. Dazu gehören zum einen Fragen der Darstellbarkeit: Wie lassen sich die auf den ersten Blick teils chaotischen Textanordnungen der Notate lesbar machen? Zudem ist die inhaltliche Erschließung von vielen tausend Manuskriptseiten vor allem naturwissenschaftlichen Inhalts mit dem herkömmlichen Mittel des Sachkommentars kaum zu bewältigen: Wie können die in den historischen Handschriften enthaltenen wissenschaftlichen Daten, Messreihen und Sammlungslisten usw. mit Hilfe des ‚digitalen Werkzeugkastens‘ für die weitere Erforschung sinnvoll aufbereitet werden?
Probleme der Textwiedergabe konnten durch das Angebot von zwei verschiedenen Ansichten (Lesefassung und kritische Ansicht) sowie die Einbindung von Faksimiles der Handschrift gelöst werden. Hierbei wird durch die Verlinkung der XML-Dateien der Transkriptionen mit den URL- Adressen der von der Staatsbibliothek zu Berlin (SBB-PK) bereitgestellten Scans des Humboldt- Nachlasses sowie den Import der Metadaten aus dem Verbundkatalog Kalliope die herkömmliche Trennung von aufbewahrender Einrichtung und Forschungsdaten produzierender Institution überbrückt.
Als durchaus problembehaftet erweist sich hingegen die Aufgabe, Messdaten sowie Tier- und Pflanzennamen aus den um 1800 entstandenen Manuskripten so aufzubereiten, dass sie der heutigen, etwa biowissenschaftlichen, Forschung zur Verfügung stehen. Das Vorhaben arbeitet derzeit daran, durch Erweiterungen des Tagsets eine zuverlässige Verlinkung der in der Edition enthaltenen Taxa von Tieren und Pflanzen mit der Schnittstelle Global Names Architecture (GNA) zu implementieren. Diese Schnittstelle bietet dem Nutzer die Möglichkeit vertiefender Recherchen in taxonomischen Datenbanken, die ihrerseits Informationen zu Erstbeschreibungen, synonymen Benennungen und Objekten (etwa Herbarbelegen) anbieten. Die GNA-Schnittstelle erlaubt zudem die Verlinkung der Humboldt’schen Manuskripte mit der Volltextsammlung der Biodiversity Heritage Library. Dies ermöglicht die vernetzte Erforschung der (Feld-)Tagebücher, dazugehöriger Korrespondenzen und des veröffentlichten Reisewerks sowie eine Kontextualisierung der Schriften Humboldts innerhalb der zeitgenössischen Forschung.
Im Vortrag werden sowohl Beispiele für bereits erfolgreich umgesetzte Aspekte der edition humboldt digital vorgestellt (Datenmodell, Register, Nachnutzung und Vernetzung von Daten) als auch noch zu lösende Aufgaben (Aufbereitung der Humboldt’schen Forschungsdaten) zur Sprache gebracht.
Die massiven Digitalisierungsaktivitäten in den letzten Jahren haben dazu geführt, dass viele historische Werke nun in elektronischer Form, als Scans mit entsprechenden Metadaten oder sogar komplett in TEI (Text Encoding Initiative) erfasst wurden. Für moderne Texte (Zeitungen, Blogs) werden Text Mining und sprachtechnologische Verfahren eingesetzt, um sogenannte „Named Entities“ zu identifizieren, annotieren und mit Registern und/oder Geokoordinaten zu verlinken.
Für historische Texte ist das Problem aus verschiedenen Gründen viel komplizierter:
dieser Angaben nicht sicher. Auch ihre Namen können variieren, manchmal kommen dazu metaphorische Beschreibungen.
Die Situation für Osteuropa ist besonders prekär, da einerseits politische Veränderungen häufig vorkamen, die Forschungen erschwerten, und andererseits kartographische Materialen und Personenregister rar sind.
In diesem Beitrag werden wir erklären, wie ein semantisches Netzwerk von Orten und Personen für die europäischen Regionen des Osmanischen Reiches aufgebaut werden kann. Wir unterscheiden zwischen festen Konzepten (z.B. Berg, Fluss, Insel) und historischen Kontexten. Ein geographisches Konzept kann dadurch in mehreren historischen Konzepten abgebildet werden. Dabei wird eine Ressource hergestellt, die für hermeneutische und computergestützte Analysen verwendet werden kann.
Das Material besteht aus den historischen Werken des Universalgelehrten Dimitrie Cantemir. Dimitrie Cantemir (1673-1723) war einer der führenden Intellektuellen seiner Zeit. An der Schwelle der frühen Aufklärung beschäftigte er sich in der Moldau, im Osmanischen und dem Russischen Reich mit der Philosophie, Musikologie, Geschichte und Kartographie. Er verfasste Bücher auf Lateinisch, Rumänisch, Griechisch und Türkisch. Sowohl in Istanbul als auch in St. Petersburg und Moskau befand er sich mit seinen Kompetenzen in unmittelbarer Nähe der Hofkreise.
Das Werk „Historia incrementorum atque decrementorum Aulae Othomanicae“ stellt sein opus magnum dar und markiert den Anfang der modernen wissenschaftlichen Studien über das Osmanische Reich. Das Werk wurde im Jahre 1716 vollendet und im Jahre 1734-1735 ins Englische übersetzt. Diese englische Übersetzung stellte später aufgrund der Nichtverfügbarkeit des lateinischen Originals die Vorlage für die französische (1743) und deutsche (1745) Übersetzung dar.
Obwohl dieses Werk in der Geschichtsschreibung ein Meilenstein war, wurde es nicht ausreichend bearbeitet. Dieses Werk bereitete den Weg für die wissenschaftliche Disziplin der Osmanistik vor. Cantemirs Methodologie und seine Bewertungen bzw. Interpretationen der osmanischen Quellen waren lange Zeit Wegweiser für die Historiker, die über das Osmanische Reich arbeiten wollten.
Im Rahmen des Projektes HerCoRe1 annotieren wir die deutsche Ausgabe dieses Werkes mit dem Titel „Geschichte des osmanischen Reichs nach seinem Anwachse und Abnehmen“ im digitalen Bereich. Zur Untersuchung der Zuverlässigkeit des Werkes kombinieren wir die hermeneutischen Ansätze und Methoden mit der Informatik. Es wird angestrebt, die Vagheit und Ungenauigkeit in die Annotationen und Interpretations-Engines einzubeziehen sowie die automatische Erkennung von vagen Ausdrücken zu ermöglichen.
15.45-17.15
Langzeitarchivierung
- Jean Bosco Ntungirimana (Cour des comptes, Burundi): La problématique de la gestion des archives burundaises à l’ère numérique. Enjeux et solutions
- Samuel Müller (Universität Basel): Nationale Infrastruktur für Editionen – Infrastructure Nationale pour les Editions (NIE – INE)
- Philipp Messner (Universität Zürich): Langfristige Datenspeicherung als Organisationsproblem. Eine archivische Perspektive
L’ONG locale IPROSARUDE « Initiative pour la promotion de la santé rurale et le Développement » a obtenu un financement de l’ONG Internationale Care pour la mise en œuvre d’un Centre de Formation, d’Information et de Recherche pour jeunes de Gitega au Burundi en vue d’offrir différents services aux citoyens de Gitega, spécialement les jeunes: renseignements immédiats, informations, recherche documentaire, renvoi sur un réseau de centres de ressources, mise en ligne des collections numériques répondant aux besoins des usagers, formation à l’informatique, renforcer les connaissances acquises en classe via la recherche à l’internet en mettant à leur disposition des ressources électroniques de qualité.
Etant donné que le taux de fréquentation était très faible, du 19 au 23 juin 2017, l’IPROSARUDE a commandité une étude sur la satisfaction des Usagers et évaluer les compétences du personnel affecté à cette structure dans la ville de Gitega auprès des Usagers tant réels que potentiels en vue de dresser un état des lieux et de proposer des améliorations futures et progressives de cette structure documentaire.
L’objectif global de cette mission était d’évaluer la Bibliothèque numérique pour jeunes de Gitega et d’analyser les points forts et les points faibles en vue de proposer dans le cadre de cette mission, des stratégies à mettre en œuvre le plus rapidement possible pour l’amélioration des prestations offertes aux Utilisateurs.
En partant des constats relevés, des recommandations y afférentes ont été formulées et leur mise en application est une réalité car le Centre CEFIR est redevenu opérationnel depuis le début du mois d’Avril 2018. A titre exemplatif, avec l’appui de Care International, le Centre s’est doté des outils et équipements informatiques nécessaires pour le stockage des données numériques. Les collections numériques ont été mises en réseau et sont localisées et trouvées rapidement et facilement, ce qui permet un accès facile à l’information recherchée par les étudiants de l’Université Polytechnique de Gitega et les élèves de la localité environnante.
Cependant, puisque les Universités privées sont entrées de voir le jour dans les différentes provinces du pays sans la présence des Bibliothèques Universitaires pour une formation de qualité, l’IPROSARUDE envisage que ce projet CEFIR va s’étendre sur tout le territoire national sur les chefs-lieux des provinces pour aider les étudiants d’accéder aux solutions innovantes.
Certes, étant donné que les collections numériques constituent un meilleur outil de recherche, d’apprentissage et de renforcement des capacités à l’endroit des citoyens, des élèves, des étudiants, des chercheurs, etc. habitant les zones les plus reculées, toujours dans le souci de faciliter la recherche aux usagers, la création des bases de données pour la gestion des ressources numériques mises en ligne est d’une impérieuse nécessité.
La présente communication va se focaliser sur les résultats issus de cette étude pour les partager avec les professionnels ainsi que des évolutions récentes observées après la formulation des recommandations.
Die exakten und flexiblen Möglichkeiten der elektronischen Darstellung von Text- und Bildmaterial lassen in der Editionswissenschaft das Bedürfnis nach elektronischer Publikation und Darstellung wachsen. Gleichzeitig stellt die auch von Seiten der Förderinstitutionen erhobene Forderung, Forschungsdaten und -ergebnisse langfristig zu sichern und online vorzuhalten, insbesondere umfangreiche Editionsprojekte vor grosse Herausforderungen. Wo das darzustellende Material Notate ohne Merkmale eines vollständigen Textes (z.B. scharfe Begrenzung, klare Linearisierung, Lösung vom Schriftträger) umfasst, können die vorhandenen Plattformen keine ausreichend differenzierte Darstellung von Textbestandteilen bieten. Auch umfangreiche Verweisstrukturen, die sich mit digitalen Mitteln exakter darstellen lassen als im Druck, können elektronisch mit den Mitteln einer ausschliesslich seitenfixierten Wiedergabe (z.B. als PDF-Dateien) nicht adäquat wiedergegeben werden. Damit werden gerade im Bereich der zentralen Forschungsleistung von Editionsprojekten die Möglichkeiten der bisherigen Publikationsplattformen überschritten.
Seit Herbst 2016 wird deshalb dank grosszügiger Förderung durch das swissuniversities Programm P5 unter der Leitung des Forums für Edition und Erschliessung (FEE) der Universität Basel in Basel, Bern und Zürich eine nationale Infrastruktur für Editionen (NIE – INE) geschaffen, die grundsätzlich allen wissen- schaftlichen Editionsprojekten in der Schweiz offen stehen und deren spezifischen Ansprüchen genügen soll. Dieser Service soll grossen Editionsprojekten eine mass- geschneiderte Umgebung für die Erfassung der Daten und ihre Präsentation bieten. Mittelfristig sollen für kleine Projekte auch Standardlösungen angeboten werden. Um einerseits Transferverluste zu minimieren und andererseits die Erarbeitung genuin elektronischer Editionen zu befördern, soll eine solche Lösung nur in Ausnahmefällen dazu dienen, die Ergebnisse abgeschlossener Editionsprojekte in ein Repositorium zu überführen. Gefordert ist vielmehr eine Plattform, die zum einen in der Lage ist, mithilfe von bestehenden Werkzeugen gewonnenen Daten zu übernehmen und darzustellen, die aber auch direkt als technische Stütze wesentlicher Teile der Er- arbeitung dienen kann. Die NIE – INE speichert die Forschungsdaten auf der Basis von hochdifferenzierten RDF-Ontologien in einer Graph-Datenbank. Diese Tech- nologie ermöglicht nicht nur die exakteste Darstellung der editorischen Befunde, die Definition qualitätssichernder Arbeitsabläufe für die Editionsprojekte und die gegenseitige Einbindung bestehender und werdender Datensammlungen, sondern erleichtert auch die langfristige Pflege der Daten sowie ihre vielfältige Nachnutzung. Eine als Angular-Frontend angelegte Arbeits- und Publikationsplattform schafft ihrerseits eine langfristig zu erhaltende und dabei hochflexible Präsentationsschicht, die sich leicht auf die unterschiedlichen methodischen und ergonomischen Ansätze der Editionsprojekte anpassen lässt.
Zur dauerhaften Vorhaltung und Pflege von Daten und Präsentation greift die NIE – INE auf das von SAGW und SBFI als nationales Repositorium der Geistes- wissenschaften ins Leben gerufene Data and Service Center for the Humanities (DaSCH) zurück. Diese Kooperation wird durch das Engagement von Gedächtnis- institutionen (Universitätsbibliothek Basel, Zentralbibliothek Zürich) flankiert, die ihre Erfahrungen im Bereich Langzeitarchivierung, aber auch ihr Wissen zu rechtlichen Fragestellungen, die sich im Umfeld von Editionsprojekten und elektronischen Publikationen stellen, in das Projekt einbringen. Die grundlegende Kooperation von FEE und DaSCH und die umfassende Beteiligung vieler betroffener Projekte, Universitäten, Gedächtnis- und Förderinstitutionen, die sich als Träger an der Entwicklung der NIE – INE beteiligen, erweisen sich als geeignet, die bestehende Lücke zwischen der Forschung und den bestehenden und geplanten Angeboten der Gedächtnisinstitutionen auszufüllen.
Vor dem Hintergrund der praktischen Erfahrung mit der Digitalen Langzeitarchivierung am UZH Archiv kann konstatiert werden, dass die grossen Herausforderungen im Bereich der digitalen Überlieferung weniger technischer als vielmehr organisatorischer Natur sind.
Ausgangspunkt der Überlegungen ist ein archivisches Verständnis von Überlieferung, das, im Unterschied zur Tradition in Bibliotheken und Museen, nicht allein auf die Sicherung isolierter Dokumente oder Objekte abzielt, sondern immer auch auf den Erhalt von deren Entstehungs- oder Benutzungszusammenhängen. Gleichzeitig steht die Archivtradition, die sich im Umgang mit massenhaft anfallendem Geschäfts- und Verwaltungsgut herausgebildet hat, auch für ein dezidiert pragmatisches Vorgehen bei Überlieferungsbildung und Erschliessung. Bei angebotenen Unterlagen wird in den meisten Fällen eine Auswahl der integralen Übernahme vorgezogen. Verzeichnet werden im Archiv eher Aggregationen als Einzelstücke – wobei die Granularität der Verzeichnung den jeweiligen Anforderungen und Möglichkeiten angepasst werden kann. Diese Aspekte der archivischen Praxis sind in all jenen Fällen von Bedeutung, in denen mit begrenzten Ressourcen grosse Mengen Informationsobjekte erhalten und zugänglich gemacht werden sollen.
Ungeachtet ob Sammlungsgut in analoger oder zusätzlich auch in digitaler Form vorliegt, erfolgt seine Erschliessung heute im Allgemeinen mit Hilfe von Datenbanken. Das kann bereits als Form der Digitalisierung verstanden werden. Haben wir es mit Kulturgut zu tun, dem als solches dauerhaften Wert zugeschrieben wird, hat die verwahrende Institution nicht nur allfällige Digitalisate, sondern auch die dazugehörenden technischen und beschreibenden Metadaten langfristig verfügbar zu halten. Das heisst konkret, die Möglichkeit einer zukünftigen Migration der Metadaten muss bereits bei ihrer Anlage mitgedacht werden. Das bedingt eine weitgehend standardisierte Verzeichnung, wie sie beispielsweise im Fall wissenschaftlicher Objektsammlungen – die im Allgemeinen von entsprechenden Fachwissenschaftlerinnen und Fachwissenschaftlern betreut werden und nicht von informationswissenschaftlich geschultem Personal – kaum gegeben ist. Ohne entsprechende Metadatenstandards ist auch die sammlungsübergreifende Verknüpfung von Daten nicht zu bewerkstelligen. Hier braucht es Akteure, welche die nötige Koordinationsarbeit übernehmen können. Koordiniert werden müssen nicht zuletzt auch die Bemühungen um eine digitalen Langzeitarchivierung. Aufbau und Betrieb einer entsprechenden Infrastruktur ist für kleinere Sammlungen im Alleingang kaum möglich.
Ein weiterer Aspekt der archivischen Praxis, der im Zusammenhang mit digitalem Kulturerbe von Bedeutung sein kann ist das Bewusstsein für die Notwendigkeit einer der Archivierung
vorangehenden Bewertung. Nicht zuletzt im Zuge der Diskussion um den Umgang mit Forschungsdaten entsteht heute oftmals der Eindruck, dass mit der Digitalisierung eine «totale Überlieferung» in den Bereich des Möglichen rücke. Dem muss entschieden widersprochen werden. Aus Archivperspektive ist vielmehr die zwingende Notwendigkeit der Auswahl für jede Form der Überlieferung zu betonen. Auch wenn die Möglichkeit zur Nachnutzbarkeit von digitalem Überlieferungsgut die von analogem bei weitem übersteigt, bleibt die Digitale Langzeitarchivierung auf absehbare Zeit eine äusserst arbeits- und kostenintensive Angelegenheit, zielt sie doch auf Zeiträume, in denen nicht nur mit grundlegenden technologischen, sondern auch mit ebensolchen
soziokulturellen Veränderungen gerechnet werden muss. In einer solch langfristigen Perspektive gewinnen die archivischen Kernkompetenzen ihre allgemeine Relevanz für die Gestaltung von Überlieferung in einer zunehmend digitalen Welt.
17.15-17.45
Kommentare und Schluss
Chair: Simon Teuscher (Universität Zürich)
Kosten der Veranstaltung: CHF 50.–
Die Tagungsgebühren beinhalten das Mittagessen am Freitag und Kaffee in allen Pausen.